Deutschlands wacklige Stromversorgung

Dieser Trend setzt sich dramatisch fort – augenfällig in der kalten Jahreszeit.

Jedes Jahr im Winter ein ähnliches Bild: Ohne Strom aus Kohle- oder Kernkraftwerken säßen wir im Dunkeln. Die Energiemengen, die Windräder und Photovoltaikanlagen liefern, reichen bei weitem nicht aus, sie gehen sogar an vielen Tagen gegen null. Beispiel 9. Januar, 18:00 Uhr. Deutschland verbrauchte knapp 65 Gigawatt (GW), dazu trug der Wind gerade einmal 1,6 GW an Leistung bei. Nicht verwunderlich, daß die Photovoltaikanlagen vollends dunkel blieben.

Stromerzeugung und -verbrauch vom 6. bis zum 13. Januar Grafik: Agora Energiewende

Und das war kein Einzelfall: In den vergangenen Wochen sah das Bild nicht viel besser aus. Ohne die gewaltigen Stromlieferungen von Kohle und Kernkraft wäre es im Dezember mit der knusprig gebratenen Weihnachtsgans im Backofen nichts geworden. Die Sonne lieferte erwartbar wenig, an den dünnen gelben Flächen auf der Grafik nicht zu übersehen. Die blauen darunter repräsentieren die Energiemengen aus Wasserkraft – sie reichen bei weitem nicht; ganz zu schweigen von der geringen Leistung der Kraftwerke, die mit Biomasse betrieben werden, wie man an dem dunkelgrünen Streifen am unteren Rand erkennen kann. Erschreckend dünn, vergleicht man das Resultat mit den gewaltigen Flächen, auf denen Mais für Biogasanlagen angebaut werden.

Stromerzeugung und -verbrauch von November bis Januar Grafik: Agora Energiewende

„Erneuerbare“ Energien sind privilegiert die Kosten hoch

Gerade veröffentlichte die Bundesnetzagentur die Bilanz von Stromerzeugung und Stromhandel des vergangenen Jahres. Die dramatischen wirtschaftlichen Folgen aufgrund der „Lockdowns“ schlugen sich auch im reduzierten Stromverbrauch nieder. Der sank um 3,2 Prozent auf 474,9 Terawattstunden (TWh). Der sogenannte regenerativ erzeugte Strom lieferte mit 49,3 Prozent fast die Hälfte der Netzlast, im Vorjahr waren es 46,1 Prozent.

Wenn insgesamt weniger Strom erzeugt wird, steigt der Anteil des Stroms der sogenannten „Erneuerbaren“. Die sind aufgrund des EEG-Gesetzes privilegiert, deren Strom muß zuerst abgenommen werden, im Zweifel müssen Kohle- und Kernkraftwerke heruntergefahren werden.

Das ist vor allem eins: extrem teuer, weil große Kraftwerke unproduktiv in der Landschaft stehen. Gegen ein vollständiges Abschalten sträubt sich die Bundesnetzagentur. Dort sitzen noch einige Experten, die wissen: Ohne Kohle und Kernkraft geht es nicht, sie erklären diese Kraftwerke für systemrelevant. Deren Stillstand wird vom Stromverbraucher bezahlt.

Der Stromverbrauch steigt mit zunehmender Technisierung

Bis vor zehn Jahren noch – in Zeiten eines gedeihenden Industrielandes Deutschland – lag der Stromverbrauch mit bis zu 541 TWh deutlich höher. Doch bekanntlich hatte sich die Bundesregierung im Energiekonzept aus dem Jahre 2010 das Ziel gesetzt, den Energieverbrauch zu senken. Die Folgen für ein Industrieland kann sich jeder leicht selbst ausmalen, wenn man weiß, daß mit steigender Zivilisation immer auch der Energieverbrauch ansteigt.

„Der tägliche Energiebedarf eines Erwachsenen hat sich im Laufe der Menschheitsgeschichte laufend erhöht. Er betrug um die 8 kWh bei Jägern und Sammlern der Steinzeit, 30 kWh im Mittelalter und ist auf über 300 kWh in modernen Industriegesellschaften angestiegen.“ So beschreibt diese Entwicklung Physiker Horst-Joachim Lüdecke in seinem Buch „Energie und Klima« die Zusammenhänge“.

Wenn man Grünen-Fraktionschef ist und Anton Hofreiter heißt, kann man vom Erfolg der Energiewende und vom Stromexportland Deutschland reden. Oder man redet von einem Exportüberschuß in Höhe von 60 Milliarden kWh wie ein Felix Matthes, Energieexperte beim Öko-Institut in Berlin, das vor drei Jahren getan hat: „Wir erreichen in diesem Jahr einen Exportüberschuss von 60 Milliarden Kilowattstunden, das ist die Jahresproduktion von 20 Kraftwerksblöcken.“

Wenn man realistisch ist, fragt man, wann Strom exportiert und wann importiert wird. Ein Blick auf die technischen Hintergründe verschafft Klarheit: Strom ist ein besonderer Saft. Er kann nicht wie Zement, Mehl oder Benzin gelagert werden, sondern muß in sekundengenau dem Augenblick erzeugt werden, in dem er gebraucht wird. Umgekehrt muß die Produktion sofort reduziert werden, wenn die Nachfrage sinkt. Gewaltige Energiemengen werden dazu in Sekundenbruchteilen durch europäische Netze verschoben, äußerst empfindliche Regelvorgänge finden dazu im Hintergrund statt.

Photovoltaikanlagen können nicht gleichmäßig Strom liefern

Es hat genau 130 Jahre findiger Ingenieursarbeit gebraucht von der ersten Fernübertragung von Drehstrom aus einem Flußkraftwerk in Lauffen am Neckar nach Frankfurt zur Internationalen Elektrotechnischen Ausstellung 1891 bis zum heutigen noch sehr gut funktionierenden komplizierten Netzbetrieb, der sehr zuverlässig preiswerten Strom zur Verfügung stellt. Es sind nur wenige Jahre „Energiewende“ notwendig, um mal eben milliardenteure Kraftwerke abzuschalten, das System zu zerschlagen und die Energieversorgung wackligem und teurem Strom aus Windrädern und Photovoltaikanlagen zu überlassen.

Die können nicht gleichmäßig dann Strom liefern, wenn er benötigt wird. Stahlwerke, Eisenbahnen und Lebensmittelherstellung sollen sich nach dem Windangebot richten – wie früher, als die Windmüller das angelieferte Getreide nicht mahlen konnten, wenn kein Wind wehte. Aluhütten wird der Strom kurzzeitig abgeschaltet, wenn zu wenig vorhanden ist. Nach drei Stunden ist die Schmelze erkaltet, das Aluwerk Schrott.

Windräder und Photovoltaikanlagen liefern häufig dann viel Strom, wenn er nicht in den Mengen gebraucht wird. Dann muß er „entsorgt“, also europaweit angeboten werden – in genau jenen Augenblicken, in denen Windräder liefern. Wenn kein Nachbarland gerade den Strom gebrauchen und abnehmen kann, geraten die Übertragungsnetzbetreiber ins Schwitzen. Eine gehörige Mitgift erleichtert das „Geschäft“, damit zum Beispiel Österreich oder die Schweiz die hierzulande überflüssigen Strommengen annehmen und mit ihnen Wasser in ihre Pumpspeicher in den Alpen hinaufpumpen. Das lassen sie sich je nach Marktsituation gut bezahlen.

Der ökonomische Wert dieses Stromes ist gering, ihn benötigt zu dem Augenblick niemand. Er sinkt sogar noch weiter, je mehr Windräder die Landschaft zerstören. Nicht umsonst müssen die Verbraucher immer mehr für Strom bezahlen.

Kauft Kerzen

Es ist wie beim Bäcker, von dem morgens früh alle Brötchen kaufen wollen, nachmittags aber niemand mehr, und er dennoch munter weiter produziert, weil eben gerade der Ofen noch so schön warm ist. Wäre er Energiewender, würde er ins Rathaus marschieren und verlangen, daß ihm seine überflüssigen Nachmittagsbrötchen bezahlt werden. Man hätte sie ja abnehmen können.

Genügend Grund, sich freudig auf die Schenkel zu schlagen, haben allerdings Österreicher und Schweizer dann, wenn Wind und Sonne mal wieder nichts liefern, aber in Deutschland plötzlich Strommengen benötigt werden. Dann drehen sie die Schieber in den Alpen auf, lassen Wassermassen wieder herab, die Turbinen erzeugen Strom, den sie gern für teures Geld an die Piefkes im Nachbarland verkaufen. Dieser Spaß wird lediglich getrübt, wenn die Stauseen in den Alpen ziemlich leer sind.

Speicher in Batterieform für größere Mengen elektrischer Energie gibt es nicht; sie sind auch nicht am fernen Horizont in Sicht. Pumpspeicherkraftwerke in Deutschland sind rar, sie wären nach ein paar Stunden unter Volllast leergelaufen. Nicht umsonst liegt der beste Energiespeicher in chemischer Form als Kohle, Erdöl oder Gas vor.

Das neue knuffige Zauberwort der Stromversorger heißt „Spitzenglättung“. Auf deutsch: Strom abschalten. Die Stromversorger wollen ein Gesetz, nach dem sie den Strom einfach abschalten können, wenn keiner mehr da ist. Daher drängen sie auf die „Spitzenglättung“. Helfen sollen dabei digitale Smartmeter, die in alle Wohnungen eingebaut von Ferne auf Mausklick Strom ein- und ausschalten können. Rationierung des Stroms als letztes Mittel, die Energiewende zu retten.

Nicht umsonst empfiehlt die Bundesregierung: Kauft Kerzen!

Der Beitrag erschien zuerst bei JF hier

Zum Schluss noch ein gefälliges Video (leider mit einiger Werbung) was erklärt was am 8.1.21 geschehen ist und auch ahnen lässt, dass das Ende der Fahnenstange noch längst nicht erreicht ist.



Corona in Deutschland 2020 : Die Rückkehr der harten Lockdowns, Unter- und Übersterb­lichkeit und der fällige Offenba­rungseid der Corona-Politik

Ebenfalls am 28. Oktober entwickelten auf einer Pressekonferenz der Vorstandsvorsitzende der Kassenärztlichen Bundesvereinigung (KBV) Andreas Gassen gemeinsam mit den Professoren Hendrik Streeck (Bonn) und Jonas Schmidt-Chanasit (Hamburg) ein moderates Gegenmodell zum autoritären Containement-Modell der herrschenden Virologenschule. Seine Kernthesen waren (in wörtlicher Wiedergabe ) :

  • Abkehr von der Eindämmung allein durch Kontaktpersonennachverfolgung.

  • Einführung eines bundesweit einheitlichen Ampelsystems anhand dessen sowohl auf Bundes- als auch auf Kreisebene die aktuelle Lage auf einen Blick erkennbar wird.

  • Fokussierung der Ressourcen auf den spezifischen Schutz der Bevölkerungsgruppen, die ein hohes Risiko für schwere Krankheitsverläufe haben.

  • Gebotskultur an erste Stelle in die Risikokommunkation setzen“

Die letzten beiden Spiegelstriche bedeuten die implizite Absage an das Instrument des Lockdowns.

Während diese Kernthesen vielleicht auch den Beifall von Mitgliedern der „Querdenken“-Bewegung finden könnten, ist dies sicherlich nicht der Fall beim Festhalten der Gruppe an den fünf Corona-Benimmregeln: Maske, Abstand, Hygiene, Lüften und Warn-App.

Hier wäre zu wünschen gewesen, dass die Reformgruppe um KBV-Chef Gassen eine Erklärung dafür gibt, dass die offiziellen Fallzahlen seit Oktober in die Höhe schießen, obwohl das Regime der Corona-Benimmregeln schon Monate zuvor in Kraft getreten ist. Immerhin hatte bereits die Einführung der Maskenpflicht am 22. April d. J. keinen messbaren Effekt gehabt (CIDM. online, 2020, Graphik Aktuelles Corona-Monitoring 2 / 2).

Die Empfehlungen aus Wissenschaft und Ärzteschaft (laut Gassen 200 000 Kassenärzte !) konnten nur für sehr kurze Zeit die mediale Aufmerksamkeit beanspruchen. Als sich immer mehr herausstellte, dass sich die Corona-Fallzahlen nicht dem staatlichen Steuerungsoptimismus fügen wollten und auf relativ hohem Niveau verharrten, ergriff unsere Staatslenker einmal mehr eine Panikattacke. Den Anfang machte wieder einmal MP Markus Söder, der den Vorreiter im Corona-Abwehrkampf gab und am 6. Dezember den Katastrophenfall für Bayern verkündete Im Zuge dessen weitete die Landesregierung die Kontaktbeschränkungen aus und kippte die für Silvester vorgesehenen Lockerungen. Von nun an gab es kein Halten mehr und ein Bundesland nach dem anderen kündigte Verschärfungen an. Dabei war die spektakulärste wohl die Ankündigung eines „harten“ Lockdowns in Sachsen. Dem folgte wenig später MP Günther für SH.

In dem panischen Aktionismus ging der Vorschlag der KBV vollständig unter. Offenbar erfüllte er auch nicht den Begriff von Wissenschaftlichkeit, den Merkel meinte, als sie sich in ihrer Haushaltsrede am 9. Dezember zur Verteidigung ihrer Position härterer Corona-Schutzmaßnahmen ausdrücklich auf die „Wissenschaft“ berief. Damit war offensichtlich nur der harte Lockdown-Vorschlag der Nationalen Wissenschaftsakademie Leopoldina gemeint, den diese für die Weihnachtszeit gemacht hatte.

Wie schon bei der Klimapolitik anerkennt Merkel offenbar nur die Form von Wissenschaft, deren Ergebnisse ihr aus welchem Grund auch immer zupass kommen. Mir ihrer Ignorierung des pluralistischen Charakters moderner Wissenschaft, auch von Naturwissenschaft, lässt sie erkennen,. dass sie von Wissenschaft gar nichts versteht. Darüber hinaus kann man erkennen, dass sie innerhalb der ihr genehmen Wissenschaftsvariante die jeweilige Hardliner-Position favorisiert.

Dabei hat der am Schutz der Risikogruppen orientierte Ansatz der KBV die statistische Wahrheit für sich: 90 % aller „Coronatoten“ sind laut RKI über 70 Jahre alt, der Altersmedian liegt bei 83 Jahren. Diese Menschen haben in aller Regel zumindest eine schwere Vorerkrankung. Was liegt da näher, als die Ressourcen auf diese Gruppe zu konzentrieren? So könnte man an eine regelmäßige satte staatliche Bonuszahlung über eine längere Zeit an die Beschäftigten im Kranken- und Altenpflegebereich denken, um das seit langem bestehende strukturelle Personaldefizit in diesem Bereich dauerhaft zu beheben. Eine derartige Ausgabe erscheint deutlich zielführender als milliardenschwere Kompensationszahlungen an durch Lockdowns geschädigte Restaurantbetreiber und Einzelhändler.

Ähnlich einseitig die Position der Bundesregierung beim Klimaschutz. Hier war jahrelang engster Berater Merkels der frühere Präsident des PIK Hans-Joachim Schellnhuber, der es in einer Veröffentlichung 2018 unter Berufung auf das Eintreten fiktiver „Kippelemente“ tatsächlich fertig brachte, die Gefahr einer Erderwärmung um bis zu 8 Grad in diesem Jahrhundert an die Wand zu malen – etwa das Doppelte des negativsten Szenarios des Weltklimarats IPCC (zur Kritik vgl. Nahamowitz 2020 a). Die ausführlich begründete klimaskeptische Gegenposition entthront das CO2 als Haupttreiber des Klimas und ersetzt es zumindest zu 50 % durch die Sonne und diverse ozeanische Oszillationen. Sie ist kürzlich noch einmal ausführlich von Vahrenholt / Lüning (2020) begründet worden – und bleibt von der Politik und den Mainstream-Medien unbeachtet, obwohl sie mit ihrer (m.E. selbst wieder problematischen) grundsätzlichen Anerkennung des CO2 als etwa hälftigem Klimaverursacher zwischen dem alarmistischen und dem skeptischen Klimaparadigma eine vermittelnde Position einnimmt.

Bei Corona ist Merkels engster Berater der Berliner Virologe Christian Drosten, der zusammen mit dem RKI schon bei der Schweinegrippe ( 2009 / 2010 ) durch völlig übertriebene Warnungen aufgefallen war (Reiss, Bhakdi 2020, 121 f). Seit kurzem ist als ihr Berater der Braunschweiger studierte Physiker Meyer-Hermann hervorgetreten, der aber seinem Kollegen Drosten in seiner Vorliebe für harte Lockdowns in nichts nachsteht und der wahrscheinlich bei der Lockdown-Empfehlung der Leopoldina eine treibende Kraft war. Diese in Deutschland und europaweit dominierende Position hat das Ideal eines unbarmherzigen Schlages in Form eines möglichst harten Lockdowns, der das Virus ein für alle Mal vertreibt oder zumindest – so bescheiden ist man zum Teil mittlerweile geworden – eine Zeitlang still stellt, so dass das Gesundheitssystem vor Überlastung bewahrt wird.

Diese Strategie ist mittlerweile dabei, sich selbst ad absurdum zu führen, wird sie gegenwärtig in Deutschland doch zum zweiten Mal probiert und in Österreich und Italien zum dritten Mal – innerhalb von 9 Monaten. Diese Strategie ist frustran und teuer, ihre Protagonisten sollten anerkennen, dass das Virus gekommen ist, um zu bleiben. Auch mit der Grippe existiert in den modernen Gesellschaften eine ( mitunter spannungsvolle ) Koexistenz. Die mögliche Konsequenz daraus kann nur sein: Die finanzielle und personelle Ausstattung des Gesundheitssystems zu optimieren, auch in Vorsorge gegen künftige Epidemien, die wirklich gefährlich sind, anstatt dort nach gewohntem Muster zu sparen.

Die epidemiologisch vorzüglich begründete, explizit auf Evidenz basierende Gegenposition wird in Deutschland vor allem vom Professoren-Ehepaar Reiss / Bhakdi (2020), dem früheren Amtsarzt und Bundestagsabgeordneten Wolfgang Wodarg und auf internationaler Ebene vom Stanford-Professor John Joannidis (2020) vertreten. Diese Richtung hebt ab auf die relativ niedrige, einer mittelstarken Grippe vergleichbare Letalitätsrate von SARS-CoV-2, auf den quantitativ und qualitativ erheblichen Unterschied von „an“ und „mit“ Corona Verstorbenen sowie die Unterscheidung von Infizierten und Erkrankten. Sie betont die Unzuverlässigkeit des nicht validierten und nicht für die klinische Diagnose zugelassenen PCR-Tests und macht auf den systematischen Zusammenhang von ansteigenden Fallzahlen und Zunahme der Testungen aufmerksam. Nicht zuletzt gewinnt sie ein realistisches Bild von der quantitativen Bedeutung der Corona-Sterbezahlen, indem sie diese in Beziehung setzt zu anderen Todesarten wie Herz-Kreislauferkrankungen, Krebs, Lungenentzündung u.a.

Als praktische Handlungsempfehlung folgt aus diesem Konzept 1. die sofortige Beendigung der repressiven Containment-Politik für die allgemeine Bevölkerung, 2. die Konzentration der Ressourcen auf die verwundbaren Gruppen der Bevölkerung, vor allem die über 70-jährigen mit Vorerkrankungen sowie 3. die Aufhebung der erwiesenermaßen wirkungslosen Maskenpflicht, soweit sie die Alltagsmasken betrifft. In diesem dritten Punkt sowie in dem Verzicht auf das bundesweite Ampelsystem bestehen die entscheidenden Unterschiede zur Reformgruppe um Gassen und Streeck.

Das Ohr der Politik erreichen beide Reformgruppen nicht, Merkel und die Länder-MP setzen ihre unbeirrt lernresistente Linie fort. Angesichts der nahezu weltweiten Lernresistenz der Politik erkennt Joannidis keine Corona-Krise, sondern eine „Krise der Evidenz“.

Zweifel an der Urteilsfähigkeit Merkels sind nicht nur in Sachen Wissenschaft, sondern auch bei relativ banalen Angelegenheiten angebracht. Man erinnere ihren Versuch, dem Fernsehpublikum die Funktionsweise des Reproduktionswerts R zu erklären, Bekanntlich bedeutet R = 1, dass ein Infizierter einen anderen Menschen ansteckt, Was aber bedeutet R = 1,1 oder R = 1,3 ? Bei dem Versuch. diese Frage zu beantworten, gerät die promovierte Physikerin Merkel so vollständig in die Konfusion, dass die Antwort unverständlich ausfällt. Der Zuschauer ist ratlos, sollte die Kanzlerin tatsächlich intellektuell überfordert sein?

Bei den Hausberatungen in der ersten Dezemberhälfte zeigt Merkel einmal mehr ihr unzureichendes Verständnis der Corona-Realität, wenn sie angesichts der RKI-Zahlen des Tages klagt : „ 590 Tote ! Es tut mir so leid“. Der Ausspruch deutet darauf hin, dass sie erstens nicht weiß, dass in Deutschland die durchschnittliche tägliche Sterbezahl bei 2600 liegt, die doch alle wohl ebenfalls Mitleid verdienen und ihr zweitens unbekannt ist, dass mindestens 80 % keine „echten“ Corona-Tote, sondern nur „mit“ dem Virus Gestorbene sind. Bei so viel Unwissenheit wird man schließlich nicht von ihr verlangen können, dass sie die für Deutschland auch im Corona-Jahr 2020 relevanten Phänomene der Untersterblichkeit bzw. nur leichten Übersterblichkeit (s. unten unter 3.) kennt.

Bei der Haushaltsrede Merkels am 9. Dezember ereignete sich auch noch ein bezeichnender Zwischenfall. Auf den Zwischenruf eines AfD-Abgeordneten : „Das ist doch alles nicht bewiesen“. antwortet sie direkt – und zwar unter Bezug auf ihr Physikstudium in der DDR – mit dem Hinweis auf die unabänderliche Kraft der „Schwerkraft“ und der „Lichtgeschwindigkeit“. Was genau sie damit meint, bleibt unklar. Anscheinend möchte sie wohl der von ihr verfolgten Strategie der Corona-Abwehr den Status unverbrüchlicher Naturgesetzlichkeit verleihen. Die ignorante Schlichtheit des Arguments macht ziemlich fassungslos.

Schon während der Haushaltsberatungen drang zunehmend der Ruf einiger Länder-MP nach einem baldigen harten Lockdown durch. Hinter dem Vorschlag steht ein fehlgeleitetes Coronaverständnis, welches erstens Corona als verhängnisvolles Killervirus und zweitens als ein radikal aus dem Land zu vertreibendes Agens auffasst. Diese unterkomplexe Auffassung wird vor allem von den traditionellen Virologen vertreten. Epidemiologen sehen Corona zumeist differenzierter. Zwischen den traditionalistischen Virologen a` la Drosten, Lauterbach, Wieler und Co. einerseits und den evidenzbasierten Epidemiologen um Reiss /Bhakdi und Joannidis andererseits nimmt die Gruppe um die Virologen Streeck und Schmidt-Chanasit sowie den KBV-Vorstandsvorsitzenden Gassen so etwas wie eine Mittelstellung ein.

Streeck fasst sie gerne in die Formel, dass das Corona-Virus einerseits zwar „ernst zu nehmen“, andererseits aber „nicht zu überdramatisieren“ sei. Mit letzterer Wendung wird der Lockdown als Instrument der Infektionsbekämpfung implizit ausgeschlossen. Auch vertritt er die Auffassung, dass das Corona-Virus hier sei, um zu bleiben und sich den anderen vier schon seit Jahrzehnten hierzulande residierenden Corona-Virenstämmen bei zu gesellen.

Beides dürfte der wesentliche Grund dafür sein, dass die Gruppe, obwohl anders als Bhakdi, Joannidis und Co. fest im deutschen medizinischen Establishment verankert, keine Chance hatte, das Ohr der Kanzlerin und der MP zu erlangen. Die politische Vereinigung der Corona-Dilettanten aus Bund und Ländern sträubt sich mit aller Macht gegen epidemiologische Aufklärung.

Am 13. Dezember nun wurde ein harter Lockdown von eben dieser Dilletantenrunde zunächst einmal bis zum 10. Januar beschlossen. Die einzelnen Bestandteile eines harten Lockdowns sind aus dem Frühjahr bekannt, ich gehe nicht näher auf sie ein.

Nur Weihnachten erhielt eine spezielle Regelung. Das weihnachtliche Feiern machte der Politik größte Sorgen. So bemühten sich etwa Gesundheitsminister Spahn und Bundespräsident Steinmeier, den Bürgern die altruistischen Vorteile ungeselliger Weihnachtsfeiern (z.B. zugunsten des Pflegepersonals) schmackhaft zu machen. Ein Eindämmungskonzept, welches sich derartiger Überredungsstrategien glaubt bedienen zu müssen, zeigt sehr deutlich seine Hilflosigkeit.

Die Auseinandersetzung zwischen den konkurrierenden Corona-Konzepten fand ihren vorläufigen Abschluss durch einen kürzlich erfolgten Aufruf hunderter europäischer Wissenschaftler zu Gunsten einer strengen Politik des Containement für einen längeren Zeitraum und abgestimmt unter den europäischen Staaten. Der Aufruf wurde im renommierten Fachjournal „Lancet“ am 19. Dezember d. J. veröffentlicht. Im Kern verfolgt er die gleiche stramm virologische Konzeption wie auch die Leopoldina., welcher der deutsche harte Lockdown-Beschluss nahezu nahtlos gefolgt war.

Es verwundert daher nicht, dass der Aufruf von den deutschen strammen Virologen-Virologen Drosten, Wieler und z.B. Brinkmann unterzeichnet ist, Ebenso unterzeichnet haben die Präsidenten der Leopoldina und der großen Wissenschaftsorganisationen. Bei letzteren ist freilich keine Sachkompetenz zu unterstellen, genauso wenig wie bei dem mitunterzeichnenden Ökonomen und IfO-Präsidenten Clemens Fuest.

Ziel ist die Senkung der Fallzahlen auf den Stand von Ländern wie China und Australien. Mit „entschlossenem Handeln“ und „tiefgreifenden Interventionen“ soll innerhalb von 2 Wochen der R-Wert auf 0,7 gesenkt und die 7-Tage-Inzidenz von 200 auf 50 gesenkt werden. Diese Holzhammertherapie soll offenbar an die in Deutschland und anderen Ländern seit Wochen exekutierten Lockdowns angeschlossen werden. Das ultimative Zeil ist aber noch weit ehrgeiziger: eine Inzidenz von maximal 7 auf 100 000 Einwohner , zu erreichen „spätestens im Frühjahr“.

Der Aufruf scheint mir das typische Produkt enthemmter Virologenphantasien zu sein, welcher die Folgebereitschaft einer bereits sehr Corona-müden Bevölkerung deutlich überschätzt und die mannigfachen Folgeschäden der Therapie mit dem Holzhammer unterschätzt. In China jedenfalls dauerte die Phase des harten Lockdowns nur 4 Wochen. Dass dieses riesige Land nun gänzlich frei von Corona ist, lässt m.E. nur eine Erklärung zu: Es wird – im Vertrauen auf die relativ geringe Gefährlichkeit des Virus – nicht mehr getestet.. Dann wird das Virus auch nicht mehr gefunden. Aufgrund seiner relativ geringen Letalitätsrate birgt diese Strategie auch kein untragbares Risiko für die Machthaber.

Im übrigen weist der Appell die bekannten epidemiologischen Defizite auf und zeigt noch einmal. dass die Virologen die Epidemiologie nicht können. Ich nenne drei prinzipielle Kritikpunkte :

  1. Es wird ignoriert, dass SARS-CoV-2 die Gefährlichkeit nur eines mittleren Grippevirus hat. Ein solches hat noch nie auf der Welt staatliche Zwangsmaßnahmen hervorgerufen. Typisch für die unzureichende wissenschaftliche Qualifikation der Verfasser ist, dass das Bulletin der WHO vom 14. Oktober ignoriert wird, in dem die Organisation das Ergebnis der umfangreichen Metaanalyse von John Joannidis sich zu eigen macht. Nach ihr liegt die Median-Covid-19-Infektionssterblichkeitsrate bei nur 0,23 % und damit auf dem Niveau eines mittelstarken Grippevirus. Das bedeutet 2300 Tote auf 1 Mio. Infizierte (bei gegenwärtig gut 1,7 Mio. positiv Getesteten in Deutschland), was denjenigen nicht zu erschrecken braucht, der weiß, dass gegenwärtig hierzulande, wie bereits erwähnt, 2600 Menschen pro Tag sterben.

  2. Ausfluss der geringen Sterblichkeitsrate ist, wie im 3. Abschnitt belegt wird, dass Deutschland im Jahr mehrerer Lockdowns keine signifikante Übersterblichkeit und damit auch keine „epidemische Lage von nationaler Tragweite“ aufweist. Damit entfällt überhaupt die Grundlage für Zwangsmaßnahmen nach dem InfektionsschutzG.

  3. Unbekannt ist den Initiatoren ebenfalls, dass der rasche Anstieg der Fallzahlen seit September / Oktober überwiegend der Verdopplung der Testungen geschuldet ist (CIDM.online, Grafik 7 / 8). Die kritischen Beobachter des Infektionsgeschehens sprechen von „Labor -Pandemie“.

Einen Tag nach Veröffentlichung des Aufrufs erschien die Meldung, dass in England eine Mutation des Corona-Virus mit um 70 % erhöhter Infektiösität aufgetaucht sei. Damit scheint allen überambitionierten Eindämmungsphantasien bezüglich des Virus. wie sie der „Lancet“- Aufruf aufweist, ein Riegel vorgeschoben. Eindämmungszeit und / oder regulatorischer Eindämmungsaufwand müssten sich um den genannten Prozentsatz erhöhen. Und zwar in ganz Europa, denn das mutierte Virus hat inzwischen auf dem Festland Fuß gefasst. Am 5. Januar 2021 hat denn auch der englische Premierminister die Konsequenz gezogen und einen harten Lockdown angeordnet, begründet u.a. mit der Mutation des Virus. Der Chef von Biontech brauchte nur verdächtig wenige Tage um zu versichern, dass der Impfstoff von Biontech / Pfizer auch gegen das mutierte Virus wirke.

Zum Schluss noch einmal zurück zu Angela Merkel, und zwar zu ihrer Neujahrsansprache. Nun verwandelt sich die Irritation endgültig in Verärgerung. Die Kritiker der staatlichen Maßnahmen werden nach dem bereits sattsam Muster politischer Verunglimpfung als „unverbesserliche Leugner des Virus“ bezeichnet und mit „Verschwörungstheorien“ in Zusammenhang gebracht. Die Kritiker leugnen aber in der Regel nicht die Existenz des Virus, sondern kritisieren die überbordende Unverhältnismäßigkeit der Maßnahmen, von der eine auch nach 10 Monaten Krise immer noch schlecht informierte Kanzlerin auch nicht den Hauch einer Ahnung hat. Ich gebe nur zwei Stichworte: Erstens, die exponentiellen Fallzahlen existieren bei korrekter Zählung nicht und zweitens, die Todeszahlen sprengen nicht den Rahmen des Üblichen der letzten Jahre. Damit ist der staatlichen Containement-Politik der epidemiologische und rechtliche Boden entzogen. Darüber weiter unten mehr.

Der zweite Punkt ist der Drosten-Test, den die Kanzlerin als „zuverlässig“ bezeichnet. Hier stellt sich sehr unmittelbar die Frage, weiß sie es nicht besser oder lügt sie. Es ist allseits bekannt, dass der Test nicht validiert und demgemäß offiziell für die klinische Diagnose nicht zugelassen ist. Die kritischen Experten gehen bei den positiv Getesteten von eine Fehlerquote von 1-3 % aus („falsch positiv“). Der deutsche Rechtsanwalt Dr. Rainer Fuellmich, der mit amerikanischen Kollegen eine Sammelklage („class action“) auf Schadensersatz gegen die Herren Drosten, Wieler und Spahn vor einem amerikanischen Zivilgericht anhängig gemacht hat, geht von einer Fehlerquote bis zu 97 % aus. Andere Klagen, auch gegen staatliche Stellen, sind in weiteren Ländern (Österreich, England) in Vorbereitung oder bereits anhängig. Von dieser Seite könnte aus der „Jahrhundertaufgabe“ der Pandemiebekämpfung, von der Merkel spricht, eine Jahrhundertpleite für die Politik werden,

2. Die absurde Jagd auf die „Infektions“-Zahlen

Seit Ende September / Anfang Oktober befinden sich in Deutschland die absoluten Zahlen der positiv Getesteten in einem steilen Anstieg – der Anlass für die seit Anfang November hierzulande eingeschlagene Politik der Lockdowns. Deren politischen Initiatoren ist offensichtlich unbekannt, dass primärer Grund für den Anstieg der absoluten „Infektions“-Zahlen die Verdopplung der Testungen ab Mitte August ist – ein schockierender Fall staatlicher Ignoranz.

Oder doch nicht? Es ist öffentlich geworden, dass zumindest Gesundheitsminister Spahn und das RKI um den systematischen Zusammenhang von Fallzahlen und Häufigkeit der Testungen wissen. Die absoluten Fallzahlen verlieren ihren Schrecken, wenn sie richtigerweise korrigiert und auf 100 000 Testungen bezogen werden. Dann tritt an die Stelle der roten ( „exponentiellen“) „Panik“-Kurve die blaue „Real“-Kurve mit ihrem nur sanften Anstieg ( vgl. unten die Graphik 7 / 8 von CIDM. online ). Diese Graphik hatte ich schon in meinem letzten Artikel herangezogen (Nahamowitz 2020 c), nun geht ihre Zeitreihe bis zum Jahresende (KW 52).

Die Schlussfolgerungen bleiben die gleichen: Von einer „exponentiellen Infektionsdynamik“ und einer „drohenden Überforderung des Gesundheitswesens“ kann keine Rede sein, weder eine „erste“ noch eine „zweite“ Infektionswelle sind für das Jahr 2020 auffindbar. Der Kampf der Politik gegen die steigenden „Infektions“-Zahlen erinnert stark an den dichterisch beschriebenen Kampf des Don Quixote gegen die Windmühlen, die nur in der Phantasie des verblendeten spanischen Edelmannes eine Gefahr darstellten.

Die frühzeitige Veröffentlichung der „Realkurve“ schon im Frühjahr hätte die Hysterie um Corona im Keim erstickt. Dass sie unterblieben ist, stellt eine Amtspflichtverletzung der im RKI und im Gesundheitsministerium Verantwortlichen i. S. von Art. 34 GG / § 839 BGB dar und berechtigt die durch die Corona-Maßnahmen Geschädigten zu Schadensersatz gegen den Staat.

Sehr dubios ist auch die von Beginn an praktizierte kombinierte Zählweise des RKI der „an und mit“ Corona Gestorbenen. Schon diese Kombination ist eine permanente Verletzung ärztlicher Leitlinien (Reiss / Bhakdi, 18). Da kommt es gegenwärtig zu Zahlen von mehreren hundert bis über 1000 täglichen „Corona-Toten“ – Zahlen, die völlig unglaubhaft sind. Der Anteil der Atemwegserkrankungen an den Todesarten in Deutschland liegt seit langem bei ungefähr 10%, der von Krebs bei einem Viertel und der Anteil der Herz-Kreislauferkrankungen bei einem Drittel, Täglich sterben etwa 2600 Menschen in Deutschland. 1000 „an und mit“ Corona, welche eine Atemwegserkrankung ist, Gestorbene würden einen Anteil von über einem Drittel ausmachen – völlig unglaubhaft. Hier sind im großen Stil Umverteilungen innerhalb der Todesarten hin zu Corona vorgenommen worden. Daher ist von einer weiteren Amtspflichtverletzung des für die Zählung verantwortlichen RKI auszugehen..

Nach der kompetenten Schätzung der Corona Initiative Deutscher Mittelstand (CIDM) betrug im vergangenen Jahr der Anteil der „echten“ Corona-Toten, d.h. „an“ Corona Verstorbenen, an allen Verstorbenen nicht mehr als 1,1 % (CIDM. online, Graphik Sterbefallzahlen Deutschland). In absoluten Zahlen sind dies weniger als 30 täglich. Es wird Zeit, dass der schon bei der Schweinegrippe zu Tage getretene völlig übersteigerte Alarmismus des RKI beendet wird.

3. Über– und Untersterblichkeit in Deutschland

Für die Darstellung der Mortalität in Deutschland verwende ich die Daten von Euromomo (European mortality monitoring) in den alternativen Fassungen von Germany (Berlin) und Germany ( Hessen ). Die Daten des Statistischen Bundesamts (Destatis) finden keine Verwendung, da das Amt seit seinem Versuch, für die Corona-Monate im Frühjahr eine Phase von Übersterblichkeit für unser Land herbei zu rechnen, unter Manipulationsverdacht steht.

Schon mit bloßem Auge ist erkennbar, dass die Mortalitätsentwicklung gemäß Graphik Germany (Berlin) im Jahr 2020 flacher als in den Vorjahren ab 2017 verläuft, d. h. mit weniger Zacken nach oben (den Indikatoren für Übersterblichkeit). Das Jahr 2018 weist erkennbar die höchste Übersterblichkeit auf. In 2020 gibt es allein in KW 33 (3.8. – 9. 8.) einen Zacken etwas höherer Übersterblichkeit (Standardabweichung plus 3,44, wie uns der Cursor verrät). Dieser dürfte wie in den beiden Vorjahren der Sommerhitze geschuldet sein.

Von KW 47 (16. 11. – 22. 11.) an bis Jahresende , d.h. von der zeitlichen Mitte des Teil-Lockdown im November bis zum Jahresende befand sich das Land, wie uns der Cursor ebenfalls mitteilt, in einem Zustand leichter Untersterblichkeit. Aber der Öffentlichkeit wurde aus allen Rohren der Meinungsmanipulation, einschließlich der Alarmmeldungen des RKI, das Gegenteil erzählt. Und die Politiker, anscheinend von niemandem über die realen Mortalitäts- und damit Epidemieverhältnisse aufgeklärt, wurden zum Opfer ihrer eigenen Katastrophenlegenden (z. B.Söders Katastrophenalarm in Bayern Anfang Dezember).

Die Graphikvariante Germany (Hessen) ergibt ein etwas anderes Bild. Hier ist die Übersterblichkeit in 2020 etwas (nicht wesentlich) stärker vertreten. Zunächst einmal im Vergleich zu den Vorjahren 2017 und 2019, ohne deren Sterblichkeit freilich signifikant zu übertreffen. Das Jahr 2018 weist weiterhin die höchste Übersterblichkeit auf. Vor allem aber befinden sich die Wochen während der beiden Lockdowns (ab KW 45) fast durchgängig im Zustand einer leichten Übersterblichkeit – bis auf die KW 50 und 51 mit einer deutlicheren Übersterblichkeit, (Standardabweichung plus 5,44 und 4,30) die aber durch die deutlichere Untersterblichkeit der KW 52 (Standardabweichung minus 2,56) etwas ausgeglichen wird.

Nimmt man die Aussagen beider Kurven, die leichte Untersterblichkeit von Germany (Berlin) und die leichte Übersterblichkeit von Germany (Hessen), zusammen, ergibt sich für ganz Deutschland im Jahr 2020 grosso modo das Bild einer Mortalität, welche der durchschnittlichen Entwicklung seit vier Jahren entspricht. Daraus folgt, dass in Deutschland eine „epidemische Lage von nationaler Tragweite“, wie sie der Bundestag gem. §5 Abs.1 Infektionsschutzgesetz festgestellt hat, zu keiner Zeit auffindbar war. COVID-19 ist keine „bedrohliche übertragbare Krankheit““ i.S. des § 5 Abs. 1 Nr. 1 und 2 IfSG. Der Beschluss des Bundestags gehört daher schon lange aufgehoben.

Auch im internationalen Vergleich ist die Mortalität Deutschlands nicht besorgniserregend. Euromomo unterscheidet sechs Stufen der „Exzess-Mortalität“, reichend von „No excess“ bis „Extraordinary high excess“.

Die Rangfolge der Länder ( Stand: Ende 2020, KW 52 ) :

No excess: Germany (Berlin), Sweden, Finland, Norway, Estonia, Ireland. UK (Wales), UK (Scotland), Hungary, Spain.

Low excess : Germany (Hessen), France, Denmark, Belgium, Greece, Estonia.

Moderate excess , UK (England), Austria, Netherlands, Italy, Portugal.

High excess : Slovenia.

Very high excess: Switzerland.

Extraordinary high excess :

Bemerkenswert ist die Position Deutschlands (Hessen), die sich im Dezember innerhalb eines Tages um zwei Stufen auf moderate excess verschlechtert hatte, aber in KW 52 auf low excess zurück gegangen ist. Germany (Berlin) hingegen blieb durchgängig auf No excess. Die gute Performance unseres Landes bei der Mortalität zeigt sich auch international.

Erfreulich auch die sehr gute Stellung Schwedens, welches allen, vor allem deutschen Anfeindungen (einschließlich dreisten fake news) zum Trotz, als einziges Nicht-Lockdown-Land eine Reihe von Lockdown-Ländern hinter sich gelassen hat und mit anderen auf der gleichen Stufe No excess steht.

4. Der fällige Offenbarungseid der Corona-Politik

Das von verschiedenen Variationen staatlicher Corona-Eindämmung regulierte Jahr 2020 zeigt nach seiner Beendigung, dass für die `überkommene Corona-Politik die Zeit des Offenbarungseids gekommen ist. Der politische Offenbarungseid hätte offen zu legen, dass die Daten von 2020 nicht mit den Zielen der Corona-Politik überein stimmen, die „Infektions“-Zahlen auf die 7-Tage-Inzidenz von 50/100 000 zu reduzieren und so zu einer deutlichen Entlastung der krisenhaft überlasteten Intensivstationen zu kommen.

Denn die „Infektions“-Zahlen sind bei korrekter Zählung, welche sie auf 100.000 Testungen bezieht, weder exponentiell ansteigend noch sonst besorgniserregend. Die „Realzahlen“ zeigten im Frühjahr und zeigen gegenwärtig nur einen sehr sanften Anstieg. Dies gilt es von der Politik nun anzuerkennen. Und die Mortalität des zu Ende gegangenen Jahres übersteigt nicht die durchschnittliche Mortalität der letzten vier Jahre. Gegenüber 2018 ist sie sogar erkennbar geringer. 2018 sprach niemand von der Gefahr überlasteter Intensivstationen, und sie ist auch gegenwärtig nicht gegeben. Auch dies gilt es von der Politik nun anzuerkennen.

Dies ist die Voraussetzung für die Änderung einer im Kern verfehlten Krisenpolitik. Eine Bundeskanzlerin, die in ihrer Neujahrsansprache für die Krisenüberwindung entscheidend auf das freiwillige Engagement der Bürger setzt, nachdem sie vorher monatelang deren Freiheitsbetätigung stranguliert hat, gibt damit das Scheitern der Repressionspolitik unfreiwillig zu. Um aus der Sackgasse unbotmäßiger Fallzahlen herauszukommen, die nicht ausreichend sinken wollen, gilt es, sich den alternativen Konzepten der Corona-Behandlung, wie sie eingangs dieses Artikels vorgestellt worden sind, zu öffnen.

Der Notwendigkeit eines solchen drastischen Politikschwenks wird die offizielle Corona-Politik nicht durch die Perspektive der Impfung enthoben. Erstens ist das letzte Wort über deren Wirksamkeit, vor allem aber deren Sicherheit, noch nicht gesprochen. Zweitens steht die Impfbereitschaft der deutschen Bevölkerung durchaus in Frage. Und drittens wird, auch wenn das Projekt Impfung alle Versprechungen hält, ein allgemeiner Immunschutz für die Bevölkerung erst in Monaten erreicht sein.

Was bleibt, ist dann nur noch die Hoffnung auf das Frühjahr mit dem Abklingen des saisonalen Infektionsgeschehens in seinem Gefolge. Dies ist für eine rationale Politik, die auch mit dem Widerstand eines mutierten Virus mit erhöhter Infektiösität zu rechnen hat, eine sehr dünne Perspektive, die auch erst ab März / April zum Tragen kommen könnte. Soll so lange der Lockdown bestehen bleiben?

Es ist Zeit für die Politik, ihre oft genug manifestierte Lernresistenz abzulegen und einen grundlegend anderen Ansatz für die Krisenbewältigung zu wählen. Was liegt näher, als das eingangs vorgestellte moderate Reformkonzept der Gruppe um Gassen und Streeck zu wählen? Dieses müsste doch auch für den politischen Mainstream akzeptabel sein.

5. Der Offenbarungseid wird nicht geleistet

Am 5 Januar beschloss die Runde der notorisch Unkundigen aus Coronakabinett mit der Kanzlerin an der Spitze und den MP der Bundesländer die Verlängerung des Lockdowns bis Ende Januar, der sogar verschärft wurde. So wurden etwa die privaten Kontakte weiter eingeschränkt und in den Hotspots ab einer Inzidenz von 200/100.000 die räumliche Bewegungsfreiheit auf 15 km begrenzt.

Ende Januar wird die drastische Einschränkung der sportlichen Betätigung durch die Schließung von Schwimmhallen, Sportstätten und Fitnessstudios im Gefolge dreier Lockdowns seit drei Monate andauern. Dies hat negative Konsequenzen für das vor Infektionen schützende natürliche Immunsystem und die Gesundheit allgemein der sportlich orientierten Teile der Bevölkerung. Der Autor z.B. war es seit Jahrzehnten gewohnt, mehrfach in der Woche Schwimmen zu gehen. Der Mangel an sportlicher Betätigungsmöglichkeit dürfte freilich für einige seiner maßgeblichen Urheber nicht von Wichtigkeit sein: Der seit Jahren übergewichtigen Kanzlerin und ihrem adipösen Kanzleramtsminister Braun sowie den Herren Spahn und Söder mit ihren sichtbar wachsenden Bauchansätzen dürfte sportliche Betätigung wenig bis nichts bedeuten. Dem entspricht die Nonchalance, mit der die Lockdownpolitik durchgezogen wird.

Eine bewusste staatliche Förderung von Gesundheit und Immunsystem durch systematische Aufklärung über richtige Ernährung, Bewegung, gesunden Schlaf und wichtige Nahrungsergänzungsmittel wie Omega 3 und Vitamin D findet denn auch nicht statt. Anscheinend wird die Sorge um die Gesundheit der Schulmedizin und der Pharmaindustrie überlassen.

Durch ihre Verlängerung wurde der an sich fällige Offenbarungseid der bisherigen Corona-Politik vermieden. Im Wirtschaftsleben würde man von Insolvenzverschleppung sprechen. Es ist auch kaum damit zu rechnen, dass die angestrebte Inzidenz von 50/100.000 bis Ende Januar tatsächlich erreicht wird. Nicht zuletzt die aufgrund der Mutation gesteigerte Infektiösität des Virus spricht dagegen. Manche Forderungen sind sogar noch ehrgeiziger und zielen auf eine noch niedrigere Inzidenz, z.B. 25/100.000 oder sogar 7/100.000, ab.

Es ist immer wieder schockierend, mit welcher Chuzpe die politisch Verantwortlichen und ihre Berater die empirische Evidenz ignorieren, z. B. die Erfahrungen Israels. Israel hatte im September bei laut worldometer über 6000 täglichen Neu-“Infektionen“ Ende des Monats einen harten Lockdown angeordnet, der die Fallzahlen bis Mitte November auf etwas über 600, also auf ein Zehntel, drückte. Diese sind aber Anfang Januar 2021 wieder auf über 6000 gestiegen. Der Erfolg hatte also eine Verfallszeit von gerade gut 6 Wochen.

Auch die wissenschaftliche Evidenz wird ignoriert. In einer hochrangigen aktuellen Studie des amerikanischen National Bureau of Economic Research wird gezeigt, dass Lockdowns, Schließungen, Reisebeschränkungen, Quarantänemaßnahmen, Sperrstunden und Masken keinen Einfluss auf die Übertragungsraten des Corona-Virus und die Todesfälle haben ( Atkeson, Kopecky, Zha 2020 ).

Quellen :

Atkeson, Andrew, Kopecky, Karen, Zha, Tao 2020 : Four stylized Facts about COVID-19, Working Paper 27719, National Bureau of Economic Research.

Nahamowitz, Peter 2020 a : Klimawandel und CO2: falsche Alarmzeichen für die Weltgesellschaft, scienceFiles, Blaue Reihe, Bd. 8.

Nahamowitz, Peter 2020 b: Sechs kurze Begründungen für die Verfassungswidrigkeit des Shutdown in Deutschland, EIKE-Publikation vom 17. Mai.

Nahamowitz, Peter 2020 c: Corona-Panik, die dritte: Zentrale Gründe für die Verfassungswidrigkeit des Teil-Lockdown vom 28. Oktober 2020, EIKE-Publikation vom 25. 11.

Reiss, Karina, Bhakdi, Sucharit 2020: Corona Fehlalarm?, Berlin.

Vahrenholt, Fritz, Lüning, Sebastian, 2020: Unerwünschte Wahrheiten. Was Sie über den Klimawandel wissen sollten, München.

Zum Autor :

Peter Nahamowitz war Prof. für öffentliches Wirtschafts- und Finanzrecht sowie Politikwissenschaft am Fachbereich Rechtswissenschaften der Leibniz Universität Hannover. Er ist seit 2007 im Ruhestand.




Widerlegung der Wissenschafts-Aussage der Geological Society of London zum Klimawandel

Interessanterweise enthält das Papier diesen Haftungsausschluss:

Datenverfügbarkeit
Datenfreigabe ist für diesen Artikel nicht anwendbar, da während der aktuellen Studie keine Datensätze generiert oder analysiert wurden.

Wissenschaftliche Stellungnahme der Geological Society of London

Die Autoren stellen viele Behauptungen auf, bieten aber wenig unterstützendes Material an. Es wimmelt von Übertreibungen und zumindest ein paar internen Widersprüchen. Das Konzept der Langzeitbetrachtung und der Verlust der [zeitlichen] Auflösung in der geologischen Aufzeichnung im Vergleich zu modernen instrumentellen Beobachtungen scheint völlig zu fehlen.

Atmosphärisches CO2

Beobachtungen aus der geologischen Aufzeichnung zeigen, dass die atmosphärischen CO2-Konzentrationen jetzt auf dem höchsten Stand seit mindestens 3 Millionen Jahren sind.
Wissenschaftliche Erklärung der Geological Society of London

Dies ist sehr wahrscheinlich wahr. Die atmosphärischen CO2-Konzentrationen könnten sogar jetzt auf dem höchsten Stand der letzten 12 Millionen Jahre sein.

Abbildung 1. Neogen-Quartär Temperatur und Kohlendioxid (älter ist nach links). (WUWT)

Die geologische Aufzeichnung von atmosphärischem CO2 ist höchst unsicher, und wird immer unsicherer, je weiter wir in der Zeit zurückgehen. Diese Passage aus Evolution of the Earth (1976) ist heute genauso wahr wie damals, als wir Geologiestudenten im Pleistozän waren…

Leider können wir die Veränderungen des CO2-Gehalts in der Vergangenheit weder in der Atmosphäre noch in den Ozeanen genau abschätzen, und es gibt auch keine solide quantitative Grundlage für die Abschätzung des Ausmaßes des Rückgangs des Kohlendioxidgehalts, der notwendig ist, um eine Vergletscherung auszulösen. Außerdem ist das gesamte Konzept des atmosphärischen Treibhauseffekts umstritten, denn die Geschwindigkeit des Ausgleichs zwischen Ozean und Atmosphäre ist unsicher.

Dott & Batten, 1976

Obwohl sich die Verfahren zur Schätzung vergangener atmosphärischer CO2-Konzentrationen seit den 1970er Jahren verbessert haben, können wir nicht einmal sicher sein, dass die atmosphärische CO2-Konzentration während des viel wärmeren Klimatischen Optimums im Mittel-Miozän im Vergleich zu den extrem niedrigen Werten des Quartärs signifikant erhöht war.

Darüber hinaus ist die derzeitige Geschwindigkeit der vom Menschen verursachten CO2-Veränderung und Erwärmung fast ohne Beispiel in der gesamten geologischen Aufzeichnung, mit der einzigen bekannten Ausnahme des augenblicklichen, durch Meteoriten verursachten Ereignisses, das das Aussterben der nicht vogelartigen Dinosaurier vor 66 Millionen Jahren verursachte.

Wissenschaftliche Stellungnahme der Geological Society of London

Jeffrey Severinghaus und Kollegen wären über diese Aussage sehr überrascht. Sie zeigten, dass zu Beginn des Holozäns, vor etwa 11.700 Jahren, die Temperaturen der nördlichen Hemisphäre innerhalb weniger Jahrzehnte um „5 – 10ºC“ anstiegen (Severinghaus, Sowers, Brook, Alley, & Bender, 1998).

In Bezug auf CO2 ist dies möglich. Es gibt keine geologischen Aufzeichnungen von CO2-Änderungen, die eine ausreichende Auflösung haben, um diese Behauptung mit einem gewissen Grad an Sicherheit aufzustellen. Die einzige Ausnahme wären die Law-Dome-Eisbohrkerne in der Antarktis, die nur etwa 2.000 Jahre zurückreichen. Die mangelnde Auflösung der CO2– und Temperaturschätzungen der vorindustriellen Ära schränkt Vergleiche der geologischen Geschichte mit der Neuzeit stark ein.

Dieser zusammengesetzte Eisbohrkern-CO2-Datensatz (0-800 kyr BP) von Bereiter et al. (2014) scheint einen sehr überzeugenden Hockeystick zu zeigen:

Abbildung 2: Komposit der CO2-Aufzeichnung (0 bis 800.000 Jahre vor heute) von Bereiter et al. (2014).

Das Komposit wurde aus folgenden Eisbohrkernen erstellt:

Diese Eisbohrkerne haben sehr unterschiedliche Auflösungen.  Petit et al., 1999 geben an, dass die CO2-Auflösung für Vostok 1.500 Jahre beträgt. Lüthi et al., 2008 schlagen eine CO2-Auflösung von etwa 500 Jahren für Dome C vor. Es scheint, dass der hochauflösende Law Dome DE08-Kern einfach an die älteren Eiskerne mit niedrigerer Frequenz angeklebt wurde.

Wendet man auf den DE08-Eiskern Glättungsfilter an, um die Auflösung der niedriger aufgelösten Eiskerne anzugleichen, erhält man ein deutlich anderes Bild:

Abbildung 3. Ein 500-Jahre-Glättungsfilter entfernt die Klinge des Hockeysticks vollständig.

Die Eiskerne mit niedrigerer Frequenz sind nicht in der Lage, CO2-Verschiebungen im Jahrhundertmaßstab aufzulösen. Als solche können sie nicht verwendet werden, um die Möglichkeit von kurzzeitigen Schwankungen auszuschließen, die mit dem Anstieg des atmosphärischen CO2 im Industriezeitalter während des frühen Holozäns und Pleistozäns vergleichbar sind. Und sie widersprechen damit nicht den Schlussfolgerungen von Wagner et al., 1999:

Im Gegensatz zu konventionellen Eisbohrkern-Schätzungen von 270 bis 280 ppmv [parts per million by volume] legt das Signal der Stomatafrequenz nahe, dass die Kohlendioxid-Konzentration im frühen Holozän deutlich über 300 ppmv lag.

(…)
Die meisten der holozänen Eiskernaufzeichnungen aus der Antarktis haben keine ausreichende zeitliche Auflösung.

(…)

Unsere Ergebnisse falsifizieren das Konzept von relativ stabilen holozänen CO2-Konzentrationen von 270 bis 280 ppmv bis zur industriellen Revolution. SI [stomatal index]-basierte CO2-Rekonstruktionen könnten sogar darauf hindeuten, dass während des frühen Holozäns atmosphärische CO2-Konzentrationen, die 300 ppmv betrugen, eher die Regel als die Ausnahme gewesen sein könnten.

Wagner et al. (1999)

Oder Wagner et al., 2004:

Die Mehrheit der auf der Stomatafrequenz basierenden CO2-Schätzungen für das Holozän unterstützen nicht das weithin akzeptierte Konzept vergleichbar stabiler CO2-Konzentrationen während der letzten 11.500 Jahre. Um der Kritik zu begegnen, dass diese Stomata-Häufigkeitsschwankungen aus lokalen Umweltveränderungen oder methodischen Unzulänglichkeiten resultieren, wurden mehrere Stomata-Häufigkeitsaufzeichnungen für drei klimatische Schlüsselperioden während des Holozäns verglichen, nämlich die präboreale Oszillation, das 8.200 Jahre währende Abkühlungsereignis und die Kleine Eiszeit. Die hochgradig vergleichbaren Schwankungen in den paläoatmosphärischen CO2-Aufzeichnungen, die von verschiedenen Kontinenten und Pflanzenarten (sommergrüne Angiospermen sowie Nadelbäume) unter Verwendung unterschiedlicher Kalibrierungsansätze gewonnen wurden, liefern einen starken Beweis für die Integrität der blattbasierten CO2-Quantifizierung.

Wagner et al., 2004

Die GSL-Autoren präsentierten auch einen starken Widerspruch:

Kurz gesagt: Während die atmosphärischen CO2-Konzentrationen in der geologischen Vergangenheit aufgrund natürlicher Prozesse stark schwankten und oft höher waren als heute, ist die derzeitige Rate der CO2– (und damit Temperatur-) Veränderungen beispiellos in fast der gesamten geologischen Vergangenheit.

Wissenschaftliche Stellungnahme der Geological Society of London

Sie behaupten, dass „die aktuelle Rate der CO2– (und damit Temperatur-)Änderung beispiellos ist in fast der gesamten geologischen Vergangenheit“, um dann wenig später zu sagen:

Angesichts der Aufzeichnung vergangener Klimaveränderungen (Abschnitt 1) ist das Ausmaß der jüngsten beobachteten Klimaveränderungen nicht ungewöhnlich.

Wissenschaftliche Stellungnahme der Geological Society of London

Der moderne Klimawandel ist angeblich sowohl beispiellos als auch „nicht ungewöhnlich“. Sie scheinen CO2 und Temperatur zu verwechseln. Obwohl sie miteinander verwandt sind, sind sie nicht austauschbar.

CO2 und Meeresspiegel

Sie stellen auch die Behauptung auf, dass die geologische Aufzeichnung eine Beziehung zwischen CO2 und Meeresspiegel zeigt.

Die geologischen Aufzeichnungen stimmen mit den Vorhersagen überein, dass das langfristige Ausmaß und die Geschwindigkeit des zukünftigen Meeresspiegelanstiegs sehr empfindlich auf zukünftige CO2-Emissionsszenarien reagieren und Intervalle mit sehr schnellem Anstieg enthalten können.

Wissenschaftliche Stellungnahme der Geological Society of London

Es gibt jedoch keine Beziehung zwischen CO2 und Meeresspiegel in den geologischen Aufzeichnungen:

Abbildung 4. Von links nach rechts: Verallgemeinerter Querschnitt entlang der nördlichen GOM-Region (Galloway et al., 2009), Ablagerungsphasen sind nummeriert. Relativer Meeresspiegel (Miller et al., 2005), atmosphärisches CO2 (Berner & Kothavala, 2001) und Temperaturanomalien (Royer et al., 2004). Bild.

William Galloway von der Jackson School of Geosciences an der University of Texas hat die Ablagerungsgeschichte der Golfküste/des Golfs von Mexiko in dieser Arbeit zusammengefasst…

Die Ablagerungsgeschichte kann in sieben Phasen verallgemeinert werden: (1) Mittel- bis spätjurassische Evaporit- und Karbonatablagerung in einem breiten, flachen, auf ein offenes Meer beschränkten Becken. (2) Spätjurassisch-frühkreidezeitliche sandreiche klastische Progradation von den nördlichen Rändern. (3) Spät-frühkreidezeitliche Entwicklung eines umrandeten Karbonat-Schelfs. (4) Spätkreidezeitliche gemischte klastische und karbonatische Aggradation der Kontinentalränder. (5) Wiederauflebende paläogene klastische Progradation und Auffüllung mit Schwerpunkt im NW-Becken. (6) Miozäne Progradation und Beckenfüllung mit Schwerpunkt im zentralen und nordöstlichen Golf. (7) Spätneogene klimatisch und eustatisch beeinflusste Progradation entlang des zentralen Golfrandes. Im Gegensatz zu dem breiten, progradierenden Sedimentkeil des nördlichen Golfs ist der Florida-Rand eine primär aggradierende Karbonatplattform.

Galloway, 2008.

[Linguee-Übersetzer. Anm. d. Übers.]

Abbildung 4 zeigt deutlich die Bedeutung von Klima, atmosphärischem CO2 und Meeresspiegelzyklen in der Ablagerungsgeschichte der US-Golfküste/des Golfs von Mexiko; aber keine Korrelation von CO2 und Meeresspiegel. Beachten Sie, dass die meisten der Ausgangsgesteinsformationen abgelagert wurden, als das atmosphärische CO2 über 1.000 ppm lag und die Erde wesentlich wärmer war als heute, was auf mehr pflanzliches Leben in den wärmeren, CO2-reichen Zeiten schließen lässt.

Die Temperatur- und CO2-Diagramme haben eine Auflösung von 10 Millionen Jahren; sie sind stark geglättet. Diese spezielle Temperatur-Rekonstruktion (Royer et al., 2004) beinhaltet eine pH-Anpassung, abgeleitet von CO2. Sie demonstriert eine relativ gute Korrelation zwischen CO2 und Temperatur auf einer geologischen Zeitskala. Ein Cross-Plot ergibt jedoch nur eine Gleichgewichts-Klimasensitivität (ECS) von etwa 1,28 °C.

Die moderne Erwärmungsperiode begann am Tiefpunkt der Kleinen Eiszeit (ca. 1600 n. Chr.), der kältesten Periode des Holozäns. Dies war 300 Jahre bevor das atmosphärische CO2 den vermuteten normalen vorindustriellen Bereich deutlich überschritt.

Abbildung 5. Temperaturrekonstruktion (Moberg et al., 2005) und Law Dome CO2 (MacFarling Meure et al., 2006)

Der moderne Anstieg des Meeresspiegels begann am Ende der Neoglazialzeit. Die Meeresspiegel-Rekonstruktion von Jevrejeva et al., 2014 (J14) zeigt, dass der Meeresspiegel in den frühen 1800er Jahren sank:

Abbildung 6: Rekonstruktion des Meeresspiegels aus Tiden-Aufzeichnungen (Jevrejeva et al. 2014). Der Geologenhammer soll die Größenordnung verdeutlichen.

Abbildung 7: Meeresspiegel im Vergleich zur CO2-Aufzeichnung und Temperatur

Klima-Sensitivität (ECS)

Der IPCC (2014) gab eine 66%ige Wahrscheinlichkeit an, dass der ECS-Wert zwischen 1,5 und 4,5°C liegt. …

Um ECS aus der geologischen Aufzeichnung abzuschätzen, werden quantitative gepaarte Aufzeichnungen von atmosphärischem CO2 und globaler Temperatur aus Proxies benötigt …

Viele Studien der geologischen Vergangenheit haben den kanonischen Bereich für ECS von 1,5-4,5°C unterstützt

Wissenschaftliche Stellungnahme der Geological Society of London

Die erste, im Charney-Report 1979 veröffentlichte moderne Schätzung des ECS lag bei 1,5 bis 4,5 Grad Celsius pro Verdoppelung des CO2. Mit anderen Worten, der „kanonische Bereich“ hat sich seit über 40 Jahren nicht verändert. Moderne empirische Schätzungen von ECS, basierend auf instrumentellen Daten, liegen zwischen 0,44 Grad C (Lindzen und Choi, 2011) und 1,6 (Lewis und Curry, 2018). Diese Schätzungen beruhen auf hochauflösenden CO2– und Temperaturdaten, was bei geologischen Schätzungen nicht der Fall ist.

Auch wenn die geologischen Schätzungen des ECS höher sein könnten – die GSL sagt, dass die geologischen Schätzungen im Bereich von 2,6 bis 3,9 Grad liegen – können wir uns mit der Genauigkeit oder Präzision dieser Schätzungen nicht anfreunden. Die Daten, insbesondere die CO2-Daten, sind zu schlecht.

Außerdem präsentieren die Autoren eine Karikatur, die scheinbar eine starke Korrelation von CO2 und Temperatur über das Känozoikum darstellt:

Abbildung 8. GLS känozoische Klimasensitivität (modifiziert nach Lear, et al., 2012). Bild.

Die GSL-Karikatur zeigt eine Klimasensitivität von fast 7°C pro CO2-Verdoppelung. Dies würde zu einer Erwärmung von etwa 3,5 °C seit Mitte der 1800er Jahre führen, die eindeutig nicht stattgefunden hat. Moderne hochauflösende instrumentelle Messungen ergeben eine viel geringere Klimasensitivität.

Parallelen i n den geologischen Aufzeichnungen

Die Autoren versuchen, aus den geologischen Aufzeichnungen Parallelen zum gegenwärtigen Klimawandel zu finden:

Im mittleren Pliozän (vor 3,3-3,1 Millionen Jahren) lagen die atmosphärischen CO2-Konzentrationen zwischen 389 (-8 bis +38) ppm und 331 (-11 bis +13) ppm (de la Vega et al. 2020), was höher ist als die vorindustriellen Werte von ca. 280 ppm und etwas niedriger als die heutigen Werte (ca. 407,4 ± 0,1 ppm im Jahr 2018). Die kontinentalen Konfigurationen der Erde, die Landerhebungen und die Bathymetrie der Ozeane waren alle ähnlich wie heute (Haywood et al. 2016). Das Pliozän war durch mehrere Intervalle gekennzeichnet, in denen das orbitale Forcing dem der Neuzeit ähnlich war und bietet uns daher ein nahes Analogon zum Klima unter modernen CO2-Konzentrationen (McClymont et al. 2020). Während dieses Intervalls waren die globalen Temperaturen ähnlich wie die für das Jahr 2100 vorhergesagten (+2,6 bis 4,8 °C im Vergleich zur vorindustriellen Zeit) unter einem Business-as-usual-Szenario (d. h. ohne den Versuch, die Emissionen zu verringern). Mehrere Arbeitslinien deuten auf Ähnlichkeiten zwischen der modellierten Ozeanzirkulation der Zukunft und derjenigen der Warmzeit des mittleren Pliozäns hin, mit einer schwächeren thermohalinen Zirkulation, die mit der Erwärmung und Schichtung des oberen Ozeans zusammenhängt, aber auch mit einem Rückgang der Eisschilde und des Meereises, einer polwärts gerichteten Verschiebung der terrestrischen Biome und einer schwächeren atmosphärischen Zirkulation (Haywood and Valdes 2004; Cheng et al. 2013; Corvec and Fletcher 2017; Fischer et al. 2018). Der pliozäne Meeresspiegel könnte bis zu 20 m über dem heutigen Wert gelegen haben und im Durchschnitt um 13 ± 5 m über die pliozänen Glazial-Interglazial-Zyklen variiert haben, in Verbindung mit Schwankungen in der Ausdehnung des antarktischen Eisschildes (Grant et al. 2019).

Geological Society of London Wissenschaftliche Stellungnahme

Während „die kontinentalen Konfigurationen der Erde, die Landerhebungen und die Bathymetrie der Ozeane“ während des Pliozäns der heutigen Zeit ähnlicher waren als in früheren Zeitabschnitten, war es im mittleren Pliozän aufgrund tektonischer Unterschiede deutlich wärmer als heute. Der Panama-Seeweg war noch offen und ermöglichte einen viel effizienteren Wärmetransport durch den Ozean. Signifikante Hebungsepisoden in den Rocky Mountains und im Himalaya während des Pleistozäns waren auch treibende Faktoren für die Abkühlung der Erde in den letzten 2 Millionen Jahren.

Die geologischen Aufzeichnungen informieren uns darüber, dass die großen klimatischen Verschiebungen des Känozoikums mit tektonischen Veränderungen korreliert waren.

Abbildung 9. Känozoisches Klima, Tektonik und Kohlenstoff-Isotopen-Exkursionen. (Zachos et al., 2001)

Die Temperaturen in Abbildung 9 wurden aus δ18O in benthischen Foraminiferen unter Verwendung eines Modells ohne Meereis abgeleitet. Salzgehalt und Eisvolumen haben einen Einfluss auf die Umrechnung. Diese Temperaturen sind nur auf das untere Tertiär, das Warmhausklima, anwendbar.

Diese Behauptung über das Pliozän als Präzedenzfall für den modernen Klimawandel ist offenkundig lächerlich:

Während dieses Intervalls waren die globalen Temperaturen ähnlich wie die für das Jahr 2100 vorhergesagten (+2,6 bis 4,8 °C im Vergleich zum vorindustriellen Zeitalter) unter einem Business-as-usual-Szenario (d. h. ohne den Versuch, die Emissionen zu verringern).

Wissenschaftliche Stellungnahme der Geologischen Gesellschaft von London

Sie betrachten RCP8.5 eindeutig als „business as usual“.

Abbildung 10: Szenarien der Klimamodelle Bild

[Bildinschrift: Klimamodelle beruhen auf Szenarien:

RCP-Szenarien werden herangezogen, um zu evaluieren, wie sich das zukünftige Klima unter verschiedenen unterschiedlichen Szenarien von Treibhausgas-Emissionen ändern könnte:

Das RCP2.5 entspricht im Wesentlichen dem „Green New Deal“-Szenario, welchem zufolge die Emissionen darauf begrenzt sind, einen zusätzlichen Strahlungsangtrieb von mehr als 2,5W/m² zu verhindern.

Das RCP4.5 ist ein Szenario starker Abschwächung, etwa durch relativ hohe Kohlenstoff-Steuern. Gemessene Temperaturen folgen derzeit dieser Trajektorie.

Das RCP6.0 ist ein Szenario geringer Abschwächung. Die Emissionen folgen allgemein dieser Trajekgtorie.

Das RCP8.5-Szenario ist ein dystopisches Szenario mit rapidem wirtschaftlichen Wachstum und nur geringen technologischen Fortschritten. Dies wird oftmals als „business as usual“ angesehen und ist die Quelle der meisten Katastrophen-Prophezeiungen.]

Betrachtet man jedoch die gesamte Bandbreite der Modell-Simulationen, wird klar, dass das Klima mehr dem RCP4.5 als dem RCP8.5 folgt.

Abbildung 11. Modelle vs. Beobachtungen. (modifiziert nach Climate Lab Book)

Selbst bei einer zusätzlichen Erwärmung von 0,5 bis 1,0 °C bis zum Ende dieses Jahrhunderts wird sich das Klima immer noch im Bereich der pleistozänen Zwischeneiszeitstadien befinden, also deutlich unter dem mittleren Pliozän.

Abbildung 12. SST in hohen Breiten (°C) aus benthischen Foramen δ18O (Zachos, et al., 2001) und HadSST3 (Hadley Centre / UEA CRU über www.woodfortrees.org) im gleichen Maßstab, gebunden an 1950 n. Chr.

Es kommt alles auf den Kontext und die Auflösung an

Beachten Sie, dass die Auflösung der δ18O-Temperaturrekonstruktion viel geringer ist als die der instrumentellen Aufzeichnung und das HadSST-Signal nicht auflösen würde. Noch einmal: Die geologische Aufzeichnung liefert ein allgemeines Bild des vergangenen Klimawandels, kann aber nicht direkt mit hochauflösenden instrumentellen Aufzeichnungen verglichen werden, ohne sie explizit in den Kontext zu setzen. Die moderne Erwärmung erscheint nur aufgrund der höheren Auflösung der instrumentellen Aufzeichnungen und ihrer Position am Ende der Zeitreihe anomal.

Ljungqvist (2010) hat das Problem durch den direkten Vergleich von instrumentellen Daten mit Proxy-Rekonstruktionen deutlich erklärt.

Die Amplitude der rekonstruierten Temperaturvariabilität auf hundertjährigen Zeitskalen überschreitet 0,6°C. Diese Rekonstruktion ist die erste, die eine ausgeprägte Römische Warmzeit von ca. 1-300 n. Chr. zeigt, die bis zum mittleren Temperaturniveau von 1961-1990 reicht, gefolgt von der Dunkelzeit-Kaltzeit von ca. 300-800 n. Chr. Die mittelalterliche Warmzeit wird ca. 800-1300 n. Chr. gesehen und die kleine Eiszeit ist ca. 1300-1900 n. Chr. deutlich sichtbar, gefolgt von einem raschen Temperaturanstieg im 20 Jahrhundert. Die höchsten Durchschnittstemperaturen in der Rekonstruktion werden in der Mitte bis zum Ende des zehnten Jahrhunderts angetroffen und die niedrigsten im späten siebzehnten Jahrhundert. Die dekadischen Mitteltemperaturen scheinen während wesentlicher Teile der Römischen Warmzeit und der Mittelalterlichen Warmzeit das Niveau der Mitteltemperatur von 1961-1990 erreicht oder überschritten zu haben. Die Temperatur der letzten zwei Jahrzehnte ist jedoch möglicherweise höher als während jeder früheren Zeit in den letzten zwei Jahrtausenden, obwohl dies nur in den instrumentellen Temperaturdaten und nicht in der Multi-Proxy-Rekonstruktion selbst zu sehen ist.

(…)

Die Proxy-Rekonstruktion selbst zeigt keine solch beispiellose Erwärmung, aber wir müssen bedenken, dass nur wenige der in der Rekonstruktion verwendeten Aufzeichnungen bis in die 1990er Jahre reichen. Nichtsdestotrotz wird eine sehr vorsichtige Interpretation des Niveaus der Erwärmung seit 1990 n. Chr. im Vergleich zu den Spitzenwerten der Erwärmung während der römischen Warmzeit und der mittelalterlichen Warmzeit dringend empfohlen.

(… )

Die Amplitude der hier rekonstruierten Temperaturvariabilität auf dekadischen bis hundertjährigen Zeitskalen sollte vermutlich als das Minimum der wahren Variabilität auf diesen Zeitskalen betrachtet werden.

Ljungqvist, 2010

Direkte Vergleiche der modernen instrumentellen Aufzeichnung mit den älteren Proxy-Rekonstruktionen sind nicht robust, weil die Proxy-Daten eine viel geringere Auflösung haben. Die Proxydaten zeigen das „Minimum der wahren Variabilität auf diesen Zeitskalen.“ Die Instrumenten-Daten bilden etwas ab, das näher an der tatsächlichen Variabilität liegt.

Den Proxydaten fehlt die Hochfrequenz-Komponente des Signals. Wenn die Hochfrequenz-Komponente eines Signals herausgefiltert wird, schwächt dies die Amplitude ab. Das ist grundlegende Signaltheorie:

Abbildung 13. Sinuswelle mit 100-pt-Glättungs-Mittelwert angewendet. Beachten Sie die Reduktion der Amplitude aufgrund von Filterung und Glättung. (Wood for Trees) Der Ältere ist nach links gerichtet.

Der direkte Vergleich von Instrumentaldaten mit Proxydaten wird noch problematischer, wenn die Aufzeichnungslänge über 2.000 Jahre hinaus verlängert wird:

Abbildung 14. Holozäne Klima-Rekonstruktion, Andy May. Älter ist links.

Die vermeintlich „vier wärmsten Jahre seit Beginn der Aufzeichnungen“ sind nur etwa 300 Jahre nach dem kältesten Jahrhundert der letzten 100 Jahrhunderte aufgetreten.  Dies könnte nur von jemandem als „Klimakrise“ oder „Klimanotstand“ bezeichnet werden, der sich mit den wissenschaftlichen Grundlagen der Quartärgeologie und der Signalverarbeitung nicht auskennt.

Je länger die Datensatzlänge der Rekonstruktion, desto wichtiger wird die Konsistenz der zeitlichen Auflösung.

„Konsistenz der zeitlichen Auflösung“ bedeutet, dass die Auflösung der älteren Proxies mit den jüngeren Proxies konsistent ist. Die zeitliche Auflösung ist eine Funktion des Stichprobenintervalls…

Wir glauben, dass die größere Fehlerquelle in diesen Rekonstruktionen in der Auswahl der Proxies liegt. Wie in dieser Serie dokumentiert, sind einige der ursprünglichen 73 Proxies von Auflösungsproblemen betroffen, die bedeutende klimatische Ereignisse verbergen, und einige sind von lokalen Bedingungen betroffen, die keine regionale oder globale Bedeutung haben. Andere decken kurze Zeitspannen ab, die die beiden wichtigsten klimatischen Merkmale des Holozäns, die Kleine Eiszeit und das Holozäne Klimaoptimum, nicht abdecken.

(…)
Wir haben auch Proxies mit langen Stichprobenintervallen (größer als 130 Jahre) vermieden, weil sie dazu neigen, die Auflösung der Rekonstruktion zu verringern und wichtige Details abzuschwächen („auszugleichen“). Der kleinste Klimazyklus beträgt etwa 61 bis 64 Jahre, die sogenannte „Stadionwelle“, und wir wollen versuchen, ihrem Einfluss nahe zu kommen. In dieser einfachen Rekonstruktion haben wir versucht, diese Probleme zu berücksichtigen.

Andy May WUWT.

Für zusätzliche Lektüre zur Auflösung, siehe: Auflösung und Hockeyschläger, Teil 1.

Diskussion

Während geologische Daten bei der Untersuchung des Klimas sehr hilfreich sind, wie die GSL sagt, wird die Interpretation der Bedeutung des modernen Klimawandels wahrscheinlich nicht von geologischem Input profitieren. Die Erwärmung über das 20. Jahrhundert beträgt nur etwa ein Grad und die Erwärmung seit 1950, die vom IPCC als Richtwert verwendet wird, beträgt nur etwa 0,7 Grad. Die geologischen Zeiträume sind größer als 1.000 Jahre, wie das GSL-Papier feststellt, und die daraus folgenden Erwärmungs- und Abkühlungsereignisse in der geologischen Aufzeichnung sind größer als fünf Grad. Die geologischen Daten, die wir haben, sind sehr niedrig aufgelöst und werden sich wahrscheinlich nicht verbessern. Das Hauptproblem ist, dass die jüngste Erwärmung auf einer geologischen Skala unbedeutend ist.

[Hervorhebung vom Übersetzer]

Wie oben beschrieben, sind die CO2-Daten niedriger aufgelöst und weniger genau als die Temperaturdaten. Wir haben gesehen, dass der Vergleich von Temperatur-Proxydaten über die letzten 2.000 Jahre mit modernen instrumentellen Daten unangemessen ist, und es ist noch weniger angemessen, geologische Daten mit der modernen instrumentellen Aufzeichnung zu vergleichen. Weder das Ausmaß der jüngsten Erwärmung noch die jüngsten CO2-Konzentrationsänderungen sind über geologische Zeiträume hinweg ungewöhnlich.

Geowissenschaftler haben die Verantwortung, den geologischen Kontext des Klimawandels zu vermitteln, anstatt zu behaupten, dass jede Beobachtung, die nicht in der geologischen Aufzeichnung auflösbar ist, beispiellos und Grund für eine wirtschaftlich zerstörerische Regierungspolitik ist. Es sollte ausreichen zu sagen, dass die anthropogenen CO2-Emissionen wahrscheinlich die Ursache für den größten Teil des Anstiegs von ~280-400 ppm in den letzten 200 Jahren sind und dass dies einen Netto-Erwärmungseffekt auf die Atmosphäre hat. Obwohl so ziemlich jede aktuelle, auf Beobachtungen basierende Schätzung darauf hinweist, dass der Erwärmungseffekt minimal ist.

Obwohl es keinen „Klimanotstand“ gibt, existieren wirtschaftlich gangbare Wege, um die Kohlenstoffintensität unserer Energieproduktion zu reduzieren und das endgültige Wachstum des atmosphärischen CO2 auf ~600 ppm bis zum Ende dieses Jahrhunderts zu begrenzen. Dies würde uns im „Rauschpegel“ des Känozoikums halten.

Abbildung 15a. Marines pCO2 (Foram-Bor δ11B, Alkenon δ13C), atmosphärisches CO2 aus Pflanzenstomata (grüne und gelbe Rauten mit roten Umrissen), instrumentelles CO2 vom Mauna Loa (dicke rote Linie) und känozoische Temperaturänderung aus benthischen Foram δ18O (hellgraue Linie).

Abbildung 15b. Legende zu Abbildung 15a.

Anstatt Fristen für „Netto-Null-Emissionen“ und andere unerreichbare und willkürliche Kriterien festzulegen, sollte der Schwerpunkt auf der Reduktion der Kohlenstoffintensität der Energieerzeugung auf wirtschaftlich nachhaltige Weise liegen. Die Vereinigten Staaten haben dies, größtenteils durch unseren privaten Sektor, bereits getan. Die CO2-Emissionen bei der Stromerzeugung in den USA sind auf das Niveau der 1980er Jahre gesunken, was vor allem auf den Ersatz von Kohle- durch Erdgas-Strom zurückzuführen ist.

Abbildung 16. Quelle: U.S. Energy Information Administration, Monthly Energy Review

Geowissenschaftler werden in diesem Prozess eine entscheidende Rolle spielen, indem sie weiterhin wirtschaftlich förderbare Öl- und Gasreserven finden, die Methoden der geologischen Kohlenstoffabscheidung und -speicherung verbessern, den Weg für die Erweiterung unseres Zugangs zu der riesigen Bandbreite an mineralischen Ressourcen ebnen, die für den Ausbau der „erneuerbaren Energien“ (Wind und Sonne), Batterie- und andere Speichertechnologien benötigt werden, und die sichere geologische Entsorgung von nuklearen Abfallprodukten fördern, und all dies auf die sicherste Art und Weise, mit so wenig Umweltbelastung wie möglich. Wirtschafts-Geowissenschaftler in den Bereichen Öl & Gas und Mineralien sind aufgrund ihrer Erfahrung mit der Projektökonomie besonders gut positioniert, um den Weg zu weisen.

Energie, Wirtschaft und Umwelt sind untrennbar miteinander verbunden. Ohne erschwingliche, zuverlässige Energie kann eine Gesellschaft nicht die wirtschaftlichen Mittel haben, die Umwelt zu schützen. Nichts korreliert stärker mit menschlichem Wohlstand und einer sauberen Umwelt als der billige Zugang zu Energie (May, Climate Catastrophe! Science or Science Fiction?, 2018, S. 7, 18). Für eine Diskussion über Energie und Armut siehe hier.

[Hervorhebung vom Übersetzer]

Der texanische Staatsgeologe und Direktor des Bureau of Economic Geology Scott Tinker hat es in diesem Editorial über Kohlenstoff-Bepreisung sehr gut zusammengefasst:

Kohlenstoff-Bepreisung ist kein Allheilmittel für Klimawandel

Scott Tinker, 23. August 2019

Heute wird viel über die Bepreisung von Kohlendioxid gesprochen, um die CO2-Emissionen zu reduzieren und den Klimawandel zu bekämpfen. Anders als viele Umweltschadstoffe, die eine lokale oder regionale Auswirkung haben, ist Kohlendioxid (CO2) global – es gibt nur eine Atmosphäre. Wenn Maßnahmen zur Reduzierung der atmosphärischen Emissionen in einer Region zu erhöhten Emissionen an anderer Stelle führen, dann gilt das für die gesamte Atmosphäre.

Eine Form der Kohlenstoff-Bepreisung – -steuer, -handel, -gutschriften – wird von vielen Politikern, NGOs, Akademikern und sogar einigen in der Industrie favorisiert. Aber die Realität ist, dass ein Preis für Kohlenstoff von den Entwicklungs- und Schwellenländern nicht durchgesetzt werden wird, weil er ihre Energie teurer macht, und sie zu sehr damit beschäftigt sind, ihre Wirtschaft aufzubauen und sich aus der Armut zu befreien.

In den Industrieländern verteuert die Bepreisung von Kohlenstoff die Herstellung und die Produkte, was wiederum die Produktion in die Entwicklungsländer treibt, wo sie aufgrund niedrigerer Arbeitskosten und weniger strenger Umweltvorschriften und Emissionsstandards günstiger ist. Die globalen Emissionen steigen in der einen gesamten Atmosphäre.

Anders ausgedrückt: Die guten Absichten der Kohlenstoffbepreisung haben einen unbeabsichtigten negativen Einfluss auf den Klimawandel. Dies ist nicht hypothetisch. Es ist Realität.

Wenn die Kohlenstoff-Bepreisung nicht funktioniert, was dann? Die Energiewissenschaft sagt uns, wie wir die CO2-Emissionen in die Atmosphäre in dem erforderlichen Zeitrahmen tatsächlich senken können. Leider scheinen diejenigen, die den Klimawandel am leidenschaftlichsten angehen wollen, die Antworten der Energieexperten nicht zu mögen.

(…)

Welche Optionen mit großem Einfluss auf den Klimawandel schlagen also die Energiewissenschaftler vor?

Erdgas und Kernenergie als Ersatz für Kohle bei der Stromerzeugung in großen Entwicklungsländern wie Indien, China und Vietnam würden einen großen Einfluss haben. Kohlenstoffabscheidung, -nutzung und -speicherung, direkte Kohlenstoffabscheidung aus der Atmosphäre und vielleicht naturbasierte Lösungen wie die Vergrößerung der Wälder würden helfen, besonders in Regionen, die fossile Brennstoffe produzieren, wie die USA, Russland, China und der Nahe Osten.

(…)

Diese wissenschaftlich fundierten und wirtschaftlich untermauerten Energielösungen stellen ein Problem dar. Viele werden von den Menschen, die am meisten über den Klimawandel besorgt sind, nicht favorisiert. Daher werben Politiker, die auf der Suche nach Wählerstimmen für das Klima sind, weiterhin leidenschaftlich für Programme und Maßnahmen, die den Klimawandel nicht wirklich bekämpfen.

Aber wir haben eine bemerkenswerte Gelegenheit. Die Rechte kann die Notwendigkeit anerkennen, den Klimawandel zu bekämpfen. Die Linke kann die Energiewissenschaft anerkennen, die notwendig ist, um eine echte globale Reduktion der Emissionen in die Atmosphäre zu erreichen. Und die Entwicklungs- und Schwellenländer können sich weiter aus der Energiearmut befreien.

Leider scheint dies noch lange nicht der Fall zu sein. Klimapolitik scheint in Europa und den USA Energielösungen zu übertrumpfen, und die Entwicklungsländer verbrennen weiterhin Kohle.

Scott Tinker ist der Allday-Stiftungslehrstuhl für Untergrundgeologie und Direktor des Bureau of Economic Geology an der University of Texas in Austin.

UT News

Sollte der Klimawandel wirklich ein Problem sein, können wir ihn nur angehen, wenn wir wirtschaftlich tragfähige Wege verfolgen, die den Zugang zu erschwinglicher, zuverlässiger Energie bewahren und den weiteren Ausbau des menschlichen Wohlstands ermöglichen. Und der private Sektor ist weitaus besser darin, dies zu tun als jede Regierung.

AZ Quotes

Milton Friedman: „Die regierungsamtliche Lösung eines Problems ist normalerweise genauso schlimm wie das Problem selbst“.

References

Bereiter, Bernhard.  Sarah Eggleston, Jochen Schmitt, Christoph Nehrbass-Ahles, Thomas F. Stocker, Hubertus Fischer, Sepp Kipfstuhl and Jerome Chappellaz. 2015. Revision of the EPICA Dome C CO2 record from 800 to 600 kyr before present. Geophysical Research Letters. . doi: 10.1002/2014GL061957. LINK

Bereiter et al. (2014), Revision of the EPICA Dome C CO2 record from 800 to 600 kyr before present, Geophysical Research Letters, doi: 10.1002/2014GL061957.  Data

Berner, R.A. and Z. Kothavala, 2001. GEOCARB III: A Revised Model of Atmospheric CO2 over Phanerozoic Time, American Journal of Science, v.301, pp.182-204, February 2001.

Charney, J., Arakawa, A., Baker, D., Bolin, B., Dickinson, R., Goody, R., . . . Wunsch, C. (1979). Carbon Dioxide and Climate: A Scientific Assessment. National Research Council. Washington DC: National Academies Press. Doi: https://doi.org/10.17226/12181

Dott, Robert H. & Roger L. Batten.  Evolution of the Earth.  McGraw-Hill, Inc.  Second Edition 1976.  p. 441.

Galloway, William. (2008). “Chapter 15 Depositional Evolution of the Gulf of Mexico Sedimentary Basin”. Volume 5: Ed. Andrew D. Miall, The Sedimentary Basins of the United States and Canada., ISBN: 978-0-444-50425-8, Elsevier B.V., pp. 505-549.

Jevrejeva, S., J. C. Moore, A. Grinsted, and P. L. Woodworth (2008). “Recent global sea level acceleration started over 200 years ago?”. Geophys. Res. Lett., 35, L08715, doi:10.1029/2008GL033611.

Jevrejeva, S. , J.C. Moore, A. Grinsted, A.P. Matthews, G. Spada. 2014.  “Trends and acceleration in global and regional sea levels since 1807”.  Global and Planetary Change. %vol 113, 10.1016/j.gloplacha.2013.12.004 https://www.psmsl.org/products/reconstructions/jevrejevaetal2014.php

Lear, Caroline H., Pallavi Anand, Tom Blenkinsop, Gavin L. Foster, Mary Gagen, Babette Hoogakker, Robert D. Larter, Daniel J. Lunt, I. Nicholas McCave, Erin McClymont, Richard D. Pancost, Rosalind E.M. Rickaby, David M. Schultz, Colin Summerhayes, Charles J.R. Williams and Jan Zalasiewicz. Geological Society of London Scientific Statement: what the geological record tells us about our present and future climate.
Journal of the Geological Society, 178, jgs2020-239, 28 December 2020, https://doi.org/10.1144/jgs2020-239

Lewis, N., & Curry, J. (2018, April 23). The impact of recent forcing and ocean heat uptake data on estimates of climate sensitivity. Journal of Climate. Retrieved from https://journals.ametsoc.org/doi/10.1175/JCLI-D-17-0667.1

Lindzen, R., & Choi, Y.-S. (2011, August 28). On the Observational Determination of Climate Sensitivity and Implications. Asia-Pacific Journal of Atmospheric Sciences, 47(377). Retrieved from https://link.springer.com/article/10.1007/s13143-011-0023-x#citeas

Ljungqvist, F.C. 2010. “A new reconstruction of temperature variability in the extra-tropical Northern Hemisphere during the last two millennia”. Geografiska Annaler: Physical Geography, Vol. 92 A(3), pp. 339-351, September 2010. DOI: 10.1111/j.1468-459.2010.00399.x

MacFarling-Meure, C., D. Etheridge, C. Trudinger, P. Steele, R. Langenfelds, T. van Ommen, A. Smith, and J. Elkins (2006). “Law Dome CO2, CH4 and N2O ice core records extended to 2000 years BP“. Geophys. Res. Lett., 33, L14810, doi:10.1029/2006GL026152.

May, Andy. Climate Catastrophe! Science or Science Fiction? American Freedom Publications LLC, 2018.

Miller, Kenneth & Kominz, Michelle & V Browning, James & Wright, James & Mountain, Gregory & E Katz, Miriam & J Sugarman, Peter & Cramer, Benjamin & Christie-Blick, Nicholas & Pekar, S. (2005). “The Phanerozoic Record of Global Sea-Level Change”. Science (New York, N.Y.). 310. 1293-8. 10.1126/science.1116412.

Moberg, A., D.M. Sonechkin, K. Holmgren, N.M. Datsenko and W. Karlén. 2005.  “Highly variable Northern Hemisphere temperatures reconstructed from low- and high-resolution proxy data”. Nature, Vol. 433, No. 7026, pp. 613-617, 10 February 2005.

Nerem,  R. S.,  B. D. Beckley, J. T. Fasullo, B. D. Hamlington, D. Masters, G. T. Mitchum. “Climate-change–driven accelerated sea-level rise”. Proceedings of the National Academy of Sciences. Feb 2018, 115 (9) 2022-2025; DOI: 10.1073/pnas.1717312115

Pagani, Mark, Michael Arthur & Katherine Freeman. (1999). “Miocene evolution of atmospheric carbon dioxide”. Paleoceanography. 14. 273-292. 10.1029/1999PA900006.

Royer, D. L., R. A. Berner, I. P. Montanez, N. J. Tabor and D. J. Beerling. “CO2 as a primary driver of Phanerozoic climate”.  GSA Today, Vol. 14, No. 3. (2004), pp. 4-10

Severinghaus, J. P., Sowers, T., Brook, E. J., Alley, R. B., & Bender, M. L. (1998, January 8). Timing of abrupt climate change at the end of the Younger Dryas interval from thermally fractionated gases in polar ice. Nature, 391, pp. 141-146. Retrieved from http://shadow.eas.gatech.edu/~jean/paleo/Severinghaus_1998.pdf

Terando, A., Reidmiller, D., Hostetler, S.W., Littell, J.S., Beard, T.D., Jr., Weiskopf, S.R., Belnap, J., and Plumlee, G.S., 2020, Using information from global climate models to inform policymaking—The role of the U.S. Geological Survey: U.S. Geological Survey Open-File Report 2020–1058, 25 p., https://doi.org/10.3133/ofr20201058.

Tripati, A.K., C.D. Roberts, and R.A. Eagle. 2009.  “Coupling of CO2 and Ice Sheet Stability Over Major Climate Transitions of the Last 20 Million Years”.  Science, Vol. 326, pp. 1394 1397, 4 December 2009.  DOI: 10.1126/science.1178296

Wagner F, et al., 1999. Century-scale shifts in Early Holocene CO2 concentration. Science 284:1971–1973.

Wagner F, Kouwenberg LLR, van Hoof TB, Visscher H, 2004. Reproducibility of Holocene atmospheric CO2 records based on stomatal frequency. Quat Sci Rev 23:1947–1954.  LINK

Zachos, J. C., Pagani, M., Sloan, L. C., Thomas, E. & Billups, K. “Trends, rhythms, and aberrations in global climate 65 Ma to present”. Science 292, 686–-693 (2001).

Link: https://wattsupwiththat.com/2021/01/13/may-middleton-rebuttal-to-geological-society-of-london-scientific-statement-on-climate-change/

Übersetzt von Chris Frey EIKE




Biden könnte dabei helfen, die Bergbau-Tragödie in Entwicklungs­ländern zu lindern

Bidens „Krieg gegen die Umweltverschmutzung“ erfordert eine weltweite Transparenz der Lieferketten sowie Umwelt- und Arbeitsschutzgesetze und -standards, um die Umweltzerstörung und die Gräueltaten an der Menschheit zu kontrollieren, die auf der ganzen Welt durch den Bergbau in den fernen Ländern entstehen, die die Lieferkette der exotischen Mineralien und Metalle zur Herstellung von Windturbinen, Solarzellen und EV-Batterien dominieren.

Die dunkle Seite der erneuerbaren Wind-, Solar-, EV-Batterien und Biokraftstoff-Energie ist, dass sie nicht sauber, grün, erneuerbar oder nachhaltig sind. Sie sind entsetzlich zerstörerisch für die lebenswichtigen ökologischen Werte in fremden Ländern, die noch für Generationen bestehen werden.

[Hervorhebung vom Übersetzer]

Am Ende des Lebenszyklus von Windturbinen, Solarmodulen und EV-Batterien hat Biden die Möglichkeit, Stilllegungs-, Wiederherstellungs- und Recycling-Standards in fremden Ländern bis zum letzten Löwenzahn anzustreben, so wie wir es für stillgelegte Minen, Öl- oder Atomanlagen in Amerika haben.

Der Klimawandel bleibt eine der größten Bedrohungen für die Integrität des Lebens auf der Erde [?]. Aber wir brauchen unbedingt ein Mitgefühl für den Kompromiss, fossile Brennstoffe zu schnell zu eliminieren, weil sich dadurch der Tod von jährlich 11 Millionen Kindern weltweit fortsetzen dürfte. Diese Todesfälle sind auf vermeidbare Ursachen wie Durchfall, Malaria, Infektionen bei Neugeborenen, Lungenentzündungen, Frühgeburten oder Sauerstoffmangel bei der Geburt zurückzuführen, da viele Entwicklungsländer keinen oder nur minimalen Zugang zu den Tausenden von Produkten aus Erdölderivaten haben, deren sich die wohlhabenden und gesunden Länder erfreuen.

Biden kann der Welt die Notwendigkeit vermitteln zu begreifen, dass Energie mehr ist als intermittierende Elektrizität aus Wind und Sonne. Seit der Entdeckung der Vielseitigkeit der Produkte, die aus Erdölderivaten hergestellt werden können, und dem Beginn der Herstellung und Montage von Autos, Lastwagen, Flugzeugen und militärischer Ausrüstung in den frühen 1900er Jahren hatte die Welt fast 200 Jahre Zeit, etwas zu entwickeln, um die Erdölderivate zu ersetzen, welche die Grundlage für mehr als 6.000 Produkte bilden, die die Basis für den Lebensstil und Volkswirtschaften auf der ganzen Welt sind.

Die sozialen Bedürfnisse unserer materialistischen Gesellschaften, sowohl in den USA als auch weltweit, werden höchstwahrscheinlich weiterhin nach kontinuierlicher, unterbrechungsfreier und zuverlässiger Elektrizität aus Kohle, Erdgas oder Kernenergie als Backup für die intermittierenden erneuerbaren Energien und für all die chemischen Derivate verlangen, die aus Erdöl hergestellt werden und aus denen alles besteht, was Teil unseres täglichen Lebensstils und unserer Wirtschaft ist.

Der Schlüssel zu Reichtum und Wohlstand ist der kontinuierliche Zugang zu den Tausenden von Produkten, die aus Erdölderivaten hergestellt werden, sowie zu zuverlässiger, kontinuierlicher, unterbrechungsfreier und bezahlbarer Elektrizität. Die „unzuverlässigen“ Quellen Wind und Solar bedrohen sowohl Reichtum als auch Wohlstand.

In Amerika leben nur etwa vier Prozent der Weltbevölkerung (330 Millionen vs. 8 Milliarden). Biden weiß, dass Öl und Gas nicht nur ein amerikanisches Geschäft mit seinen 135 Raffinerien in den USA ist, sondern eine internationale Industrie mit mehr als 700 Raffinerien weltweit, die den Bedarf der 8 Milliarden Menschen auf der Erde bedienen.

Die unbeabsichtigte Folge von Bidens Ziel, bis 2050 in Amerika keine fossilen Brennstoffe mehr zu verwenden, wird sein, dass die Brennstoffe und Produkte aus dem Ausland importiert werden, wo die Umweltkontrollen wesentlich weniger streng sind. Dieser Plan kann zwar funktionieren, geht aber mit höheren Kosten für den amerikanischen Verbraucher einher und kann Amerika in ein nationales Sicherheitsrisiko mit erhöhter Abhängigkeit von ausländischen Ländern für die Produkte und Brennstoffe für Amerikas Wirtschaft setzen.

Biden muss das Rad nicht neu erfinden, indem er die Transparenz der weltweiten Umwelt- und Arbeitsgesetze einfordert, da die Handelsorganisation der Vereinten Nationen UNCTAD bereits einen Bericht herausgegeben hat, der einige der unbeabsichtigten negativen Folgen der grünen Bewegung oder der „Verlagerung“ von Emissionen ins Ausland aufschlüsselt, die sowohl ökologische Degradation als auch Menschenrechtsverletzungen umfassen.

Darüber hinaus hat Amnesty International dokumentiert, dass Kinder und Erwachsene Kobalt in engen, von Menschenhand geschaffenen Tunneln abbauen und die Exposition gegenüber den dabei freigesetzten gefährlichen Gasen, ganz zu schweigen von der Zerstörung der lokalen Ökosysteme, wenn das Abwasser und andere unbrauchbare Erze einfach in der Umgebung abgelagert werden. Sie haben keine andere Wahl, wenn sie überleben wollen, weil ihre Löhne so verschwindend gering sind. All dies sollte uns veranlassen, einen Schritt zurückzutreten und unsere moralischen Verpflichtungen gegenüber diesem Teil der Menschheit zu überprüfen.

[Hervorhebung vom Übersetzer]

Amerika könnte den nachhaltigen Bergbau in diesen Entwicklungsländern fördern, indem es das Land nach der Schließung der Mine zu einem gesunden Ökosystem zurückführt und den umliegenden Gemeinden mehr Wohlstand, Bildung, Gesundheitsversorgung und Infrastruktur hinterlässt, als sie vor der Inbetriebnahme der Mine hatten. Wie der Bergbau in Amerika muss auch der Bergbau in Entwicklungsländern das Ziel der sozialen Verantwortung von Unternehmen und das Ergebnis der erfolgreichen ökologischen Wiederherstellung von Landschaften sein.

Amerikas Leidenschaft für grünen Strom zur Reduzierung von Emissionen muss ethisch sein und sollte nicht von Menschenrechts- und Umweltverletzungen in den fremden Ländern leben, die die exotischen Mineralien und Metalle zur Unterstützung von Amerikas grüner Leidenschaft liefern.

Autor: Ronald Stein is an engineer who, drawing upon 25 years of project management and business development experience, launched PTS Advance in 1995. He is an author, engineer, and energy expert who writes frequently on issues of energy and economics.

Link: https://www.cfact.org/2021/01/09/biden-should-help-clean-up-the-developing-worlds-exotic-mining-tragedy/

Übersetzt von Chris Frey EIKE

 




Woher kommt der Strom? Überangebot im Markt

Woche 53. (Abbildung, bitte unbedingt anklicken. Es öffnen sich alle Abbildungen und mehr)

  1. Wenn die regenerative Stromerzeugung sehr stark ist, kommt es zu häufig zu einem Überangebot im Markt. Kommt dann noch wenig Bedarf hinzu, kommt dann noch die Mindesterzeugung (20 GW zwecks Netzstabilität) durch konventionelle Kraftwerke hinzu, dann muss der überschüssige Strom zu niedrigen Preisen verkauft, vielleicht sogar verschenkt werden. Verschenkt mit einem Bonusscheck, damit Deutschlands Nachbarn den Strom überhaupt abnehmen. Letzteres war am Sonntag, den 27.12.2020 beispielhaft der Fall.
  2. Wenn nach einem Zeitraum sehr starker regenerativer Stromerzeugung diese rapide und stark abfällt, kommen die konventionellen Stromerzeuger nicht schnell genug mit dem Hochfahren nach (Abbildung 1). Dann entsteht eine Stromversorgungslücke, die in aller Regel hochpreisig geschlossen werden muss. Genau das war am Montag der Fall (Abbildung 2)
  3. Wenn die konventionellen Stromerzeuger den Erzeugungsverlauf der erneuerbaren Stromerzeugung gut nachführen, also kaum ein Überangebot entsteht, sind die Preise, die Deutschland erzielt, häufig auskömmlich, ab und zu auch mehr als auskömmlich. Dies trifft in erster Linie auf die Mittags- und Vorabendzeit zu. Auch diesen Sachverhalt dokumentiert die 53. Woche.
  4. Kommt es hingegen aus welchen Gründen auch immer – es kann auch spekulative Gründe haben – zu einer Stromunterdeckung zu genau diesen Zeiträumen (Mittag 11:00 bis 13:00 Uhr/Vorabend 17:00 bis 19:00 Uhr), muss der Strombedarf mittels Importstrom gedeckt werden. Das war am besagten Montag, aber auch am Freitag und Samstag der Fall. Da wurden die höchsten Preise der 53. Woche aufgerufen. Höchstpreise, die Deutschland bezahlte.
  5. Je volatiler die Strompreise sind, desto besser können Preisdifferenzgeschäfte getätigt werden. Die 53. Woche liefert auch dafür gute Beispiele (Abbildung 3). Am markantesten sind selbstverständlich der Sonntag und der Montag. Vor allem Dänemark, aber auch Österreich, die Schweiz, Frankreich nahmen Gratisstrom plus Scheck an, um am folgenden Tag ihren Strom hochpreisig an Deutschland zu verkaufen.

Die Tabelle mit den Werten der Energy-Charts und der daraus generierte Chart liegen unter Abbildung 4, die Charts mit den Jahresdaten Import-Export, die Im-, Exportdaten der 53. Woche (beides bis 31.12.2020) liegen unter Abbildung 5 ab.

Die angenommene Verdoppelung der Wind- und Sonnenstromerzeugung hat zu überraschenden Ergebnissen geführt (Abbildung 6). Lediglich an 121 von 366 Tagen des Jahres 2020 hätte diese ausgereicht, um zumindest rein rechnerisch den Strom-Tagesbedarf Deutschlands zu decken. Eine stunden- oder gar viertelstundenscharfe Analyse könnte das Ergebnis durchaus noch negativer aussehen lassen. Wie auch immer. Nicht mal an einem Drittel der Tage des Jahres 2020 hätte eine Verdoppelung Wind- und Sonnenstrom ausgereicht. Noch ernüchternder ist die Analyse des Stromüberschusses bzw. der Stromunterdeckung.  An den 121 Tagen, wo die Verdoppelung ausgereicht hätte, wurden 32,1 TWh überschüssiger Strom produziert. An den Tagen, wo die Verdoppelung nicht ausgereicht hätte fehlten 95,73 TWh Strom.  Bemerkenswerterweise ist es auch hier ziemlich genau nur ein Drittel des fehlenden Stroms, der an den 121 Tagen „zu viel“ erzeugt wurde

Sonntag, 27.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 75,86 Prozent, davon Windstrom 63,45 Prozent, Sonnenstrom 2,07 Prozent, Strom Biomasse/Wasserkraft 10,34 Prozent. Die Agora-Chartmatrix: Hier klicken.

Sonntag, wenig Bedarf und auch deshalb viel zu viel Strom ist im Markt. Die konventionellen Stromerzeuger dürfen aus Gründen der Netzstabilität 20 GW nicht unterschreiten. Die Preise fallen ins Bodenlose. Es ist ein wirtschaftliches Desaster. Für Deutschland. Unsere Nachbarn langen zu. Nehmen Strom plus Scheck dankend oder gar feixend entgegen: Sie ahnen vielleicht, dass sie am folgenden Tag womöglich weitere gute Geschäfte machen können.

Montag, 28.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 41,88 Prozent, davon Windstrom 27,35 Prozent, Sonnenstrom 1,71 Prozent, Strom Biomasse/Wasserkraft 12,82 Prozent. Die Agora-Chartmatrix: Hier klicken.

Gestern viel zu viel Strom im Markt. Heute zu wenig. Die Windstromerzeugung ist nahezu komplett eingebrochen. Hinzu kommt der Bedarf eines Werktags. Ab 12:30 fehlt Strom, muss Strom importiert werden. Aus den Staaten, denen Deutschland noch gestern Strom plus Geld (Geld der Stromkunden) nachgeworfen hat. Der Zusammenhang mit dem regenerativ erzeugten Strom ist offensichtlich. Je weniger desto besser. Aber nicht so wenig, dass die Konventionellen nicht mehr nachkommen. Dann wird es teuer.

Dienstag, 29.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 42,15 Prozentdavon Windstrom 26,45 Prozent, Sonnenstrom 2,48 Prozent, Strom Biomasse/Wasserkraft 13,22 Prozent. Die Agora-Chartmatrix: Hier klicken.

Ab Dienstag 6:00 Uhr ist das Schlimmste vorbei. Die konventionelle Stromerzeugung folgt der regenerativen Erzeugung gut. Diese ist heute gut kalkulierbar. Dementsprechend sind die Preise, die erzielt werden.

Mittwoch, 30.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 48,89 Prozentdavon Windstrom 34,81 Prozent, Sonnenstrom 2,96 Prozent, Strom Biomasse/Wasserkraft 11,11 Prozent. Die Agora-Chartmatrix: Hier klicken.

Auch dieser Tag, der Mittwoch ist für die Konventionellen ein entspannter Tag. Es sei erwähnt, dass Bedarfs-Spitzen immer mit Pumpspeicherstrom abgedeckt werden. Deutschland exportiert. Von 8:00 bis 19:00 Uhr zu Preisen immer über 54€/MWh. Um 17:00 Uhr werden sogar 60€/MWh abgegriffen. Von diesen Nachbarn.

Donnerstag, 31.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 41,32 Prozent, davon Windstrom 25,26 Prozent, Sonnenstrom 3,31 Prozent, Strom Biomasse/Wasserkraft 12,40 Prozent. Die Agora-Chartmatrix: Hier klicken

Heute lässt die Windstromerzeugung nach. Die konventionelle Stromerzeugung gleicht aber gut aus. Es entstehen keine Deckungslücken. Die Preise sind meist auskömmlich. Für Deutschland. Diese Nachbarn zahlen.

Freitag, 1.1.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 24,51 Prozent, davon Windstrom 7,84 Prozent, Sonnenstrom 1,96 Prozent, Strom Biomasse/Wasserkraft 14,71 Prozent. Die Agora-Chartmatrix: Hier klicken.

Am ersten Tag des neuen Jahres findet regenerative Stromerzeugung praktisch nicht statt. Zum Glück ist der Bedarf niedrig. So bleibt es bei einer auf Kante genähten konventionellen Stromerzeugung mit nur einer geringen Lücke zu Vorabend. Eine Lücke, die hochpreisig geschlossen werden muss.

Samstag, 2.1.2021: Anteil Erneuerbare an der Gesamtstromerzeugung 24,07 Prozent, davon Windstrom 8,33 Prozent, Sonnenstrom 1,85 Prozent, Strom Biomasse/Wasserkraft 13,89 Prozent. Die Agora-ChartmatrixHier klicken.

Annähernd das gleiche Bild wie gestern. Die Konventionellen halten sich zurück. Sie kommen über die „Kante“ kaum hinaus. Deutschland importiert den fehlenden Strom. Die Importpreise sind entsprechend.

Sonntag, 3.1.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 47,62 Prozent, davon Windstrom 34,92Prozent, Sonnenstrom 0,79 Prozent, Strom Biomasse/Wasserkraft 11,90 Prozent. Die Agora-Chartmatrix: Hier klicken.

Die Windstromerzeugung zieht moderat an. Die konventionelle Stromerzeugung kann recht gut folgen. Am Mittag, am Vorabend erzielt Deutschland gute Preise für seinen Exportstrom. Von diesen Nachbarn. Glück gehabt, dass die Windstromerzeugung dann doch moderat ist. So wurde eine Katastrophe wie am Sonntag, den 27.12.2020 vermieden.

Nach zwei Jahren und über 100 Artikeln „Woher kommt der Strom?“ möchte ich auf folgende Sachverhalte hinweisen. Alle Daten der Energy-Charts wurden und werden per Hand in eine Excel-Vorlage eingetragen. Leider werden diese Daten auch weit im Nachhinein von den Energy-Charts verändert. Hinzu kam ein Paradigmenwechsel im Oktober 2020. Die Im- und Exportdaten der Energy-Charts werden seitdem komplett in GWh angegeben und nicht mehr mit nur zwei Nachkommastellen in TWh. Die viel größere Genauigkeit machte ein Nachtrag dieser Zahlen in meiner Tabelle notwendig. Dennoch sind die Tabellen der Energy-Charts, welche auf der Achse veröffentlicht wurden, nicht korrekt. Um dieses Manko auszugleichen, werden wir die komplette Exceltabelle mit allen Charts veröffentlichen. Allerdings erst dann, wenn mit Energy-Charts noch einiger weitere Ungereimtheiten abgeklärt wurden. Im Lauf des Jahres ist auch für die Kolumne eine automatisierte Datenerfassung geplant.

Wahrscheinlich noch im Januar wird die Webseite www.stromdaten.info online gestellt werden. Diese Seite greift auf Daten des Agorameter und smard.de zu. Es kann zwischen beiden Datengebern gewechselt werden. Etliche Analysen in Sachen Strom werden möglich. Darüber hinaus wird das Thema „Wasserstoffwirtschaft“ zentral sein. Ein Simulationstool ermöglicht einen physikalisch realistischen Blick auf verschiedene Ideen, aber auch auf konkrete (Forschungs-) Projekte. Vervollständigt wird die Seite durch einen Info- und einen Debattenteil. Lassen Sie sich überraschen.

Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr.

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.