Wie zuverlässig sind die ermittelten Globaltemperaturen der letzten 170 Jahre?

Jedes Messergebnis wird unter speziellen Messbedingungen erzielt. Diese sind möglichst konstant zu halten und stets anzugeben. Das Messresultat ist immer mit einer Messunsicherheit (Messabweichung, veraltet: Fehler) behaftet.

Die für Messungen verwendeten Messgeräte wurden im Laufe der Zeit immer genauer.
Problematisch war in der 2. Hälfte des 20. Jahrhunderts der Übergang von Analog-Anzeigen auf Digitalanzeigen. Die digitale Anzeige von Messergebnissen gaukelt oft dem ungeschulten Anwender eine Genauigkeit vor, die nicht vorhanden ist. Liegt beispielsweise die abgelesene Spannung von 12,62 V an den Messpunkten an, die wir ablesen? Oder fahren wir tatsächlich die 88 km/h, die uns der Digital-Tacho anzeigt? Nein, Messungen sind immer mit Messabweichungen behaftet. Im allgemeinen Sprachgebrauch wird für eine Messabweichung meist (noch) der Begriff Messfehler oder kurz Fehler verwendet. Jedoch empfehlt z.B. die DIN-Norm 1319, diesen Begriff durch den der
(Mess-)Abweichung zu ersetzen.

Frank C. Müller, CC BY-SA 4.0 <https://creativecommons.org/licenses/by-sa/4.0>, via Wikimedia Commons

Personenwaage fcm, CC BY-SA 4.0,

Abb 1:  Welcher Waage vertrauen wir mehr?  Analog oder Digital…
Bild links: Frank C. Müller, Personenwaage fcmCC BY-SA 4.0, Bild rechts: Digital-Personenwaage (Bild ohne Lizenz)

1.2.) Kalibrieren und Eichen
Kalibrieren bzw. Eichen (Eichamt) ist der Vergleich einer bezifferten Skala mit einem Normal. Jedes Messgerät (Messeinrichtung), das auf einem physikalischen Messprinzip beruht, muss an ein Sekundär- oder Primär-Normal mit geringerer Messunsicherheit gekoppelt sein. Kalibrierte bzw. geeichte Messgeräte sind somit mit geringeren Messunsicherheiten behaftet. Trotzdem sind Messungen mit diesen Geräten nicht fehlerfrei. Es verbleibt die Messunsicherheit des Gerätes und die Fehleranfälligkeit durch die messende Person.

Als Erkenntnis dieser Einleitung sollte erreicht werden, dass der Leser an fremde Messergebisse kritisch herangehen sollte. Informationen zu den Messgeräten, den Mess-Bedingungen, Anzahl der Messungen, u.s.w. sind unerlässlich. Deutlich ausgedrückt: Ohne Zusatzinformationen sind Messergebisse wertlos! Weitere Informationen in den nächsten Kapiteln. Diese grundlegenden Voraussetzungen werden in den folgenden Kapiteln auf die Zuverlässigkeit der Global-Temperatur-Daten angewendet.

2.) Art der Messabweichungen

2.1.) Zufällige Messabweichungen
Zufällige Messabweichungen entstehen aufgrund nicht beherrschbarer, nicht determinier- ter Einflüsse. Sie sind nicht vorausbestimmbar. Werden die Messungen am selben Messobjekt unter gleichen Bedingungen wiederholt, führen sie zur Streuung der Messwerte. Deshalb lassen sich diese zufälligen Messabweichungen sehr gut mit mathematisch statistischen Methoden ermitteln und eingrenzen. Diese Methode soll jedoch nicht innerhalb dieses Aufsatzes behandelt werden. Es gibt hierzu genügend gute Fachliteratur.

2.2.) Systematische Messabweichungen
Systematische Messabweichungen haben einen konstanten Betrag mit einem bestimmten Vorzeichen oder unterliegen nur einer sehr langsamen Veränderung aufgrund einer Ursache, die die Messgröße nur in eine Richtung verändert. Sie führen zu einer immer gleichen, zeitlich konstanten Differenz des Messwerts vom wahren Wert, d. h. zu einem „falschen“ Messergebnis. Systematische Messabweichungen sind durch Wiederholungen der Messungen unter gleichen Bedingungen nicht erkennbar!

3.) Temperatur-Messungen

Die Bestimmung der genauen Temperatur eines Systems ist trotz der alltäglichen Anwendungen keine triviale Sache – jedenfalls nicht, wenn man es genau nimmt. Im Gegenteil, die genaue Temperatur-Messung ist eine besondere Herausforderung. Eine Vielzahl von Unwägbarkeiten beeinflussen eine exakte Messung: Richtiges Thermometer für die jeweilige Anwendung, Genauigkeit des Thermometers, Sorgfältigkeit der Messung, äußere Einflüsse wie Licht oder Wärmestrahlung, u.s.w.. Einfach formuliert, die möglichen systematischen Fehler sind zahllos. Temperaturmessungen sind häufig falsch.

3.1.)  Definition der Temperaturmessung
Sämtliche Verfahren zur Bestimmung der Temperatur eines thermodynamischen Systems durch Vergleich mit einer Temperaturreferenz, z.B. dem Thermometer. Hierfür können im Prinzip jegliche physikalischen Größen (z.B. Länge, elektrischer WiderstandStrahlungsgrößen) oder chemischen Eigenschaften (z.B. Temperatur-Messfarben) verwendet werden, die sich mit der Temperatur gesetzmäßig ändern.

3.2.)  Arten von Thermometer
Die Zahl der unterschiedlichen Arten von Thermometern ist nahezu unüberschaubar. Prinzipiell wird unterschieden zwischen Berührungs-Thermometern und Thermometern, die auf berührungslosen Verfahren beruhen. Die Diskussion zu den unterschiedlichen Arten von Thermometern würde den Rahmen dieses Aufsatzes sprengen.

4.) Temperatur-Messung in der Meteorologie / Klimatologie

Inzwischen nähern wir uns der eigentlichen Fragestellung zur „Zuverlässigkeit der Temperatur-Messdaten der letzten 170 Jahre“. Betrachten wir die Fakten zur Ermittlung der mittleren Global-Temperaturen in diesem Zeitraum. Doch zunächst 2 entscheidende Begriffs-Definitionen.

4.1.)  Direkte Messung durch Thermometer
Viel Menschen haben schon eine meteorologische Mess-Station gesehen. Seit dem 17. Jahrhundert (England) werden weltweit regelmäßig verschiedene Parameter des Wetters gemessen. Insbesondere ab dem 19. Jahrhundert sind Mess-Stationen in vielen Ländern weit verbreitet. Hauptzweck ist es, die Daten-Grundlage für die lokale Wetter-Vorhersage zu erlangen. Nicht zu vergessen die Einsätze von Wetter-Ballonen oder Flugzeugen durch Meteorologen. Dadurch wird es möglich, auch Daten von unterschiedlichen Luftschichten der Atmosphäre zu erhalten.

Abb. 2:  DWD-Wetterwarte bei Weiden/Opf. (Bild: ohne Lizenz)

 

4.2.)  Indirekte Messung durch Proxy-Daten

Die meisten Leute werden sich bei der aktuellen Klimawandel-Diskussion fragen: Woher kommen eigentlich die Temperatur-Daten aus dem Mittelalter, aus dem Römischen Zeitalter, viele Jahrtausende oder 100 Tausende oder sogar Millionen Jahre zurück? Da gab es keine Thermometer bzw. gar keine Menschen! Wie ist das möglich?

Natürlich wurden die Temperaturen bei den Römern nicht direkt gemessen, sie hatten definitiv noch keine Thermometer. Hier sprechen die Forscher von so genannten Proxy-Daten. Das sind Temperatur-Daten, die durch indirekte Messungen erhalten werden. „Proxy-Daten“ ist ein Sammelbegriff für Informationen, die indirekt Auskunft über vergangene Klimaverhältnisse geben. Proxydaten erhalten wir aus Baumringen und Wachstumsringen in anderen Organismen (wie Korallen), Isotopenmessungen in Eisbohrkernen oder Sedimenten, oder biologische Proben wie etwa Pollenanalysen.

 5.) Zuverlässigkeit der Temperatur- Daten

 5.1.) Zuverlässigkeit der Proxy-Daten
Proxy-Daten werden grundsätzlich über längere Zeiträume der Erd-Vergangenheit ermittelt.Zum Beispiel bei Baumringen hunderte von Jahren oder Eisbohrkerne 10 Tausende von Jahren. Die große Stärke der Proxy-Daten-Ermittlung liegt in der in sich abgeschlossenen Methodik, der Konsistenz der Daten. Nehmen wir als Beispiel die zeitliche Abfolge der Schichten in Eisbohr-Kernen. Alle Proben werden an einer Stelle eines Gletschers bzw. eines Inlandeis-Panzers entnommen, gleich aufbereitet und mit derselben Methode gemessen. Vorausgesetzt, es werden keine groben Fehler gemacht, sind die Ergebnisse in sich konsistent und zuverlässig. Die besondere Stärke liegt in der guten Genauigkeit der relativen Änderungen innerhalb der jeweiligen Messreihen. Die Ermittlung der absoluten Temperatur im betrachteten Zeitraum ist kaum möglich.

5.2.) Zuverlässigkeit der direkt gemessenen Temperaturen seit 1850

Somit sind wir beim Hauptpunkt dieses Aufsatzes. Die gesamte Diskussion zum Thema „Klimawandel“ und „Erderwärmung“ basiert auf den Temperaturdaten der letzten 170 Jahre. Warum wird immer auf das Jahr 1850 referenziert? Der Zeitraum rund um das Jahr 1850 gilt als der Startpunkt der industriellen Revolution. Sozusagen der Beginn allen Übels bei vielen Protagonisten. Doch wie zuverlässig sind die weltweit direkt gemessenen Daten der letzten 170 Jahre? Das soll in den folgenden Kapiteln behandelt werden.

6.) Pseudo-Wissenschaft. „Gefahr“ durch Klima-Erwärmung.

Eine verbreitete Aussage bei den Physikern lautet „Wer viel misst, misst Mist“. Die Physik legt höchste Maßstäbe in die Ermittlung und Verarbeitung von Mess-Ergebnissen. Deshalb sind Physiker auch besonders kritisch, wenn sie Messungen in anderen Fachgebieten der Naturwissenschaft und Ingenieurs-Wissenschaften beurteilen.

 6.1.) Ivar Giaever bezeichnet die Klimawissenschaft als Pseudo-Wissenschaft.

Der hoch angesehene norwegisch amerikanische Physiker und Nobelpreis-Träger Ivar Giaever bezeichnete in dem viel beachteten Gast-Vortrag während des Nobelpreisträger-Treffens von 2012 in Lindau die Klimawissenschaft, basierend auf den seit 1850 ermittelten jährlichen Durchschnitts-Temperaturen der Erde, als Pseudo-Wissenschaft. Die Begründung ist nicht von der Hand zu weisen. Selbstverständlich verunglimpfen die „Klima-Alarmisten“ diese Position und versuchen die Argumente und Beweise von Giaever klein zu reden. Es sei betont, dass die nachfolgend beschriebenen Giaever-Kritikpunkte grundsätzlichen wissenschaftstheoretischen Prinzipien entsprechen. Andere Schlussfolgerungen wurden von ihm durch konsequent logische Denkweise erarbeitet.

NTNU Vitenskapsmuseet, CC BY 2.0 <https://creativecommons.org/licenses/by/2.0>, via Wikimedia Commons

Abb. 3:  Ivar Giaever, Physik-Nobelpreisträger und Klima-Kritiker  [1;2]. Bildlizenz: NTNU VitenskapsmuseetIvar Giæver, verkleinert von Dr. Andreas Karl, CC BY 2.0

 

Giaevers Hinweise und Kritikpunkte sind vielschichtig, gleichzeitig typisch für einen Physiker, der über den eigenen Tellerrand hinausschaut.

 6.2.) Ivar Giaevers Argumente und Beweise.

Außerordentlich bemerkenswert ist die Grundposition, mit der Giaever an die Thematik heran geht. Eigentlich interessierte ihn das Thema Klimawandel nicht. Er wurde gebeten dazu einen Gast-Vortrag in Lindau zu halten. Alleine diese Haltung, den Sachverhalt von außen als neutrale Person zu analysieren, spricht Giaever von Parteilichkeit frei. Er betrachtet die Fakten und Daten als kritischer Physiker, der sein gesamtes Wissenschaftler-Leben seine eigenen und fremde Mess-Ergebnisse bewerten musste. Sein Urteil ist vernichtend. Der Umgang und die Bewertung der gemessenen Temperaturen der Klimaforschung sei eindeutig eine Pseudowissenschaft.

6.1.1.) Grundsätzliche Kritik an der Genauigkeit

Giaevers Grundkritik besteht zunächst in der Angabe von zehntel Graden bei den Temperaturen zur Erderwärmung im Betrachtungs-Zeitraum. Eine angebliche Erwärmung von weniger als 1,5°C in 170 Jahren sei eine höchst erstaunliche Kontinuität des Klimas, völlig unabhängig von den Ursachen der Erwärmung. Die Temperatur-Angabe mit einer Auflösung von 0,1°C ist messtechnischer und physikalischer Unsinn.

Dazu ein treffendes Zitat des Mathematik-Genies Carl Friedrich Gauß: „Durch nichts zeigt sich mathematischer Unverstand deutlicher als durch ein Übermaß an Genauigkeit im Zahlenrechnen.“ Die Naturwissenschaft spricht bei der Verwendung von Messwerten von „Signifikanten Stellen“. Der korrekte Umgang mit Messwerten bezüglich der signifikanten Stellen wird sogar in der DIN 1333 beschrieben. Der Autor dieses Aufsatzes hatte in seinem Studium ein prägendes Erlebnis zu diesem Thema. Der damalige Physik-Professor kündigte im Vorfeld der Physik-Vordiplom-Klausur an: „Prüflinge, die den Rechenweg und das Ergebnis einer Aufgabe korrekt erarbeitet haben, jedoch das Ergebnis mit zu vielen signifikanten Stellen angeben, bekommen Punktabzug.

6.1.2.) Unterschiedliche Thermometer vor Ort und im Laufe der Zeit

Giaever kritisiert zu Recht, es sei mehr als naiv zu glauben, die auf der Welt verteilten Thermometer (Abb. 3) seien alle von gleicher Qualität und zeigen alle die korrekte Temperatur an. Dazu kommt die technische Entwicklung der letzten 170 Jahre. Selbst die optimistischste Phantasie reicht nicht aus zu glauben, all die weltweit über viele Jahrzehnte tausende Thermometer seien im Laufe der Zeit gleich genau und gleich zuverlässig gewesen.

Museo Galileo, CC BY-SA 4.0 <https://creativecommons.org/licenses/by-sa/4.0>, via Wikimedia Commons

Abb. 4: Thermometer (17. Jhdt.) und modernes Infrarot-Thermometer. Bildlizenzen: Links: Ferdinand II de‘ Medici [attr.] Museo GalileoTermometri cinquantigradi inv 85 IF 46774CC BY-SA 4.0. Rechts: Hedwig Storch1024 Pyrometer-8445CC BY-SA 3.0

 

6.1.3.) Ungleiche Verteilung der Thermometer auf der Erde

Alleine die Tatsache der ungleichmäßigen Verteilung der meteorologischen Mess-Stationen über die Erdoberfläche reicht aus, die Berechnung einer fiktiven Durchschnitts-Temperatur der Erde als unrealistisch bzw. unmöglich zurückzuweisen. Abbildung 4 zeigt die Häufung der Mess-Stationen auf der nördlichen Erdhalbkugel und den Industrie-staaten. Weite Bereiche Afrikas, Südamerikas, Kanadas, Grönlands und von Sibirien werden nicht abgedeckt. In der Antarktis, die einen großen Einfluss auf das Erdklima hat, gibt es nur wenige Stationen an der Küste.

Abb. 5: Verteilung meteorologischer Mess-Stationen auf der Erde im 21. Jhdt. [3;4]

 

Abb. 6: Gemeldete Wetterwerte für die Woche vom 2. bis 8. Januar 2000 (Schiffe) [3;4]

 

Ca. 70% der Erde sind mit Wasser bedeckt. Wie die Forschungen der letzten Jahrzehnte ergeben haben, spielen die Ozeane eine entscheidende Rolle für das Klima der Erde. Entgegen der meteorologischen Bedeutung der Ozeane ist die dort die Abdeckung der Mess-Stationen nur mangelhaft. Sowohl in Abbildung 5 als auch in Abbildung 6 ist zu erkennen, welche riesigen Lücken nicht durch Messungen abgedeckt werden. Abbildung 7 zeigt die zeitliche Entwicklung der über die Erde verteilten Mess-Stationen über einen Zeitraum von 100 Jahren.

Abb. 7: Meteorologische Mess-Stationen von 1885-1985 [3;4]

 

6.1.4.) Veränderungen im Umfeld von Mess-Stationen und deren Einfluss auf
die gemessenen Temperaturen.

Beispiele: Eine Mess-Station lag 100 Jahre außerhalb einer Stadt, inzwischen ist die Stadt um die Station herum gewachsen. Nahe einer Mess-Station gab es keinen nennenswerten Bewuchs, dann wurde in der Nähe ein Wald aufgeforstet. In 30m Entfernung einer Mess-Station wurde ein Gebäude errichtet. Die Liste solcher Beispiele kann beliebig verlängert werden. Niemand ist in der Lage, die veränderten Einflüsse aus der unmittelbaren Umgebung der Mess-Stationen zu bewerten und einzurechnen. Ein Argument Giaevers, das sicherlich einen großen Einfluss auf den Fehler in der zeitlichen Betrachtung hat.

6.2.) Giaevers philosophische Grundsatz-Kritik zur Klima-Diskussion

Ivar Giaever begnügt sich nicht mit den reinen Sachargumenten oder den Beweisen, die er vorgelegt hat. Er blickt tiefer, macht sich grundsätzliche Gedanken zur Klima-Debatte. Seine im Folgenden beschriebenen Überlegungen haben den Autor dieses Aufsatzes am meisten beeindruckt und gleichzeitig überzeugt.

Giaever blickt auf die Welt als Gesamtes und auf sich als Person. Alles und jeder ist betroffen von Veränderung und Alterung, das kann niemand bestreiten. Er fragt, warum in den meisten Bereichen der politischen und gesellschaftlichen Diskussion die Dinge sich nur zum Negativen bewegen, immer wieder negativ, negativ. Niemand kann bestreiten, dass die Entwicklung der Menschheit seit 1850 einen positiven Weg genommen hat. Die Menschen leben angenehmer, sicherer, Hungern weniger und werden älter. Was soll so negativ an der Temperatur-Entwicklung sein? Wer sagt uns, was die „Optimale Temperatur auf der Erde ist? Wie bereits gesagt, alle Klimaforscher referenzieren auf die Temperatur um 1850. Es ist absolut unwahrscheinlich, dass ausgerechnet diese Temperatur optimal gewesen sein soll. Im Gegenteil, die Klimatologen sprechen vom Römischen Temperatur-Optimum und dem Mittelalterlichen Temperatur-Optimum.

6.3.) Ergänzende Informationen zur Klimaerwärmung (CO2-Einfluss)

Die Zeit um 1850 gilt als das Ende der „Kleinen Eiszeit“, eine Kaltperiode über ca. 400 Jahre innerhalb der aktuellen Eiszeit. Anders formuliert: Um 1850 begann eine Warmphase innerhalb der aktuellen Eiszeit. Gleichzeitig begann um das Jahr 1850 auch die industrielle Revolution (s. unter 5.2.). Folgt nach einer Kaltperiode eine Warmzeit, so muss sich die Erde auch ohne Zutun des Menschen erwärmen. Eine einfache und logische Schlussfolgerung. Schließlich wurde die kleine Eiszeit ja nicht vom Menschen verursacht. Das IPCC (Klimawandel-Organisation der UNO) behauptet jedoch seit 2016, dass die gesamte Erderwärmung seit 1850 ausschließlich auf die Wirkung des anthropogenen CO2 zurückzuführen ist. Mit massiven Auswirkungen auf die Wirtschaft und Energie-Politik der jeweiligen Staaten. Leider ist ausgerechnet Deutschland der Protagonist dieser unsäglichen Ideologie.

Abb. 8: Veröffentlichung von Patrica Adams [5]

 

Was die „Klima-Alarmisten“ der religiös anmutenden Glaubensgemeinschaft übersehen, ist die Entwicklung in den entscheidenden Ländern Indien und China. Beide haben dem Pariser Klima-Abkommen zugestimmt, sind jedoch berechtigt bis 2050 soviel CO2 auszustoßen, wie sie wollen. Patricia Adams hat kürzlich einen Aufsatz mit dem treffenden Titel „THE RED AND THE GREEN CHINA´S USEFUL IDIOTS“ veröffentlicht.

Mit der von der Politik ausgerufenen Energiewende in Deutschland zerstören wir unsere sichere und unabhängige Energie-Versorgung. Hierzu gibt es viele Veröffentlichungen von unabhängigen Wissenschaftlern, Ökonomen und Ingenieuren. Am bekanntesten ist wohl der ehemalige Chef des ifo-Instituts Prof. Hans-Werner Sinn. Er warnt seit vielen Jahren vor dem Umbau der deutschen Strom-Versorgung hin zu einem Übermaß an regenerativer Stromerzeugung.

6.4.) Stimmen anderer Wissenschaftler

Es gibt auch Wissenschaftler, die sich in Veröffentlichungen kritisch zur Problematik der Ermittlung der mittleren Lufttemperatur der Erde in den letzten 170 Jahren geäußert haben. Verstärkt wird diese Kritik durch geachtete wissenschaftliche Stimmen, welche die Methodik der Temperatur-Ermittlung, das Verständnis des Klimas und den Ausblick auf die Zukunft des Klimas durch die Klimawissenschaftler mit ihren aufwändigen Computer-Modellen in Frage stellen. Dazu 2 ausgewählte Bespiele.

6.4.1.) Fundamentalkritik durch das Genie Freeman Dyson

Freeman Dyson (s. Abb. 9, links), der geniale Mathematiker und Physiker lehrte über 40 Jahre Jahre lang an der Princeton University am Lehrstuhl für Theoretische Physik. Sein Vorgänger auf diese Position war Albert Einstein. Leider ist Freeman Dyson am 28.02.2020 im Alter von 96 Jahren verstorben. In Amerika, sowie in naturwissen-schaftlichen Kreisen, galt Freeman Dyson als Genie. Wegen seiner freundlichen und humorvollen Art war er ein „Wissenschafts-Superstar“. In Interviews wusste er immer zu überraschen und sorgte für Heiterkeit. Andererseits war er kein Mensch, der gemütlich auf der Mainstream-Welle schwamm (s. Abb. 9, rechts).

Monroem, CC BY-SA 3.0 <https://creativecommons.org/licenses/by-sa/3.0>, via Wikimedia Commons

Abb. 9  Freeman Dyson (2007) am Institute of Advanced Study. Bildlizenz: MonroemFreeman dysonCC BY-SA 3.0 

 

Bereits Ende der 60er-Jahre und Anfang der 70er-Jahre war Dyson an den ersten Computer-Modellrechnungen zur Darstellung und Voraussage des Wetters beteiligt. Kein Wissenschaftler auf der Welt kann diese jahrzehntelange Erfahrung auf diesem Gebiet vorweisen. Kaum jemand kennt die Stärken und Schwächen der Klima-Vorhersage besser als er. In vielen Interviews der letzten 15 Jahre wurde er zu seiner Position in der Diskussion zum Klimawandel befragt. Seine Haupt-Thesen stellte er folgendermaßen (hier vereinfacht) dar:  1.) Die Wissenschaft ist noch nicht annähernd in der Lage die Komplexität des Wetters und des Klimas zu verstehen. Viele Fragen zur Wolkenbildung, der Rolle der Ozeane, Einflüsse der Sonne, usw. sind ungeklärt.  2.) Versuche, das Klima über längere Zeiträume vorauszusagen, müssen zwangsläufig scheitern. 3.) Der Einfluss des anthropogenen CO2 zur Erderwärmung der letzten 170 Jahre wird überbewertet. Dagegen werden die positiven Effekte der gestiegenen CO2-Konzentration in der Atmosphäre nicht ausreichend berücksichtigt.

6.4.2.) Positive Auswirkungen der erhöhten CO2-Konzentration

Die USDA (U.S. Department of Agriculture) meldet seit vielen Jahren eine stetig steigende weltweite Getreideernte. Diese Meldungen beschränken sich nicht auf nur auf die weltweite Weizenernte (s. Abb. 10) sondern sind für alle wichtigen Getreidearten wie Reis, Gerste, Mais oder Soja zu beobachten. Wo sind die Auswirkungen der Hitzeperioden, Trockenperioden, Stürmen und Hochwasser, wie sie von den Klima-Alarmisten propagiert werden? Fakt ist, CO2 ist der mit Abstand beste Pflanzendünger.

Abb. 10  Weltweite Weizenernte der letzten 20 Jahre (Quelle: USDA)

 

Abb. 11  Bild aus einer NASA-Studie von 2016 „Carbon Dixoide Fertilisation, Greening Earth“ [6]

 

Eine NASA-Studie aus 2016 belegt eindeutig den Düngungs-Effekt durch vermehrtes CO2 in der Atmosphäre. Die Satelliten-Daten (s. Abb. 11) zeigen einen unerwarteten und höchst erstaunlichen Effekt. Die Erde wird grüner! Dank der erhöhten CO2-Konzentration wachsen die Pflanzen besser und schneller, die Wüsten der Erde werden kleiner.

Die Weltbevölkerung steuert bald auf 8 Mrd. Menschen zu. Deshalb sollte die Welternährungs-Organisation der UNO (FAO) eine Studie in Auftrag geben, wieviel Menschen die Erde im Jahr 1850 mit einer CO2-Konzentration von 280 ppm im Vergleich zu heute mit einer CO2-Konzentration von 410 ppm hätte ernähren können. Eine spannende Frage, zumal das Jahr 1850 als „gute“ vorindustrielle Zeit gilt. Die Klima-Alarmisten fordern doch die Rückkehr zu den CO2-Werten der Atmosphäre vor 170 Jahren.

6.4.3.) Bewertung der Temperaturdaten durch Pat Frank

Unterhalb des Radars der Öffentlichkeit wird der der Druck im „Schnellkochtopf“ der Klimawandel-Diskussion immer größer. Die klimakritischen, nicht IPCC-konformen wissenschaftlichen Papers sind von Jahr zu Jahr in größerer Anzahl zu vermelden. Bisher schaffen es jedoch die gleichgeschalteten Medien, besonders in Deutschland, diese Informationen gut unter den Teppich zu kehren. Nur Leute, die bewusst nach nicht klima-alarmistischen Informationen suchen, werden fündig. Ansonsten ist die Meinungs-Hoheit  fest in der Hand der Mainstream-Medien.

Abb. 12  Bewertung der Messfehler bei den durchschnittlichen weltweiten Temperaturen nach Pat Frank

 

Was in diesem Aufsatz eher qualitativ bewertet wurde, hat Pat Frank bereits 2010 und 2011 in 2 interessanten Veröffentlichungen quantifiziert. Er untersuchte die vorliegenden Temperaturdaten nach mathematisch physikalisch Prinzipien auf Zuverlässigkeit. Seine Ergebnisse sind in einem Diagramm zusammengefasst (s. Abb.12).

Quellen: Energy & Environment · Vol. 21, No. 8, 2010; Pat Frank; Uncertainty in the global average surface air temperature index: representative lower limit

Energy & Environment · Energy & Environment · Vol. 22, No. 4, 2011; Pat Frank „Imposed and Neglected Uncertainty in the Global Average Surf

Die Schlussfolgerungen von Pat Frank zu den Fehlergrößen der Temperatur-Messungen in den letzten 170 Jahren sind logisch und nachvollziehbar. Dabei kommt es nicht darauf an, ob der Fehlerbalken 0,46K (s. Abb. 12) groß ist, etwas größer oder kleiner. Entscheidend ist die Erkenntnis, dass die Darstellungen in allen wissenschaftlichen Veröffentlichungen und in den Medien deutlich fehlerbehaftet sind.

Abb. 13: The black line shows the global annual average land-surface air temperature anomalies from 1856 to 2013 from the CRUTEM4 dataset (data here in this format). The grey area shows the 95% confidence range on the annual averages. [7]

Mit großer Wahrscheinlichkeit sind die einheitlichen Fehlerbalken von Pat Frank über den gesamten Zeitraum von 170 Jahren nicht durchgehend realistisch. Die messtechnischen Entwicklungen und bessere Verteilung der Mess-Stationen über die Erde im Laufe der Zeit werden von ihm nicht berücksichtigt. Realistischer dürfte die Abschätzung des englischen Metoffice-Instituts sein (Abb. 13). Die Fehlerbalken sind im 19. Jahrhundert groß und werden im Laufe der Zeit kleiner. Eine Darstellung, die wesentlich besser die Argumente in den vorhergehenden Kapiteln dieses Aufsatzes berücksichtigen.

7.) Schlussfolgerungen

Die Grundlage aller Argumente und Schlussfolgerungen des IPCC, der Klima-wissenschaftler und Klima-Alarmisten sind die verfügbaren weltweiten Durchschnitts-Temperaturen seit 1850. Die Zeit zu Beginn der Industrialisierung ist sozusagen der „Absolute Nullpunkt“ für die Temperatur-Entwicklung auf unserer Erde. Dieser Bezugspunkt wurde gewählt, weil ab dort die Menschheit relevant zum Anstieg der CO2-Konzentration in der Atmosphäre beigetragen hat. Der so genannte anthropogene CO2-Anteil. Was nützten starke Mauern, massive Zwischendecken und ein festes Dach, wenn das Fundament eines Gebäudes zu schwach ausgelegt ist? Fakt ist, die verfügbaren Temperaturdaten (Fundament) sind fehlerbehaftet. Die Fehlergröße bewegt sich in einem Bereich, wo eine Referenzierung auf diese Daten wissenschaftlich keinen Sinn macht. Alle noch so großen Anstrengungen der Klimawissenschaftler mit ihren immer leistungsfähigeren Großcomputer werden die Simulationen zur Zukunft des Erdklimas nicht verbessern. Die Datenbasis ist schlecht, die Kenntnisse über das hoch komplexe Klima immer noch gering (Freeman Dyson). Deshalb bleibt die Klimawissenschaft, die einzig auf die Wirkung des anthropogenen CO2 abzielt, eine Pseudo-Wissenschaft.

Referenzen:

[1]  Ivar Giaever, The Strange Case of Global Warming, 2012 in Lindau (DE)
https://www.mediatheque.lindau-nobel.org/videos/31259/the-strange-case-of-global-warming-2012

[2]  Ivar Giaever, Global Warming Revisited, 2015 in Lindau (DE)
https://www.mediatheque.lindau-nobel.org/videos/31259/the-strange-case-of-global-warming-2012

[3]   Energy & Environment · Vol. 21, No. 8, 2010; Pat Frank; Uncertainty in the global average surface
air temperature index: representative lower limit

[4]  Energy & Environment · Energy & Environment · Vol. 22, No. 4, 2011; Pat Frank „Imposed and
Neglected Uncertainty in the Global Average Surface

[5]   Patricia Adams in GWPF, 2020   https://www.thegwpf.org/content/uploads/2020/12/Green-reds.pdf?utm_source=CCNet+Newsletter&utm_campaign=ac7e32fda3-EMAIL_CAMPAIGN_2020_12_11_10_30_COPY_01&utm_medium=email&utm_term=0_fe4b2f45ef-ac7e32fda3-36485917&mc_cid=ac7e32fda3&mc_eid=a769d95777

[6]  https://www.nasa.gov/feature/goddard/2016/carbon-dioxide-fertilization-greening-earth

[7]  Metoffice:  https://www.metoffice.gov.uk/hadobs/hadcrut3/diagnostics/comparison.html

Der Beitrag erschien zuerst bei Die Kalte Sonne hier

Über den Autor:

Andreas Karl, ist promovierter Diplom-Chemiker (Organische Chemie)  55 Jahre alt, verheiratet, 3 erwachsene Kinder und auch schon stolzer Opa.
Lebt in der Mittleren Oberpfalz. Seit der Uni-Ausbildung nicht mehr in der Forschung tätig, hat jedoch nie den Bezug und das Interesse an Naturwissenschaft und Technik verloren. Seit ca. 2 Jahren großes Interesse zum Thema „ Klimawandel“. Arbeitet im Vertrieb bei einem großen Chemie-/ Pharma-Konzern.

Anmerkung der Redaktion

Es sei auch in diesem Zusammenhang auf die grundlegenden Arbeiten unseres Vizepräsidenten Michael Limburg verwiesen. Der sie im März 2010 über seine offiziell eingereichte Dissertation  der Öffentlichkeit vorstellte. Wer sie nachlesen möchte mag dies hier tun.



„Blackout – kleines Handbuch für den Umgang mit einer wachsenden Gefahr“ – eine Rezension

Diese Warnung ist seitdem praktisch wirkungslos verhallt.

Das Büchlein „Blackout – kleines Handbuch für den Umgang mit einer wachsenden Gefahr“ weist nach, dass es sich bei einem solchen Stromausfall um eine nationale Katastrophe mit zehntausenden von Toten handelt, deren Eintrittswahrscheinlichkeit derzeit  immer weiter steigt. In der Broschüre werden Architektur und Wirkungsweise unseres Stromnetzes ausführlich erläutert sowie das vielfältige Spektrum seiner Gefährdungen analysiert: zunehmende Cyberangriffe, Bevorrechtigung der schwankenden Einspeisung von Wind und Sonne mit Umkehr der Fließrichtung des Stroms im Netz, defizitäre Energieerzeugung und auch koronare Sonnenauswürfe. Im Licht dieser Fakten sind dann die erschreckende Inkompetenz regierungsamtlicher Vorsorgemaßnahmen und die mangelnde Sachkunde verantwortlicher Politiker zu sehen.

Broschüre „Blackout“ von Wulf Bennert

Wichtigstes Anliegen des „Kleinen Handbuchs“ von Wulf Bennert ist es, die Leserschaft auf aktuellem Stand über Möglichkeiten und Grenzen rechtzeitiger Vorsorge gegen einen Blackout zu informieren sowie über hilfreiche Verhaltensstrategien während seiner Dauer. Diese können je nach Wohn- und Lebenssituation recht unterschiedlich sein. Die Broschüre bietet eine breite Palette verschiedener Empfehlungen, die vom Erkennen des Blackout über den richtigen Umgang mit dem Trinkwasser- und Toilettenproblem, über Licht im Dunkeln, Zubereitung von Lebensmitteln, den Weiterbetrieb der Heizung bis zur Auswahl des geeigneten Notstromaggregats und der möglichen Nutzung einer Solaranlage bei Stromausfall reichen. Es sind Ratschläge, die im Ernstfall das Überleben sichern können. Deshalb sollte die Broschüre in jedem Haushalt verfügbar sein.

Das Büchlein kann über den Kaleidoscriptum Verlag ISBN 978-3-00-067547-8 für 8,70 € hier bezogen werden.

 

 




Da packt einen die Wut

Nun beschränken sie unsere Freiheit noch massiver. Bundeskanzlerin und Ministerpräsidenten der Bundesländer haben unter dem Corona-Vorwand am 13. Dezember entschieden, die Freiheitsbeschränkungen vom 16. Dezember an drastisch zu verschärfen. Schon vorher hatten sich führende Politiker darin überboten, „schnelle und harte Maßnahmen“ zu fordern oder anzukündigen. Der Bundespräsident, ohne Zweifel im Vollbesitz seiner geistigen Kräfte, behauptete: „Die Lage ist bitter­ernst.“ Der Bundeswirtschaftsminister, ebenfalls bei klarem Verstand, fürchtete drohend, die Corona-Pandemie könne völlig außer Kontrolle geraten. Doch nicht das Virus gerät außer Kontrolle, sondern die Bundesregierung. Sie hat  mit ihrer Corona-Panikmache auch ihre Selbstkontrolle verloren, denn jedes Mitglied im Kabinett spielt unverdrossen gehorsam mit, keines erhebt Widerspruch. Die Regierenden in Bund und Ländern sind von einem anderen Virus befallen. Es heißt Machtmissbrauch. Gegen das allerdings hilft nur dieses eine Medikament: die Abwahl. Das aber will die Mehrheit der deutschen Bürger nicht anwenden, denkt noch nicht einmal im Traum daran. Zu tief sitzt die ihr erfolgreich eingejagte Angst.

Das Virus ist politisch und wirtschaftlich weit gefährlicher als für die menschliche Gesundheit

Bei den immer noch weiteren Verschärfungen und Verlängerungen der staatlichen  Anti-Corona-Diktate packt einen die Wut. Es ist ohnmächtige Wut, denn wer sich widersetzt, wird strafbewehrt verfolgt und, wer warnt, eines Tages wohl gar wegen „Volksverhetzung“. Vorstellen kann man sich inzwischen alles. Politische Führung und die meist links-grün verseuchten Mainstream-Medien sind sachlicher Aufklärung und vorgebrachten Tatsachen nicht zugänglich.*) Dass die Folgen der Maßnahmen gegen eine Corona-Infizierung politisch und wirtschaftlich folgenreicher, schlimmer und gefährlicher sind als die Folgen des Virus für die menschliche Gesundheit, schert sie einen Kehricht.

Was in und mit Deutschland geschieht, treibt viele Menschen um – und auch, was die Menschen mit sich geschehen lassen

Viele Bürger treibt um, was in und mit Deutschland geschieht sowie mit der westlichen Welt insgesamt. Und was die Menschen hier und dort mit sich geschehen lassen. Dabei ist die „Plandemie“ durch das  Virus SARS-CoV-2 (kurz Coronavirus oder Covid-19) nur ein Teil dieses Geschehens. Aber die politische Instrumentalisierung dieses Virus‘ (hier und hier) und damit ihre politische Gefährlichkeit rechtfertigt es, nein, gebietet es geradezu, dass auch ich diesem Thema immer wieder besondere Aufmerksamkeit gebe und wiederholt darüber informiere, wie es durch freie und unabhängige Köpfe auch anderswo im Internet geschieht.

Die Fakten des Schweizer Forschungsprojekts SPR

Daher hier ein weiterer Hinweis: Eine besonders umfassende und allgemein verständliche Darstellung der Fakten gibt es vom Schweizer Forschungs- und Informationsprojekt Swiss Policy Research (SPR). Im August habe ich auf SPR schon einmal hingewiesen (hier). Diese Darstellung ist hervorragend. Sie wird regelmäßig auf den jeweils aktuellen Stand gebracht und verdient, weithin verbreitet zu werden. Es sind, wie SPR schreibt „von Fachleuten präsentierte, vollständig referenzierte Fakten zu Covid-19, die unseren Lesern eine realistische Risikobeurteilung ermöglichen sollen“.  Die jüngste Aktualisierung stammt jetzt aktuell vom Dezember 2020. Wegen der Länge der Darstellung gebe ich nur die länderübergreifende Übersicht wieder. Das Folgende ist ihr Wortlaut.

  1. Letalität: Laut den neuesten immunologischen Studien liegt die Letalität von Covid-19 (IFR) in der Allgemeinbevölkerung in den meisten Ländern bei insgesamt circa 0.1% bis 0.5%, was vergleichbar ist mit den mittelstarken Grippe­pandemien von 1957 und 1968.
  1. Behandlung: Bei Personen mit hohem Risiko oder hoher Exposition ist eine frühzeitige oder prophylaktische Behandlung entscheidend, um eine Progression der Erkrankung zu vermeiden.
  2. Altersprofil: Das Medianalter der Verstorbenen liegt in den meisten Ländern bei über 80 Jahren und nur circa 5% der Verstorbenen hatten keine ernsthaften Vor­er­kran­kungen. Das Alters- und Risikoprofil der Covid-Mortalität entspricht damit im Unterschied zu Grippepandemien im Wesentlichen der normalen Sterblichkeit und erhöht diese proportional.
  3. Pflegeheime: In vielen westlichen Ländern ereigneten sich bis zu zwei Drittel aller Todesfälle in Pflegeheimen, die einen gezielten und humanen Schutz benötigen. Teilweise ist nicht klar, ob die Bewohner wirklich an Covid-19 starben oder an wochenlangem Stress und Isolation.
  4. Übersterblichkeit: Bis zu 30% aller zusätzlichen Todesfälle wurden nicht durch Covid verursacht, sondern durch die Folgen von Lockdowns, Panik und Angst. So ging etwa die Behandlung von Herzinfarkten um bis zu 40% zurück, da sich Patienten nicht mehr in die Kliniken wagten.
  5. Antikörper: Bis im Sommer 2020 erreichten globale Hotspots wie New York City oder Bergamo Antikörper-Werte von circa 25%. Metropolen wie Madrid, London und Stockholm lagen bei circa 15%. Weite Teile Europas und der USA lagen indes noch bei unter 5%.
  6. Symptome: Bis zu 40% aller infizierten Personen bleiben symptomfrei, circa 80% zeigen höchstens milde Symptome, und circa 95% zeigen höchstens moderate Symptome und müssen nicht hospitalisiert werden. Milde Verläufe werden unter anderem durch kreuzreaktive T-Zellen erklärt, die durch den Kontakt mit früheren Coronaviren (Erkältungsviren) entstanden sind.
  7. Long Covid: Circa 10% der Erkrankten berichten von post-akutem Covid, d.h. von Symptomen über mehrere Wochen oder Monate. Dies betrifft auch jüngere und zuvor gesunde Menschen mit starker Immunantwort. Das post-virale Syndrom ist bereits von starker Influenza bekannt.
  8. Übertragung: Die Übertragung des Coronavirus erfolgt nach derzeitigem Kenntnisstand hauptsächlich durch Aerosole in Innenräumen sowie durch Tröpfchen, während Aerosole im Freien sowie die meisten Objekt­oberflächen eine untergeordnete Rolle zu spielen scheinen.
  9. Masken: Für die Wirksamkeit von Masken in der Allgemein­bevölkerung gibt es weiterhin kaum Evidenz, und die Einführung einer Maskenpflicht konnte die Epidemie in kaum einem Land eindämmen oder verlangsamen. Bei unsachgemäßer Verwendung können Masken das Infektionsrisiko sogar erhöhen und in manchen Fällen zu Atemproblemen führen.
  10. Kinder und Schulen: Im Unterschied zur Influenza ist das Erkrankungs- und Über­tragungsrisiko bei Kindern im Falle von Covid-19 sehr gering. Für die Schließung von Grundschulen oder andere besondere Maßnahmen für Kinder gab und gibt es deshalb keinen medizinischen Grund.
  11. Contact Tracing: Eine WHO-Studie von 2019 zu Maßnahmen gegen Grippepandemien ergab, dass Kontakt­verfolgung aus medizinischer Sicht “unter keinen Umständen zu empfehlen” ist. Auch Contact-Tracing-Apps auf Mobiltelefonen sind in den meisten Ländern bereits gescheitert.
  12. PCR-Tests: Die international verwendeten Virentestkits sind fehleranfällig und können teilweise falsche positive und falsche negative Resultate ergeben sowie auf nicht-infektiöse Virenfragmente einer früheren Infektion reagieren. Eine wichtige Kennzahl ist dabei der Zyklusschwellwert.
  13. Fehlbehandlungen: In den USA und einigen anderen Ländern kam es zu teils tödlichen Fehl­be­handlungen von Covid-Patienten aufgrund fragwürdiger finanzieller Anreize und ungeeigneter Methoden. In den meisten Ländern sank die Covid-Letalität inzwischen deutlich.
  14. Lockdowns: Die WHO erklärte, dass Lockdowns eine “schreckliche globale Katastrophe” ausgelöst haben. Laut UNO sind durch Lockdowns 1.6 Milliarden Menschen vom akuten Verlust ihrer Lebens­grund­lagen sowie 150 Millionen Kinder von akuter Armut bedroht. Arbeitslosigkeit, Konkurse und psychologische Probleme haben weltweit Höchstwerte erreicht.
  15. Schweden: In Schweden liegt die Gesamtsterblichkeit ohne Lockdown bisher im Bereich einer starken Grippewelle. 70% der schwedischen Todesfälle erfolgten in Pflege­ein­rich­tungen, die zu wenig rasch geschützt wurden. Das Medianalter der Todesfälle liegt bei 84 Jahren.
  16. Medien: Viele Medien berichten oftmals unseriös über die Pandemie und haben dadurch eine Maximierung der Angst sowie eine massive Überschätzung der Mortalität durch Covid-19 bewirkt. Einige Medien verwendeten sogar manipulative Bilder, um die Situation zu dramatisieren.
  17. Impfstoffe: Zahlreiche Fachleute bezeichneten forcierte Impfstoffe gegen das Coronavirus als risikoreich. So führte etwa der Impfstoff gegen die sogenannte Schweinegrippe von 2009 zu teilweise schweren neurologischen Schäden und Klagen in Millionenhöhe. Auch bei Tests von Corona-Impfstoffen kam es bereits zu ernsthaften Komplikationen.
  18. Ursprung: Der Ursprung des neuen Coronavirus bleibt unklar, aber die beste Evidenz deutet derzeit auf einen Covid-artigen Pneumonie-Vorfall in einer chinesischen Mine von 2012 hin, deren Virenproben vom Virologischen Institut in Wuhan gesammelt, gelagert und erforscht wurden.
  19. Überwachung: NSA-Whistleblower Edward Snowden warnte, dass die Covid-Pandemie für den permanenten Ausbau von Überwachung genutzt wird. Weltweit kam es während Lockdowns zum Monitoring der Zivilbevölkerung durch Drohnen und zu teilweise massiver Polizeigewalt.

Soweit der SPR-Überblick zur aktuellen Lage. Die vollständige Faktensammlung finden Sie hier. Zum Ausbau der staatlichen Überwachung hatte SPR in der September-Aktualisierung dies festgehalten: „Über 600 Wissenschaftler haben vor einer “beispiellosen Überwachung der Gesellschaft” durch problematische Apps zur Kontakt­­verfolgung gewarnt. In einigen Ländern wird diese Kontakt­ver­folgung bereits direkt vom Geheimdienst durchgeführt.“

In Deutschland kein gezielter Schutz der Risikogruppen

Was SPR über „Deutschland im Corona-Winter“ zusammengetragen hat, finden Sie hier. Bemängelt wird darin dies: „Ein Konzept zur ambulanten Prophylaxe und Frühbehandlung von Risikogruppen, mit dem Hospitalisierungen und Todesfälle laut internationalen Studien um bis zu 80% reduziert werden können, besteht in Deutschland bisher nicht. Auch ein gezielter Schutz der Risikogruppen wird – mit einigen beachtlichen Ausnahmen wie der Stadt Tübingen – kaum versucht (mehr dazu).

Die Beweislastumkehr und der Missbrauch des Wortes „Fälle“

„Vor Corona“ galt man bis zum Beweis des Gegenteils als gesund, heute „mitten in Corona“ gilt man bis zum Beweis des Gegenteils als krank. Das ist wie eine willkürliche Beweislastumkehr. „Vor Corona“ wurde der Beweis durch Symptome und  ärztliche Diagnosen erbracht, heute „mitten in Corona“ wird er durch einen Test geliefert, der dafür weder vorgesehen noch geeignet ist (siehe http://.kpkrause.de/2011/26/die-taeuschung-mit-den-corona-pcr-tests/). Fällt der Test „positiv“ aus, heißt das allenfalls, dass die getestete Person „infiziert“ ist. Aber infiziert bedeutet nicht, dass man auch erkrankt. Und stets werden nur die aktuellen Infiziertenzahlen verbreitet. Die Zahl der Fälle sei schon wieder gestiegen, liest oder hört man dann. Aber unter dem Wort „Fälle“ versteht der normale Mensch „Krankheitsfälle“. Das soll er auch so verstehen, um seine Angst zu verstärken und ihn für die Freiheitsberaubungen gefügig zu machen und gefügig zu halten.

Der tiefe Eingriff in die Freiheitsrechte ist grob unverhältnismäßig und daher rechtswidrig

Diese Fehlinformation, diese Verfälschung, ist das Werk von Interessenten im Hintergrund, gefördert von Politikern und Medien. Politische Führung und Mainstream-Medien, auch System- oder  Regime-Medien genannt, haben sich im Verbreiten von immer mehr Angst gegenseitig hochgeschaukelt. Sie alle müssten es besser wissen. Die auch ihnen bekannten Tatsachen sprechen gegen sie. Sie wollen es aber nicht besser wissen. Sie ziehen es vor, mit tiefen Eingriffen in die Lebensabläufe der Menschen deren Interessen und Freiheitsrechte schwer zu verletzen. Sie sind für die Corona-Grippe-Bekämpfung weder angemessen, noch erforderlich, noch geeignet. Angesichts der (unterdrückten) Tatsachen sind diese Eingriffe grob unverhältnismäßig und daher in hohem Maße rechtswidrig.

 

Nachtrag: Wenn Sie darüber ins Grübeln kommen, warum dies geschieht trotz entgegenstehender Tatsachenlage und trotz aller Rechtswidrigkeit, dann lesen Sie dies

https://traugott-ickeroth.com/wp-content/uploads/2020/07/TranscriptDE-The-Covid-Plan_Rockefeller-Lockstep-2010.pdf

und hören sich dies an (ist auch schriftlich verfügbar und bei mir abrufbar)

https://www.youtube.com/watch?v=Asi0XpTxi7E&feature=youtu.be

und denken selbst darüber nach, ob das „Verschwörungstheorie“ ist oder nicht doch Verschwörungspraxis. Und ob Ihnen das aus den vergangenen Monaten, Wochen, Tagen und bis heute nicht irgendwie bekannt vorkommt.

___________________________________________

*)  Eine Ausnahme hat gerade in der Sonntagszeitung der FAZ stattgefunden. Unter der Überschrift  Geht es auch anders? Deutschland setzt in der Pandemie vor allem auf den Lockdown. Einige Wissenschaftler halten das für den falschen Weg“ ist es nach meiner Wahrnehmung der erste Beitrag in FAS/FAZ, der auch Kritikern des Lockdown breiten Platz einräumt (FAS vom 13. Dezember 2020, Seite 3 hier). Autor ist der FAS-Redakteur Morton Freidel. Versucht die Redaktion jetzt endlich die Kurve zu kriegen?

Der Beitrag erschien zuerst auf dem Blog des Autors hier




EEG-Novelle für Altanlagen sichert die Einnahmen für die Windmüller

Das oberste Ziel deutscher Energiepolitik besteht darin, Herstellern und Betreibern von Ökoenergieanlagen die Gewinne zu sichern. Nach außen plakatiert man die Rettung des Weltklimas. „Energieminister“ Peter Altmeier bezeichnet es so:  „EEG 2021 sendet klares Zukunftssignal für mehr Klimaschutz und mehr erneuerbare Energien“ Dabei zahlen viele für wenige.

Mit Einführung des Erneuerbare Energien Gesetzes (EEG) im Jahr 2000 wurde ein 20-jähriger Förderzeitraum festgeschrieben. Je nach Technologie und Datum der Inbetriebnahme gibt es garantierte Einspeisevergütungen über diesen Zeitraum, die sich abhängig vom Jahr der Inbetriebnahme verringerten, aber eben auch für 20 Jahre unantastbar waren und sind. Dazu kommen die nicht bezifferbaren Vorteile eines vom Bedarf unabhängigen Strom-Einspeisevorrangs und eines kostenlosen Netzanschlusses. Müssen Anlagen auf Grund von Netzrestriktionen abgeschaltet werden, fließt trotzdem Geld für den so genannten „Phantomstrom“. Vertrieb, Vermarktung und Abrechnung sind ebenso für die Betreiber gratis.

Förderungen finden üblicherweise statt, um neuen Technologien beim Eintritt in den Markt zu helfen. Schon der Förderzeitraum von 20 Jahren zeigt, dass es sich hier um keine Anschubförderung, sondern eine Massen- und Dauersubventionierung handelt. Mit der EEG-Novelle 2017 und der Einführung von Ausschreibungsverfahren wehte ein kalter Hauch von Markt durch die Branche, der sofort zu heftiger Arbeitsverweigerung führte.

Die Ausschreibungsrunde vom 24. November ging wieder ohne Beteiligung der Windkraft aus. Gebote lagen nur für den Bau von Solaranlagen vor. Als Vorwand für die Zurückhaltung werden immer wieder lange Genehmigungsverfahren und Bürgerwiderstand genannt. Maßgebend sind aber die Zuschlagswerte, in diesem Fall höchstens 5,45 Cent pro Kilowattstunde, die offensichtlich selbst für moderne Windkraftanlagen nicht lukrativ sind. Geschrumpfte Gewinnaussichten zeigen, dass es zugig wird im Streichelzoo. Die großen Rosinen sind gepickt, die Kosten für das Einsammeln von Naturkräften mit geringer Energiedichte bleiben hoch.

Bevor nun zu Jahresbeginn 2021 erstmals Anlagen aus dem Förderzeitraum fallen würden, ergriff die Windbranche eine gewisse Panik, denn die betroffenen Anlagen sind nicht nur alt und ineffizient, sondern vor allem nicht wettbewerbsfähig. Die Lobby ist allerdings schlagkräftig genug, um auf den letzten Metern eine Anschlussregelung durchzudrücken, von der man sich einen irgendwie rentablen Weiterbetrieb verspricht.

Bürokratie als Methode

Im Paragrafen 23b der nunmehr beschlossenen Novelle soll es für die Anlagen, die ab 2021 und 2022 aus der Förderung fallen würden, einen „anzulegenden Wert“ geben, der per Ausschreibung ermittelt werden soll. Die Modalitäten dieser Ausschreibung erfordern wiederum eine neue Verordnung, die die Bundesregierung bis zum 30. Juni 2021 erlassen muss. Wer sich an dieser Ausschreibung nicht beteiligt, erhält pauschal einen Cent pro Kilowattstunde mehr als den „Monatsmarktwert für Windenergieanlagen an Land“, ab 1. Juli 2021 nur noch einen halben, ab 1. Oktober nur noch einen Viertelcent. Die Einzelheiten entnehmen Sie, liebe Leser, dem Gesetz, ebenso die geänderten Regelungen zur Photovoltaik, dem Mieterstrom et cetera. Sollten Sie dem inhaltlich nicht ganz folgen können, ist das kein Makel. Sollte zudem die Darstellung hier nicht in jedem Punkt korrekt sein, bitte ich vorauseilend um Entschuldigung. Bürokratie ist inzwischen Instrument politischen Handelns geworden. Die wenigsten der Abgeordneten, die dem EEG 2021 zustimmten, dürften den Inhalt auch nur annähernd umfänglich verstanden haben.

Die Rechnung von Sonne und Wind

Prognosen des DIW und anderer sagten für die 2020er Jahre fallende EEG-Umlagen und insgesamt fallende Strompreise voraus, eben weil ab 2021 viele Anlagen aus der Förderung gehen würden. Nun wird der Druck auf das EEG-Umlagekonto nicht sinken, die Umlage bleibt hoch und wird einen höheren Anteil vom Steuergeld erfordern. Dazu kommen die Einnahmen aus dem Brennstoffemissionshandelsgesetz (BEHG), dessen Wirkung vor allem an der Tanksäule spürbar werden wird. Man rettet also an der Tanke nicht direkt das Weltklima, sondern sichert die Einnahmen der Windmüller. „Rasen für die Windmüller“, hätte die FDP titeln können, aber es hilft auch den anderen EEG-Umlagebeziehern.

Ob die Zwangsbeatmung alter Windmühlen diesen tatsächlich das Überleben sichern wird, ist zweifelhaft. Vermutlich wird der politische Mechanismus einsetzen, den wir von den Auslandseinsätzen der Bundeswehr kennen. Die Regelungen werden vor dem jeweiligen Auslaufen einfach verlängert. Damit wird Realität, was abzusehen war, aber immer von Branche und Politik abgestritten wurde: Die „Erneuerbaren“ sind nicht wettbewerbsfähig und werden es auch nicht sein. Aber wie kann das sein, liegen sie doch in der Tat bei den Strom-Gestehungskosten heutzutage unter den Werten konventioneller Kraftwerke?

Der Grund liegt in den erzielbaren Marktpreisen. Der Strom als besonderes Gut ist dadurch gekennzeichnet, dass er zum Zeitpunkt der Produktion auch verbraucht werden muss. Die Speicheroptionen im Land sind vernachlässigbar. Es gibt inzwischen um die 30.000 Windkraftanlagen im Land und auf See, die bei gutem Wind viel Strom erzeugen. Nach dem Marktgesetz von Angebot und Nachfrage sinkt bei hohem Angebot der Preis. Die Anlagen produzieren den größten Teil ihres Stroms also in Zeiten niedriger Preise. Die Erträge müssen aber die Fixkosten decken und sollen noch Gewinn abwerfen. Mit der festen Einspeisevergütung hatte man eine sichere Kalkulationsgrundlage und, von wenigen Ausnahmen abgesehen, auch ausreichenden bis üppigen Gewinn. Für Anlagen an guten Standorten und bei Errichtung in frühen EEG-Zeiten war es quasi die Lizenz zum Gelddrucken.

Gestehungskosten und Marktpreise sind zwei völlig verschiedene Paar Schuhe. Ist der Strom knapp, rechnet sich auch der Betrieb teurer Gasturbinen für mehr als 12 Cent pro Kilowattstunde, viel Wind sorgt hingegen für niedrige bis zeitweise negative Preise. Wind- und Solaranlagen kannibalisieren sich am Markt schlicht durch ihre hohe und wachsende Zahl. Sie produzieren wetter- oder tageszeitabhängig im Wesentlichen gleichzeitig und drücken so den Marktpreis in den Keller. Von diesem können sie schlecht leben. Selbst moderne Anlagen wären deshalb ohne feste Vergütungszusage nicht lebensfähig.

Technologien, die nach 20 Jahren teils üppigster Förderung nicht ohne Zuschüsse auskommen, werden dies auch nach 23, 25 oder 30 Jahren nicht tun. Die künstlich geschaffenen Boomzeiten gehen nun für immer mehr Anlagen dem Ende entgegen. Der vorgesehene 1-Cent-Aufschlag wird für viele Altanlagen nicht reichen, sobald der Reparaturaufwand steigt. Entsprechend kritisch fallen die Kommentare der Energiewender aus: „Nur eine Not-OP am EEG“ schreibt Klimareporter.de und spricht von EEG-Kosmetik. Es sei „Unsinn abgewendet worden“, sprach Umweltministerin Schulze. Ältere und noch funktionstüchtige Windräder hätten sonst vom Netz genommen werden müssen.

Da stutzt der Bürger und fragt sich, warum die Bundesbahn 1977 ihre Dampfloks stilllegte. Die Loks waren gut erhalten, man hätte sie weiter fahren können. Auch VW bettelte nicht um Staatsgeld oder um eine Umlage von allen Autokunden, als die Produktion des Käfers im Jahr 2003 eingestellt werden musste. Man hätte weiter mit ihm fahren können, aber es wirkte die Marktwirtschaft. In Deutschlands Energiewirtschaft wirkt inzwischen die Klimaplanwirtschaft.

Die EEG-Novelle ist der Offenbarungseid des Scheiterns des jahrzehntelang verkündeten angeblich erfolgreichen Weges zur Dekarbonisierung. Sie zeigt, dass es einen Energieträger- und Strukturwandel auf der Grundlage der bestehenden sozialen Marktwirtschaft und eines EU-weit liberalisierten Strommarktes nicht geben wird. Nötig wäre die globale Schellnhubersche Große Transformation hin zur „klimagerechten“, aber armen Weltbevölkerung. Um das umzusetzen ist Deutschland – zum Glück – zu unbedeutend.

Russisches Gas für amerikanische Autos

Klimaideologie ist zum Maßstab der Gesetzgebung geworden. Gegenwärtig gibt es kaum marktgetriebene Großinvestitionen in der Industrie. Geklotzt wird dort, wo Fördermittel fließen und Staatsgeld Aufträge auslösen hilft, zum Beispiel in den „Reallaboren der Energiewende“.

Kommt ein Investor wie Elon Musk, der den Begriff „Subvention“ vermutlich nicht kennt, wird schneller gebaut, als es die Behörden verkraften. Großer Jubel brach in der Ökoszene nach seiner Entscheidung zur Ansiedlung aus, nicht nur ob der zu erwartenden Massenproduktion „emissionsfreier“ Fahrzeuge, sondern auch, weil Musk seine Fabrik in Grünheide komplett mit Ökostrom betreiben wollte. Die Verfügbarkeit von Ökostrom in Brandenburg sei ein wichtiges Entscheidungskriterium für den Standort gewesen, hieß es. Dieser wurde auch von der Landesregierung zugesagt. Die Energiewender kamen vor Freude kaum in den Schlaf. Eine „Superstory für Brandenburg“ hieß es und man grübelte schon, wo man die vielen neuen Windkraftanlagen hinstellen wolle. Etwa 170 Stück wären nötig gewesen für die durchschnittlich benötigte Strommenge, wobei die Versorgungssicherheit natürlich außen vor bleibt. Professor von Hirschhausen vom DIW folgerte in der in der Branche üblichen Logik, dass man deshalb jetzt schneller aus der Braunkohle aussteigen müsse.

Nach etwas Bedenkzeit ruderte die Landesregierung dann zurück. Auf eine kleine Anfrage im Landtag von Brandenburg hieß es: „Es ist nicht Aufgabe der Landesregierung, die Energieversorgung der künftigen Gigafactory bei Grünheide sicherzustellen.“

109 Megawatt Strombedarf kündigte Tesla für den Betrieb rund um die Uhr an, etwa so viel, wie die Stadt Chemnitz braucht. Helfen sollen dabei Solarzellen, die auf allen Hallendächern angebracht werden sollen, von eigenen Speicheranlagen ist nichts bekannt. Musk weiß natürlich, dass der Strom sicher fließen muss. Und so formulierteer in typisch amerikanischer Unbedarftheit und ohne Rücksicht auf die deutschgrüne Volksseele:

„Wenn der gesamte Verkehrssektor elektrifiziert wird, brauchen wir die doppelte Menge an Strom. Dazu müssen wir die Kapazitäten von Wind-, Solar- und Atomkraftwerken erhöhen“

Der Spruch ging nur sporadisch durch einige Medien, die Ökoszene schwieg und hofft auf baldiges Vergessen. Den Strom und die Wärme für die Gießerei, das Presswerk, die Lackiererei und die zusätzlich geplante Batteriefabrik soll nun aus einem werkseigenen 100-MW-Gaskraftwerk kommen, womit auch die unkalkulierbare Strompreisentwicklung umgangen wird. Bei den europäischen Industriestrompreisen liegen wir zwar nur auf Platz drei, aber da ist noch Luft nach oben.

16.000 Kubikmeter Erdgas pro Stunde gibt Tesla als Bedarf an. Die großen Hauptleitungen Jagal, Eugal, Opal und EuRoPol liegen nur wenige Kilometer vor dem künftigen Werkstor. Darin fließt ausschließlich russisches Erdgas, es kommt vor allem von den Anlandestationen der Nordstream 1 (und 2) bei Lubmin an der Ostsee. Nordstream 2 macht auch diesbezüglich Sinn, denn nicht nur Tesla wird künftig stabile Energie brauchen, sondern ganz Deutschland. Es ist für Amerikaner sicher schwer vorstellbar, dass sich ein Land ohne Not aller seiner einheimischen Energierohstoffe entledigt und aus der Kernkraft aussteigt. Es braucht nun russisches Gas, um amerikanische Autos zu bauen, Dank der deutschen Energiewende. Elon Musk sollte diesbezüglich mit President elect Biden sprechen.

Man sieht, wenn konkreter Bedarf entsteht, sind Wind und Sonne wenig hilfreich. Die CO2-Emissionen Brandenburgs werden nun trotz Kohleausstiegs nicht wie geplant sinken. Sichtbar wird der Webfehler der Energiewende, bei der unzuverlässige Einspeiser dauerhaft gefördert und Versorgungssicherheit missachtet werden.

Deutschland first

Immerhin ist unsere nationale Sicherheit nach der Verabschiedung der EEG-Novelle nicht mehr vom Wind abhängig. Schon der Ansatz, den Begriff „national“ in einem Energiewendegesetz zu verankern, zeigt die Einsamkeit des deutschen Weges. Wird sonst stets der europäische Gedanke (gemeint ist der EU-Gedanke) in den Vordergrund gestellt und für jedes Problem nach einer europäischen (gemeint ist wiederum die EU) Lösung gerufen, bleibt die Energiewende ein deutschnationales Unterfangen. Keine Rede mehr von „Europa ist die Antwort“. Aus Richtung EU akzeptiert man nur schärfere Klimaziele, deren Umsetzung uns am schwersten fallen wird und für deren Nichterreichen wir mit einiger Sicherheit heftig zur Kasse gebeten werden.

Nun thematisieren mehrere EU-Länder, allen voran Frankreich, die Kernenergie als Klimaschutzinstrument. Sie ist entgegen der Darstellungen deutscher Politik und Medien kein Auslaufmodell, sondern erlebt global eine Renaissance. Wir gehen den entgegengesetzten Weg und müssen künftig einen wesentlichen Teil unserer emissionsarmen Stromproduktion emissionsarm ersetzen. Im Jahr 2019 erzeugten die deutschen Kernkraftwerke noch 75 Terawattstunden Strom. Diesen zu ersetzen, würde zusätzliche 17.800 Windkraftanlagen des jetzigen Anlagenparks erfordern, nur um über den Jahresdurchschnitt die entsprechende Menge zu produzieren. Damit wäre noch keine einzige Kilowattstunde Kohlestrom ersetzt und keine zusätzliche Elektrizität bereitgestellt für die zunehmende E-Mobilität, für Digitalisierung und KI, für den Umstieg auf Elektrowärme und die Herstellung grünen Wasserstoffs für Straßen- und Luftverkehr, chemische Industrie, Stahlerzeugung und Rückverstromung. Mit jedem abgeschalteten Reaktor sinkt die Wahrscheinlichkeit einer Dekarbonisierung.

Die Regierungskoalition geht mit diesem halbgaren EEG-Kompromiss den Weg bisheriger Politik. Sie versucht, Probleme im Geld zu ersticken, gewinnt aber damit nur Zeit, bis sie wieder auftauchen. Eine breite öffentliche Diskussion zur EEG-Novelle wird es im Schatten des End-Lockdowns nicht geben. Bundeskanzleramt und Bundeswirtschaftsministerium sollten kräftig quergelüftet werden, ein paar Kniebeugen und Händeklatschen zum Aufwachen wären hilfreich. Oder auch eine Novellierung der Regierung.

Der Beitrag erschien zuerst bei TE hier

Nachtrag der Redaktion

Auch bei dieser Novelle wurde das Parlament, wie auch schon beim Infektionsschutzgesetz planmäßig überrumpelt und ließ diese Überrumperung auch gern zu. Denn, es ist nachzutragen, dass die GroKo erst am 15.12.20 gegen 17:00 Uhr ihren endgültigen Entwurf der Novelle (Ausschussdrucksache 19(9)909) des Erneuerbaren Energien Gesetzes (EEG) den Abgeordneten des Ausschusses für Wirtschaft und Energie zur Überprüfung und Abstimmung zukommen ließ. Dieser sollte dann nur eine Stunde später, in einer Sondersitzung, die 320 Seiten des Gesetzentwurfes prüfen und nach Prüfung seine Abstimmempfehlung abgeben.

Jeder weiß, dass dies für jeden Menschen unmöglich ist und zeigt daher einmal mehr mangelnden Respekt vor dem Souverän in diesem Land, den die gewählten Mitglieder des Bundestages als gewählte Volksvertreter nach unserer Verfassung sind. Der Bundestag verabschiedete dann empfehlungsgemäß diese Novelle am 17.12.20, gelobt von „Energieminister“ Peter Altmeier als  „EEG 2021 sendet klares Zukunftssignal für mehr Klimaschutz und mehr erneuerbare Energien“ , die Zustimmung des Bundesrates erfolgte am 18.12.20, samt Unterzeichnung durch den Bundespräsidenten, so dass sie mit Wirkung vom 1.1.21 in Kraft treten kann.

Der einzige Lichtblick dieses Gesetzesungetüms ist indes die Tatsache, dass der große öffentliche Druck von einigen Medien, Verbänden, einigen mutigen Abgeordneten der CDU, ebenso wie der FDP und vor allem der AfD, offensichtlich die Autoren veranlasste, die heftig umstrittene Formulierung, dass sog. Erneuerbare einen wesentlichen Beitrag zur „öffentlichen Sicherheit“ leisten – ohne Begründung – zu streichen.

Es war allerdings auch reines Orwellsches Doppelsprech, wenn die Regierung in ihrem früheren Entwurf behauptete, und dies gesetzlich festschreiben wollte, dass die Erzeugung und Einspeisung von klar netzstabilitätssenkendem und damit die öffentliche Sicherheit gefährdendem Flatterstrom, die öffentliche Sicherheit erhöhe, gar garantieren würde. Das Gegenteil ist wahr.




Brüsseler Klimabeschlüsse – Wenn Strom zum Luxusgut wird, läuft ziemlich viel falsch

Denn die EU hat beschlossen, ihre „Klimaziele“ wieder einmal zu verschärfen. Bisher galt, daß bis zum Jahr 2030 der Ausstoß von Kohlendioxid (CO2) gegenüber 1990 um 40 Prozent reduziert werden soll. Die neue Marschrichtung heißt: 55 Prozent.

Allerdings verfehlt – bleibt man in der Welt der Klimarechenspiele – Deutschland bereits jetzt seine alten selbstgesteckten „Klimaschutzziele“ deutlich. Sollte der CO2-Ausstoß bis 2020 im Vergleich zu 1990 um 40 Prozent vermindert werden, werden es laut Bundesumweltministerium in diesem Jahr nur 35 Prozent sein. Merkwürdig angesichts der Tatsache, daß sich Deutschland für viele Milliarden eine ruinöse Energiewende leistet und Autoindustrie und Landwirtschaft zerstört.

Brüsseler Klimabelanglosigkeiten wie beim Billigen Jakob

Ein Grund: Deutschland setzt nicht mehr auf Atomkraft. Die gilt als CO2-frei, deswegen steht Nachbarland Frankreich mit seinen vielen Atomkraftwerken CO2-bilanzmäßig so viel besser da als Deutschland, dessen Grüne und CDU doch so gern Vorbild sein möchten. Nun wollen auch Bulgarien, Tschechien, Rumänien mehr Atomstrom und können eines Tages behaupten, klimafreundlicher als das vorreitende Deutschland zu sein.

Im Raum stand sogar, daß Deutschland aufgrund der CO2-Überschreitungen 300 Millionen Euro Strafe nach Brüssel zahlen soll. Doch der Corona-„Shutdown“ erledigt auch die Wirtschaft in solch starkem Maße, daß nach diesen Rechenspielereien auch der CO2-Ausstoß zurückgeht. Das letzte Mal, als Deutschland einen großen Sprung nach vorn in Sachen Klimarechenkunststücken gemacht hat, war nach der Wende mit der Abschaltung der völlig veralteten DDR-Industrie.

Jetzt also wieder Brüsseler Klimabelanglosigkeiten wie beim Billigen Jakob – immer noch eins drauflegen, nein, nicht 40, sondern 55 Prozent. Umweltgruppen forderten sogar eine Reduktion von 60 Prozent  – und insgeheim am liebsten sicher noch mehr.

Der sogenannte Klimaschutz wird noch teurer

Das EU-Parlament war freudig begeistert, als von Kommissionspräsidentin Ursula von der Leyen (CDU) das neue Ziel vor kurzem in ihrer Rede zur „Lage der Union“ vor einem ziemlich leeren Parlament offiziell ankündigte. Der Klimagipfel bedeutete letztlich ein Durchwinken der bereits beschlossenen Richtung.

Für Deutschland heißt dieser Beschluß: der sogenannte Klimaschutz wird noch teurer. Der CO2-Ausstoß hängt direkt vom Energieverbrauch ab, das bedeutet, Benzin, Diesel, Heizöl und Gas werden teurer und sollen über den Preis rationiert werden. In Deutschland bezahlen die Bürger bereits jetzt die höchsten Strompreise, die höchsten Steuern und im kommenden Jahr Abgaben auch für das Luftgas CO2 – auf dem jetzt noch draufgepackt werden soll.

Davon, daß CO2 ein Segen für die Menschheit ist, weil sich die grünen Pflanzen daraus in einer sehr komplizierten Reaktion den Kohlenstoff als Baumaterial für Blätter, Äste und Stämme holen, redet niemand mehr. Für die meisten Pflanzen bedeuten die aktuell 400 Teile CO2 pro eine Million Teile Luft übrigens eine Minderversorgung. Jeder Gärtner weiß: Steigt der CO2 Gehalt, steigt auch das Pflanzenwachstum.

Industrie wird Produktion verlagern

Der Klimabeschluß bedeutet weiterhin, daß die Industrie in Deutschland schneller ihre Produktion verlagern wird, so wie das die energieintensive Industrie schon tut. Die norwegischen Eigentümer der letzten deutschen Aluminiumhütten haben bereits erklärt, nicht mehr in ihre deutschen Werke zu investieren. Die sehr energieintensive Produktion verträgt sich nicht mit den hohen Strompreisen.

BMW hat angekündigt, keine Verbrennermotoren mehr in Deutschland zu produzieren, Diesel und Benziner sollen nur noch in den Werken in Großbritannien und Österreich gefertigt werden. Daimler will gemeinsam mit dem chinesischen Autobauer Geely, dem bereits Volvo gehört, in Europa und China Motoren produzieren. Dabei handelt es sich immerhin um anspruchsvolle Entwicklungsarbeiten, bei denen chinesische Autobauer bisher noch erheblichen Nachholbedarf hatten. Das Know-how, einen modernen Dieselmotor zu bauen, wandert jetzt gewissermaßen gratis nach China.

Wenn Strom zum Luxusgut wird, läuft ziemlich viel falsch. Denn preiswerte und jederzeit verfügbare Energie ist immer Voraussetzung für Prosperität. Nicht umsonst bauen China, Indien und andere aufstrebende Staaten in hoher Zahl Kraftwerke. Sie wissen: Eine Hungersnot aufgrund Energiemangels können sie sich nicht leisten.

Hinter den Brüsseler Beschlüssen steht letztlich: Energie zu rationieren – das ist genau das Gegenteil dessen, was die Voraussetzung für moderne Industriegesellschaften ist. Das heißt nicht, Energie vergeuden. Energie effizient einsetzen ist das tägliche Brot von Ingenieuren. Die Menschheit ist energiehungrig. Ihr aber den „Saft abzudrehen“ heißt, Lebensadern zu durchtrennen.

Ganz offen wird schon über Stromrationierungen geredet

Ganz offen wird hierzulande schon über Stromrationierungen geredet. Nicht unter diesem Namen, sondern unter dem noch schöneren Begriff „Spitzenglättung“. Das bedeutet nichts anderes als abschalten, wenn Windräder und Photovoltaikanlagen in Spitzenzeiten zu wenig Strom erzeugen.

Grüne Politik träumt von Smartmetern, mit denen die Energiezufuhr in die Wohnungen an- und abgeschaltet werden kann. Gebadet werden kann also nicht mehr, wenn man gerade Lust hat oder es nötig ist, sondern wenn der Wind weht. Im Zweifel bekommt der politisch Zuverlässige den Strom, während der andere in die Röhre schaut. Neu wäre das nicht.

Vorsicht gilt vor Sprüchen wie „Nationalen Zielen“ und „Verpflichtungen“, wie sie beim EU-Gipfel wieder herausschwappten; sie enden häufig schrecklich. Ebenso ist höchstes Mißtrauen bei Formulierungen wie „gemeinsam“ angebracht. Es gibt unterschiedliche Interessen, wenig Gemeinsamkeiten. Und an die werden immer in sozialistischen Systemen appelliert.

Der Beitrag erschien zuerst bei JF hier