Aus Respekt vor den Schülerprotesten: Freitags alle Kohlekraftwerke abschalten!

Hier bei uns verstopft der Kohlestrom das Stromnetz und deshalb kann dieses Netz nicht genügend alternative Energien speichern. Dadurch fällt wiederum die bereits fest eingepreiste CO2-Einsparung unserer EEG-Energiewende flach und Deutschland verfehlt seinen zwingend notwendigen Beitrag für das globale 1,5-Grad-Klimaziel. Nach Aussage der „Scientists for Future“ reichen die derzeitigen Maßnahmen zum Klima-, Arten-, Wald-, Meeres- und Bodenschutz bei Weitem nicht aus, um eine katastrophale Veränderung des 30-jährigen globalen Wetterdurchschnitts (= Klima) zu verhindern.

Und weil die Erwachsenen in den westlichen Industrienationen beim Klimaschutz völlig versagt haben, demonstrieren hier die Schüler jetzt jeden Freitag ganz spontan für eine klimagerechte Welt. Alle übrigen Schüler dieser Welt lernen inzwischen fleißig weiter, damit es ihnen später auch einmal so gut geht, wie diesen Schülern in den westlichen Industrienationen.

Also, liebe Kohlekommission, aus Respekt vor den „Fridays for Future“-Schülerprotesten sollten zukünftig an jedem Freitag die deutschen  Kohlekraftwerke abgeschaltet werden, denn dadurch können wir alle nur dazulernen:

 

 

Der Beipackzettel zu „RESPEKT am Freitag“:

Der Beitrag erschien zuerst in der „Kalten Sonne“ am 10.April 2019. Wir danken Herrn Weber und der KA für die freundliche Genehmigung, den Beitrag auch bei uns bringen zu können.




Unsere Energieversorgung wird immer fragiler

erschienen im Reviertransfer, Seite 44 (hier)

„Wir müssen die Energiewende vom Grundsatz her neu denken“

Interview mit Prof. Dr.-Ing. Harald Schwarz, Lehrstuhlinhaber Energieverteilung und Hochspannungstechnik an der BTU Cottbus-Senftenberg

Im Frühjahr 2018 war Prof. Harald Schwarz Mitautor einer BTU-Kurzstudie des brandenburgischen Wirtschaftsministeriums  zu den technischen Zusammenhängen zur sicheren Stromversorgung. Wir suchten mit ihm das Gespräch zu seiner Sicht auf die Ergebnisse des Abschlussberichts der
WSB-Kommission. Daraus wurde eine umfangreiche Aufklärung zu den Unzulänglichkeiten der Umsetzung von Deutschlands Energiewende.

Die Kommission wurde mit den Begriffen Wachstum, Strukturwandel und Beschäftigung ins Rennen geschickt, was entnehmen Sie dem Abschlussbericht in diesen Themenbereichen für die Lausitz?

Ich habe den Bericht nur auszugsweise gelesen und mich auf die Absätze zur Versorgungssicherheit konzentriert. Es gibt eine logische Reihenfolge: Wir müssen zuerst die Versorgung sicherstellen und können dann schauen, wie wir CO2-Emissionen reduzieren. Erst dann brauchen wir uns über Themen wie Wachstum, Strukturwandel und Beschäftigung Gedanken machen. Wenn die Versorgungssicherheit als Primat nicht gegeben ist, brauchen wir über den
Rest nicht zu reden. Da ich in dem Bericht hierzu keinen Ansatz erkennen konnte, ist die Debatte um den Strukturwandel meines Erachtens obsolet.

Stehen Sie mit dieser Meinung nicht recht allein? 

Das ist nicht meine Denke. Es gibt seit zehn Jahren ausreichend Studien dazu.
Möchte man in einem Land sichere Stromversorgung, benötigt man gesicherte Kraftwerksleistung. Seit hundert Jahren heißt die Regel, dass die gesicherte Leistung die mögliche Höchstlast in einem Stromnetz übersteigen muss. Schauen wir uns die letzten zehn bis 15 Jahre Energiewende in
Deutschland an, so haben wir um die 120 Gigawatt PV- und Windstrom aufgebaut. Die gesicherte Leistung von PV ist aber 0%, bei Wind onshore ist es 1%, bei Wind offshore 2%. Im Klartext liefern die 120 GW, die wir in den letzten 15 Jahren aufgebaut haben, nahezu null Beitrag zur gesicherten
Leistung. Wir werden ausschließlich mit Wind und PV nie eine gesicherte Stromversorgung aufbauen. Vor zehn Jahren standen uns deshalb rund 100 GW Kraftwerksleistung aus sicheren Energieträgern zur Verfügung, das sind Kohle, Gas, Atom, Biomasse und Laufwasser. Die mögliche Höchstlast in Deutschland liegt derzeit bei ca. 85 GW. Inzwischen ist die gesicherte
Leistung auf knapp 90 GW abgeschmolzen – und der Kohlekommissionsbericht sieht vor, dass wir davon bereits in drei Jahren weitere 20 GW gesicherte Leistung abschalten. Das soll dann noch weiter fortgesetzt werden. Wir geben in drei Jahren also unsere sichere Stromversorgung „aus eigener Kraft“ auf und haben dann nur noch 80% der notwendigen gesicherten Kraftwerkleistung im eigenen Land, die wir
brauchen, um uns verlässlich zu versorgen. 2030 sinkt das weiter auf 60%. Wo soll der Rest herkommen? Es gibt kein Konzept und bei unseren Planungshorizonten kann ich mir keine reale Lösung vorstellen. Fest steht, dass bis 2022 definitiv gar nichts passiert. Was heute im Bau ist, ist 2022 fertig, sonst nichts. Wir werden in drei Jahren die Abschaltung von Kohle und Atom nicht verkraften und können nur darauf hoffen, dass im angrenzenden Ausland noch genügend Reserven im Bereich Kohle und Atom vorhanden sind, um Deutschland mit zu versorgen, wenn wir es selbst nicht mehr
können.

Wie sieht es mit der Hilfe der Nachbarn aus?

Das ist die bislang einzige Hoffnung der Bundesregierung: Der europäische Strommarkt wird schon liefern. Aber was ist dieser Markt? Das sind Kraftwerke in den Nachbarstaaten. Hier stellt man schnell fest, dass Windflauten bei uns auch mit Windflauten bei den Nachbarn einhergehen. Dazu gibt es Fakten und Zahlen. Laufen unsere Kraftwerke unter Höchstlast, tun sie das in Polen und Tschechien auch. Die Wahrscheinlichkeit, dass uns die Nachbarn in einer kalten Dunkelflaute, bei weitgehendem Ausbleiben von Strom aus Wind und PV, mal eben 20 GW über den Strommarkt verkaufen können, halte ich für unrealistisch. Genau an diesem Punkt hat sich der Abschlussbericht der Kommission für mich wegen Realitätsferne erledigt.

Viele Wissenschaftler untermauern die Notwendigkeit und Möglichkeit des Kohleausstiegs – handelt es sich schlicht um unterschiedliche Sichtweisen oder einen unterschiedlichen Grad der wissenschaftlichen Expertise?

Die Aussagen zur gesicherten Leistung sind physikalische Fakten. An denen kann kein Wissenschaftler etwas ändern. Wir leben allerdings seit längerem in einer Phase der Energiewende, bei der physikalische Fakten und Naturgesetze ausgeblendet werden. Das Motto lautet: Es muss einfach gehen. Wir betreiben die Energiewende schon seit 20 Jahren. Das EEG ist Mitte der 1990er-Jahre erstmals wirksam geworden und vor der Jahrtausendwende
wurden dann die ersten Anlagen für Erneuerbare installiert. Das
Ziel der Energiewende besteht aber nicht im Aufbau regenerativer Energien, sondern im Senken der CO2-Emissionen. Bis heute erleben wir bei vielen Beteiligten einen wahren Rausch, was die jährliche Steigerung des prozentualen Anteils der Erneuerbaren an der Stromproduktion angeht. Daraus ist der Glaube entstanden, dass ein „weiter so“ bei der Steigerung
dieses Anteils die Lösung bringt.

In den Medien wird suggeriert, dass mit 40% Quote der Erneuerbaren auch 40% Deutschlands mit regenerativem Strom gesichert versorgt werden. Dem ist nicht so. Das physikalische Grundverständnis energietechnischer Zusammenhänge in den Medien und der Bevölkerung ist leider sehr gering. Schaut man hingegen auf die CO2-Emissionen in der Energiewirtschaft, so wurde in den letzten 20 nichts erreicht. Lediglich Anfang der 1990er-Jahre gab es einen starken Abfall, der mit der Deindustrialisierung der ehemaligen DDR einherging. Von 1994 bis 2013 waren die Emissionen der Energiewirtschaft dann trotz Energiewende konstant. Sie betrugen jedes Jahr 360 Mio. Tonnen CO2 plus minus 5 Prozent. Der Aufbau von PV und Windenergie gefördert über das EEG zeigte keine Wirkung bei den CO2-Emissionen.

Seit 2015 gibt es wieder einen leichten Abwärtstrend, allerdings sind das noch unbestätigte Daten des Umweltbundesamts aus dem Sommer 2018. Da war noch von Hochrechnungen und Expertenschätzungen die Rede, das ist also nicht belastbar. Vielleicht gibt es hier tatsächlich einen kleinen Abwärtstrend, aber über 20 Jahre haben sich die Emissionen gar nicht verändert und selbst jetzt wäre das nur sehr geringfügig. Trotzdem sind alle glücklich und feiern den Ausbau der Erneuerbaren. Das kann ich nicht verstehen.

Woraus resultiert der fehlende Effekt auf die Emissionen?

Parallel zum Aufbau der Erneuerbaren haben wir CO2-freie Kernenergie abgebaut. Was wir auf einer Seite aufgebaut haben, wurde auf der anderen Seite abgebaut. Zudem wurden Kohle- und Gaskraftwerke durch die volatile Einspeisung der Erneuerbaren zu einem extrem fluktuierenden Betrieb gezwungen, um so die ständigen Einspeiseschwankungen von Wind und PV
mit dem Strombedarf in Übereinstimmung zu bringen. Das ist wie Stop and Go mit dem Auto in der Stadt. Das führt auch zu höheren Emissionen pro Kilometer, als auf der gleichen Strecke mit konstanter Geschwindigkeit
auf der Autobahn oder Bundesstraße zu fahren. Wir haben im Ergebnis über 20 Jahre hinweg in blindem Aktionismus im dreistelligen Milliardenbereich Steuergelder ausgegeben, ohne nennenswert etwas bei den Emissionen zu erreichen.

Wie weit sind wir bei der Verstetigung der Erneuerbaren, damit wäre ja ein Effekt auf die Emissionen gegeben?

Wir wissen schon lange, dass überschüssige regenerative Energien gespeichert werden müssen. Das hat in den letzten 15 Jahren aber niemanden interessiert. Es gab bereits 2008 und 2010 Konzepte, die vor der kommenden Phase einer massiven Unterdeckung mit gesicherter Leistung warnten. Die Energiewende wurde trotzdem blind vorangetrieben. Hier müssen wir dringend umsteuern und die Energiewende neu denken, um zu einer nachhaltigen Stromversorgung mit deutlich geringeren CO2-Emissionen zu kommen.

Es wird dennoch viel über grünes Gas gesprochen, wie weit sind wir in der Praxis?

Im Jahr 2006 gab es eine Pilotanlage mit 6 MW und weitere im Bereich um 2 MW. Seitdem ist bundesweit nichts mehr passiert. Aktuell plant RWE nach meiner Kenntnis eine Anlage mit 50 bis 100 MW. Um von dieser Größe in den Bereich von mehreren 10.000MW zu kommen, brauchen wir nicht nur einen, sondern mehrere Schritte zum Hochskalieren und das dauert mehrere Jahrzehnte, zumal wir ja auch die Kosten dafür irgendwie verteilen müssen. Es rächt sich, dass wir 15 Jahre nichts getan haben.

Was müsste jetzt getan werden?

Wir reden inzwischen bei Phasen mit Überspeisung regenerativer Energien über hunderte Gigawattstunden. Die Big Batterie der LEAG wird 0,05 Gigawattstunden bringen, das macht die Dimensionen des regenerativen
Überschusses deutlich. Batterien werden in Zukunft zwar mehr im Netz auftauchen, aber als Elemente, über die man schnelle Regelleistung bereitstellen kann, um einem kritischen Frequenzabfall oder –anstieg in wenigen Minuten entgegenzuwirken. Bei einer mehrtägigen Überspeisung
der Netze, so wie wir es schon heute in Ostdeutschland im Winter teils mehrfach in der Woche haben, können wir nur abregeln, oder wir müssten diese Überschüsse in Wasserstoff umwandeln und als grünes Gas ins Gasnetz einspeisen. Das ist für Deutschland m.E. die einzige Option, den massiven EE-Überschuss zu verstetigen und nachhaltig zu nutzen. Das ist aber ein weiter, sehr weiter und auch teurer Weg.

Was kann bis dahin Kohle und Atom ersetzen?

Wenn wir auf Kohle und Atom verzichten, bleibt nur Gas als Ersatz für gesicherte Leistung.Auch hier lügen wir uns seit Jahren in die Tasche. Wir betrachten die CO2-Emissionen nur im Wandlungsprozess vor Ort, in diesem Fall ist Gas deutlich günstiger als Kohle. Das ist zwar statistisch korrekt,
aber CO2 ist nun mal ein globales Problem. Wenn die tatsächlichen CO2-Emissionen durch Erzeugung und Transport mitbetrachtet werden, dann nimmt das bei Braunkohle aufgrund des geringen Abstandes zwischen Tagebau und Kraftwerk nur wenig zu, Steinkohle geht deutlich nach
oben, da viel Steinkohle für unsere Kraftwerke heute aus Australien kommt und bei Gas explodieren die Emissionswerte geradezu. Es gibt Gasfelder wie das amerikanische Schiefergas samt Transport nach Deutschland, bei dem die Gesamtemissionen dann weit über der Braunkohle liegen. Denken wir aber tatsächlich über globalen Klimaschutz nach, sind diese Gesamtemissionen
der entscheidende Wert.

Wenn wir über Klimaschutz reden, dann leistet
Gas als einziger möglicher Lückenfüller für Atom und Kohle also wenig Beitrag?

Klimaschutz ist ein globales Thema. Da hilft es nicht, wenn wir nur den Wandlungsprozess in Deutschland betrachten. Wir müssen die regenerativen Überschüsse umwandeln, das ist der einzig richtige Weg. Der Netzentwicklungsplan 2030 sieht 200 GW Wind und PV vor, die uns das Netz gigantisch belasten werden. Diese Überschüsse müssen ins Gasnetz. Der notwendige Prozess der Elektrolyse ist aber immens teuer und müsste dringend vorangetrieben werden, anstelle riesige Summen in die Verkabelung
der großen Nord-Süd Leitungstrassen zu stecken – nur mit dem Effekt, dass
man die Leitung dann nicht mehr sieht. Alles in allem sind wir in Deutschland dabei leider ohne Konzept.

 

Entspricht das inzwischen oft beschworene Szenario eines Blackouts einem realen Problem?

Nach Köpenick muss man den Begriff Blackout leider oft klarstellen. Es handelt sich dabei um eine lang anhaltende und großflächige Versorgungsunterbrechung. Das entspricht mehreren Tagen auf einer Fläche von mehreren hundert Quadratkilometern. Köpenick war eine zwar unschöne,
aber lokal und auch zeitlich noch sehr begrenzte Versorgungsunterbrechung.
Über die „Blaulichtorganisationen“ konnte man das locker von außen versorgen. Zur Notversorgung eines Stromausfalles im gesamten Berliner Stadtgebiet müsste das Technische Hilfswerk vermutlich alle in Deutschland verfügbaren Ressourcen zusammenziehen – und wenn die Fläche noch größer wird, dann wird es richtig hart. Insgesamt betreiben wir das Stromnetz in den letzten Jahren immer stärker am Limit. Anfang der 2000er-Jahre gab es zwei größere Blackouts (Italien bzw. Teile Westeuropas), weil der neu eingeführte Stromhandel über das europäische Verbundnetz und die physikalischen
Randbedingungen für den Netzbetrieb plötzlich nicht zusammenpassten.
Auch im Winter 2011 auf 2012 war das Gleichgewicht zwischen Verbrauch und Erzeugung empfindlich gestört, als es durch den Konflikt zwischen Russland und der Ukraine zur verminderten Gasdurchleitung und damit einem Gasmangel in Süddeutschland kam. Wir waren kurz vor dem kritischen Punkt der Unterfrequenz, bei dem dann alle verfügbaren Kraftwerksreserven ans Netz gebracht werden und bereits erste große Verbraucher abgeschaltet werden, um ein weiteres Absinken der Frequenz zu verhindern, das ungebremst nach sehr kurzer Zeit zu einem Netzzusammenbruch führen
kann. Es gab helle Aufregung in der Politik, daraufhin wurde eine Regelung zur Abschaltung energieintensiver Industrie im Falle besonderer Herausforderungen geschaffen. Allein in 2018 wurden Teile der Aluminiumindustrie über diese Maßnahme 78 Mal abgeschaltet. Das waren
zwar keine Katastrophenszenarien, aber man hat in diesen Zeiten gemerkt, dass die Regelleistung nicht mehr ausreicht und der Markt die Lücke nicht schließen kann. Zum vergangenen Jahreswechsel gab es auch eine plötzlich auftretende Unterdeckung von 6 GW, die man ausgleichen konnte, weil die Kraftwerke nicht auf Höchstlast waren. Am 10. Januar gab es eine Situation, in der die Frequenz in wenigen Minuten, quasi aus dem Nichts, bis auf 49,8 Hertz abgesunken ist. 14 Tage später gab es das gleiche Phänomen in die
andere Richtung. Bis heute weiß in diesen Fällen niemand, worin genau die Ursachen lagen. Der Netzbetrieb in Europa ist durch die beliebige Ein- und Ausspeisung hochgradig wacklig geworden. Das wird weiter zunehmen.

Im Kommissionsbericht steht, dass auch die Nachbarländer aus der Kohle aussteigen, ist ganz Europa auf dem Holzweg?

Die Nachbarn weniger. Um einen deutlichen Vergleich zu bedienen, schauen wir mal etwas weiter nach China. Dort gibt es auch viel Kohle und eine ähnliche EEGQuote wie in Deutschland. Es gibt aber einen wesentlichen Unterschied. Dreiviertel von Chinas EEG-Quote entstammen sicherer
Wasserkraft und nur ein Viertel Wind und PV. Bei uns sind es 90 % Wind und PV. Andere Länder haben einen anderen Mix, Deutschlands Weg folgt niemand.

Ist einmal durchgerechnet worden, was die
Energiewende kostet?

Was immer man rechnet, es gibt einfach zu viele Unklarheiten und aktuell läuft man bei der Energiewende in Deutschland Lemmingen gleich einer Religion hinterher. Die Politik wird die Physik erst akzeptieren, wenn 2022 eine Situation eintritt, in der der Markt nicht liefern kann. Man sagt da immer schnell, dass so ein größerer Blackout vielleicht auch „heilsam“ wäre, man darf aber nicht vergessen, dass ein großflächiger und langanhaltender Blackout
in Deutschland unvorstellbar schlimm werden würde. Der Bundestag hat hierzu mal 2011 eine große Studie in Auftrag gegeben, die man auch mit etwas Suchen herunterladen kann. Dort wurde alles zumindest für den ersten Tag des Blackouts sehr detailliert untersucht – und wer das gelesen hat, möchte das nicht erleben.

Warum gibt es keinen Aufstand aus der Wissenschaft?

Das Thema ist zu komplex für die heutige Medienlandschaft, es fehlt in unserem Land
der Resonanzboden. Große Teile der Gesellschaft sind darauf eingeschworen, die Welt zu retten, auch wenn unser Anteil an den globalen Emissionen nur 2,7 % beträgt.

Was würden Sie vorschlagen?

Im Abschlussbericht der Kommission sind Jahreszahlen für ein Monitoring festgelegt worden. Man müsste allerdings definieren, wie man genau ein Monitoring ansetzt, um die Sicherheit der Stromversorgung im Allgemeinen
und der Netze im Besonderen zu bewerten. Bei der Stromversorgung ist
das m.E. die gesicherte Kraftwerksleistung und bei den Netzen z.B. die Eingriffe nach §13 und 14 EnWG, da diese dann aktiviert werden, wenn eine Überlastung der Netze durch regenerative Überspeisung verhindert werden muss. Dazu braucht es eine Kommission, in der tatsächlich Experten zur Versorgungssicherheit zusammenkommen. Die bisherige WSB-Kommission ist dafür fachlich nicht qualifiziert. Ich habe aber wenig Hoffnung für ein Umdenken. Über das Lockmittel „Strukturhilfen“ wird das Thema „Versorgungssicherheit“ völlig ausgeblendet.

Eine große Bedeutung misst der Bericht der Kommission der Lausitzer Hochschullandschaft als Motor des Strukturwandels bei. Teilen Sie diese Ansicht?

Hier sollen die neuen Institute Impulse liefern. Das Fraunhofer und das DLR-Institut werden wohl bis Ende 2019 formal vor Ort sein und dann in zwei bis
drei Jahren hochfahren. Wir können da sicher sehr gut kooperieren. In drei Jahren sollte die Mannschaft pro Institut um die 50 Personen betragen. Mit Blick auf den WSB-Bericht geht es sicher darum, wie eine Hochschule Arbeitsplätze in der Industrie induzieren kann. Bis aus einer Idee eine Fertigung wird, das dauert. Ernsthaften Ersatz für Industriearbeitsplätze
in Größenordnungen allein aus der Hochschule heraus sehe ich als unrealistisch. Da brauchen wir Investoren, für die eine Hochschule, die Ideen und gut qualifizierte Absolventen liefert zwar ein positives Add-on ist. Entscheidungen zu Investitionen in neue Fertigungsstandorte in der Lausitz werden aber nach anderen Kriterien gefällt.

Dennoch erhält die BTU mit den Instituten Rückenwind, gibt es derzeit eine Aufbruchstimmung?

Wir müssen erst einmal schauen, was konkret hinter den neuen Einrichtungen steckt. Fraunhofer muss später Drittmittel einwerben und eigenes Geld verdienen. Da muss man schauen, ob sie in Konkurrenz zu Aktivitäten bestehender BTU-Lehrstühle arbeiten. Da die beiden neuen Institute in
den Bereich der thermischen Energietechnik gehen wollen, können die BTU-Lehrstühle der elektrischen Energietechnik hier sehr gut anknüpfen, der gerade in der Wiederbesetzung befindliche Lehrstuhl für Thermische Energietechnik an der BTU ist allerdings im gleichen Feld wie die neuen
Institute aktiv. Hier kann es zu Überschneidungen kommen.

Sehen Sie die BTU für eine Begleitung des Lausitzer Wandels gut aufgestellt?

Wir haben einen extrem geringen Wert bei wissenschaftlichen Mitarbeitern. Die RWTH Aachen hat meinen Bereich „Energieverteilung und Hochspannungstechnik“ z.B. in zwei Institute mit je sechs wissenschaftlichen und von der Uni bezahlten Mitarbeitern aufgesplittet. Diesen zwölf Wissenschaftlern im Mittelbau stehen bei mir zwei gegenüber, wir reden
also über ein Verhältnis 1:6! Daran merkt man, welchen Vorteil das Rheinische Revier beim Strukturwandel mit der RWTH Aachen gegenüber dem Lausitzer Revier auch in diesem Bereich hat. Wir haben mangels Manpower nicht die Option, viele Anträge vorzubereiten. Gemeinsam mit DRL und Fraunhofer sind Lösungen denkbar, aber auch hier wird es mit dem schmalen Mittelbau schwer.

Welchem Projekt Ihres Lehrstuhls trauen Sie für den Strukturwandel den größten Effekt zu?

Es gibt viele spannende Themen, am Ende geht es aber schlicht darum, für welche wir Geld erhalten. Deshalb machen wir aktuell viel zur Netzintegration Erneuerbarer Energien und Elektromobilität. Ein weiteres Thema ist der BTU Smart Campus. Aber was kann ein Lehrstuhl mit zwei wissenschaftlichen Mitarbeitern für die Lausitz bewegen? Es wäre sicher sinnvoll, den Power System Simulator an meinem Lehrstuhl mit dem LEAG-Kraftwerkstrainer
zu verknüpfen, um so ein singuläres Kompetenzzentrum aufzubauen. Dazu braucht es aber Geld, Zeit und Personal – oder einen externen Partner, der in das Projekt mit einsteigt.

Was müsste sich an der BTU verändern?

Das neue Fraunhofer bzw. DLR-Institut haben je einen Umfang von 50 Mitarbeitern. Dem steht bei uns ein Professor mit zwei wissenschaftlichen Mitarbeitern gegenüber. Viele Planstellen für den wissenschaftlichen
Mittelbau sind hier verschwunden und irgendwo im Stab der Hochschulleitung gelandet. Wenn nun alle oben koordinieren und unten keiner mehr zum Arbeiten da ist, wird das problematisch. Fraunhofer und DLR
marschieren mit 100 Planstellen in einen Bereich, in dem die BTU aktuell zwei Professoren mit jeweils zwei Mitarbeitern einsetzt.

Wir danken für das Gespräch.

EIKE dankt dem Reviertransfer für die Genehmigung, seinen Beitrag ungekürzt auch in unseren News zu bringen.




rbb, Klima, Extremwetter und Relotiusdorfsäue

Gegenstand unserer Kritik ist eine aufwendig gemachte Publikation (hier) des rbb mit dem Titel

„Klimawandel: Das erwartet Berlin und Brandenburg bis 2100“

und weiter

„Hitze, Dürre, extreme Regenfälle: Das Klima in Berlin und Brandenburg hat sich bereits deutlich geändert. rbb|24 zeigt jetzt in einer Datenauswertung, welche drastischen Folgen in Zukunft auf uns zukommen könnten – dass Klimaschutz aber noch helfen kann“.

Vom rbb werden also Daten bemüht. Das ist immer gut. Ein Pluspunkt für den rbb. Leider wird er der einzige bleiben. Aber Immerhin, endlich Daten beim rbb, oder doch wieder nur Phantasiegeschichten?

Die Brandenburg/Berlin Temperaturreihe als Beleg, ja wofür eigentlich?

Leider ist es mit Daten aber so eine Sache. Man sollte den Hintergrund der Daten kennen, und man sollte die Daten auch verstehen. Erst dann kann man sie ordentlich interpretieren. Wie hätten die rbb-Journalisten eigentlich erfolgreich vorgehen müssen?

Die Temperaturdaten sind im Wesentlichen die des Deutschen Wetterdienstes DWD. Man erhält die Temperaturen von Brandenburg/Berlin hier. Links unten auf „Tabelle“ klicken und schon hat man die jahresgemittelten Temperatur-Anomalien von Brandenburg/Berlin von 1881 bis 2018. Anomalie mag vielleicht jemand fragen: Ganz einfach, es werden die Abweichungen vom Mittelwert der gemessenen Temperaturreihe über den gesamten Zeitraum genommen. Das Ganze, in ein Diagramm gebracht, sieht dann so aus:

Bild 1: Temperaturanomalien von Brandenburg/Berlin von 1881 bis 2018

Klimakatastrophe? Eigentlich nicht zu erkennen. Vielleicht sollte man eine Regressionsgerade durchlegen (hier), um zu sehen, ob sich in den fast 140 Jahren doch etwas getan hat. Das ist dann Bild 2:

Bild 2: Jetzt mit Regressionsgerade

Tatsächlich, die Temperatur ist angestiegen, um 1,5 °C in 140 Jahren. Hmmm, wie war das nochmal, Brandenburg 2,5 Mio. Einwohner, Berlin 3,6 Mio. Wieviel von diesem Anstieg geht wohl auf das Konto der vielen Berliner Messtationen zurück, die das Heizen und Autofahren von 3,6 Mio. Berlinern mitmessen, die übrigen Städte Brandenburgs nicht zu vergessen? Zwischen 1881 und 2018 ist in dieser Beziehung sicher einiges pasiert. UHI wird der Effekt genannt (urban heat island). Na, Schwamm über den UHI, lassen wir erst einmal die schöne Erwärmung den Klimawarnern und schauen wir noch einmal genauer hin. Wie war das eigentlich beispielsweise in den 65 Jahren von 1920 bis 1985? Tragen wir doch auch für diesen Zeitraum einmal die Regressionsgerade ein (s. Bild 3)!

Bild 3: Jetzt mit der Regressionsgerade von 1920 bis 1985.

Versetzen wir uns nun in das Jahr 1985. Glücklicherweise wurden hier die Bewohner Brandenburgs/Berlins, als die Fortsetzung der Reihe noch in unbekannter Zukunft lag, journalistisch nicht mit einer neuen Eiszeit geängstigt. Hat damals noch niemanden interessiert. Was lernen wir daraus? Keep cool und traue keinem Journalisten, der vom Weltuntergang faselt.

Für die verantwortlichen rbb-Redakteure und Medien-Intendanten nun zum mitschreiben:

a) Nach Ende der kleinen Eiszeit (LIA) wurde es naturgemäß wieder wärmer. Denn diese Kaltzeit, die von etwa Mitte des 15. Jahrhunderts bis ins 19. Jahrhundert hinein dauerte, war die kälteste Periode der letzten 9000 Jahre. Der Wiederanstieg nach der LIA spiegelt sich wohl ein wenig auch in der Temperaturkurve von Brandenburg/Berlin wieder, wobei noch der schon erwähnte UHI-Effekt hinzukommt. Ob das anthropogene CO2 in jüngster Zeit eine Rolle spielt, weiß niemand zu sagen.

b) Die Temperaturen der Erde über 9000 Jahre nach Ende der letzten Eiszeit sind bekannt, so z.B. die römische und mittelalterliche Warmzeit als gut belegte globale Ereignisse [1]. In diesen Warmzeiten lagen die Temperaturen zum Teil höher als heute. Deutlich wärmer freilich waren die beiden sehr langen Holozän-Warmzeiten etwa 4500 und 6500 vor unserer Zeit (s. Bild 4).

Bild 4: Nordhemisphärische Temperaturen ab Ende der letzten Eiszeit (Bildquelle: Prof. Dr. H. Kehl, dort finden sich auch die Originalquellen zur Bilderstellung)

Die Temperaturen der letzten 200 Jahre liegen weit innerhalb dieser historischen Temperaturschwankungen und sind daher mit hoher Wahrscheinlichkeit natürlich. Um auch die Fakten zu den jüngsten Temperaturen zu erfahren, sieht man sich am besten die Satellitendaten an (hier).

c) Nicht nur die Temperaturen selber, sondern auch ihre Änderungsgeschwindigkeiten waren in Zeiten vor der Industrialisierung oft stärker. Es existiert sogar eine Thermometerreihe, die dies für die letzten 350 Jahre belegt, die berühmte mittelenglische Reihe (CET), die 1659 beginnt [2] und bis heute reicht (hier). In Ihr findet man zum Beispiel einen 50-jährigen Temperaturanstieg von 1687 bis 1727 von knapp 2 °C. Das schnellste, was es über 50 Jahre in Zeiten der Industrialisierung gibt, liegt dagegen nur knapp über 1 °C. Ähnliches gilt auch für 30-Jahres-Anstiege in der CET.

Fazit: die Brandenburg/Berlin-Temperaturreihe ab 1881 als Beleg für eine gefährliche globale Erwärmung heranzuziehen ist mehr als fragwürdig, um den harten Ausdruck Schwachsinn zu vermeiden. Es belegt eigentlich nur den Unwillen der verantwortlichen rbb-Redakteure, sich ordentlich zu informieren.

„Klimawandel in vollem Gange, Zunahme von Wetterextremen“?

Klimawandel findet statt, seit die Erde existiert, konstantes Klima gab es noch nie. Insofern ist das „Klimawandel in vollem Gange“ des rbb völlig richtig. Aber was wollen uns die rbb-Redakteure mit dieser Binsenweisheit sagen? Knüppeldick ist dagegen der Unsinn von zunehmenden Wetterextremen. Diese Behauptung, zu der nicht nur vom rbb auch gerne das angebliche Absaufen von Pazifik-Inseln hinzugefügt wird, gehört inzwischen zu den unverzichtbaren und beliebtesten Dorfsäuen des Relotius.

Hier drängt sich nun die Frage auf „Ist den rbb-Redakteuren eigentlich das IPCC bekannt“? Scheint nicht so zu sein. Falls doch, sollten sie wenigstens auch die wissenschaftlichen Berichte dieser Institution kennen – gaa…aanz oberflächlich reicht schon aus – bitte nicht die politischen IPCC-Berichte, um keine Missverständnisse aufkommen zu lassen. Die kann man getrost vergessen, weil sie mehr „Relotius“ sind. Offenbar ist es mit den Kenntnissen der rbb-Redakteure über die wissenschaftlichen Berichte des IPCC nicht gut bestellt. Daher jetzt wieder zum mitschreiben, liebe Damen und Herrender  rbb-Redaktion:

d) Der IPCC-Bericht AR5, Kapitel 2.6 des Jahres 2013 beschäftigt sich extrem sorgfältig und in epischer Breite mit der Frage, ob Extremwetter wie Tornados, Dürren, Überschwemmungen, Starkregen usw. zugenommen hätten (hier und speziell Kapitel 2.6 zum herunterladen hier). Startjahr der IPCC-Untersuchung ist 1950, denn ab diesem Zeitpunkt gibt es ausreichend viele Daten für gute Statistiken.

Um es kurz zu machen: Das IPCC findet NICHTS, keine Zunahme, weder an Stärke noch an Anzahl. Auch das Umweltbundesamt berichtet nicht anders, hier nur für Deutschland (hier). Wer nun mit der Dürre des letzen Sommers oder mit einer starken Hurrikan-Saison in den USA argumentiert, hat den Unterschied von Wetter und Klima nicht begriffen. Natürlich gibt es immer wieder gefährliche Wetterextreme, davor und danach ist es ruhig. Ein hübscher  Meteorologenspruch sagt dazu „das Gewöhnliche am Wetter ist seine Ungewöhnlichkeit“. Deswegen werden wir unvermeidbar auch immer wieder Dürren, Überschwemmungen und Stürme erleben, ganz ungewöhnliche/gewöhnliche, versteht sich. Mit echten Klimaänderungen hat dies aber nichts zu tun!

Tatsächlich geht es dem IPCC und in dem hier behandelten Thema „Extremwetter in Berlin/Brandenburg“ nicht um zeitlich begrenzte Wetterereignisse, sondern um Entwicklungen in Klimazeiträumen. Diese müssen mindestens 30 Jahre Wetterdaten enthalten – so ist es von der Weltmeteorologieorganisation (WMO) definiert. Um den Lesern das Herunterladen von schlappen 35 MB des Kapitel 2.6 im AR5 zu ersparen, im Anhang „aus Kapitel 2.6 des AR5 IPCC über Extremwetter“ die wichtigsten Zusammenfassungen des IPCC im Original.

Eine Empfehlung noch nebenbei: Wenn Sie in der Nähe eines großen Flusses wohnen, dann schauen Sie sich doch einmal dort die oft noch vorhandenen, gut erhaltenen historischen Hochwassermarken an. Wann kamen die stärksten Hochwasser vor? Wird jetzt nicht verraten, selber nachsehen. Nur für diejenigen ohne großen Fluss in der Nähe die Antwort (hier), die anderen bitte nicht spicken. Im Übrigen deutet viel darauf hin, dass insbesondere in Kaltzeiten Extremwetter stärker als in Warmzeiten auftraten (hier und hier).

Schlussendlich noch eine Anmerkung. Wenn wieder einmal ein tropischer Wirbelsturm ein küstennahes philippinisches Dorf weggeblasen hat und dies die Medien dem „Klimawandel“ anlasten, ist Folgendes zu bedenken: vor 50 Jahren gab es dieses Dorf noch gar nicht, dort war nur Urwald. Der Autor konnte es in einem Fall  selber nachvollziehen, denn vor mehr als 40 Jahren hat er den Nordteil der Philippinen (Luzon) über längere Zeit durchstreift. Die Zahl der Menschen haben  sich hier inzwischen wohl mehr als verdoppelt. Zudem wird heute jeder große tropische Wirbelsturm weltweit bis in die letzte Wohnstube im TV übertragen.

Für die Zukunft errechnete Jahresmitteltemperaturen des rbb

Vorhersagen sind schwierig, besonders wenn sie die Zukunft betreffen (Zitat W. Heisenberg). Woher kommt der Vorhersageunsinn des rbb eigentlich? Klar, aus Klimamodellen. Das sind diese Computerrechnungen, die einst den bekannten Modellierer Mojib Latif zu der Aussage verführten „In Deutschland gehören klirrend kalte Winter der Vergangenheit an: „Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben“ (hier). Nun ist es bekanntlich so: Mit Klimamodellen kann man höchstens einigen ganz wenigen Details des unendlich komplexen Klimasystems näherkommen, das ist auch schon alles. Auch das wird vom IPCC bestätigt, langfrsitige Klimavorhersagen sind prinzipiell nicht möglich (hier). Könnte ja vielleicht der eine oder andere deutsche Redakteur auch mal zur Kenntnis nehmen. Aber natürlich: wenn man in ein Klimamodell den CO2-Anstieg hineinsteckt, erhält man einen Temperaturanstieg. Solch ein Ergebnis politisch zu instrumentalisieren ist unredlich, und die Aussage ist wissenschaftlich wertlos. Hier finden Sie ausreichend Information über die „Qualität“ von Klimamodellen.

Trauriges Fazit zum rbb-Jornalismus

Die einschlägigen Journalisten im rbb können einem im Grunde nur leid tun. Wir hoffen zwar auf Besserung, glauben aber nicht mehr daran. Auch dieser Beitrag wird die gleiche Wirkung beim rbb entfalten, wie sie der Lateinlehrer des Autors bei gewissen Mitschülern zu beklagen pflegte „Euch etwas beizubringen ist, wie wenn man einem Ochsen ins Horn fetzt“.

 

Quellen

[1] S. Lüning et al., Warming and Cooling: The Medieval ClimateAnomaly in Africa and Arabia, AGU (2017). „S. Lüning, M. Galka, F. Vahrenholt“ in Google Scholar eingeben, dann lässt sich der Artikel frei herunterladen.

[2] Großherzog von Toscana, ließ 1654 das erste Thermometer herstellen, das die Ausdehnung von Alkohol in einem geschlossenen Glasrohr ausnutzte (hier).

 

Anhang – aus Kapitel 2.6 des AR5 IPCC über Extremwetter

Tropische Stürme und Hurrikane [IPCC 2013, AR5, WG1, Kapitel 2.6, Seite 216]:No robust trends in annual numbers of tropical storms, hurricanes and major hurricanes counts have been identified over the past 100 years in the North Atlantic basin.”

TropischeZyklone [IPCC 2013, AR5, WG1, Kapitel 2.6, Seite 216]: “Current datasets indicate no significant observed trends in global tropical cyclone frequency over the past century and it remains uncertain whether any reported long-term increases in tropical cyclone frequency are robust, after accounting for past changes in observing capabilities.”

Außer-tropischeZyklone [IPCC 2013, AR5, WG1, Kapitel 2.6, Seite 220]: “In summary, confidence in large scale changes in the intensity of extreme extratropical cyclones since 1900 is low. There is also low confidence for a clear trend in storminess proxies over the last century due to inconsistencies between studies or lack of long-term data in some parts of the world (particularly in the SH). Likewise, confidence in trends in extreme winds is low, owing to quality and consistency issues with analysed data.”

Dürren [IPCC 2013, AR5, WGI, Technical Summery, Seite 50]: ”There is low confidence in a global-scale observed trend in drought or dryness (lack of rainfall), owing to lack of direct observations, dependencies of inferred trends on the index choice and geographical inconsistencies in the trends.”

sowie in [IPCC 2013, AR5, WGI, Kapitel 2.6, Seite 215]:In summary, the current assessment concludes that there is not enough evidence at present to suggest more than low confidence in a global scale observed trend in drought ordryness (lack of rainfall) since the middle of the 20th century, owing to lack of direct observations, geographical inconsistencies in the trends, and dependencies of inferred trends on the index choice. Based on updated studies, AR4 conclusions regarding global increasing trends in drought since the 1970s were probably overstated. However, it is likely that the frequency and intensity of drought has increased in the Mediterranean and West Africa and decreased in central North America and north-west Australia since 1950.”

Überflutungen [IPCC 2013, AR5, WGI, Technical Summery, Seite 112]: ”There continues to be a lack of evidence and thus low confidence regarding the sign of trend in the magnitude and/or frequency of floods on a global scale over the instrumental record.”

Hagel und Gewitter [IPCC 2013, AR5, WGI, Kapitel 2.6, Seite 216]: “In summary, there is low confidence in observed trends in small-scale severe weather phenomena such as hail and thunderstorms because of historical data inhomogeneities and inadequacies in monitoring systems.”

Und schließlich fasst IPCC zusammen [IPCC 2013, AR5, WGI, Kapitel 2.6, Seite 219]: “There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century.”

Es ist bemerkenswert, dass alle diese Zitate und Aussagen in der 28-seitigen deutschen Fassung des Summary for policymakers fehlen! Liegt daran, dass bei denen die Regierungen mtschreiben dürfen. Alle wissenschaftlichen und damit allein maßgebenden IPCC-Aussagen sind dagegen absolut klar: Extremwetterzunahmen im jüngsten Klimazeitraum sind nicht auffindbar von den Wetterdiensten. Der Vollständigkeit halber fügen wir noch hinzu, dass sich die entwarnenden IPCC-Aussagen mit denen der Fachwissenschaft decken. Hier empfehlen wir insbesondere das Buch von Krauss und Ebel: Risiko Wetter. Professor H. Kraus war weltweit anerkannter Ordinarius für Meteorologie an der Universität Bonn.

 




Hans von Storch bald EIKE-Mitglied?

Das SPIEGEL-Interview in der Ausgabe Nr. 15 vom 6.4.2019 lässt staunen. Nicht, weil sich v. Storch untreu wurde. Nein, er teilt wieder mächtig aus. Ungewohnt sind seine neuen Statements, die sich erstaunlich festlegen. So etwas Forsches gegen den Mainstream kannte man früher nicht von ihm. Es war es unmöglich ihn einer Seite zuordnen – weder den Klimaskeptikern, noch den Klima-Alarmisten. Das scheint sich jetzt zu ändern. Nach der Pensionierung (v. Storch ist jetzt 69) schwinden bei Professoren oft völlig überraschend die Rücksichten auf …. hmmm, mal überlegen .. sagen wir „Gegebenheiten“. Woran das wohl liegen mag?

So bezeichnet v. Storch die Festlegungen des IPCC, eine Verdoppelung des CO2-Gehalts der Atmosphäre würde zu einer globalen Erwärmung von drei Grad führen, als „vollkommener Käse, selbst heute steht noch nicht fest, wie hoch genau der Temperaturunterschied ausfallen wird„. Weiter spricht er in Sachen Unsicherheiten von „Unterhaltungsliteratur mit den Guten und den Bösen in den Hauptrollen und ausschließlich aus der amerikanischen Perspektive erzählt„.  Von alarmistischen Prophezeiungen und Schuleschwänzen für Klimaschutz hält er auch nichts. Aber ganz besonders lässt er an seinen alarmistischen Kollegen, die als Wahrheitsverkünder auftreten, kein gutes Haar: „Die meisten guten Wissenschaftler sind per se Fachidioten und hätten in der Politik nichts zu suchen„, so von Storch.

Gut gebrüllt Löwe! Alle in der EIKE-Redaktion waren begeistert. Der Verantwortliche hatte schon das EIKE-Eintrittsformular in der Hand, und schrieb gerade die Adresse des großen Mannes aus dem kühlen Norden auf den Briefumschlag. Da bereitete ein besonnener Redakteur der Aufregung ein jähes Ende:

Liebe Leute lest doch mal bitte genauer das Interview, der Mann kennt ja nicht einmal die Fachliteratur„. Plötzlich Totenstille. „Wie kommst Du denn darauf, schließlich hat er doch zusammen mit F.W. Zwiers das schöne Buch „Statistcal Analysis in Climate Research“ geschrieben, steht bei mir im Regal„, wandte schüchtern jemand ein. „Klar, aber v. Storch behauptet, die Erwärmung des menschgemachten CO2 würde erst durch verstärkte Rückkoppelung mit dem Wasserdampf richtig kräftig werden„. Und dann versteigt er sich noch auf die Aussage „entscheidend war der Nachweis, dass die beobachtete Erwärmung sich wohl nicht mehr durch natürliche Klimaschwankungen erklären lässt„.

Das saß! Betroffen wurde allen klar, dass sie vor lauter Begeisterung die wichtigsten Aussagen im SPIEGEL-Interview glatt überlesen hatten – die Verhaltenspsychologie kennt das. Alle ließen traurig ihre Köpfe hängen, sie hatten sich schon so sehr auf den neuen  streitbaren Mann in ihrer Mitte gefreut. Tja, recht hatte der besonnene Kollege: Der Wasserdampfverstärkung – im Klartext der Schwanz (das CO2) wedelt mit dem Hund (dem Wasserdampf) – widerspricht die weit überwiegende Zahl einschlägiger Fachveröffentlichungen. Stellvertretend zu nennen wäre das Fehlen des von den „Wasserdampf-Rückkopplern“ unabdingbar geforderten „Hot Spots“, eine gute Zusammenstellung zum Thema (hier). Insbesondere ist auch die Fachpublikation von Paltridge et al. über die atmosphärische Feuchte in den letzten Jahrzehnten zu nennen (hier).

Und der von v. Storch behauptete Nachweis der Unerklärbarkeit einer Erwärmung, die weit innerhalb der natürlichen Temperaturschwankungen seit Ende der letzten Eiszeit liegt, ist ja nun schon fast peinlich. Alle Proxy-Zeitreihen von Temperaturen zeigen oft weit höhere Werte und insbesondere auch höhere Änderungsgeschwindigkeiten vor Beginn der Industrialisierung als danach. Von Storch sollte zumindest die berühmte mittelenglische Themometer-Reihe (CET) kennen. Die beginnt 1659 und zeigt in den 50 Jahren von 1687 bis 1737 einen Temperaturanstieg von 1,9 °C. Der stärkste Anstieg über 50 Jahre in jüngster Zeit erfolgte von 1961 bis 2011 und betrug 1,3 °C (jeweils lineare Interpolation). Kann er auch mit 30 Jahren Anstiegszeit machen, es kommt Ähnliches dabei heraus.

Und dann noch die unzähligen begutachteten Fachpublikationen, die den jüngsten Temperaturanstieg (waren gerade einmal 25 Jahre von 1975 bis 2000) aber auch alle anderen Veränderungen seit mehr als 2000 Jahren auf Magnetfeldänderungen der Sonne zurückführen, welche das Entstehen von Wolken triggern? Die will v. Storch nicht kennen?  Nur ein stellvertretendes Beispiel reicht (hier), weitere Literatur in den references dieser Arbeit. Aber auch Rekonstruktionen wurden veröffentlicht, die ganz ohne CO2 auskommen, stellvertretend (hier). Generell widerspricht die Behauptung, ein wissenschaftliches Rätsel ließe sich nur mit einer einzigen  bevorzugten Erklärung lösen, der grundsätzlichen Falsifizierbarkeit jeder Naturwissenschaft (Karl Popper).

Schade, wir alle hätten natürlich den großen Gelehrten v. Storch gerne in unseren Kreis aufgenommen. Aber allmählich erinnerten wir uns: Gegen unliebsame Kollegen, wie beispielsweise Prof. Vahrenholt, befleißigt sich von Storch eines akademisch-pöbelhaften Benehmens, das früher (heute wohl nicht mehr) im Wissenschaftsbereich unbekannt war. Diskussionsverweigerung gehört nicht in die Wissenschaft. Auf Wikipedia ist ferner zu lesen „Der Klimatologe Hans von Storch, der zwei Tagungen der Klimaskeptiker-Szene in Deutschland besuchte (Anm. es sind zwei EIKE-Konferenzen gemeint), kommentierte die Veranstaltungen mit den Worten „Das Niveau war größtenteils katastrophal“ und „Ein wirkliches Interesse an einer Diskussion war nicht zu erkennen“. Nun, in unseren Besucherlisten taucht von Storch nicht auf. Hat sich wohl Wikipedia aus den Fingern gesogen? Das kennt man inzwischen, wenn’s politisch wird, Wikipedia unbedingt meiden!

Vor Jahren hatte M. Limburg (EIKE-Vizepräsident) mit v. Storch eine Diskussion im Hause der niedersächsischen Landesvertretung. Von Storch behauptete, weil die Modelle ohne CO2 keine Zunahme der Mitteltemperatur zeigten, wohl aber mit CO2, wäre dies der Beweis. Das dies der übliche Zirkelschluss aller einschlägigen Klimamodelle ist, verstand von Storch nicht – Klimamodelle = rubbish in, rubbish out.

Kurz, es ist also noch ein weiter Weg bis zur EIKE-Mitgliedschaft: Faires, höfliches Verhalten auch gegen akademische Meinungsgegner und eine bessere Kenntnis von nicht genehmer Fachliteratur und mit CO2-Anstiegen getunten Klimamodellen. Von Storch wird sich daher wohl weiter an seinem Blog „Klimazwiebel“ ergötzen, dessen ausgewählte Zuträger und Kommentatoren an die ehrerbietigen Postillenverfasser ehemaliger Höflinge unter Ludwig XIV denken lassen. Man bleibt dort mit pseudophilosophischem Geschwafel, wie „Social science? A must for climate research“ oder „I have an open mind on this“ besser unter sich.

 

 

 




Greta doch nicht dumm wie Schaf?

Die lustige schwedische Göre Greta ist zwar nicht vom Format einer Pipi Langstrumpf, sondern nur eine elterngesteuerte Aktionistin und Vorreiterin von Schülerprotesten für den Klimaschutz. Trotzdem lässt sie völlig überraschend Logisches aus dem Kasten: Zur Problematik, wie man der Klimakrise beikommen könne (wo ist diese Krise eigentlich, ist doch eher zu kalt als zu warm, oder nicht?), nennt sie kühl die „Kernenergie“ (hier). Wow!

Man ist schlicht platt bei so viel unerwarteter Vernunft dieser jungen Dame. Fast alle ihrer jungendlichen Mitläufer und sie selber wissen nämlich nicht, was der Begriff Klima besagt, ob „Klimaschutz“ überhaupt möglich ist, wie die Klimavergangenheit aussah, was CO2 ist, wo und in welcher Konzentration es sich in der Natur befindet….. Aber eines wissen sie ganz genau. Die Kohle muss weg, das Auto muss weg, Fleisch essen ist ganz böse und Kernkraftwerke gehen überhaupt nicht.

Aber eine Empfehlung der teuflischen Technik „Kernenergie“ gegen den „Klimawandel“ jetzt aus dem Munde von Greta? Es verspricht spannend zu werden: Werden sich Gretas Unterstützer, Grüne und diesen nachhechelnde Schleimlinge der CDU/CSU, SPD, FDP und LINKE von ihr enttäuscht abwenden, wird sie gar widerrufen müssen? Oder werden sich Jugendliche plötzlich für die CO2-freie Erzeugung von elektrischer Energie durch Kernenergie begeistern (hey Leute, echt, CO2-frei stimmt)? Wir wissen es nicht und sind gespannt. Wir wollen aber trotzdem unseren lieben Sprösslingen so zwischen 12 und 16 ein paar Gedanken mit auf den Weg geben. Irgendwann könnte es mit dem selber(!) denken ja mal losgehen. Den bisherigen Erfahrungen nach, leider bei den meisten nie.

Also, liebe Jugend: Die böse Autoindustrie, mit deren Steuern auch die Arbeit Eurer berufstätigen Eltern und damit Euer Handy vergütet wird, die gibt es dann nicht mehr. Die nachfolgende, von G.R. Schuster erstellte Tabelle soll Euch einen Vorgeschmack davon geben, was erfolgreiche Demos der CO2-Vermeidung für Euch bringen werden:

 

Und für die Schlaueren unter Euch als Zugabe noch zwei heiße Tips:

1) Nicht jedem glauben, selber denken ist cool. Wer jedem Bekloppten hinterherläuft, sieht sein Leben lang nur Ärsche.

2) Wer wissen will, ob eine Aussage oder Aktion Lüge oder ehrlich ist, sollte sich zuerst die Methoden ihrer Vertreter ansehen (Zitat W. Heisenberg, Nobelpreisträger für Physik). Könnt Ihr ja mal auf die Aktion „Klimaschutz“ anwenden.

Na und nun demonstriert mal schön weiter. Die Cleveren von Euch bleiben im Unterricht und lernen schön weiter, die wollen nämlich mal selber Bill Gates werden anstatt dauernd mit dem Unsinn herumzufummeln, den er verkauft.