Unsere Energieversorgung wird immer fragiler

erschienen im Reviertransfer, Seite 44 (hier)

„Wir müssen die Energiewende vom Grundsatz her neu denken“

Interview mit Prof. Dr.-Ing. Harald Schwarz, Lehrstuhlinhaber Energieverteilung und Hochspannungstechnik an der BTU Cottbus-Senftenberg

Im Frühjahr 2018 war Prof. Harald Schwarz Mitautor einer BTU-Kurzstudie des brandenburgischen Wirtschaftsministeriums  zu den technischen Zusammenhängen zur sicheren Stromversorgung. Wir suchten mit ihm das Gespräch zu seiner Sicht auf die Ergebnisse des Abschlussberichts der
WSB-Kommission. Daraus wurde eine umfangreiche Aufklärung zu den Unzulänglichkeiten der Umsetzung von Deutschlands Energiewende.

Die Kommission wurde mit den Begriffen Wachstum, Strukturwandel und Beschäftigung ins Rennen geschickt, was entnehmen Sie dem Abschlussbericht in diesen Themenbereichen für die Lausitz?

Ich habe den Bericht nur auszugsweise gelesen und mich auf die Absätze zur Versorgungssicherheit konzentriert. Es gibt eine logische Reihenfolge: Wir müssen zuerst die Versorgung sicherstellen und können dann schauen, wie wir CO2-Emissionen reduzieren. Erst dann brauchen wir uns über Themen wie Wachstum, Strukturwandel und Beschäftigung Gedanken machen. Wenn die Versorgungssicherheit als Primat nicht gegeben ist, brauchen wir über den
Rest nicht zu reden. Da ich in dem Bericht hierzu keinen Ansatz erkennen konnte, ist die Debatte um den Strukturwandel meines Erachtens obsolet.

Stehen Sie mit dieser Meinung nicht recht allein? 

Das ist nicht meine Denke. Es gibt seit zehn Jahren ausreichend Studien dazu.
Möchte man in einem Land sichere Stromversorgung, benötigt man gesicherte Kraftwerksleistung. Seit hundert Jahren heißt die Regel, dass die gesicherte Leistung die mögliche Höchstlast in einem Stromnetz übersteigen muss. Schauen wir uns die letzten zehn bis 15 Jahre Energiewende in
Deutschland an, so haben wir um die 120 Gigawatt PV- und Windstrom aufgebaut. Die gesicherte Leistung von PV ist aber 0%, bei Wind onshore ist es 1%, bei Wind offshore 2%. Im Klartext liefern die 120 GW, die wir in den letzten 15 Jahren aufgebaut haben, nahezu null Beitrag zur gesicherten
Leistung. Wir werden ausschließlich mit Wind und PV nie eine gesicherte Stromversorgung aufbauen. Vor zehn Jahren standen uns deshalb rund 100 GW Kraftwerksleistung aus sicheren Energieträgern zur Verfügung, das sind Kohle, Gas, Atom, Biomasse und Laufwasser. Die mögliche Höchstlast in Deutschland liegt derzeit bei ca. 85 GW. Inzwischen ist die gesicherte
Leistung auf knapp 90 GW abgeschmolzen – und der Kohlekommissionsbericht sieht vor, dass wir davon bereits in drei Jahren weitere 20 GW gesicherte Leistung abschalten. Das soll dann noch weiter fortgesetzt werden. Wir geben in drei Jahren also unsere sichere Stromversorgung „aus eigener Kraft“ auf und haben dann nur noch 80% der notwendigen gesicherten Kraftwerkleistung im eigenen Land, die wir
brauchen, um uns verlässlich zu versorgen. 2030 sinkt das weiter auf 60%. Wo soll der Rest herkommen? Es gibt kein Konzept und bei unseren Planungshorizonten kann ich mir keine reale Lösung vorstellen. Fest steht, dass bis 2022 definitiv gar nichts passiert. Was heute im Bau ist, ist 2022 fertig, sonst nichts. Wir werden in drei Jahren die Abschaltung von Kohle und Atom nicht verkraften und können nur darauf hoffen, dass im angrenzenden Ausland noch genügend Reserven im Bereich Kohle und Atom vorhanden sind, um Deutschland mit zu versorgen, wenn wir es selbst nicht mehr
können.

Wie sieht es mit der Hilfe der Nachbarn aus?

Das ist die bislang einzige Hoffnung der Bundesregierung: Der europäische Strommarkt wird schon liefern. Aber was ist dieser Markt? Das sind Kraftwerke in den Nachbarstaaten. Hier stellt man schnell fest, dass Windflauten bei uns auch mit Windflauten bei den Nachbarn einhergehen. Dazu gibt es Fakten und Zahlen. Laufen unsere Kraftwerke unter Höchstlast, tun sie das in Polen und Tschechien auch. Die Wahrscheinlichkeit, dass uns die Nachbarn in einer kalten Dunkelflaute, bei weitgehendem Ausbleiben von Strom aus Wind und PV, mal eben 20 GW über den Strommarkt verkaufen können, halte ich für unrealistisch. Genau an diesem Punkt hat sich der Abschlussbericht der Kommission für mich wegen Realitätsferne erledigt.

Viele Wissenschaftler untermauern die Notwendigkeit und Möglichkeit des Kohleausstiegs – handelt es sich schlicht um unterschiedliche Sichtweisen oder einen unterschiedlichen Grad der wissenschaftlichen Expertise?

Die Aussagen zur gesicherten Leistung sind physikalische Fakten. An denen kann kein Wissenschaftler etwas ändern. Wir leben allerdings seit längerem in einer Phase der Energiewende, bei der physikalische Fakten und Naturgesetze ausgeblendet werden. Das Motto lautet: Es muss einfach gehen. Wir betreiben die Energiewende schon seit 20 Jahren. Das EEG ist Mitte der 1990er-Jahre erstmals wirksam geworden und vor der Jahrtausendwende
wurden dann die ersten Anlagen für Erneuerbare installiert. Das
Ziel der Energiewende besteht aber nicht im Aufbau regenerativer Energien, sondern im Senken der CO2-Emissionen. Bis heute erleben wir bei vielen Beteiligten einen wahren Rausch, was die jährliche Steigerung des prozentualen Anteils der Erneuerbaren an der Stromproduktion angeht. Daraus ist der Glaube entstanden, dass ein „weiter so“ bei der Steigerung
dieses Anteils die Lösung bringt.

In den Medien wird suggeriert, dass mit 40% Quote der Erneuerbaren auch 40% Deutschlands mit regenerativem Strom gesichert versorgt werden. Dem ist nicht so. Das physikalische Grundverständnis energietechnischer Zusammenhänge in den Medien und der Bevölkerung ist leider sehr gering. Schaut man hingegen auf die CO2-Emissionen in der Energiewirtschaft, so wurde in den letzten 20 nichts erreicht. Lediglich Anfang der 1990er-Jahre gab es einen starken Abfall, der mit der Deindustrialisierung der ehemaligen DDR einherging. Von 1994 bis 2013 waren die Emissionen der Energiewirtschaft dann trotz Energiewende konstant. Sie betrugen jedes Jahr 360 Mio. Tonnen CO2 plus minus 5 Prozent. Der Aufbau von PV und Windenergie gefördert über das EEG zeigte keine Wirkung bei den CO2-Emissionen.

Seit 2015 gibt es wieder einen leichten Abwärtstrend, allerdings sind das noch unbestätigte Daten des Umweltbundesamts aus dem Sommer 2018. Da war noch von Hochrechnungen und Expertenschätzungen die Rede, das ist also nicht belastbar. Vielleicht gibt es hier tatsächlich einen kleinen Abwärtstrend, aber über 20 Jahre haben sich die Emissionen gar nicht verändert und selbst jetzt wäre das nur sehr geringfügig. Trotzdem sind alle glücklich und feiern den Ausbau der Erneuerbaren. Das kann ich nicht verstehen.

Woraus resultiert der fehlende Effekt auf die Emissionen?

Parallel zum Aufbau der Erneuerbaren haben wir CO2-freie Kernenergie abgebaut. Was wir auf einer Seite aufgebaut haben, wurde auf der anderen Seite abgebaut. Zudem wurden Kohle- und Gaskraftwerke durch die volatile Einspeisung der Erneuerbaren zu einem extrem fluktuierenden Betrieb gezwungen, um so die ständigen Einspeiseschwankungen von Wind und PV
mit dem Strombedarf in Übereinstimmung zu bringen. Das ist wie Stop and Go mit dem Auto in der Stadt. Das führt auch zu höheren Emissionen pro Kilometer, als auf der gleichen Strecke mit konstanter Geschwindigkeit
auf der Autobahn oder Bundesstraße zu fahren. Wir haben im Ergebnis über 20 Jahre hinweg in blindem Aktionismus im dreistelligen Milliardenbereich Steuergelder ausgegeben, ohne nennenswert etwas bei den Emissionen zu erreichen.

Wie weit sind wir bei der Verstetigung der Erneuerbaren, damit wäre ja ein Effekt auf die Emissionen gegeben?

Wir wissen schon lange, dass überschüssige regenerative Energien gespeichert werden müssen. Das hat in den letzten 15 Jahren aber niemanden interessiert. Es gab bereits 2008 und 2010 Konzepte, die vor der kommenden Phase einer massiven Unterdeckung mit gesicherter Leistung warnten. Die Energiewende wurde trotzdem blind vorangetrieben. Hier müssen wir dringend umsteuern und die Energiewende neu denken, um zu einer nachhaltigen Stromversorgung mit deutlich geringeren CO2-Emissionen zu kommen.

Es wird dennoch viel über grünes Gas gesprochen, wie weit sind wir in der Praxis?

Im Jahr 2006 gab es eine Pilotanlage mit 6 MW und weitere im Bereich um 2 MW. Seitdem ist bundesweit nichts mehr passiert. Aktuell plant RWE nach meiner Kenntnis eine Anlage mit 50 bis 100 MW. Um von dieser Größe in den Bereich von mehreren 10.000MW zu kommen, brauchen wir nicht nur einen, sondern mehrere Schritte zum Hochskalieren und das dauert mehrere Jahrzehnte, zumal wir ja auch die Kosten dafür irgendwie verteilen müssen. Es rächt sich, dass wir 15 Jahre nichts getan haben.

Was müsste jetzt getan werden?

Wir reden inzwischen bei Phasen mit Überspeisung regenerativer Energien über hunderte Gigawattstunden. Die Big Batterie der LEAG wird 0,05 Gigawattstunden bringen, das macht die Dimensionen des regenerativen
Überschusses deutlich. Batterien werden in Zukunft zwar mehr im Netz auftauchen, aber als Elemente, über die man schnelle Regelleistung bereitstellen kann, um einem kritischen Frequenzabfall oder –anstieg in wenigen Minuten entgegenzuwirken. Bei einer mehrtägigen Überspeisung
der Netze, so wie wir es schon heute in Ostdeutschland im Winter teils mehrfach in der Woche haben, können wir nur abregeln, oder wir müssten diese Überschüsse in Wasserstoff umwandeln und als grünes Gas ins Gasnetz einspeisen. Das ist für Deutschland m.E. die einzige Option, den massiven EE-Überschuss zu verstetigen und nachhaltig zu nutzen. Das ist aber ein weiter, sehr weiter und auch teurer Weg.

Was kann bis dahin Kohle und Atom ersetzen?

Wenn wir auf Kohle und Atom verzichten, bleibt nur Gas als Ersatz für gesicherte Leistung.Auch hier lügen wir uns seit Jahren in die Tasche. Wir betrachten die CO2-Emissionen nur im Wandlungsprozess vor Ort, in diesem Fall ist Gas deutlich günstiger als Kohle. Das ist zwar statistisch korrekt,
aber CO2 ist nun mal ein globales Problem. Wenn die tatsächlichen CO2-Emissionen durch Erzeugung und Transport mitbetrachtet werden, dann nimmt das bei Braunkohle aufgrund des geringen Abstandes zwischen Tagebau und Kraftwerk nur wenig zu, Steinkohle geht deutlich nach
oben, da viel Steinkohle für unsere Kraftwerke heute aus Australien kommt und bei Gas explodieren die Emissionswerte geradezu. Es gibt Gasfelder wie das amerikanische Schiefergas samt Transport nach Deutschland, bei dem die Gesamtemissionen dann weit über der Braunkohle liegen. Denken wir aber tatsächlich über globalen Klimaschutz nach, sind diese Gesamtemissionen
der entscheidende Wert.

Wenn wir über Klimaschutz reden, dann leistet
Gas als einziger möglicher Lückenfüller für Atom und Kohle also wenig Beitrag?

Klimaschutz ist ein globales Thema. Da hilft es nicht, wenn wir nur den Wandlungsprozess in Deutschland betrachten. Wir müssen die regenerativen Überschüsse umwandeln, das ist der einzig richtige Weg. Der Netzentwicklungsplan 2030 sieht 200 GW Wind und PV vor, die uns das Netz gigantisch belasten werden. Diese Überschüsse müssen ins Gasnetz. Der notwendige Prozess der Elektrolyse ist aber immens teuer und müsste dringend vorangetrieben werden, anstelle riesige Summen in die Verkabelung
der großen Nord-Süd Leitungstrassen zu stecken – nur mit dem Effekt, dass
man die Leitung dann nicht mehr sieht. Alles in allem sind wir in Deutschland dabei leider ohne Konzept.

 

Entspricht das inzwischen oft beschworene Szenario eines Blackouts einem realen Problem?

Nach Köpenick muss man den Begriff Blackout leider oft klarstellen. Es handelt sich dabei um eine lang anhaltende und großflächige Versorgungsunterbrechung. Das entspricht mehreren Tagen auf einer Fläche von mehreren hundert Quadratkilometern. Köpenick war eine zwar unschöne,
aber lokal und auch zeitlich noch sehr begrenzte Versorgungsunterbrechung.
Über die „Blaulichtorganisationen“ konnte man das locker von außen versorgen. Zur Notversorgung eines Stromausfalles im gesamten Berliner Stadtgebiet müsste das Technische Hilfswerk vermutlich alle in Deutschland verfügbaren Ressourcen zusammenziehen – und wenn die Fläche noch größer wird, dann wird es richtig hart. Insgesamt betreiben wir das Stromnetz in den letzten Jahren immer stärker am Limit. Anfang der 2000er-Jahre gab es zwei größere Blackouts (Italien bzw. Teile Westeuropas), weil der neu eingeführte Stromhandel über das europäische Verbundnetz und die physikalischen
Randbedingungen für den Netzbetrieb plötzlich nicht zusammenpassten.
Auch im Winter 2011 auf 2012 war das Gleichgewicht zwischen Verbrauch und Erzeugung empfindlich gestört, als es durch den Konflikt zwischen Russland und der Ukraine zur verminderten Gasdurchleitung und damit einem Gasmangel in Süddeutschland kam. Wir waren kurz vor dem kritischen Punkt der Unterfrequenz, bei dem dann alle verfügbaren Kraftwerksreserven ans Netz gebracht werden und bereits erste große Verbraucher abgeschaltet werden, um ein weiteres Absinken der Frequenz zu verhindern, das ungebremst nach sehr kurzer Zeit zu einem Netzzusammenbruch führen
kann. Es gab helle Aufregung in der Politik, daraufhin wurde eine Regelung zur Abschaltung energieintensiver Industrie im Falle besonderer Herausforderungen geschaffen. Allein in 2018 wurden Teile der Aluminiumindustrie über diese Maßnahme 78 Mal abgeschaltet. Das waren
zwar keine Katastrophenszenarien, aber man hat in diesen Zeiten gemerkt, dass die Regelleistung nicht mehr ausreicht und der Markt die Lücke nicht schließen kann. Zum vergangenen Jahreswechsel gab es auch eine plötzlich auftretende Unterdeckung von 6 GW, die man ausgleichen konnte, weil die Kraftwerke nicht auf Höchstlast waren. Am 10. Januar gab es eine Situation, in der die Frequenz in wenigen Minuten, quasi aus dem Nichts, bis auf 49,8 Hertz abgesunken ist. 14 Tage später gab es das gleiche Phänomen in die
andere Richtung. Bis heute weiß in diesen Fällen niemand, worin genau die Ursachen lagen. Der Netzbetrieb in Europa ist durch die beliebige Ein- und Ausspeisung hochgradig wacklig geworden. Das wird weiter zunehmen.

Im Kommissionsbericht steht, dass auch die Nachbarländer aus der Kohle aussteigen, ist ganz Europa auf dem Holzweg?

Die Nachbarn weniger. Um einen deutlichen Vergleich zu bedienen, schauen wir mal etwas weiter nach China. Dort gibt es auch viel Kohle und eine ähnliche EEGQuote wie in Deutschland. Es gibt aber einen wesentlichen Unterschied. Dreiviertel von Chinas EEG-Quote entstammen sicherer
Wasserkraft und nur ein Viertel Wind und PV. Bei uns sind es 90 % Wind und PV. Andere Länder haben einen anderen Mix, Deutschlands Weg folgt niemand.

Ist einmal durchgerechnet worden, was die
Energiewende kostet?

Was immer man rechnet, es gibt einfach zu viele Unklarheiten und aktuell läuft man bei der Energiewende in Deutschland Lemmingen gleich einer Religion hinterher. Die Politik wird die Physik erst akzeptieren, wenn 2022 eine Situation eintritt, in der der Markt nicht liefern kann. Man sagt da immer schnell, dass so ein größerer Blackout vielleicht auch „heilsam“ wäre, man darf aber nicht vergessen, dass ein großflächiger und langanhaltender Blackout
in Deutschland unvorstellbar schlimm werden würde. Der Bundestag hat hierzu mal 2011 eine große Studie in Auftrag gegeben, die man auch mit etwas Suchen herunterladen kann. Dort wurde alles zumindest für den ersten Tag des Blackouts sehr detailliert untersucht – und wer das gelesen hat, möchte das nicht erleben.

Warum gibt es keinen Aufstand aus der Wissenschaft?

Das Thema ist zu komplex für die heutige Medienlandschaft, es fehlt in unserem Land
der Resonanzboden. Große Teile der Gesellschaft sind darauf eingeschworen, die Welt zu retten, auch wenn unser Anteil an den globalen Emissionen nur 2,7 % beträgt.

Was würden Sie vorschlagen?

Im Abschlussbericht der Kommission sind Jahreszahlen für ein Monitoring festgelegt worden. Man müsste allerdings definieren, wie man genau ein Monitoring ansetzt, um die Sicherheit der Stromversorgung im Allgemeinen
und der Netze im Besonderen zu bewerten. Bei der Stromversorgung ist
das m.E. die gesicherte Kraftwerksleistung und bei den Netzen z.B. die Eingriffe nach §13 und 14 EnWG, da diese dann aktiviert werden, wenn eine Überlastung der Netze durch regenerative Überspeisung verhindert werden muss. Dazu braucht es eine Kommission, in der tatsächlich Experten zur Versorgungssicherheit zusammenkommen. Die bisherige WSB-Kommission ist dafür fachlich nicht qualifiziert. Ich habe aber wenig Hoffnung für ein Umdenken. Über das Lockmittel „Strukturhilfen“ wird das Thema „Versorgungssicherheit“ völlig ausgeblendet.

Eine große Bedeutung misst der Bericht der Kommission der Lausitzer Hochschullandschaft als Motor des Strukturwandels bei. Teilen Sie diese Ansicht?

Hier sollen die neuen Institute Impulse liefern. Das Fraunhofer und das DLR-Institut werden wohl bis Ende 2019 formal vor Ort sein und dann in zwei bis
drei Jahren hochfahren. Wir können da sicher sehr gut kooperieren. In drei Jahren sollte die Mannschaft pro Institut um die 50 Personen betragen. Mit Blick auf den WSB-Bericht geht es sicher darum, wie eine Hochschule Arbeitsplätze in der Industrie induzieren kann. Bis aus einer Idee eine Fertigung wird, das dauert. Ernsthaften Ersatz für Industriearbeitsplätze
in Größenordnungen allein aus der Hochschule heraus sehe ich als unrealistisch. Da brauchen wir Investoren, für die eine Hochschule, die Ideen und gut qualifizierte Absolventen liefert zwar ein positives Add-on ist. Entscheidungen zu Investitionen in neue Fertigungsstandorte in der Lausitz werden aber nach anderen Kriterien gefällt.

Dennoch erhält die BTU mit den Instituten Rückenwind, gibt es derzeit eine Aufbruchstimmung?

Wir müssen erst einmal schauen, was konkret hinter den neuen Einrichtungen steckt. Fraunhofer muss später Drittmittel einwerben und eigenes Geld verdienen. Da muss man schauen, ob sie in Konkurrenz zu Aktivitäten bestehender BTU-Lehrstühle arbeiten. Da die beiden neuen Institute in
den Bereich der thermischen Energietechnik gehen wollen, können die BTU-Lehrstühle der elektrischen Energietechnik hier sehr gut anknüpfen, der gerade in der Wiederbesetzung befindliche Lehrstuhl für Thermische Energietechnik an der BTU ist allerdings im gleichen Feld wie die neuen
Institute aktiv. Hier kann es zu Überschneidungen kommen.

Sehen Sie die BTU für eine Begleitung des Lausitzer Wandels gut aufgestellt?

Wir haben einen extrem geringen Wert bei wissenschaftlichen Mitarbeitern. Die RWTH Aachen hat meinen Bereich „Energieverteilung und Hochspannungstechnik“ z.B. in zwei Institute mit je sechs wissenschaftlichen und von der Uni bezahlten Mitarbeitern aufgesplittet. Diesen zwölf Wissenschaftlern im Mittelbau stehen bei mir zwei gegenüber, wir reden
also über ein Verhältnis 1:6! Daran merkt man, welchen Vorteil das Rheinische Revier beim Strukturwandel mit der RWTH Aachen gegenüber dem Lausitzer Revier auch in diesem Bereich hat. Wir haben mangels Manpower nicht die Option, viele Anträge vorzubereiten. Gemeinsam mit DRL und Fraunhofer sind Lösungen denkbar, aber auch hier wird es mit dem schmalen Mittelbau schwer.

Welchem Projekt Ihres Lehrstuhls trauen Sie für den Strukturwandel den größten Effekt zu?

Es gibt viele spannende Themen, am Ende geht es aber schlicht darum, für welche wir Geld erhalten. Deshalb machen wir aktuell viel zur Netzintegration Erneuerbarer Energien und Elektromobilität. Ein weiteres Thema ist der BTU Smart Campus. Aber was kann ein Lehrstuhl mit zwei wissenschaftlichen Mitarbeitern für die Lausitz bewegen? Es wäre sicher sinnvoll, den Power System Simulator an meinem Lehrstuhl mit dem LEAG-Kraftwerkstrainer
zu verknüpfen, um so ein singuläres Kompetenzzentrum aufzubauen. Dazu braucht es aber Geld, Zeit und Personal – oder einen externen Partner, der in das Projekt mit einsteigt.

Was müsste sich an der BTU verändern?

Das neue Fraunhofer bzw. DLR-Institut haben je einen Umfang von 50 Mitarbeitern. Dem steht bei uns ein Professor mit zwei wissenschaftlichen Mitarbeitern gegenüber. Viele Planstellen für den wissenschaftlichen
Mittelbau sind hier verschwunden und irgendwo im Stab der Hochschulleitung gelandet. Wenn nun alle oben koordinieren und unten keiner mehr zum Arbeiten da ist, wird das problematisch. Fraunhofer und DLR
marschieren mit 100 Planstellen in einen Bereich, in dem die BTU aktuell zwei Professoren mit jeweils zwei Mitarbeitern einsetzt.

Wir danken für das Gespräch.

EIKE dankt dem Reviertransfer für die Genehmigung, seinen Beitrag ungekürzt auch in unseren News zu bringen.




Deutschland mit Wetter und Deutsch­land im Griff des Klima­wandels

Wetter in Bayern: Der Frühling bleibt, droht eine neue Dürre?

Der Bayerische Staatsfunk nimmt seinen Informationsauftrag fürs Volk ernst und informiert regelmäßig über wichtige Themen, also auch das Klima und dessen stetigem Wandel. In welcher Form und wie „(des-)informativ“ dies (nicht nur beim BR) geschieht, wurde bereits mehrmals berichtet [2] [3] [4] [5] [6] [13].

Nun scheint der BR extra einen Meteorologen mit ausreichender Klima-Alarmstimmung engagiert zu haben, der in der richtigen Form über das Wetter zu berichten weiß. Für den Autor wieder ein Anlass, anhand der gleichen Daten die Darstellungen eines Öffentlich-Rechtlichen Fachmannes und seine laienhaften nebeneinander zu legen:
BR24, 31.03.2019: Wetter in Bayern: [1] Der Frühling bleibt, droht eine neue Dürre?
Das trockene und warme Hochdruckwetter bleibt uns erhalten. BR-Meteorologe Michael Sachweh rechnet mindestens bis Mittwoch mit Sonne und Temperaturen von 14 bis 18 Grad. Es gebe sogar Anzeichen, dass in diesem Jahr eine neuerliche Dürre droht.
Der Wetterbericht sah das mit der „droht eine neue Dürre“ am nächsten Tag wie folgt (Anmerkung: zumindest in Franken regnete es dann allerdings weniger, als im Wetterbericht vorhergesagt):

Bild 1 Wettervorhersage Nürnberg am 01.04.2019

Zur drohenden (Sommer-)Dürre in diesem Jahr weiß auch der FOCUS Neues zu berichten. Vor allem, dass man es nicht weiß, aber vorbeugend schon einmal herrlich darüber fabulieren kann:
[9] FOCUS ONLINE, 03.04.2019:
… Wir haben besonders in den vergangenen zwei Wochen bereits die starken Westwinde zu spüren bekommen, als ein Sturm nach dem anderen von Westen nach Deutschland hereingezogen ist. Ein Blick auf die Wetterstatistiken zeigt, dass in der Vergangenheit der April bei Westströmungen in Nordeuropa zu warm und in Westeuropa etwas zu trocken ausgefallen ist.
In Deutschland bekommen wir ein bisschen von beidem ab: … Dazu wird es etwas weniger regnen als normalerweise.
Wie wird der Sommer?

Bild 2 Screenshots aus dem Videovortag bei FOCUS ONLINE [9]

[9] FOCUS ONLINE, 03.04.2019:
Eine zuverlässige Sommerprognose ist aus heutiger Sicht nicht möglich, da sich bis dahin noch viel ändern kann …
… Auch das Wettergeschehen in Iberien spielt eine Rolle für Deutschland: Hält die Trockenheit dort noch bis in den Mai an, könnte das Hitzewellen bei uns verstärken. Es zeichnet sich ab, dass der Sommer ebenfalls heiß wird, wenn auch nicht ganz so heiß wie der Rekordsommer des vergangenen Jahres. Das Jahr 2019 könnte so ausfallen wie die die Sommer in 2015 und 2017 …

Im Winter hat es weit überdurchschnittlich geregnet, aber eben „nicht so viel wie nötig“

Inzwischen ist jedes Wetter welches sich nicht wunschgemäß verhält, Anlass für mögliche Klimasorgen.
BR24 [1]: Ein unangenehmes Wiedersehen
… Für Michael Sachweh ist es fast wie ein Déjà-Vu. Denn letztes Jahr habe im Frühjahr eine regelrechte Dürre geherrscht. Die Grundwasserpegel sind stark gefallen, die Trockenheit verursachte auch in der Landwirtschaft starke Schäden.
Die Hoffnungen hätten also auf dem Winter geruht, so Sachweh. Aber da habe es nicht so viele Niederschläge gegeben, wie nötig gewesen wären, um die Grundwasserbestände wieder aufzufüllen. Jede Nachricht, dass es nicht regnet, sei also eine schlechte Nachricht, so Sachweh.

Trotz dem „Déjà-Vu“ des „Experten“ weist der DWD allerdings auch für den März die folgenden, weit über dem langjährigen Mittelwert liegenden Niederschlagsmengen aus:

Bild 3 Niederschlag März 2019 Deutschland

Bild 4 Niederschlag März 2019 Bayern

Gerade einmal einen Tag später publizierte der DWD zum Winterniederschlag die folgende Information:
DWD: Winter 2018/19
… Der Winter 2018/19 (meteorologischer Winter: Dezember bis Februar) war zu mild, zu feucht und sehr sonnenscheinreich.
und die Bayerische LWF die folgende zum Grundwasserpegel:

Bild 5 Nordbayerische Nachrichten, lokale Printausgabe vom 01.04.2019. Fotoausschnitt vom Autor

Der Kreisobmann des Bayerischen Bauernverbandes sagte am 08. April einer Zeitung:
… Dass es seit Mitte März keine nennenswerten Regenfälle gibt und die Wasserbilanz in unserer Gegend (Anmerkung: Mittelfranken) seit Februar negativ ist, also weniger Regen fällt … macht mir keine Sorgen. Abgesehen vom trockenen Waldboden gab es im Dezember und Januar genug Niederschläge …
Dem einen ist es demnach nicht genug Regen, dem anderen dagegen zu feucht und wieder andere sind ganz einfach zufrieden. Man lernt daraus, dass es das Wetter wirklich nie allen recht machen kann.

Ergänzend dazu die Winterdaten aus dem DWD-Viewer. Der diesjährige Winterniederschlag lag – wie vom DWD auch berichtet – erheblich über dem Mittelwert, in Bayern sogar fast wieder in der Nähe der Extremwerte (Bild 7)
Man könnte also genau so gut beruhigend berichten: Trotz des ausnahmsweise extrem trockenen Sommers zeigte der Winterniederschlag seine hohe Dynamik auch zur nassen Seite und füllte die fehlenden Wasservorräte erfreulich gut auf.

Bild 6 Winterniederschlag 2018/2019 Deutschland. Quelle: DWD Viewer

Bild 7 Winterniederschlag 2018/2019 Bayern. Quelle: DWD Viewer

Als Rückblende auch der Sommerniederschlag in Langzeitdarstellung. Man sieht, dass der letzte wirklich extrem gering war, aber nicht einmal im Ansatz dazu ein Trend vorliegt. Er belegte lediglich wieder, dass beim Niederschlag extreme Schwankungen schon immer normal waren und gar nicht so selten vorkommen.

Bild 8 Sommerniederschlag seit 1881. Quelle: DWD Viewer

Der März stürmt extrem – sofern man ihn einseitig genug betrachtet

BR24 [1]: Der stürmischste März seit Jahrzehnten
Die Windbilanz der DWD-Wetterstationen belegt: Der März 2019 stellt neue Windrekorde auf, z.B. in Bamberg, Augsburg und München.
Es ist laut Sachweh ein Phänomen, dass Meteorologen schon seit mehreren Jahren beobachteten.
Wenn eine Großwetterlage kommt, dann nistet sie sich deutlich länger ein als früher.
Beispiel Monat März, der von sich abwechselnden Sturmtiefs geprägt war: Es sei der stürmischste März seit vielleicht 30 Jahren gewesen, so der Meteorologe. Die Sturmböen der Tiefs „Bennet“ am 4. und „Eberhard“ am 10. verursachten in Bayern große Schäden. Ebenfalls ein Indiz dafür, dass sich die Wetterlagen lange Zeit nicht mehr abwechselten.

Wieder lohnt es sich, Daten anzusehen. Leider gibt es im DWD-Viewer keine Winddaten, weshalb der Autor solche von den Messstationen der genannten Städte geladen und angesehen hat. Da in der (öffentlichen) DWD-Datenbank keine Daten von Bamberg hinterlegt sind, wurden ersatzweise die vom nahe gelegenen Nürnberg verwendet.

Winddaten Nürnberg

Zuerst die Tagesmittel über das Gesamtjahr seit Beginn der Datenreihe im Jahr 1955 (Bild 9). Man sieht, dass seit 1990 die Extreme abnehmen und der Trendkanal seit ca. 1996 horizontal verläuft.

Bild 9 Nürnberg, gänzjähriges Tagesmittel Wind seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Ähnlich sieht es bei den Tagesmaxima aus.

Bild 10 Nürnberg, Tagesmaximum Wind seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Und nun zum windschlimmen, gerade vergangenem März.
Die Tages-Maximalwerte lagen im seit wenigen Tagen vergangenen März hoch, waren bei Weitem aber nicht über-extrem.
Gleiches gilt für den Tages-Maximalwert und das Tagemittel.

Bild 11 Nürnberg, Tages-Maximalwerte Wind im März seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 12 Nürnberg, Tagesmittel Wind im März seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Wo findet sich nun das vom Wetterfachmann berichtete Extrem?
Dazu die März-Windsummen seit Beginn der Messreihe
Erst diese zeigen einen neuen Extremwert. Woran das liegt, ist ebenfalls ersichtlich. Dieses Jahr könnte die Spitze einer Periodizität erreicht sein. Zeichnet man einen groben Trendkanal, dann sieht man, dass die März-Windsumme seit ca. 1980 darin liegt, wobei sich die Spitzen-Windwerte scheinbar etwas leicht erhöht haben.

Bild 13 Nürnberg, Windsumme März seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Der Wetterfachmann leitet daraus ab:
BR24 [1]: Es sei der stürmischste März seit vielleicht 30 Jahren gewesen, so der Meteorologe.
Der Autor sagt: Die Windextreme scheinen insgesamt mittelfristig leicht abzunehmen. Auf keinen Fall ist eine Zunahme erkennbar. Auffällig ist, dass – wie auch beim Niederschlag – Extreme ohne „Vorboten“ oder Trend erscheinen. Nur in der Monats-Windsumme übertraf der diesjährige März geringfügig das letzte Maximum von 1994. Ob das signifikant ist, darf bezweifelt werden.

Wie geringfügig – fast eher zufällig – der diesjährige März „der stürmischste“ war, zeigt der folgende Ausschnitt ab 1975. Interessant ist dabei: Die Regressionsgerade der März-Windsumme liegt horizontal bis ganz, ganz wenig negativ.
Im folgenden bild zur besseren Übersicht die Windsumme März von Nürnberg etwas gezoomt:

Bild 14 Nürnberg, Windsumme März seit 1975 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Winddaten München und Augsburg

Ähnlich wie bei Nürnberg ist mit München und Augsburg. Wer sich wundert: Die Umwelt-Messreihe München beginnt (mit zwei wechselnden Standorten) im Jahr 1879. Die Winddaten beginnen aber erst mit dem Jahr 1984. Für „Klimafachleute reicht das, um zu erkennen, ob etwas „noch nie so schlimm gewesen war“ oder „immer schlimmer wird“.

Bild 15 München, Tagesmaxima Wind seit 1984 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 16 München, Windsumme März seit 1984 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 17 München, Tages-Maximalwerte März seit 1984 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 18 Augsburg, Tages-Maximalwerte Wind im März seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 19 Augsburg, Tages-Maximalwerte Wind im März seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Hinweis: Am Schluss finden sich dazu noch die interessanten Daten der Langzeitreihe vom Hohenpeissenberg.

Nochmals Niederschlag(-Extreme)

BR24 [1]: Obwohl Bayern mit rund 140 Stunden (Soll: 119 Stunden) ein sonnenscheinreiches Bundesland war, erreichte die Niederschlagsmenge in diesem Monat gut 70 l/m² (Durchschnitt: 62 l/m²). Die stärksten Niederschläge fielen am 15. Einige Flüsse traten dabei über ihre Ufer. Schöfweg im Bayerischen Wald meldete an diesem Tag mit 91 l/m² die bundesweit größte Summe.
Wie alle Untersuchungen (des Autors
[7], aber auch anderer) zeigen, nehmen Niederschlagsextreme nicht zu, bleiben aber weiterhin – wie schon immer – extrem. Deutlich zeigt das der DWD-Viewer. Die diesjährigen 70 l/m2 liegen etwas über dem Mittel und „herrlich“ innerhalb der Spanne. Der Verlauf zeigt, dass der Märzniederschlag in Bayern grob wieder den Wert vom Beginn der Messreihe hat. Von irgendwelchen Extremen ist der Wert weit entfernt. Der Mittelwert hat sich nach zwei deutlichen Ausschlägen sogar ungefähr auf den Wert zu Beginn der Messreihe „gesetzt“, liegt also ebenfalls weit weg vom Trend zu immer schlimmer oder sonst etwas. Das ist bemerkenswert, denn Bayern soll besonders stark vom Klimawandel betroffen sein.

Bild 20 Bayern, Niederschlag März seit 1881. Quelle: DWD Viewer

Wie der Extremniederschlag lokal aussehen kann, zeigt das folgende Bild von Nürnberg. Seit 1955 wurden die Extrem-Niederschlags-Tageswerte niedriger, der Mittelwert verläuft seit dem Beginn der Messreihe in einem horizontalen Trendkanal.

Bild 21 Nürnberg, täglicher Niederschlag seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

München zeigt ein etwas anderes Bild (und wieder die aus heiterem Himmel erscheinenden Extreme). Aber es zeigt ebenfalls, dass die Extremniederschläge keinesfalls zunehmen.

Bild 22 München, täglicher Niederschlag seit 1879 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Fazit
Unser Wetter hat es bei den Fachpersonen der Öffentlich-Rechtlichen genau so „verschissen“, wie der aktuelle US-Präsident. Es kann es einfach nicht richtig machen. Es wird sich aber weigern, „abgewählt“ zu werden und auf unsere, die Staatsfinanzen und weitere ruinierende CO2-Vermeidung, wohlwollend zu reagieren,

Anlage: Daten Hohenpeissenberg

Bayern hat eine der längsten Umweltmessreihen der Welt, die vom Hohenpeissenberg. Daraus die Winddaten, um zu sehen, wie Klima(wandel)Spezialisten erkennen können, ob, wie und welche Wetterphänomene sich gegenüber denen der Urzeiten infolge dem menschenverursachten CO2-Eintrag „unnatürlich“ verändern und dass vor allem Bayern besonders stark vom Klimawandel betroffen ist.
Beim Ansehen der folgenden Windgrafiken wird sich mancher fragen: Wo sind die Langzeitdaten? Die Messreihe beginnt doch mit dem Jahr 1781! Das stimmt, aber Winddaten beginnen darin erst mit dem Jahr 1940 und 1950. Zumindest in dem beim DWD für das Volk hinterlegtem Datensatz.
Um auch mit dieser Station zu zeigen, dass Wetterextreme in Bayern nicht laufend zunehmen, reicht es. Um behaupten zu können, die angeblich furchtbar schnellen Änderungen wären „noch nie dagewesen“ und damit unnatürlich, reicht es bei Weitem nicht.
Dabei ist anzumerken, dass die Grafiken zum Niederschlag oft auch etwas anders aussehen. Dazu sind die Verlaufsbilder sehr stark stationsabhängig, wie die in diesem Artikel und die in anderen Publikationen dazu [10] [11] zeigen.

Bild 23 Hohenpeissenberg, Tagesmaximum Windspitzen seit ca. 1950 bis 31.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 24 Hohenpeissenberg, Tagesmittel Wind seit ca. 1940 bis 31.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 25 Hohenpeissenberg, Monatssumme März seit ca. 1950 bis 31.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Niederschlag

Bei Niederschlags-Extremen ist es extrem schwierig, Trends zu erkennen. Das liegt einmal daran, dass er wohl die extremsten Streuungen hat, Extremwerte sehr oft „aus heiterem Himmel“ ohne irgend einen Hinweis-Trend kommen und Extreme in der Regel nur auf eng begrenztem Gebiet fallen. Der Zeitraum von 100 Jahren ist damit zur Erkennung oder Ableitung eines Trends mit Sicherheit nicht ausreichend.
Da die Stations-Flächenabdeckungen früher viel geringer waren, wurden früher mit Sicherheit auch weniger Extremniederschläge erfasst als mit dem heutigen Messnetz.

Wie stark der Extremniederschlag vom Messstandort abhängt, zeigen die folgenden Bilder, die alle unterschiedliche Verläufe zeigen. In vielen Details nachlesen lässt es sich bei [7] [10] [11]. Wie über-extrem Niederschlag sein kann, zeigt das Beispiel aus der Namib-Wüste [12] (vor dem Industriezeitalter).
Den deutschlandweiten Extremregen von 1926 (Zeitungsausschnitt von damals, Bild 29) zeigt Nürnberg nicht, weil es diese Zeit nicht erfasst; die Station Hohenpeissenberg zeigt nichts davon, aber die Station Magdeburg zeigt es wie ein Menetekel (mehr Details dazu in [10] ).

Bild 26 Hohenpeissenberg, Täglicher Niederschlag seit ca. 1871 bis 31.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 27 (21) Nürnberg, täglicher Niederschlag seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 28 Tagesniederschlag Magdeburg (DWD-Station 3126). Grafik vom Autor anhand der Daten erstellt. [10]

Bild 29 Zeitungsausschnitt von 1926 mit Bericht über das Starkregenereignis (im Bild 28 gekennzeichnet) [10]

Es ist erschütternd, wie auf solch widersprüchlichen Berichte und Daten, sowie einer solch schlechten Datenqualität der fremdgesteuerte Politikzirkus in Berlin hemmungslos ihre Klimahysterie schürt und nun noch behauptet, die protestierenden Schüler*innen und Kinder bis fast zum Kindergartenalter wären Beleg dazu.
Unsere Umweltministerin –an Inkompetenz zum Fach nahtlos an ihre Vorgängerin anknüpfend – ist inzwischen als ältliche „jean d’arc“ des entrechteten Klimas mutiert: [14] Es geht um nichts Weiteres als um die Rettung der Welt …
wobei sich ihr „Wissen“ –wie man im Artikel deutlich erkennen kann – einzig darauf beschränkt: CO = Klimagift und muss koste, was es wolle und ohne erlaubte Zweifel verhindert werden.
Für solche „Weltretter“ (mit dem Geld der Bürger) ist es eben eine Zumutung, Informatives wie zum Beispiel:
[15] EIKE 11. April 2019: Die Kleine Eiszeit – zurück in die Zukunft
zu lesen, um etwas über die verheerenden Auswirkungen des bis vor Kurzem zu kalten Klimas zu erfahren.

Quellen

[1] BR24, 31.03.2019: Wetter in Bayern: Der Frühling bleibt, droht eine neue Dürre?

[2] EIKE 7. März 2018: Flashcrash Klimaalarm. Wer Klimaalarm posaunt, bekommt immer recht (Teil 2 und Abschluss)

[3] EIKE 24.05.2016: Wie der Bayerische Rundfunk auf die Überschrift einer Pressemitteilung der Munich Re hereinfällt

[4] EIKE 12.06.2017: Fake News: Zuerst der SWR, nun der BR: Ein Südseeparadies versinkt im Meer. Öffentlich-Rechtliche Klimawandel-Agitation in Endlosschleife

[5] EIKE 27. April 2018: SOS Südsee – Der Ozean steigt nicht übernatürlich, dafür umso stärker die Propaganda in der öffentlich-rechtlichen Berichterstattung (Teil 2)

[6] EIKE 11. August 2017: ARTE-Film zum Senegal: Eine Insel versinkt – und mit ihr (wieder) jegliche Glaubwürdigkeit der Klimawandel-Berichterstattung

[7] EIKE 12.08.2017: Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels

[9] FOCUS ONLINE, 03.04.2019: Dürre-Prognose vom Weather Channel Meteorologin erklärt, ob ein neuer Hitze-Sommer Deutschland austrocknet

[10] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)

[11] EIKE 12.08.2017: Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels

[12] EIKE 14.10.2015: Der Klimawandel bedroht die Wüste Namib – glaubt Deutschlandradio Kultur

[13] EIKE 10.04.2016 : Nachgefragt: BR Programm 14.3.2016, Sendung: „Jetzt mal ehrlich Verstrahltes Bayern: Wie viel Wahrheit ist uns zumutbar?

[14] Deutschlandfunk: Umweltministerin Svenja Schulze (SPD)„Zeit für Symbole in der Klimaschutzpolitik ist vorbei“

[15] EIKE 11. April 2019: Die Kleine Eiszeit – zurück in die Zukunft




Experimen­telle Unter­suchung der IR-Strahlung von den Gasen CO2 und Butan/Propan im Labor und Feld­versuch

Die grundsätzlichen Fragestellungen dieser Forschung sind: Kann ein Treibhausgas die Temperatur eines Körpers durch eine dabei auftretende Gegenstrahlung erhöhen?

Ist es möglich, dass es eine Sättigungsgrenze der Treibhausgaskonzentrationen gibt, bei der keine weitere Steigerung der Gegenstrahlungseffekte mehr eintreten? Ist diese Sättigungsgrenze bei CO2 in der Atmosphäre bereits erreicht?

Die hier vorgestellten Experimente sind nur ein erster Schritt und sollen ausschließlich einem grundlegenden Wissensgewinn dienen.

Bei den Versuchen wurde das Prinzip der Vordergrund- und Hintergrundstrahlung zugrunde gelegt (M. Schnell, Experimentelle-Verifikation-des-Treibhauseffektes hier).

Nach diesem Prinzip kann eine Hintergrundstrahlung die Wirkung einer

Vordergrundstrahlung vollständig überlagern, wenn beide die gleichen Wellenlängen nutzen und hier die gleiche Strahlungsdichte besitzen. Aus diesem Grunde sind Messungen des Treibhauseffektes nur vor einem kälteren Hintergrund möglich. Deswegen hatten die untersuchten Gase eine höhere Temperatur als der Hintergrund, der durch eine Eiswasserschale bzw. einen wolkenfreien Himmel gebildet wurde.

Hatten bei Kontrollversuchen Gas und Hintergrund die gleiche Temperatur, wurde auch tatsächlich kein messbarer Effekt festgestellt.

Der Messsensor

Um festzustellen, ob ein Körper durch ein Treibhausgas erwärmt wird, musste ein Messsensor entwickelt werden, welcher nur auf Strahlungseffekte reagiert. Umwelteinflüsse bzw. Wärmetransporte anderer Art, mussten möglichst verhindert werden. Gleichzeitig wurde ein Sensor-Aufbau angestrebt, welcher auch im Feldversuch möglichst genaue Aufzeichnungen liefert, um vergleichbare Ergebnisse, mit dem Laborversuch, zu erzielen.

Abbildung 1 Messsensor

Als abstrahlender Körper im Messsensor wurde ein einseitig schwarz beschichtetes Cu-Plättchen gefertigt. Die geringe Wandstärke von 1 mm mit gleichzeitig guter Wärmeleitfähigkeit des Materials, wirkt sich positiv auf schnelle Reaktionszeiten aus (< 10 Sek.). Dieses Plättchen wurde mit einer Klammer und Wärmeleitpaste zusätzlich mit einem Gleichstrom Heizelement (Vollkeramisches Heizelement aus Siliziumnitrid Typ Hi, 7,5 Ohm bei Raumtemperatur) verbunden. Dieses Heizelement wurde jedoch bei den hier vorgestellten Versuchen noch nicht in Betrieb genommen und soll erst bei zukünftigen Experimenten verwendet werden.

Damit der abstrahlende Körper möglichst nur in die gewünschte Richtung (zum IR Fenster) strahlt, wurde die Rückseite des Cu-Körpers poliert. Ein verchromtes Messingteil, sowie die verspiegelte Innenseite des Druckgehäuses verhindern weitgehend Abstrahlung in die falsche Richtung.

Damit die Temperatur des Cu-Plättchens ermittelt werden kann, wurde auf der Rückseite ein poliertes Messingröhrchen aufgelötet. Dieses wird als Einschub für den Messstab des elektronischen Thermometers verwendet und mit einer Wärmeleitpaste gefüllt.

Abbildung 2 Beschichtetes Cu Plättchen

Der gesamte Messsensor wird für den Messbetrieb evakuiert. Damit ist Konvektion im Messsensor verhindert, als auch der Einfluss der Wärmeleitfähigkeiten der gemessenen Gase. Für die Temperaturerfassung kam ein Handmessgerät XP100 von Lufft® mit dem Temperaturfühler PT100 zum Einsatz.

Der Versuchsaufbau im Laborbetrieb/Funktionsprinzip

Abbildung 3 Laborbetrieb des Messsensors im Schema und Fotografie

Der Messsensor wird für den Laborbetrieb, mittels Dichtung, gasdicht auf ein poliertes Edelstahlrohr fixiert. Das Edelstahlrohr wird auf der anderen Öffnung in ein Gefäß mit Eiswasser getaucht, um es ebenso gasdicht zu verschließen.

Durch das IR Fenster hat der abstrahlende Körper im Messsensor nun eine optische Verbindung mit den Eiswürfeln im Eiswasser (Eis absorbiert nahezu 100% der Infrarotstrahlung und bleibt im Wasser konstant bei 0 °C).

Das Edelstahlrohr (Durchmesser 120 mm x 500 mm) hat zwei seitliche, verschließbare Öffnungen. Diese dienen zur Befüllung des Rohres mit einem Gas (Entlüftungs- und Befüllstutzen). Die polierte Oberfläche des Rohres hat einen hohen Reflektionsgrad und damit absorptionsarme Eigenschaften.

Mit diesem Aufbau können Infrarot aktive Gase geprüft werden, in wie weit diese, den Strahlungsfluss beeinflussen können

Abbildung 4 Reaktion des Messsensors auf Eisoberfläche

Wie in der Abbildung 4 zu sehen ist, stellt sich nach dem Platzieren des Eiswassers ein niedrigeres Temperaturniveau des Messsensors ein.

Diese Abkühlung wird durch IR-Abstrahlung verursacht, bis sich ein Gleichgewicht zwischen IR-Strahlung und Wärmezufuhr aus der unmittelbaren Umgebung eingestellt hat.

Messergebnisse des Versuchsaufbaus im Laborbetrieb

Messergebnisse Argon

Um festzustellen, ob die Änderung der Wärmeleitfähigkeit der eingelassenen Gase einen Einfluss auf den Messsensor hat, wurde Argon als nicht IR aktives Gas verwendet.

Bei der Messung mit Argon wurde kein Einfluss auf den Verlauf der Temperaturkurve festgestellt. Es ist davon auszugehen, dass der Messsensor nicht von unterschiedlichen Wärmeleitfähigkeiten der Prüf-Gase beeinflusst wird.

Messergebnisse CO2

Bei der Messung von CO2 regierte der Messsensor durch eine unmittelbare Reaktion

auf das Einlassen des Kohlendioxids, die Abkühlung des Sensors wurde deutlich beeinflusst.

Abbildung 5 Reaktion Messsensor auf Kohlendioxid im Laborversuch

Wie in Abbildung 5 zu erkennen ist, war die Temperatur des Messsensors noch in einem deutlichen Abwärtstrend. Dieser kehrte sich augenblicklich nach dem Einleiten von 0,75 L CO2 in einen positiven um.

Messergebnisse Propan/Butan

In Abbildung 6 ist zu sehen, dass sich der Messsensor beim Einlassen von 0,75 L Propan/Butan noch stärker als beim CO2 erwärmt.

Abbildung 6 Reaktion Messsensor auf Butan/Propan im Laborversuch

Nachdem das Propan/Butan wieder aus der Messröhre durch Spülen mit Luft entfernt wurde, trat wieder eine Abkühlung des Sensors, mit der bereits bekannten Abkühlungsrate, ein.

Diskussion der Ergebnisse:

Es konnte demonstriert werden, dass die IR-aktiven Gase die Temperatur des Sensors messbar beeinflussen können. Die Wirksamkeit einer Gegenstrahlung wurde damit nachgewiesen.

Die untersuchten Gase wurden vor dem Einlassen auf die gleiche Temperatur wie die Röhre erwärmt und ohne große Druckdifferenz (< 2 Pa) in das Prüfrohr eingelassen.

Gegenprobe mit IR-Kamera

Um die erhaltenen Ergebnisse mit einem anderen Messverfahren zu überprüfen, wurden die Strahlungen der untersuchten Gase mit der Wärmebildkamera der Firma Testo detektiert und auch der Versuchsaufbau variiert.

Hierbei wird die mit dem Messsensor der Testo-Kamera empfangene IR-Strahlung in eine fiktive Temperatur umgerechnet.

Verwendetes Gerät: Testo 872, Thermografie Kamera 320 x 240 Pixel, 60mK

IR Kamera Laborversuch

Abbildung 7 IR Kamera Laborversuch im Schema und Photographie

Bei dem Einsatz der IR-Kamera im Laborversuch blickt diese durch ein verspiegeltes gasdichtes Rohr auf den Boden mit Eiswasser und misst aus dieser Position die Temperatur des Eiswassers.

Wird nun ein Gas in die Versuchsanordnung eingelassen, kann nun direkt an der IR-Kamera

abgelesen werden, ob das zu prüfende Gas, die in den Messsensor gelangende IR-Strahlung, verstärkt, abschwächt oder unverändert lässt.

Messergebnisse des Versuchsaufbaus im Laborbetrieb

Messergebnisse Kohlendioxid:

Abbildung 8 Reaktion der IR Kamera auf Kohlendioxid im Laborversuch / T1= -3,1 °C T2= -0,2 °C

Die Kamera gibt für das Eiswasser ohne IR-Gase eine Temperatur von -3,1 °C an. Da die Kamera nicht geeicht werden kann und ohnehin nur die Veränderung von Interesse ist, wird dieser Wert als Startwert genommen.

Die Temperatur der Eiswasseroberfläche stieg nach Einlassen von 0,75 L Kohlendioxid unmittelbar von -3,1 °C auf -0,2 °C; also ein Temperaturanstieg von 2,9 Kelvin.

Messergebnisse Propan/Butan:

Abbildung 9 Reaktion der IR Kamera auf Propan/Butan im Laborversuch T1= -1,5 °C T2= 3,0 °C

Die angezeigte Temperatur der Eiswasseroberfläche stieg nach Einlassen von 0,75 L Propan/Butan unmittelbar von -1,5 °C auf 3 °C; also ein Temperaturanstieg von 4,5 Kelvin.

Diskussion der Ergebnisse:

Es konnte demonstriert werden, dass die IR-aktiven Gase den Strahlungsfluss messbar beeinflussen können.

Die verwendete IR-Kamera ist also in der Lage, Veränderungen der Strahlungsintensitäten welche durch die untersuchten Gase verursacht werden zu detektieren.

Auch hier wurden die untersuchten Gase vor dem Einlassen auf die gleiche Temperatur wie die Röhre erwärmt und ohne große Druckdifferenz (< 2 Pa) in das Prüfrohr eingelassen.

Der Versuchsaufbau im Feldversuch/Funktionsprinzip

Um den Ansatz der Vorder- und Hintergrundstrahler weiter zu verfolgen, wurde nach den Laborversuchen der klare Nachthimmel anstatt der Eiswürfel als „Hintergrundstrahler“ herangezogen.

Die Versuche wurden bei 20 °C auf 800 m Seehöhe und ca. 75% rel. Luftfeuchte durchgeführt.

Abbildung 10 Feldbetrieb des Messsensors im Schema und Fotographie

Der Messsensor wird für den Feldversuch, mittels Dichtung, gasdicht auf ein poliertes Edelstahlrohr fixiert. Die Messöffnung blickt nach oben. Das am oberen Ende offene Edelstahlrohr wird nahezu senkrecht dem klaren Himmel entgegen gerichtet. Dabei darf kein Objekt der Umgebung höher als das Edelstahlrohr sein, da sonst IR Strahlung aus der Umgebung in das Edelstahlrohr eingestrahlt wird. Die Messungen werden bei Dunkelheit durchgeführt, um eine Bestrahlung durch die Sonne auszuschließen.

Durch die polierte Oberfläche des Rohres (hoher Reflektionsgrad) hat der abstrahlende Körper im Messsensor nun eine optische Verbindung mit dem Himmel.

Das Edelstahlrohr hat zwei seitliche, verschließbare Öffnungen. Diese dienen zur Befüllung des Rohres mit einem Gas. Mit diesem Aufbau kann somit geprüft werden, ob eine zusätzliche Menge an IR-aktiven Gasen die Gegenstrahlung erhöht und die Abkühlungsrate des Sensors beeinflusst

Um möglichst den Gasverlust an die Umgebung durch das offene Rohr zu minimieren,

kann eine Rohrverlängerung eingesetzt werden. Ebenso sollten nur Prüf-Gase verwendet werden, die deutlich schwerer als die Umgebungsluft sind.

Messergebnisse CO2

Abbildung 11 Reaktion des Messsensors im Feldbetrieb auf Kohlendioxid 3.8.2018 / 23:02 + 23:06

Wie in Abbildung 11 zu sehen, konnte keinerlei Beeinflussung des Temperaturverlaufes durch Einlassen von 0,75 L Kohlendioxid in das Messrohr festgestellt werden, auch ein nochmaliges Einlassen von weiteren 0,75 L Kohlendioxid brachte keinerlei Beeinflussung des Messsensors.

Messergebnisse Propan/Butan

Abbildung 12 Reaktion des Messsensors im Feldbetrieb auf Butan/Propan 3.8.2018 / 23:13

Später, aber im selben Messzyklus, wurde auch Propan/Butan in das Messrohr eingelassen, siehe Abbildung 12.

Unmittelbar nach dem Einlassen von 0,75 L Propan/Butan wurde der Temperaturverlauf messbar beeinflusst.

Diskussion der Ergebnisse

Bei diesem Feldversuch konnte, im Gegensatz zum Laborversuch, keinerlei Reaktion des Messsensors auf das Einlassen von Kohlendioxid in das Prüf-Rohr beobachtet werden.

Bei Propan/Butan erfolgte unmittelbar nach ihrer Zugabe, sowohl im Laborversuch als auch im Feldversuch, eine Erwärmung des Sensors.

Weitergehende Erläuterungen der unterschiedlichen Reaktionen der IR-Gase finden sich im Kapitel „IR Kamera Feldversuch“.

Bild: Joujou  / pixelio.de

IR Kamera Feldversuch

Abbildung 13 IR Kamera Feldversuch im Schema und Photographie

Bei dem Einsatz der IR-Kamera im Feldversuch blickt diese durch ein verspiegeltes gasdichtes Rohr direkt in den wolkenfreien Nachthimmel. Die Erd- Atmosphäre strahlt gemäß ihrer Gaseigenschaften und Temperatur in die IR-Kamera und diese ordnet der (Gegen)Strahlung eine Temperatur zu.

Wird nun ein Prüf-Gas in die Versuchsanordnung eingelassen, kann nun direkt an der IR-Kamera abgelesen werden, ob das zu prüfende Gas, die in den Messsensor gelangende IR-Strahlung (in diesem Fall die atmosphärische Gegenstrahlung), verstärkt, abschwächt oder unverändert lässt.

Messergebnisse des Versuchsaufbaus im Feldversuch

Messergebnisse Kohlendioxid:

Abbildung 14 Reaktion der IR Kamera im Feldversuch auf Kohlendioxid: T1= -35,8 °C, T2= -35,7 °C

Beim Einlassen von 0,75 L Kohlendioxid wurde keine signifikante Änderung der Temperatur festgestellt. Der angezeigte Unterschied von 0,1 K liegt innerhalb der Messgenauigkeit der IR-Kamera.

Messergebnisse Propan/Butan:

Abbildung 15 Reaktion der IR Kamera im Feldversuch auf Propan/Butan: T1= -36,5 °C, T2 = -19,4 °C

Nach Einlassen von 0,75 L Propan/Butan-Gases wurde ein Temperaturanstieg von rund 17 Kelvin festgestellt!

Diskussion der Ergebnisse:

Propan/Butan sind nur in sehr kleinen Spuren in der Atmosphäre vorhanden und Ihre Absorptionsbanden sind bei rund 3 bzw. 7 µm teilweise von der Wasserdampf-Strahlung und vom atmosphärischen Fenster (8 – 13 µm) betroffen. Die Hintergrundstrahlung des wolkenfreien Himmels kann die Strahlung von Propan/Butan nicht vollständig überlagern. Die Strahlung des viel wärmeren Propan/Butans in der Röhre verursachte deswegen einen deutlichen Erwärmungseffekt bzw. eine Zunahme der Gegenstrahlung.

CO2 ist mit 400 ppm ein relevanter Bestandteil der Atmosphäre. Da seine Strahlung schon nach wenigen 100 m gesättigt ist (Lit. M. Schnell, siehe Einleitung), hat das atmosphärische CO2 auch keinen signifikanten Temperatur-Nachteil gegenüber dem CO2 in der Röhre. Die atmosphärische CO2-Strahlung überlagert hier vollständig die CO2-Strahlung in der Röhre, so dass eine Temperatur-Erhöhung nicht feststellbar war.

Die beiden Versuche mit den IR-aktiven Gasen CO2 und Propan/Butan sind eine experimentelle Bestätigung des Prinzips der Vorder- und Hintergrundstrahlung.

Drüber hinaus sollte mit den CO2-Versuchen auch der Frage nachgegangen werden, ob die atmosphärische CO2-Strahlung bei einer Konzentration von 400 ppm bereits gesättigt ist. Die Ergebnisse sprechen für diese Aussage, allerdings muss man auch die einfache Versuchsdurchführung und die geringe Empfindlichkeit der Detektoren berücksichtigen. Es kann nicht ausgeschlossen werden, dass der Nachweis eines geringen CO2-Effektes an begrenzten Möglichkeiten der Messsysteme gescheitert ist.

Geplante Versuchsreihen:

Die Feldversuche wurden bis dato in Sommernächten durchgeführt, welche eine feuchte Luft aufwiesen (75% relative Luftfeuchtigkeit). Daher sind nun im Winter klare und trockene Nächte für weitere Versuchsreihen angestrebt.

Ebenso wird in der laufenden Arbeit die Sensitivität des Messsensors überprüft, da eine Detektion der Gegenstrahlung im sehr kleinen Leistungsbereich liegt.

Als weiteres „Treibhausgas“ soll auch Methan untersucht werden.




Werden die Methoden der Klimaforscher im SPIEGEL etwa als „Kaffeesatzleserei“ und „Faustregel“ bezeichnet?

von Karsten Leibner

Nein! Hat uns doch so manch anderer Wissenschaftler auf die Tonne das CO2-Budget und den Wochentag der Klimakatastrophe vorhersagen wollen. Zugegeben ein wenig überspitzt von mir. Aber als Intro zu einem Artikel der gängigen Massenmedien in unserer Zeit liest man es selten.

Und weiter:

Es ist eine schlich­te Zahl, doch wird sie das Schick­sal die­ses Pla­ne­ten be­stim­men. Sie ist leicht zu be­schrei­ben, doch ver­trackt schwie­rig zu be­rech­nen. Die For­scher nen­nen sie: »Kli­ma­sen­si­ti­vi­tät«.Sie gibt an, um wie viel sich die Durch­schnitts­tem­pe­ra­tur auf der Erde er­wärmt, wenn sich die Kon­zen­tra­ti­on der Treib­haus­ga­se in der At­mo­sphä­re ver­dop­pelt. Schon in den Sieb­zi­ger­jah­ren wur­de sie mit­hil­fe pri­mi­ti­ver Com­pu­ter­mo­del­le er­mit­telt. Die For­scher ka­men zu dem Schluss, dass ihr Wert ver­mut­lich ir­gend­wo zwi­schen 1,5 und 4,5 Grad lie­gen dürf­te.

An die­sem Er­geb­nis hat sich bis heu­te, rund 40 Jah­re spä­ter, nichts ge­än­dert. Und ge­nau dar­in liegt das Pro­blem. Die Re­chen­leis­tung der Com­pu­ter ist auf das Viel­mil­lio­nen­fa­che ge­stie­gen, aber die Vor­her­sa­ge der glo­ba­len Er­wär­mung ist so un­prä­zi­se wie eh und je. »Es ist zu­tiefst frus­trie­rend«, sagt Bjorn Ste­vens vom Ham­bur­ger Max-Planck-In­sti­tut für Me­teo­ro­lo­gie.

Ste­vens hat selbst viel bei­ge­tra­gen zum Fort­schritt. Und doch muss­te er sich im­mer wie­der aufs Neue eingestehen, dass sei­ne Zunft, was die Vor­her­sa­ge des Kli­ma­wan­dels be­trifft, auf der Stel­le tritt. Es ist nicht leicht, die­ses Ver­sa­gen der Öffent­lich­keit zu ver­mit­teln. Ste­vens will ehr­lich sein, er will kei­ne Pro­ble­me ver­tu­schen. Trotz­dem möch­te er nicht, dass die Leu­te den­ken, die jüngs­ten Jahr­zehn­te der Kli­ma­for­schung sei­en um­sonst ge­we­sen.

Ich vermute, dass ich jetzt zutiefst frustriert sein werde, ehrlich!

Weiter unten im Artikel ein Satz

»Un­se­re Com­pu­ter sa­gen nicht ein­mal mit Si­cher­heit vor­aus, ob die Glet­scher in den Al­pen zu- oder ab­neh­men wer­den«, er­klärt Ste­vens.

Und dann:

»Die Ge­nau­ig­keit der Vor­her­sa­gen ist nicht bes­ser ge­wor­den, aber un­ser Ver­trau­en in sie ist ge­wach­sen«, sagt er. Die For­scher hät­ten al­les ge­prüft, was der glo­ba­len Er­wär­mung viel­leicht ent­ge­gen­wir­ken könn­te. »Nun sind wir si­cher: Sie kommt.«

Geht es ihnen genauso? Erst habe ich gedacht: „Wow, da macht sich einer ehrlich!“ Und dann: Wir sind uns sicher! Er hätte sagen müssen, wir wollen uns gerne sicher sein! Wir wissen nichts Genaues, aber darin sind wir uns sicher?

Stevens, ein Amerikaner in Deutschland, am Max-Planck-Institut, und ein deutscher Forscher namens Ta­pio Schnei­der vom Cal­tech im ka­li­for­ni­schen Pa­sa­de­na versuchen eine der Unwägbarkeiten der Klimamodelle zu knacken: die Wolken.

Im Artikel heißt es:

Wol­ken. Die trä­ge über den Him­mel zie­hen­den Ge­bir­ge aus Was­ser­dampf sind der Fluch al­ler Kli­ma­for­scher. Die ei­nen be­ste­hen aus win­zi­gen Was­ser­tröpf­chen, an­de­re ent­hal­ten vie­le klei­ne Körn­chen aus Eis.  Je­der die­ser Wol­ken­ty­pen wirkt an­ders auf das Kli­ma ein. Und vor al­lem: Sie wir­ken kräf­tig.

In den IPCC-Berichten werden Wolken nur als vereinfachte Modelle berücksichtigt. Der Fluch sind die träge dahin ziehenden Wissenschaftler (Ich meine die kräftig wirkenden).

Wolken? Wo habe ich das schon mal gehört? Prof. Nir Shaviv, Prof. Henrik Svensmark?

Nachtijall ick hör`dir loufen!

Eine weitere Erkenntnis zur „Errechnung des Klimas“ folgt:

Na­tür­li­che Pro­zes­se im Com­pu­ter zu si­mu­lie­ren wird im­mer dann be­son­ders hei­kel, wenn klei­ne Ur­sa­chen gro­ße Wir­kung her­vor­brin­gen. Für kei­nen an­de­ren Fak­tor im Kli­ma­ge­sche­hen gilt das so sehr wie für die Wol­ken. …Die For­scher kön­nen in ih­ren Mo­del­len das Was­ser nicht ver­duns­ten, auf­stei­gen und kon­den­sie­ren las­sen, so wie es dies in der Wirk­lich­keit tut. Sie müs­sen sich mit mehr oder we­ni­ger plau­si­blen Faust­re­geln be­hel­fen.

Plausible Faustregeln! Aha, mein Schwiegervater nennt das „messing-vernickeltes Augenmaß“. Schlosser halt. Heute trägt er eine Brille wegen der schweren Krankheit AZK. Keine Angst, AZK bedeutet nur „Arm-Zu-Kurz“. Welche Brille haben die Klimamodelleure auf? Aber: Schätzen ist erlaubt!

Es kommt noch schöner:

»Pa­ra­me­tri­sie­rung« heißt das Ver­fah­ren, doch die For­scher wis­sen: In Wirk­lich­keit ist das der Name ei­ner chro­ni­schen Krank­heit, von der all ihre Kli­ma­mo­del­le be­fal­len sind. Oft lie­fern sie dras­tisch von­ein­an­der ab­wei­chen­de Er­geb­nis­se. Die Tem­pe­ra­tu­ren in der Ark­tis zum Bei­spiel klaf­fen in den ver­schie­de­nen Mo­del­len um teil­wei­se mehr als zehn Grad aus­ein­an­der. Das lässt jede Pro­gno­se der Eis­be­de­ckung wie blo­ße Kaf­fee­satz­le­se­rei er­schei­nen. »Wir brau­chen eine neue Stra­te­gie«, sagt Ste­vens. Er sieht sich in der Pflicht, ei­ner vom Kli­ma­wan­del be­droh­ten Ge­sell­schaft bes­se­re Ent­schei­dungs­hil­fen an die Hand zu ge­ben. »Wir brau­chen neue Ide­en«, fin­det auch Ta­pio Schnei­der vom Cal­tech im ka­li­for­ni­schen Pa­sa­de­na.

Watt? Kaffeesatzleserei, aber wir sind vom Klimawandel bedroht? Kinn auf die Tischplatte klapp!

Wir brauchen tatsächlich neue Ideen!

Um es kurz zu machen. Beide Forscher untersuchen die unterschiedlichsten Wolkentypen und wollen sie den „Gleichungen anpassen“. Anders herum wäre es mir lieber. Sie halten das auch für sehr komplex. Wer wollte es Ihnen verdenken. Und hoffen auf neue Klimamodelle und KI (Künstliche Intelligenz). Warum nicht, wenn die menschliche zuweilen abwesend ist? Ich meine nicht die beiden Wissenschaftler!

„Einst­wei­len al­ler­dings ist nur ge­wiss, dass die Mensch­heit noch ei­ni­ge Zeit auf hand­fes­te­re Kli­ma­pro­gno­sen wird war­ten müs­sen.“

Pfeift doch mal einer die Schüler zurück!

Ge­ra­de hat er (Anm.: Schneider) aus­ge­rech­net, was pas­siert, falls sich die Stra­to­ku­mu­lus-Wol­ken über den sub­tro­pi­schen Ozea­nen groß­flä­chig auf­lö­sen soll­ten. Sei­nen Mo­dell­rech­nun­gen zu­fol­ge wür­de das zwar erst bei ei­ner Koh­len­di­oxid­kon­zen­tra­ti­on von 1200 ppm ge­sche­hen. Die­ser Wert liegt drei­mal so hoch wie der heu­ti­ge, selbst in den düs­ters­ten Treib­haus­sze­na­ri­en gilt es als un­wahr­schein­lich, dass er er­reicht wird. Trotz­dem war Schnei­der über­rascht, als er sah, wie sich in sei­nem Mo­dell die Wol­ken­de­cke über Pa­zi­fik und At­lan­tik ver­flüch­tig­te und die Welt­tem­pe­ra­tur dar­auf­hin un­auf­halt­sam klet­ter­te – um vol­le acht Grad. »Es scheint dort eine Nicht­li­nea­ri­tät zu ge­ben, die wir bis­her nicht kann­ten«, sagt er. »Das zeigt, wie schlecht die Stra­to­ku­mu­li bis­her ver­stan­den sind.«

Sind Sie jetzt auch überrascht?  Hat den Wissenschaftlern keiner zugehört oder hat man sie schlecht verstanden?

Ste­vens un­ter­des­sen fürch­tet eher, dass es die Ku­mu­lon­im­bus-Wol­ken sind, die un­er­war­tet Un­frie­den stif­ten könn­ten. Tro­pi­sche Sturm­sys­te­me sei­en be­rüch­tigt für ihre Un­be­re­chen­bar­keit. »Der Mon­sun zum Bei­spiel könn­te an­fäl­lig für plötz­li­che Ände­run­gen sein«, meint er. Mög­lich sei, dass die Be­rech­nun­gen der fein­ma­schi­gen Com­pu­ter­mo­del­le es er­laub­ten, sol­che Kli­ma­ka­prio­len früh­zei­tig zu pro­phe­zei­en. »Denk­bar ist aber auch, dass es prin­zi­pi­ell un­vor­her­seh­ba­re Kli­ma­phä­no­me­ne gibt«, sagt Ste­vens. »Dann kön­nen wir noch so ge­nau si­mu­lie­ren und kom­men trotz­dem zu kei­nen ver­läss­li­chen Er­geb­nis­sen. « Das ist die schlimms­te al­ler Mög­lich­kei­ten. Denn dann steu­ert die Mensch­heit auch wei­ter­hin ins Un­ge­wis­se.

„Prinzipiell unvorhersehbar“ finde ich mal eine Aussage! Und solange nur Wolken Unfrieden stiften, ist alles gut, solange man nicht unter so einer Wolke steht. Dann auf alle Fälle Eichen weichen und bitte keine Buchen suchen. Das könnte dann so oder so ausgehen… nichtlinear eben! Der Bauer, der diese Regel einst aufgestellt hatte, ist der schlimmsten aller Möglichkeiten erlegen.

Da sind wir uns sicher! Prinzipiell zumindest!




Es ist für uns alle an der Zeit, den 97%-Schwindel zu erkennen

Viele Beiträge zur Widerlegung dieser Behauptung sind schon geschrieben worden, aber sie alle verlieren sich im statistischen Dickicht. Der gesunde Menschenverstand würde nämlich ausreichen, um zu sehen, wie es ist. Falls jemand den Original-Beitrag von Naomi Oreskes lesen würde, mit dessen Veröffentlichung im Science Magazine im Jahre 2004 alles begonnen hatte, würde man sich totlachen.

Die fehlgeleiteten Herrschaften, welche aus einer wahrhaft bizarren Umfrage aus der wissenschaftlichen Literatur abgeleitet hatten, dass 97% aller Autoren an den Menschen als Ursache der globalen Erwärmung glauben, hätten sich einen größeren Gefallen getan, wenn sie die Zahl 70% genannt hätten. Das hätte tatsächlich sein können. Allerdings reicht eigentlich schon ein Minimum an gesundem Menschenverstand aus, dass keine einzige größere Gruppe von Menschen auf unserem Planeten jemals Einigkeit von 97% bzgl. irgendetwas erreichen kann. Ja, irgendetwas, einschließlich dass die Erde rund und nicht flach ist oder dass die Sonne im Osten und nicht im Westen aufgeht oder gar die Schwerkraft.

Ein einfacher Beweis für dieses irrige Gerede bietet das Global Warming Petition Project am Oregon Institute of Science and Medicine im Jahre 1997. Dort haben 31.478 amerikanische Wissenschaftler unterschrieben, darunter 9021 mit einem Ph.D., dass sie nicht an eine signifikante Auswirkung der Menschheit auf das Klima glauben. In der Deklaration finden sich u. A. diese Worte [übersetzt]: „Es gibt keinerlei überzeugende Beweise, dass menschliche Freisetzungen von Kohlendioxid, Methan oder anderen Treibhausgasen eine katastrophale Aufheizung der Erdatmosphäre verursachen oder eine Störung des Klimas. Mehr noch, es gibt substantielle beweise, dass ein gesteigerter atmosphärischer Kohlendioxidgehalt viele vorteilhafte Auswirkungen auf die natürliche Pflanzen- und Tierwelt auf der Erde haben“.

Alle Namen werden in einem Buch genannt. Es ist ziemlich zweifelhaft, dass alle diese Menschen die 3% der Nicht-Gläubigen umfassen.

Wir zweifeln nicht daran, dass viele Wissenschaftler tatsächlich daran glauben, dass die Menschheit eine Hauptrolle spielt bei der Entwicklung des Klimas. Allerdings hat die fast universelle Behauptung von „den 97%“ bei der arglosen Bevölkerung sehr viel Schaden angerichtet. Sie führte zu einer erbärmlichen Anti-Fossile-Politik in allen US-Staaten. Darunter fällt auch, dass einige [US-]Staaten die Paris-Bemühungen übernehmen, welche 3 Billionen amerikanischer Dollars an Nationen umverteilen würde, die wenig fossile Treibstoffe verbrauchen. Die Politik dieser amerikanischen Staaten dürften Null Auswirkungen auf die Thermometer des Planeten haben, aber sie kann und wird die Ökonomie dieser Staaten sowie den Lebensstandard der Bürger schädigen.

Der betrügerische 97%-Konsens ist eindeutig ein marktwirtschaftlicher Trick. Was Wissenschaft von Religion unterscheidet ist, dass ausschließlich empirische Beweise gelten und nicht irgendwelche Meinungen. Konsens spielt in der gesamten Wissenschaft keine Rolle.

Es ist nicht das erste Mal in der Wissenschaft, dass falsche Sichtweisen Jahrzehnte, wenn nicht Jahrhunderte lang Bestand haben, bevor die Massen sich wieder unwiderlegbaren Beweisen öffnen. Die Historie der Medizin ist voll mit Minderheiten, die versuchen, Operationen erfolgreicher zu machen einfach dadurch, dass man sich die Hände wäscht. Von Geschwüren glaubte man lange Zeit, dass sie die Folge von Persönlichkeiten des Typus‘ „A“ seien anstatt dass eine bestimmte Bakterienart die Ursache derselben ist. Einstein höchstselbst stand allein gegen alle bei seinem Kampf um die Relativitätstheorie. Als 100 deutsche Konsens-Wissenschaftler bei ihm vorstellig geworden waren und sich gegen seine Theorie wandten, äußerte er den berühmten Spruch: „Warum so viele? Wenn ich unrecht habe, hätte doch ein einziger genügt!“.

Man denke lieber mal ein wenig nach, wenn man das nächste Mal mit gefährlichen Absurditäten konfrontiert wird – was schon morgen der Fall sein kann.

Link: https://www.cfact.org/2019/04/10/its-time-for-us-all-to-recognize-the-97-con-game/?mc_cid=d109d7e337&mc_eid=1ad97dafa6

Übersetzt von Chris Frey EIKE