Schwarze Zukunft – unberechenbare Erneuerbare erhöhen die Anzahl und Dauer der Stromabschaltungen

Das dortige Stromnetz arbeitet in den letzten Jahren immer am Rande des Zusammenbruchs.

Aber es ist nicht einzigartig für Südaustralien. Jeder Landstrich, der versucht, seinen Strom mit Sonnenschein und Wind zu erzeugen, hat große Schwierigkeiten, das Stromversorgungssystem vor dem Zusammenbruch zu schützen.

Es sei daran erinnert, dass es nicht Ingenieure waren, die Windmühlen und Sonnenkollektoren forderten; das kam von schwachsinnigen Politikern, die den Wählerstimmen von klimabesessenen, innerstädtischen Grünen nachjagten. Während die Ingenieure das Problem nicht verursacht haben, bleibt es ihnen überlassen, sich dem Chaos anzunehmen und zu versuchen, „die Lichter eingeschaltet zu lassen“ (soweit möglich).

Wie bei jedem technischem-Problem lohnt es sich, genauer hinzusehen, so wie für uns David Watson im folgenden Artikel. Er ist diplomierter Elektroingenieur und war vor seiner Pensionierung Manager bei Foster Wheeler Energy in Glasgow.

 

Bei Marktversagen könnte Großbritannien fünf Tage lang unter Stromausfall leiden.

Engineering & Technology, David Watson, 11. März 2019

Die heutige Strom-Infrastruktur, die von kommerziellen Kräften sehr beeinflusst ist, wird schwer zu handhaben sein, wenn die Dinge ernsthaft schief gehen.

Selbst in den Industrieländern des 21. Jahrhunderts ist der Ausfall von Stromnetzen, wie er in den letzten Jahren in Teilen Australiens beobachtet wurde, nicht ungewöhnlich. In Großbritannien steigt das Risiko eines Totalausfalls oder einer erheblichen teilweisen Abschaltung des Übertragungsnetzes.

Die Zunahme von erneuerbaren Energien am Netz macht ein Versagen wahrscheinlicher. Durch das Wachstum von Windparks entstehen Frequenz-Regelungsprobleme, die auf eine verringerte Trägheit des Systems zurückzuführen sind, während eine Verringerung der Netzwerkstärke längere, stabilitätsgefährdende Fehlerbeseitigungszeiten verursachen kann. Dann gibt es die Herausforderungen, das Angebot [unterbrechungsfrei] an die Nachfrage anzupassen, nachdem plötzliche Schwankungen bei der Windstromerzeugung auftreten und Eingangsschwankungen der europäischen Verbindungsleitungen weniger als eine Stunde vorher bekannt gegeben wurden. Andere Risikofaktoren sind ein Ausfall der Netzstation, Blitzeinschläge in oder Ausfälle von Überlandleitungen und Cyberangriffe.

Für das Wiederherstellen des Netzes nach einem weitreichenden Zusammenbruch wird ein als „Schwarz-Start“ bezeichneter Prozess gestartet, unter Berücksichtigung der im Plan bestimmten Reihenfolge der verschiedenen Bereiche im Vereinigten Königreich. In der Lage zu sein, das Stromnetz und die Stromversorgung im Land schnell wieder herstellen zu können – Priorität der öffentlichen Gesundheitseinrichtungen kann zu Recht erwartet werden – aber in Schottland und wahrscheinlich in London ist dies nicht realisierbar. Die Wiederherstellung der Netzwerke würde mehrere Tage dauern. Das Problem ist so ernst geworden, dass es die Aufmerksamkeit des staatlichen Ausschusses für zivile Notfälle „Cobra civil contingencies committee“ auf sich gezogen hat.

Die professionelle Erwartung an die Dauer bis zur Rückkehr der Stromversorgung in Schottland ist inzwischen, wie mir gesagt wurde, auf fünf Tage gestiegen, was hauptsächlich darauf zurückzuführen ist, dass großräumige, disponierbare und bedarfsgesteuerte Erzeugung von Strom durch zeitweilig verteilte erneuerbare Energien ersetzt wurde. In London wurde eine ähnliche progressive Reduzierung verzeichnet, und der [wieder Auf-] Ladevorgang wird auch länger dauern, da ein Großteil des Hochspannungsnetzes Kabel und keine Freileitungsübertragung verwendet.

[Nur an meine Nicht-Elektrotechnischen Leser – die Elektrotechniker kennen das:  Ein Kabel muss sich nach dem Einschalten (anlegen von Spannung) erst aufladen. Vergleichsbeispiel: Ein langer Gartenschlauch muss nach dem Wasser-aufdrehen erst volllaufen, bevor hinten etwas rauskommt. Bei richtig langen Stromversorgungskabeln kann das eine Zeitlang dauern und es ist auch nennenswerte Energie. Umgekehrt dauert es eine Zeitlang nach dem Abschalten, bis das Kabel keine Spannung (Energie) mehr hat. Wenn es wichtig ist, wird gezielt „entladen“. Diese „Energie im Kabel“ kann aber als Speicher nicht genutzt werden. Denken Sie wiederum an den Gartenschlauch, wenn sie den Hahn zudrehen. Freileitungen benötigen aufgrund anderer physikalischer Eigenschaften weniger „Füllung“.

Das Thema greife ich demnächst mit auf, Demmig.]

Die Schottische Arbeitsgruppe zur Wiederherstellung der Energieversorgung nach einem Schwarz-Start, hat ihre Prozeduren im September 2018 überprüft. Diese basieren auf lokalen gemeinsamen Wiederherstellungsplänen, bei denen die Übertragungsbetreiber die lokalen Übertragungsinseln [gemeint ist z.B. die Versorgungseinheit eines Stadtteils sein] hochfahren und stabilisieren, die dann synchronisiert [alle im Gleichtakt des Wechselstromes] und schrittweise miteinander verbunden werden müssen.

Der Bericht der Gruppe warnt davor, dass es nach der Schließung des Kohlekraftwerks Longannet [es wurde gesprengt] in Fife im Jahr 2016, zu erheblichen Verzögerungen bei der Wiederherstellung der Stromversorgung kommen wird. Das Peterhead Gaskraftwerk, jetzt Schottlands einziges hochleistungsfähiges und mit hoher Trägheit (unverzichtbar für die Frequenzstabilisierung da rotierende Generatoren mit hoher Schwungmasse) einsetzbares Kraftwerk, bittet um eine Genehmigung zur Installation von 31 Dieselgeneratoren, die sieben Tage lang volle Leistung bringen können, um den Wiederanlauf sicherzustellen. Das Gaskraftwerk hat jedoch nur die Hälfte der Kapazität von Longannet und kann nicht ganz Schottland neu starten, ohne die Kapazitäten der Pumpspeicherwerke bei Cruachan und Foyers und, ganz entscheidend, aus England, zu verwenden – eine bislang noch nicht getestete Kombination.

Windparks können das Netz nicht hochfahren. Die verwendeten Generatortypen benötigen externe Energie, um mit der Stromerzeugung zu beginnen. Einige neuere Konstruktionen sind selbststartend, aber die Verbindung zu einem toten Netz über lange (Offshore-) Wechselstrom-Kabelverbindungen bleibt ein ungelöstes Problem, da die Generatoren nicht genug Blindleistung bereitstellen können, um tatsächlich große Kabelstrecken aufzuladen. In jedem Fall sind sie nicht in der Lage, die Anforderungen des National Grid für Hochfahren des Speiseabschnittes, Regelung der Netzspannung oder Frequenzsteuerung zu erfüllen.

Die erste lokale gemeinsame Netzwiederherstellungsaktivität besteht darin, die gesamte Offshore-Erzeugung abzuschalten. Onshore-Windparks können nach Wiederherstellung des Netzes schrittweise wieder eingetaktet werden, jedoch nur, wenn sie nicht stromlos [in ihren Regelkreisen] sind und der Wind weht. Die beiden schottischen Kernkraftwerke Hunterston und Torness können nur in ein stabiles Netz eingebunden werden, was mehrere Tage dauert.

Die neuen HGÜ-Verbindungen [Hochspannungs-Gleichstrom-Übertragungsleitungen] im Wert von 2,4 Mrd. GBP von Wales in die Gegend von Hunterston und von Moray Firth nach Spittal wurden nicht für den Schwarzstart konzipiert, da sie nicht die neueste 4-Quadranten-Umwandlungstechnologie (VSC) enthalten und nicht in ein totes Netz liefern [kommutieren ~Betrieb der Leistungshalbleiter] können. Schottland steht jetzt buchstäblich am Ende der Leitung [Versorgungsnetz], und ein notwendiger  Wiederanlauf würde erst gelingen, wenn das Netz im Norden Englands wiederhergestellt worden wäre. In ähnlicher Weise können für London die beiden HGÜ-Verbindungsleitungen nach Frankreich und in die Niederlande keinen Schwarzstart unterstützen.

National Grid bestätigte im Jahr 2016, dass die Wiederanlaufstrategie „angepasst werden muss“, da „Systemstärke und die Anzahl der Schwarz-Start-[geeigneten] Anbieter sinken“ und dass die Kosten für den Schwarz-Start „in den nächsten 10 Jahren um einen Faktor 7-10 ansteigen wird“. Während National Grid, wie Ofgem [Amt für Gas- und Elektrizitätsmärkte], die Bereitstellung von bis zu sieben neuen VSC-Verbindungsleitungen zwischen Großbritannien und dem europäischen Festland begünstigt, sind diese noch nicht gebaut, und die Verfügbarkeit von Strom hängt von den Marktbedingungen ab. Großbritannien ist ein Nettoimporteur von Elektrizität. Und außerdem gibt es den Brexit…

Die Situation ist eindeutig unhaltbar. Es zeigt beispielhaft die Notwendigkeit einer ordnungsgemäßen Steuerung des britischen Elektrizitätssystems, um die derzeit unterschiedliche, gewinnorientierte Schwächung des Netzes, die der „Markt“ verursacht hat, zu ersetzen.

Einige der technisch orientierten Institutionen plädieren für Veränderungen, darunter das IET – Institution of Engineering and Technology, das IMechE: Institution of Mechanical Engineers und die IESIS Institution of Engineers and Shipbuilders in Scotland. Wir müssen gehört werden.

Engineering and Technology

 

Gefunden auf Stopthesethings vom 10.04.2019

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2019/04/10/all-black-future-intermittent-renewables-chaos-means-longer-blackouts-much-more-often/




“Peak Oil” nach Venezuela-Art!

Und Venezuelas Wirtschaft ist fast ausschließlich von den Einnahmen aus Ölexporten abhängig. Als Hugo Chávez sein Amt antrat, produzierte Venezuela täglich fast 3,5 Millionen Barrel Öl (bbl / d). Bis 2015 waren es rund 2,4 Millionen Barrel / Tag und im März unter 1 Million Barrel / Tag.

Wie konnte das passieren? In gewisser Weise ist es ein Déjà Vu, die Wiederholung von schon mal erlebten. Robert Rapier schrieb eine schöne Zusammenfassung in diesem Forbes- Artikel:

Die Ölproduktion Venezuelas erreichte 1970 einen historischen Höchststand, als das Land 3,8 Millionen Barrel pro Tag (BPD) produzierte. 1971 verstaatlichte Venezuela seine Erdgasindustrie und begann mit der Verstaatlichung seiner Erdölindustrie. Die Erdölindustrie wurde 1976 offiziell verstaatlicht. Damals wurde die staatseigene venezolanische Ölgesellschaft Petróleos de Venezuela SA (PDVSA) gegründet.

Zwischen 1970 und 1985 ging die Ölproduktion in Venezuela um über 50% zurück. Aber dann begann die Produktion wieder anzusteigen. Im Jahr 1997, als es darum ging, ausländische Investitionen anzuziehen und das Schweröl im Orinoco-Gürtel zu fördern, öffnete Venezuela seine Ölindustrie für ausländische Investitionen.

Bis 1998 hatte sich die Erdölproduktion Venezuelas auf 3,5 Millionen BPD erholt und fast ihren bisherigen Höchststand erreicht. Im Jahr 1999 begann Hugo Chávez als Präsident von Venezuela. Während des Generalstreiks in Venezuela 2002–2003 entließ Chávez 19.000 PDVSA-Angestellte und ersetzte sie durch Angestellte, die seiner Regierung gegenüber loyal waren.

[PDVSA Petróleos de Venezuela S.A. ist die größte Erdölgesellschaft Lateinamerikas und Venezuelas größter Exporteur. Sie wurde 1976 im Zuge der Verstaatlichung der Erdölindustrie des Landes gegründet und unter dem Kürzel Petroven bekannt.]

[…]

Im Jahr 2007 stiegen die Ölpreise, und die Regierung von Chávez suchte ihre [eigenen] Einnahmen zu erhöhen, als sich die Investitionen der internationalen Ölfirmen auszuzahlen begannen. Venezuela forderte Änderungen der mit den internationalen Mineralölgesellschaften getroffenen Vereinbarungen, um PDVSA die Mehrheit der Projekte zu übertragen [~an sich zu reißen].

ExxonMobil und ConocoPhillips lehnten dies ab, und ihre Vermögenswerte wurden enteignet. (Diese Enteignungen wurden später als illegal eingestuft und beide Unternehmen erhielten eine Entschädigung).

Forbes

Eingesetzte Hinweise: Robert Rapier, Datenquelle BP Statistik 2018

Um es mit Margaret Thatcher zu sagen: „Der Sozialismus funktioniert nur solange, bis das Geld anderer Menschen ausgeht.“ Durch die Ersetzung der qualifizierten Arbeitskräfte von PDVSA durch politische Kumpane und die Vertreibung von ausländischem Fachwissen und Kapital aus Venezuela blieb viel schweres Öl „zurück“, was schwierig zu fördern ist und die Mittel wurden weniger, um es zu verarbeiten. Aber es dauerte noch bis zum Januar 2019, dass die Produktion auf nur noch rund 1,2 Mio. Barrel / Tag sank. Danach war der Bodensatz erreicht. [nein, siehe Nachsatz am Ende]

Quelle US EIA, Einfügung Robert Rapier: „USA verhängte harte Sanktionen gegen PDVSA“

Die Naptha-Klippe!

Die US-Sanktionen gegen PDVSA behinderten in zwei Punkten:

  1. Ihr Exportkunde Nr. 1 [USA] fiel aus
  2. Das Naptha und andere Verdünnungsmittel, die zum Transportieren des schweren Rohöls erforderlich sind.

Dieser „Doppelschlag“ hatte in weniger als einem Monat gravierende Auswirkungen…

Die Sanktionen der USA sind ein Doppelschlag für Venezuela.

Die Vereinigten Staaten war nicht nur der Nummer Nr. 1 Kunde von Venezuela, sondern auch die wichtigste Naphtha-Quelle des Landes, das flüssige Kohlenwasserstoffgemisch, das zur Verdünnung von Rohöl verwendet wird. Ohne sie kann Venezuelas schweres Rohöl nicht ohne weiteres transportiert werden. Rystad Energy prognostiziert, dass bei einigen Betreibern in Venezuela das Verdünnungsmittel bis März aufgebraucht sein wird.

CNN

Tut mir leid, Peak Oilers… Venezuela ist vielleicht schon als Nation von der Seneca Klippe [… ist ein mathematisches Modell für Ökonomie] in die Olduvai-Schlucht gesprungen; aber es hat nichts mit Peak Oil zu tun. Venezuelas Ölproduktion wird sich schließlich erholen.

[Die Olduvai-Schlucht ist eine Schlucht im Norden Tansanias. Sie gilt – gemeinsam mit dem Afar-Dreieck in Äthiopien und Fundplätzen in der südafrikanischen Provinz Gauteng – als die „Wiege der Menschheit“. International bekannt wurde die Schlucht durch den Fund zahlreicher pleistozäner Fossilien von Menschenaffen.]

Das „Low Case“ -Szenario von Rystad Energy führt nach Schätzungen dazu, dass die Ölproduktion Venezuelas in diesem Jahr auf 800.000 Barrel / Tag und im nächsten Jahr auf 680.000 Barrel / Tag zurückgeht, bevor sie sich erholt. Die Erholung wird trotz Regimewechsel nur langsam vor sich gehen, aber sie wird geschehen…

Rystad_Energy_Ucube-080219-venezuela-crude-production-base-high-low-cases-1

** Kurzfristig: Die Produktion wird ihren Abwärtstrend verlangsamen. [Die Öl-Sand-] Felder im Orinoco-Gürtel, [mit den größten Erdölvorkommen der Welt], die derzeit unterhalb ihrer Kapazität arbeiten, können relativ leicht verjüngt werden. Weitere Produktionssteigerungen werden viel komplizierter, da die reifen Felder ihren natürlichen Produktionsrückgang erreicht haben und einer großen Anzahl von Bohrungen erheblicher Schaden zugefügt wurde.

** Mittelfristig: Die Verbesserung von Produktionsrückgängen und Schäden an den reifen Feldern – die den größten Beitrag zur Produktion der venezolanischen Produktion von mehr als 2 Millionen Bpd leisteten – wird technisch und finanziell eine große Herausforderung darstellen. Um die Produktion zu steigern, muss Venezuela die Felder im Orinoco-Gürtel weiter ausbauen.

** Langfristig: Rystad Energy erwartet kein massives Wachstum, sieht jedoch ein erhebliches Aufwärtspotenzial im Laufe der Zeit. Venezuela sitzt auf massiven nachgewiesenen Reserven. Die Kostenstruktur ist relativ niedrig und das Explorationsrisiko ist minimal. Darüber hinaus sind die [Verarbeitung der] Ölsande des Orinoco Belt durch das wärmere Klima Venezuelas. weniger energieintensiv als die Ölsande in Kanada. Dies bedeutet, dass weniger Energie erforderlich ist, um das schwere Rohöl ausfließen zu lassen. Schließlich erwarten wir, dass trotz der möglichen CO2-Vorschriften und der IMO 2020-Beschränkungen für Schiffstreibstoffe, die Nachfrage nach Schweröl hoch bleiben wird, da komplexe Raffinerien wie die in den USA, diese Art von Rohöl umweltgerecht verarbeiten können.

Rystad Energy

Es könnte verlockend sein, sich eine Grafik wie diese anzusehen und zu folgern, dass sich eine „Peak Oil“ Seneca Klippe wie aus dem Nichts gebildet haben könnte.

Quelle H/T Javier

Wenn Sie sich jedoch die größere Grafik betrachten …

BP and Restuccia- 2018_venezuela_2

Venezuelas Öl Produktion 1920-2017 (millions of bbl/yr and thousands of bbl/d).

Die „Seneca Klippe“ erweist sich eher als eine Hubbert-Kurve. Peak Oil ist echt. Irgendwann wird die weltweite Erdölproduktion ihren Höhepunkt erreichen und dann wird sie langsam zurückgehen… Aber sie wird nicht von einer Seneca-Klippe in die Olduvai-Schlucht fallen.

[Die Hubbert-Kurve ist eine Annäherung an die Produktionsrate einer Ressource über die Zeit. Es handelt sich um eine symmetrische logistische Verteilungskurve, die oft mit der „normalen“ Gaußschen Funktion verwechselt wird. Wikipedia (Englisch)]

BP _ Global petroleum production 2018

Mineralölproduktion (einschließlich Rohöl, Kondensat, Ölschiefer, Ölsand und NGL). USA in Rot, Venezuela in Gelb.

 

References

Egan, Matt. “How US Sanctions on Venezuela Are Rippling through Oil Markets.” CNN, Cable News Network, 19 Feb. 2019, www.cnn.com/2019/02/19/investing/venezuela-oil-sanctions-pdvsa/index.html.

Hubbert, M. King. “Nuclear Energy and the Fossil Fuels. Presented before the Spring Meeting of the Southern District, Division of Production, American Petroleum Institute, San Antonio, Texas, March 7-8-9, 1956.” Nuclear Energy and the Fossil Fuels. Presented before the Spring Meeting of the Southern District, Division of Production, American Petroleum Institute, San Antonio, Texas, March 7-8-9, 1956, 1956. https://debunkhouse.files.wordpress.com/2017/03/1956_hubbert.pdf

Peak Oil. “The Seneca Cliff of Oil Production”. Exploring Hydrocarbon Depletion. June 7, 2016. https://peakoil.com/production/the-seneca-cliff-of-oil-production

“Peak Oil And The Olduvai Gorge.” Peak Oil And The Olduvai Gorge  |  Peak Oil News and Message Boards, peakoil.com/generalideas/peak-oil-and-the-olduvai-gorge.

Rapier, Robert. “Charting The Decline Of Venezuela’s Oil Industry.” Forbes, Forbes Magazine, 5 Feb. 2019, www.forbes.com/sites/rrapier/2019/01/29/charting-the-decline-of-venezuelas-oil-industry/#1be7ec664ecd.

Restuccia, Diego. “The Monetary and Fiscal History of Venezuela: 1960–2016.” SSRN Electronic Journal, 2018, doi:10.2139/ssrn.3237748. https://www.economics.utoronto.ca/diegor/research/MFHLA_paper.pdf

“Short-Term Energy Outlook > International Petroleum and Other Liquids > Supply > OPEC.” U.S. Energy Information Administration (EIA) – Qb, www.eia.gov/opendata/qb.php?category=1039874.

“Statistical Review of World Energy | Energy Economics | Home.” BP Global, www.bp.com/en/global/corporate/energy-economics/statistical-review-of-world-energy.html.

“Venezuela-Related Sanctions.” U.S. Department of State, U.S. Department of State, www.state.gov/e/eb/tfs/spi/venezuela/.

“Venezuela Update: Production Could Fall below 700,000 Bpd by 2020.” Rystad Energy, www.rystadenergy.com/newsevents/news/press-releases/Venezuela-update-Production-could-fall-below-700000-bpd-by-2020/.

Gefunden auf WUWT vom 11.04.2019

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2019/04/11/la-cumbre-del-petroleo-venezuela-style/

¡La cumbre del petróleo! Venezuela-Stil!

 

Nachsatz:

Auf der Webseite der PDVSA ist von einem Sabotageakt gegen die Stromversorgung die Rede (Wasserkraftzentrale „Simón Bolívar“ im Bundesstaat Bolívar, speziell im El Guri-Staudamm). … „Durch unermüdlichen Einsatz der Mitarbeiter kann die Produktion von 165.000 Barrel pro Tag gehalten / erreicht werden.“ ist im weiteren Text zu lesen.

PDVSA Ölproduktion – Sabotage

Weitere Informationen habe ich nicht gesucht.




Unsere Energieversorgung wird immer fragiler

erschienen im Reviertransfer, Seite 44 (hier)

„Wir müssen die Energiewende vom Grundsatz her neu denken“

Interview mit Prof. Dr.-Ing. Harald Schwarz, Lehrstuhlinhaber Energieverteilung und Hochspannungstechnik an der BTU Cottbus-Senftenberg

Im Frühjahr 2018 war Prof. Harald Schwarz Mitautor einer BTU-Kurzstudie des brandenburgischen Wirtschaftsministeriums  zu den technischen Zusammenhängen zur sicheren Stromversorgung. Wir suchten mit ihm das Gespräch zu seiner Sicht auf die Ergebnisse des Abschlussberichts der
WSB-Kommission. Daraus wurde eine umfangreiche Aufklärung zu den Unzulänglichkeiten der Umsetzung von Deutschlands Energiewende.

Die Kommission wurde mit den Begriffen Wachstum, Strukturwandel und Beschäftigung ins Rennen geschickt, was entnehmen Sie dem Abschlussbericht in diesen Themenbereichen für die Lausitz?

Ich habe den Bericht nur auszugsweise gelesen und mich auf die Absätze zur Versorgungssicherheit konzentriert. Es gibt eine logische Reihenfolge: Wir müssen zuerst die Versorgung sicherstellen und können dann schauen, wie wir CO2-Emissionen reduzieren. Erst dann brauchen wir uns über Themen wie Wachstum, Strukturwandel und Beschäftigung Gedanken machen. Wenn die Versorgungssicherheit als Primat nicht gegeben ist, brauchen wir über den
Rest nicht zu reden. Da ich in dem Bericht hierzu keinen Ansatz erkennen konnte, ist die Debatte um den Strukturwandel meines Erachtens obsolet.

Stehen Sie mit dieser Meinung nicht recht allein? 

Das ist nicht meine Denke. Es gibt seit zehn Jahren ausreichend Studien dazu.
Möchte man in einem Land sichere Stromversorgung, benötigt man gesicherte Kraftwerksleistung. Seit hundert Jahren heißt die Regel, dass die gesicherte Leistung die mögliche Höchstlast in einem Stromnetz übersteigen muss. Schauen wir uns die letzten zehn bis 15 Jahre Energiewende in
Deutschland an, so haben wir um die 120 Gigawatt PV- und Windstrom aufgebaut. Die gesicherte Leistung von PV ist aber 0%, bei Wind onshore ist es 1%, bei Wind offshore 2%. Im Klartext liefern die 120 GW, die wir in den letzten 15 Jahren aufgebaut haben, nahezu null Beitrag zur gesicherten
Leistung. Wir werden ausschließlich mit Wind und PV nie eine gesicherte Stromversorgung aufbauen. Vor zehn Jahren standen uns deshalb rund 100 GW Kraftwerksleistung aus sicheren Energieträgern zur Verfügung, das sind Kohle, Gas, Atom, Biomasse und Laufwasser. Die mögliche Höchstlast in Deutschland liegt derzeit bei ca. 85 GW. Inzwischen ist die gesicherte
Leistung auf knapp 90 GW abgeschmolzen – und der Kohlekommissionsbericht sieht vor, dass wir davon bereits in drei Jahren weitere 20 GW gesicherte Leistung abschalten. Das soll dann noch weiter fortgesetzt werden. Wir geben in drei Jahren also unsere sichere Stromversorgung „aus eigener Kraft“ auf und haben dann nur noch 80% der notwendigen gesicherten Kraftwerkleistung im eigenen Land, die wir
brauchen, um uns verlässlich zu versorgen. 2030 sinkt das weiter auf 60%. Wo soll der Rest herkommen? Es gibt kein Konzept und bei unseren Planungshorizonten kann ich mir keine reale Lösung vorstellen. Fest steht, dass bis 2022 definitiv gar nichts passiert. Was heute im Bau ist, ist 2022 fertig, sonst nichts. Wir werden in drei Jahren die Abschaltung von Kohle und Atom nicht verkraften und können nur darauf hoffen, dass im angrenzenden Ausland noch genügend Reserven im Bereich Kohle und Atom vorhanden sind, um Deutschland mit zu versorgen, wenn wir es selbst nicht mehr
können.

Wie sieht es mit der Hilfe der Nachbarn aus?

Das ist die bislang einzige Hoffnung der Bundesregierung: Der europäische Strommarkt wird schon liefern. Aber was ist dieser Markt? Das sind Kraftwerke in den Nachbarstaaten. Hier stellt man schnell fest, dass Windflauten bei uns auch mit Windflauten bei den Nachbarn einhergehen. Dazu gibt es Fakten und Zahlen. Laufen unsere Kraftwerke unter Höchstlast, tun sie das in Polen und Tschechien auch. Die Wahrscheinlichkeit, dass uns die Nachbarn in einer kalten Dunkelflaute, bei weitgehendem Ausbleiben von Strom aus Wind und PV, mal eben 20 GW über den Strommarkt verkaufen können, halte ich für unrealistisch. Genau an diesem Punkt hat sich der Abschlussbericht der Kommission für mich wegen Realitätsferne erledigt.

Viele Wissenschaftler untermauern die Notwendigkeit und Möglichkeit des Kohleausstiegs – handelt es sich schlicht um unterschiedliche Sichtweisen oder einen unterschiedlichen Grad der wissenschaftlichen Expertise?

Die Aussagen zur gesicherten Leistung sind physikalische Fakten. An denen kann kein Wissenschaftler etwas ändern. Wir leben allerdings seit längerem in einer Phase der Energiewende, bei der physikalische Fakten und Naturgesetze ausgeblendet werden. Das Motto lautet: Es muss einfach gehen. Wir betreiben die Energiewende schon seit 20 Jahren. Das EEG ist Mitte der 1990er-Jahre erstmals wirksam geworden und vor der Jahrtausendwende
wurden dann die ersten Anlagen für Erneuerbare installiert. Das
Ziel der Energiewende besteht aber nicht im Aufbau regenerativer Energien, sondern im Senken der CO2-Emissionen. Bis heute erleben wir bei vielen Beteiligten einen wahren Rausch, was die jährliche Steigerung des prozentualen Anteils der Erneuerbaren an der Stromproduktion angeht. Daraus ist der Glaube entstanden, dass ein „weiter so“ bei der Steigerung
dieses Anteils die Lösung bringt.

In den Medien wird suggeriert, dass mit 40% Quote der Erneuerbaren auch 40% Deutschlands mit regenerativem Strom gesichert versorgt werden. Dem ist nicht so. Das physikalische Grundverständnis energietechnischer Zusammenhänge in den Medien und der Bevölkerung ist leider sehr gering. Schaut man hingegen auf die CO2-Emissionen in der Energiewirtschaft, so wurde in den letzten 20 nichts erreicht. Lediglich Anfang der 1990er-Jahre gab es einen starken Abfall, der mit der Deindustrialisierung der ehemaligen DDR einherging. Von 1994 bis 2013 waren die Emissionen der Energiewirtschaft dann trotz Energiewende konstant. Sie betrugen jedes Jahr 360 Mio. Tonnen CO2 plus minus 5 Prozent. Der Aufbau von PV und Windenergie gefördert über das EEG zeigte keine Wirkung bei den CO2-Emissionen.

Seit 2015 gibt es wieder einen leichten Abwärtstrend, allerdings sind das noch unbestätigte Daten des Umweltbundesamts aus dem Sommer 2018. Da war noch von Hochrechnungen und Expertenschätzungen die Rede, das ist also nicht belastbar. Vielleicht gibt es hier tatsächlich einen kleinen Abwärtstrend, aber über 20 Jahre haben sich die Emissionen gar nicht verändert und selbst jetzt wäre das nur sehr geringfügig. Trotzdem sind alle glücklich und feiern den Ausbau der Erneuerbaren. Das kann ich nicht verstehen.

Woraus resultiert der fehlende Effekt auf die Emissionen?

Parallel zum Aufbau der Erneuerbaren haben wir CO2-freie Kernenergie abgebaut. Was wir auf einer Seite aufgebaut haben, wurde auf der anderen Seite abgebaut. Zudem wurden Kohle- und Gaskraftwerke durch die volatile Einspeisung der Erneuerbaren zu einem extrem fluktuierenden Betrieb gezwungen, um so die ständigen Einspeiseschwankungen von Wind und PV
mit dem Strombedarf in Übereinstimmung zu bringen. Das ist wie Stop and Go mit dem Auto in der Stadt. Das führt auch zu höheren Emissionen pro Kilometer, als auf der gleichen Strecke mit konstanter Geschwindigkeit
auf der Autobahn oder Bundesstraße zu fahren. Wir haben im Ergebnis über 20 Jahre hinweg in blindem Aktionismus im dreistelligen Milliardenbereich Steuergelder ausgegeben, ohne nennenswert etwas bei den Emissionen zu erreichen.

Wie weit sind wir bei der Verstetigung der Erneuerbaren, damit wäre ja ein Effekt auf die Emissionen gegeben?

Wir wissen schon lange, dass überschüssige regenerative Energien gespeichert werden müssen. Das hat in den letzten 15 Jahren aber niemanden interessiert. Es gab bereits 2008 und 2010 Konzepte, die vor der kommenden Phase einer massiven Unterdeckung mit gesicherter Leistung warnten. Die Energiewende wurde trotzdem blind vorangetrieben. Hier müssen wir dringend umsteuern und die Energiewende neu denken, um zu einer nachhaltigen Stromversorgung mit deutlich geringeren CO2-Emissionen zu kommen.

Es wird dennoch viel über grünes Gas gesprochen, wie weit sind wir in der Praxis?

Im Jahr 2006 gab es eine Pilotanlage mit 6 MW und weitere im Bereich um 2 MW. Seitdem ist bundesweit nichts mehr passiert. Aktuell plant RWE nach meiner Kenntnis eine Anlage mit 50 bis 100 MW. Um von dieser Größe in den Bereich von mehreren 10.000MW zu kommen, brauchen wir nicht nur einen, sondern mehrere Schritte zum Hochskalieren und das dauert mehrere Jahrzehnte, zumal wir ja auch die Kosten dafür irgendwie verteilen müssen. Es rächt sich, dass wir 15 Jahre nichts getan haben.

Was müsste jetzt getan werden?

Wir reden inzwischen bei Phasen mit Überspeisung regenerativer Energien über hunderte Gigawattstunden. Die Big Batterie der LEAG wird 0,05 Gigawattstunden bringen, das macht die Dimensionen des regenerativen
Überschusses deutlich. Batterien werden in Zukunft zwar mehr im Netz auftauchen, aber als Elemente, über die man schnelle Regelleistung bereitstellen kann, um einem kritischen Frequenzabfall oder –anstieg in wenigen Minuten entgegenzuwirken. Bei einer mehrtägigen Überspeisung
der Netze, so wie wir es schon heute in Ostdeutschland im Winter teils mehrfach in der Woche haben, können wir nur abregeln, oder wir müssten diese Überschüsse in Wasserstoff umwandeln und als grünes Gas ins Gasnetz einspeisen. Das ist für Deutschland m.E. die einzige Option, den massiven EE-Überschuss zu verstetigen und nachhaltig zu nutzen. Das ist aber ein weiter, sehr weiter und auch teurer Weg.

Was kann bis dahin Kohle und Atom ersetzen?

Wenn wir auf Kohle und Atom verzichten, bleibt nur Gas als Ersatz für gesicherte Leistung.Auch hier lügen wir uns seit Jahren in die Tasche. Wir betrachten die CO2-Emissionen nur im Wandlungsprozess vor Ort, in diesem Fall ist Gas deutlich günstiger als Kohle. Das ist zwar statistisch korrekt,
aber CO2 ist nun mal ein globales Problem. Wenn die tatsächlichen CO2-Emissionen durch Erzeugung und Transport mitbetrachtet werden, dann nimmt das bei Braunkohle aufgrund des geringen Abstandes zwischen Tagebau und Kraftwerk nur wenig zu, Steinkohle geht deutlich nach
oben, da viel Steinkohle für unsere Kraftwerke heute aus Australien kommt und bei Gas explodieren die Emissionswerte geradezu. Es gibt Gasfelder wie das amerikanische Schiefergas samt Transport nach Deutschland, bei dem die Gesamtemissionen dann weit über der Braunkohle liegen. Denken wir aber tatsächlich über globalen Klimaschutz nach, sind diese Gesamtemissionen
der entscheidende Wert.

Wenn wir über Klimaschutz reden, dann leistet
Gas als einziger möglicher Lückenfüller für Atom und Kohle also wenig Beitrag?

Klimaschutz ist ein globales Thema. Da hilft es nicht, wenn wir nur den Wandlungsprozess in Deutschland betrachten. Wir müssen die regenerativen Überschüsse umwandeln, das ist der einzig richtige Weg. Der Netzentwicklungsplan 2030 sieht 200 GW Wind und PV vor, die uns das Netz gigantisch belasten werden. Diese Überschüsse müssen ins Gasnetz. Der notwendige Prozess der Elektrolyse ist aber immens teuer und müsste dringend vorangetrieben werden, anstelle riesige Summen in die Verkabelung
der großen Nord-Süd Leitungstrassen zu stecken – nur mit dem Effekt, dass
man die Leitung dann nicht mehr sieht. Alles in allem sind wir in Deutschland dabei leider ohne Konzept.

 

Entspricht das inzwischen oft beschworene Szenario eines Blackouts einem realen Problem?

Nach Köpenick muss man den Begriff Blackout leider oft klarstellen. Es handelt sich dabei um eine lang anhaltende und großflächige Versorgungsunterbrechung. Das entspricht mehreren Tagen auf einer Fläche von mehreren hundert Quadratkilometern. Köpenick war eine zwar unschöne,
aber lokal und auch zeitlich noch sehr begrenzte Versorgungsunterbrechung.
Über die „Blaulichtorganisationen“ konnte man das locker von außen versorgen. Zur Notversorgung eines Stromausfalles im gesamten Berliner Stadtgebiet müsste das Technische Hilfswerk vermutlich alle in Deutschland verfügbaren Ressourcen zusammenziehen – und wenn die Fläche noch größer wird, dann wird es richtig hart. Insgesamt betreiben wir das Stromnetz in den letzten Jahren immer stärker am Limit. Anfang der 2000er-Jahre gab es zwei größere Blackouts (Italien bzw. Teile Westeuropas), weil der neu eingeführte Stromhandel über das europäische Verbundnetz und die physikalischen
Randbedingungen für den Netzbetrieb plötzlich nicht zusammenpassten.
Auch im Winter 2011 auf 2012 war das Gleichgewicht zwischen Verbrauch und Erzeugung empfindlich gestört, als es durch den Konflikt zwischen Russland und der Ukraine zur verminderten Gasdurchleitung und damit einem Gasmangel in Süddeutschland kam. Wir waren kurz vor dem kritischen Punkt der Unterfrequenz, bei dem dann alle verfügbaren Kraftwerksreserven ans Netz gebracht werden und bereits erste große Verbraucher abgeschaltet werden, um ein weiteres Absinken der Frequenz zu verhindern, das ungebremst nach sehr kurzer Zeit zu einem Netzzusammenbruch führen
kann. Es gab helle Aufregung in der Politik, daraufhin wurde eine Regelung zur Abschaltung energieintensiver Industrie im Falle besonderer Herausforderungen geschaffen. Allein in 2018 wurden Teile der Aluminiumindustrie über diese Maßnahme 78 Mal abgeschaltet. Das waren
zwar keine Katastrophenszenarien, aber man hat in diesen Zeiten gemerkt, dass die Regelleistung nicht mehr ausreicht und der Markt die Lücke nicht schließen kann. Zum vergangenen Jahreswechsel gab es auch eine plötzlich auftretende Unterdeckung von 6 GW, die man ausgleichen konnte, weil die Kraftwerke nicht auf Höchstlast waren. Am 10. Januar gab es eine Situation, in der die Frequenz in wenigen Minuten, quasi aus dem Nichts, bis auf 49,8 Hertz abgesunken ist. 14 Tage später gab es das gleiche Phänomen in die
andere Richtung. Bis heute weiß in diesen Fällen niemand, worin genau die Ursachen lagen. Der Netzbetrieb in Europa ist durch die beliebige Ein- und Ausspeisung hochgradig wacklig geworden. Das wird weiter zunehmen.

Im Kommissionsbericht steht, dass auch die Nachbarländer aus der Kohle aussteigen, ist ganz Europa auf dem Holzweg?

Die Nachbarn weniger. Um einen deutlichen Vergleich zu bedienen, schauen wir mal etwas weiter nach China. Dort gibt es auch viel Kohle und eine ähnliche EEGQuote wie in Deutschland. Es gibt aber einen wesentlichen Unterschied. Dreiviertel von Chinas EEG-Quote entstammen sicherer
Wasserkraft und nur ein Viertel Wind und PV. Bei uns sind es 90 % Wind und PV. Andere Länder haben einen anderen Mix, Deutschlands Weg folgt niemand.

Ist einmal durchgerechnet worden, was die
Energiewende kostet?

Was immer man rechnet, es gibt einfach zu viele Unklarheiten und aktuell läuft man bei der Energiewende in Deutschland Lemmingen gleich einer Religion hinterher. Die Politik wird die Physik erst akzeptieren, wenn 2022 eine Situation eintritt, in der der Markt nicht liefern kann. Man sagt da immer schnell, dass so ein größerer Blackout vielleicht auch „heilsam“ wäre, man darf aber nicht vergessen, dass ein großflächiger und langanhaltender Blackout
in Deutschland unvorstellbar schlimm werden würde. Der Bundestag hat hierzu mal 2011 eine große Studie in Auftrag gegeben, die man auch mit etwas Suchen herunterladen kann. Dort wurde alles zumindest für den ersten Tag des Blackouts sehr detailliert untersucht – und wer das gelesen hat, möchte das nicht erleben.

Warum gibt es keinen Aufstand aus der Wissenschaft?

Das Thema ist zu komplex für die heutige Medienlandschaft, es fehlt in unserem Land
der Resonanzboden. Große Teile der Gesellschaft sind darauf eingeschworen, die Welt zu retten, auch wenn unser Anteil an den globalen Emissionen nur 2,7 % beträgt.

Was würden Sie vorschlagen?

Im Abschlussbericht der Kommission sind Jahreszahlen für ein Monitoring festgelegt worden. Man müsste allerdings definieren, wie man genau ein Monitoring ansetzt, um die Sicherheit der Stromversorgung im Allgemeinen
und der Netze im Besonderen zu bewerten. Bei der Stromversorgung ist
das m.E. die gesicherte Kraftwerksleistung und bei den Netzen z.B. die Eingriffe nach §13 und 14 EnWG, da diese dann aktiviert werden, wenn eine Überlastung der Netze durch regenerative Überspeisung verhindert werden muss. Dazu braucht es eine Kommission, in der tatsächlich Experten zur Versorgungssicherheit zusammenkommen. Die bisherige WSB-Kommission ist dafür fachlich nicht qualifiziert. Ich habe aber wenig Hoffnung für ein Umdenken. Über das Lockmittel „Strukturhilfen“ wird das Thema „Versorgungssicherheit“ völlig ausgeblendet.

Eine große Bedeutung misst der Bericht der Kommission der Lausitzer Hochschullandschaft als Motor des Strukturwandels bei. Teilen Sie diese Ansicht?

Hier sollen die neuen Institute Impulse liefern. Das Fraunhofer und das DLR-Institut werden wohl bis Ende 2019 formal vor Ort sein und dann in zwei bis
drei Jahren hochfahren. Wir können da sicher sehr gut kooperieren. In drei Jahren sollte die Mannschaft pro Institut um die 50 Personen betragen. Mit Blick auf den WSB-Bericht geht es sicher darum, wie eine Hochschule Arbeitsplätze in der Industrie induzieren kann. Bis aus einer Idee eine Fertigung wird, das dauert. Ernsthaften Ersatz für Industriearbeitsplätze
in Größenordnungen allein aus der Hochschule heraus sehe ich als unrealistisch. Da brauchen wir Investoren, für die eine Hochschule, die Ideen und gut qualifizierte Absolventen liefert zwar ein positives Add-on ist. Entscheidungen zu Investitionen in neue Fertigungsstandorte in der Lausitz werden aber nach anderen Kriterien gefällt.

Dennoch erhält die BTU mit den Instituten Rückenwind, gibt es derzeit eine Aufbruchstimmung?

Wir müssen erst einmal schauen, was konkret hinter den neuen Einrichtungen steckt. Fraunhofer muss später Drittmittel einwerben und eigenes Geld verdienen. Da muss man schauen, ob sie in Konkurrenz zu Aktivitäten bestehender BTU-Lehrstühle arbeiten. Da die beiden neuen Institute in
den Bereich der thermischen Energietechnik gehen wollen, können die BTU-Lehrstühle der elektrischen Energietechnik hier sehr gut anknüpfen, der gerade in der Wiederbesetzung befindliche Lehrstuhl für Thermische Energietechnik an der BTU ist allerdings im gleichen Feld wie die neuen
Institute aktiv. Hier kann es zu Überschneidungen kommen.

Sehen Sie die BTU für eine Begleitung des Lausitzer Wandels gut aufgestellt?

Wir haben einen extrem geringen Wert bei wissenschaftlichen Mitarbeitern. Die RWTH Aachen hat meinen Bereich „Energieverteilung und Hochspannungstechnik“ z.B. in zwei Institute mit je sechs wissenschaftlichen und von der Uni bezahlten Mitarbeitern aufgesplittet. Diesen zwölf Wissenschaftlern im Mittelbau stehen bei mir zwei gegenüber, wir reden
also über ein Verhältnis 1:6! Daran merkt man, welchen Vorteil das Rheinische Revier beim Strukturwandel mit der RWTH Aachen gegenüber dem Lausitzer Revier auch in diesem Bereich hat. Wir haben mangels Manpower nicht die Option, viele Anträge vorzubereiten. Gemeinsam mit DRL und Fraunhofer sind Lösungen denkbar, aber auch hier wird es mit dem schmalen Mittelbau schwer.

Welchem Projekt Ihres Lehrstuhls trauen Sie für den Strukturwandel den größten Effekt zu?

Es gibt viele spannende Themen, am Ende geht es aber schlicht darum, für welche wir Geld erhalten. Deshalb machen wir aktuell viel zur Netzintegration Erneuerbarer Energien und Elektromobilität. Ein weiteres Thema ist der BTU Smart Campus. Aber was kann ein Lehrstuhl mit zwei wissenschaftlichen Mitarbeitern für die Lausitz bewegen? Es wäre sicher sinnvoll, den Power System Simulator an meinem Lehrstuhl mit dem LEAG-Kraftwerkstrainer
zu verknüpfen, um so ein singuläres Kompetenzzentrum aufzubauen. Dazu braucht es aber Geld, Zeit und Personal – oder einen externen Partner, der in das Projekt mit einsteigt.

Was müsste sich an der BTU verändern?

Das neue Fraunhofer bzw. DLR-Institut haben je einen Umfang von 50 Mitarbeitern. Dem steht bei uns ein Professor mit zwei wissenschaftlichen Mitarbeitern gegenüber. Viele Planstellen für den wissenschaftlichen
Mittelbau sind hier verschwunden und irgendwo im Stab der Hochschulleitung gelandet. Wenn nun alle oben koordinieren und unten keiner mehr zum Arbeiten da ist, wird das problematisch. Fraunhofer und DLR
marschieren mit 100 Planstellen in einen Bereich, in dem die BTU aktuell zwei Professoren mit jeweils zwei Mitarbeitern einsetzt.

Wir danken für das Gespräch.

EIKE dankt dem Reviertransfer für die Genehmigung, seinen Beitrag ungekürzt auch in unseren News zu bringen.




Deutschland mit Wetter und Deutsch­land im Griff des Klima­wandels

Wetter in Bayern: Der Frühling bleibt, droht eine neue Dürre?

Der Bayerische Staatsfunk nimmt seinen Informationsauftrag fürs Volk ernst und informiert regelmäßig über wichtige Themen, also auch das Klima und dessen stetigem Wandel. In welcher Form und wie „(des-)informativ“ dies (nicht nur beim BR) geschieht, wurde bereits mehrmals berichtet [2] [3] [4] [5] [6] [13].

Nun scheint der BR extra einen Meteorologen mit ausreichender Klima-Alarmstimmung engagiert zu haben, der in der richtigen Form über das Wetter zu berichten weiß. Für den Autor wieder ein Anlass, anhand der gleichen Daten die Darstellungen eines Öffentlich-Rechtlichen Fachmannes und seine laienhaften nebeneinander zu legen:
BR24, 31.03.2019: Wetter in Bayern: [1] Der Frühling bleibt, droht eine neue Dürre?
Das trockene und warme Hochdruckwetter bleibt uns erhalten. BR-Meteorologe Michael Sachweh rechnet mindestens bis Mittwoch mit Sonne und Temperaturen von 14 bis 18 Grad. Es gebe sogar Anzeichen, dass in diesem Jahr eine neuerliche Dürre droht.
Der Wetterbericht sah das mit der „droht eine neue Dürre“ am nächsten Tag wie folgt (Anmerkung: zumindest in Franken regnete es dann allerdings weniger, als im Wetterbericht vorhergesagt):

Bild 1 Wettervorhersage Nürnberg am 01.04.2019

Zur drohenden (Sommer-)Dürre in diesem Jahr weiß auch der FOCUS Neues zu berichten. Vor allem, dass man es nicht weiß, aber vorbeugend schon einmal herrlich darüber fabulieren kann:
[9] FOCUS ONLINE, 03.04.2019:
… Wir haben besonders in den vergangenen zwei Wochen bereits die starken Westwinde zu spüren bekommen, als ein Sturm nach dem anderen von Westen nach Deutschland hereingezogen ist. Ein Blick auf die Wetterstatistiken zeigt, dass in der Vergangenheit der April bei Westströmungen in Nordeuropa zu warm und in Westeuropa etwas zu trocken ausgefallen ist.
In Deutschland bekommen wir ein bisschen von beidem ab: … Dazu wird es etwas weniger regnen als normalerweise.
Wie wird der Sommer?

Bild 2 Screenshots aus dem Videovortag bei FOCUS ONLINE [9]

[9] FOCUS ONLINE, 03.04.2019:
Eine zuverlässige Sommerprognose ist aus heutiger Sicht nicht möglich, da sich bis dahin noch viel ändern kann …
… Auch das Wettergeschehen in Iberien spielt eine Rolle für Deutschland: Hält die Trockenheit dort noch bis in den Mai an, könnte das Hitzewellen bei uns verstärken. Es zeichnet sich ab, dass der Sommer ebenfalls heiß wird, wenn auch nicht ganz so heiß wie der Rekordsommer des vergangenen Jahres. Das Jahr 2019 könnte so ausfallen wie die die Sommer in 2015 und 2017 …

Im Winter hat es weit überdurchschnittlich geregnet, aber eben „nicht so viel wie nötig“

Inzwischen ist jedes Wetter welches sich nicht wunschgemäß verhält, Anlass für mögliche Klimasorgen.
BR24 [1]: Ein unangenehmes Wiedersehen
… Für Michael Sachweh ist es fast wie ein Déjà-Vu. Denn letztes Jahr habe im Frühjahr eine regelrechte Dürre geherrscht. Die Grundwasserpegel sind stark gefallen, die Trockenheit verursachte auch in der Landwirtschaft starke Schäden.
Die Hoffnungen hätten also auf dem Winter geruht, so Sachweh. Aber da habe es nicht so viele Niederschläge gegeben, wie nötig gewesen wären, um die Grundwasserbestände wieder aufzufüllen. Jede Nachricht, dass es nicht regnet, sei also eine schlechte Nachricht, so Sachweh.

Trotz dem „Déjà-Vu“ des „Experten“ weist der DWD allerdings auch für den März die folgenden, weit über dem langjährigen Mittelwert liegenden Niederschlagsmengen aus:

Bild 3 Niederschlag März 2019 Deutschland

Bild 4 Niederschlag März 2019 Bayern

Gerade einmal einen Tag später publizierte der DWD zum Winterniederschlag die folgende Information:
DWD: Winter 2018/19
… Der Winter 2018/19 (meteorologischer Winter: Dezember bis Februar) war zu mild, zu feucht und sehr sonnenscheinreich.
und die Bayerische LWF die folgende zum Grundwasserpegel:

Bild 5 Nordbayerische Nachrichten, lokale Printausgabe vom 01.04.2019. Fotoausschnitt vom Autor

Der Kreisobmann des Bayerischen Bauernverbandes sagte am 08. April einer Zeitung:
… Dass es seit Mitte März keine nennenswerten Regenfälle gibt und die Wasserbilanz in unserer Gegend (Anmerkung: Mittelfranken) seit Februar negativ ist, also weniger Regen fällt … macht mir keine Sorgen. Abgesehen vom trockenen Waldboden gab es im Dezember und Januar genug Niederschläge …
Dem einen ist es demnach nicht genug Regen, dem anderen dagegen zu feucht und wieder andere sind ganz einfach zufrieden. Man lernt daraus, dass es das Wetter wirklich nie allen recht machen kann.

Ergänzend dazu die Winterdaten aus dem DWD-Viewer. Der diesjährige Winterniederschlag lag – wie vom DWD auch berichtet – erheblich über dem Mittelwert, in Bayern sogar fast wieder in der Nähe der Extremwerte (Bild 7)
Man könnte also genau so gut beruhigend berichten: Trotz des ausnahmsweise extrem trockenen Sommers zeigte der Winterniederschlag seine hohe Dynamik auch zur nassen Seite und füllte die fehlenden Wasservorräte erfreulich gut auf.

Bild 6 Winterniederschlag 2018/2019 Deutschland. Quelle: DWD Viewer

Bild 7 Winterniederschlag 2018/2019 Bayern. Quelle: DWD Viewer

Als Rückblende auch der Sommerniederschlag in Langzeitdarstellung. Man sieht, dass der letzte wirklich extrem gering war, aber nicht einmal im Ansatz dazu ein Trend vorliegt. Er belegte lediglich wieder, dass beim Niederschlag extreme Schwankungen schon immer normal waren und gar nicht so selten vorkommen.

Bild 8 Sommerniederschlag seit 1881. Quelle: DWD Viewer

Der März stürmt extrem – sofern man ihn einseitig genug betrachtet

BR24 [1]: Der stürmischste März seit Jahrzehnten
Die Windbilanz der DWD-Wetterstationen belegt: Der März 2019 stellt neue Windrekorde auf, z.B. in Bamberg, Augsburg und München.
Es ist laut Sachweh ein Phänomen, dass Meteorologen schon seit mehreren Jahren beobachteten.
Wenn eine Großwetterlage kommt, dann nistet sie sich deutlich länger ein als früher.
Beispiel Monat März, der von sich abwechselnden Sturmtiefs geprägt war: Es sei der stürmischste März seit vielleicht 30 Jahren gewesen, so der Meteorologe. Die Sturmböen der Tiefs „Bennet“ am 4. und „Eberhard“ am 10. verursachten in Bayern große Schäden. Ebenfalls ein Indiz dafür, dass sich die Wetterlagen lange Zeit nicht mehr abwechselten.

Wieder lohnt es sich, Daten anzusehen. Leider gibt es im DWD-Viewer keine Winddaten, weshalb der Autor solche von den Messstationen der genannten Städte geladen und angesehen hat. Da in der (öffentlichen) DWD-Datenbank keine Daten von Bamberg hinterlegt sind, wurden ersatzweise die vom nahe gelegenen Nürnberg verwendet.

Winddaten Nürnberg

Zuerst die Tagesmittel über das Gesamtjahr seit Beginn der Datenreihe im Jahr 1955 (Bild 9). Man sieht, dass seit 1990 die Extreme abnehmen und der Trendkanal seit ca. 1996 horizontal verläuft.

Bild 9 Nürnberg, gänzjähriges Tagesmittel Wind seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Ähnlich sieht es bei den Tagesmaxima aus.

Bild 10 Nürnberg, Tagesmaximum Wind seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Und nun zum windschlimmen, gerade vergangenem März.
Die Tages-Maximalwerte lagen im seit wenigen Tagen vergangenen März hoch, waren bei Weitem aber nicht über-extrem.
Gleiches gilt für den Tages-Maximalwert und das Tagemittel.

Bild 11 Nürnberg, Tages-Maximalwerte Wind im März seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 12 Nürnberg, Tagesmittel Wind im März seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Wo findet sich nun das vom Wetterfachmann berichtete Extrem?
Dazu die März-Windsummen seit Beginn der Messreihe
Erst diese zeigen einen neuen Extremwert. Woran das liegt, ist ebenfalls ersichtlich. Dieses Jahr könnte die Spitze einer Periodizität erreicht sein. Zeichnet man einen groben Trendkanal, dann sieht man, dass die März-Windsumme seit ca. 1980 darin liegt, wobei sich die Spitzen-Windwerte scheinbar etwas leicht erhöht haben.

Bild 13 Nürnberg, Windsumme März seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Der Wetterfachmann leitet daraus ab:
BR24 [1]: Es sei der stürmischste März seit vielleicht 30 Jahren gewesen, so der Meteorologe.
Der Autor sagt: Die Windextreme scheinen insgesamt mittelfristig leicht abzunehmen. Auf keinen Fall ist eine Zunahme erkennbar. Auffällig ist, dass – wie auch beim Niederschlag – Extreme ohne „Vorboten“ oder Trend erscheinen. Nur in der Monats-Windsumme übertraf der diesjährige März geringfügig das letzte Maximum von 1994. Ob das signifikant ist, darf bezweifelt werden.

Wie geringfügig – fast eher zufällig – der diesjährige März „der stürmischste“ war, zeigt der folgende Ausschnitt ab 1975. Interessant ist dabei: Die Regressionsgerade der März-Windsumme liegt horizontal bis ganz, ganz wenig negativ.
Im folgenden bild zur besseren Übersicht die Windsumme März von Nürnberg etwas gezoomt:

Bild 14 Nürnberg, Windsumme März seit 1975 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Winddaten München und Augsburg

Ähnlich wie bei Nürnberg ist mit München und Augsburg. Wer sich wundert: Die Umwelt-Messreihe München beginnt (mit zwei wechselnden Standorten) im Jahr 1879. Die Winddaten beginnen aber erst mit dem Jahr 1984. Für „Klimafachleute reicht das, um zu erkennen, ob etwas „noch nie so schlimm gewesen war“ oder „immer schlimmer wird“.

Bild 15 München, Tagesmaxima Wind seit 1984 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 16 München, Windsumme März seit 1984 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 17 München, Tages-Maximalwerte März seit 1984 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 18 Augsburg, Tages-Maximalwerte Wind im März seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 19 Augsburg, Tages-Maximalwerte Wind im März seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Hinweis: Am Schluss finden sich dazu noch die interessanten Daten der Langzeitreihe vom Hohenpeissenberg.

Nochmals Niederschlag(-Extreme)

BR24 [1]: Obwohl Bayern mit rund 140 Stunden (Soll: 119 Stunden) ein sonnenscheinreiches Bundesland war, erreichte die Niederschlagsmenge in diesem Monat gut 70 l/m² (Durchschnitt: 62 l/m²). Die stärksten Niederschläge fielen am 15. Einige Flüsse traten dabei über ihre Ufer. Schöfweg im Bayerischen Wald meldete an diesem Tag mit 91 l/m² die bundesweit größte Summe.
Wie alle Untersuchungen (des Autors
[7], aber auch anderer) zeigen, nehmen Niederschlagsextreme nicht zu, bleiben aber weiterhin – wie schon immer – extrem. Deutlich zeigt das der DWD-Viewer. Die diesjährigen 70 l/m2 liegen etwas über dem Mittel und „herrlich“ innerhalb der Spanne. Der Verlauf zeigt, dass der Märzniederschlag in Bayern grob wieder den Wert vom Beginn der Messreihe hat. Von irgendwelchen Extremen ist der Wert weit entfernt. Der Mittelwert hat sich nach zwei deutlichen Ausschlägen sogar ungefähr auf den Wert zu Beginn der Messreihe „gesetzt“, liegt also ebenfalls weit weg vom Trend zu immer schlimmer oder sonst etwas. Das ist bemerkenswert, denn Bayern soll besonders stark vom Klimawandel betroffen sein.

Bild 20 Bayern, Niederschlag März seit 1881. Quelle: DWD Viewer

Wie der Extremniederschlag lokal aussehen kann, zeigt das folgende Bild von Nürnberg. Seit 1955 wurden die Extrem-Niederschlags-Tageswerte niedriger, der Mittelwert verläuft seit dem Beginn der Messreihe in einem horizontalen Trendkanal.

Bild 21 Nürnberg, täglicher Niederschlag seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

München zeigt ein etwas anderes Bild (und wieder die aus heiterem Himmel erscheinenden Extreme). Aber es zeigt ebenfalls, dass die Extremniederschläge keinesfalls zunehmen.

Bild 22 München, täglicher Niederschlag seit 1879 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Fazit
Unser Wetter hat es bei den Fachpersonen der Öffentlich-Rechtlichen genau so „verschissen“, wie der aktuelle US-Präsident. Es kann es einfach nicht richtig machen. Es wird sich aber weigern, „abgewählt“ zu werden und auf unsere, die Staatsfinanzen und weitere ruinierende CO2-Vermeidung, wohlwollend zu reagieren,

Anlage: Daten Hohenpeissenberg

Bayern hat eine der längsten Umweltmessreihen der Welt, die vom Hohenpeissenberg. Daraus die Winddaten, um zu sehen, wie Klima(wandel)Spezialisten erkennen können, ob, wie und welche Wetterphänomene sich gegenüber denen der Urzeiten infolge dem menschenverursachten CO2-Eintrag „unnatürlich“ verändern und dass vor allem Bayern besonders stark vom Klimawandel betroffen ist.
Beim Ansehen der folgenden Windgrafiken wird sich mancher fragen: Wo sind die Langzeitdaten? Die Messreihe beginnt doch mit dem Jahr 1781! Das stimmt, aber Winddaten beginnen darin erst mit dem Jahr 1940 und 1950. Zumindest in dem beim DWD für das Volk hinterlegtem Datensatz.
Um auch mit dieser Station zu zeigen, dass Wetterextreme in Bayern nicht laufend zunehmen, reicht es. Um behaupten zu können, die angeblich furchtbar schnellen Änderungen wären „noch nie dagewesen“ und damit unnatürlich, reicht es bei Weitem nicht.
Dabei ist anzumerken, dass die Grafiken zum Niederschlag oft auch etwas anders aussehen. Dazu sind die Verlaufsbilder sehr stark stationsabhängig, wie die in diesem Artikel und die in anderen Publikationen dazu [10] [11] zeigen.

Bild 23 Hohenpeissenberg, Tagesmaximum Windspitzen seit ca. 1950 bis 31.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 24 Hohenpeissenberg, Tagesmittel Wind seit ca. 1940 bis 31.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 25 Hohenpeissenberg, Monatssumme März seit ca. 1950 bis 31.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Niederschlag

Bei Niederschlags-Extremen ist es extrem schwierig, Trends zu erkennen. Das liegt einmal daran, dass er wohl die extremsten Streuungen hat, Extremwerte sehr oft „aus heiterem Himmel“ ohne irgend einen Hinweis-Trend kommen und Extreme in der Regel nur auf eng begrenztem Gebiet fallen. Der Zeitraum von 100 Jahren ist damit zur Erkennung oder Ableitung eines Trends mit Sicherheit nicht ausreichend.
Da die Stations-Flächenabdeckungen früher viel geringer waren, wurden früher mit Sicherheit auch weniger Extremniederschläge erfasst als mit dem heutigen Messnetz.

Wie stark der Extremniederschlag vom Messstandort abhängt, zeigen die folgenden Bilder, die alle unterschiedliche Verläufe zeigen. In vielen Details nachlesen lässt es sich bei [7] [10] [11]. Wie über-extrem Niederschlag sein kann, zeigt das Beispiel aus der Namib-Wüste [12] (vor dem Industriezeitalter).
Den deutschlandweiten Extremregen von 1926 (Zeitungsausschnitt von damals, Bild 29) zeigt Nürnberg nicht, weil es diese Zeit nicht erfasst; die Station Hohenpeissenberg zeigt nichts davon, aber die Station Magdeburg zeigt es wie ein Menetekel (mehr Details dazu in [10] ).

Bild 26 Hohenpeissenberg, Täglicher Niederschlag seit ca. 1871 bis 31.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 27 (21) Nürnberg, täglicher Niederschlag seit 1955 bis 30.03.2019. Quelle: DWD, Grafik daraus vom Autor erstellt

Bild 28 Tagesniederschlag Magdeburg (DWD-Station 3126). Grafik vom Autor anhand der Daten erstellt. [10]

Bild 29 Zeitungsausschnitt von 1926 mit Bericht über das Starkregenereignis (im Bild 28 gekennzeichnet) [10]

Es ist erschütternd, wie auf solch widersprüchlichen Berichte und Daten, sowie einer solch schlechten Datenqualität der fremdgesteuerte Politikzirkus in Berlin hemmungslos ihre Klimahysterie schürt und nun noch behauptet, die protestierenden Schüler*innen und Kinder bis fast zum Kindergartenalter wären Beleg dazu.
Unsere Umweltministerin –an Inkompetenz zum Fach nahtlos an ihre Vorgängerin anknüpfend – ist inzwischen als ältliche „jean d’arc“ des entrechteten Klimas mutiert: [14] Es geht um nichts Weiteres als um die Rettung der Welt …
wobei sich ihr „Wissen“ –wie man im Artikel deutlich erkennen kann – einzig darauf beschränkt: CO = Klimagift und muss koste, was es wolle und ohne erlaubte Zweifel verhindert werden.
Für solche „Weltretter“ (mit dem Geld der Bürger) ist es eben eine Zumutung, Informatives wie zum Beispiel:
[15] EIKE 11. April 2019: Die Kleine Eiszeit – zurück in die Zukunft
zu lesen, um etwas über die verheerenden Auswirkungen des bis vor Kurzem zu kalten Klimas zu erfahren.

Quellen

[1] BR24, 31.03.2019: Wetter in Bayern: Der Frühling bleibt, droht eine neue Dürre?

[2] EIKE 7. März 2018: Flashcrash Klimaalarm. Wer Klimaalarm posaunt, bekommt immer recht (Teil 2 und Abschluss)

[3] EIKE 24.05.2016: Wie der Bayerische Rundfunk auf die Überschrift einer Pressemitteilung der Munich Re hereinfällt

[4] EIKE 12.06.2017: Fake News: Zuerst der SWR, nun der BR: Ein Südseeparadies versinkt im Meer. Öffentlich-Rechtliche Klimawandel-Agitation in Endlosschleife

[5] EIKE 27. April 2018: SOS Südsee – Der Ozean steigt nicht übernatürlich, dafür umso stärker die Propaganda in der öffentlich-rechtlichen Berichterstattung (Teil 2)

[6] EIKE 11. August 2017: ARTE-Film zum Senegal: Eine Insel versinkt – und mit ihr (wieder) jegliche Glaubwürdigkeit der Klimawandel-Berichterstattung

[7] EIKE 12.08.2017: Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels

[9] FOCUS ONLINE, 03.04.2019: Dürre-Prognose vom Weather Channel Meteorologin erklärt, ob ein neuer Hitze-Sommer Deutschland austrocknet

[10] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)

[11] EIKE 12.08.2017: Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels

[12] EIKE 14.10.2015: Der Klimawandel bedroht die Wüste Namib – glaubt Deutschlandradio Kultur

[13] EIKE 10.04.2016 : Nachgefragt: BR Programm 14.3.2016, Sendung: „Jetzt mal ehrlich Verstrahltes Bayern: Wie viel Wahrheit ist uns zumutbar?

[14] Deutschlandfunk: Umweltministerin Svenja Schulze (SPD)„Zeit für Symbole in der Klimaschutzpolitik ist vorbei“

[15] EIKE 11. April 2019: Die Kleine Eiszeit – zurück in die Zukunft




Experimen­telle Unter­suchung der IR-Strahlung von den Gasen CO2 und Butan/Propan im Labor und Feld­versuch

Die grundsätzlichen Fragestellungen dieser Forschung sind: Kann ein Treibhausgas die Temperatur eines Körpers durch eine dabei auftretende Gegenstrahlung erhöhen?

Ist es möglich, dass es eine Sättigungsgrenze der Treibhausgaskonzentrationen gibt, bei der keine weitere Steigerung der Gegenstrahlungseffekte mehr eintreten? Ist diese Sättigungsgrenze bei CO2 in der Atmosphäre bereits erreicht?

Die hier vorgestellten Experimente sind nur ein erster Schritt und sollen ausschließlich einem grundlegenden Wissensgewinn dienen.

Bei den Versuchen wurde das Prinzip der Vordergrund- und Hintergrundstrahlung zugrunde gelegt (M. Schnell, Experimentelle-Verifikation-des-Treibhauseffektes hier).

Nach diesem Prinzip kann eine Hintergrundstrahlung die Wirkung einer

Vordergrundstrahlung vollständig überlagern, wenn beide die gleichen Wellenlängen nutzen und hier die gleiche Strahlungsdichte besitzen. Aus diesem Grunde sind Messungen des Treibhauseffektes nur vor einem kälteren Hintergrund möglich. Deswegen hatten die untersuchten Gase eine höhere Temperatur als der Hintergrund, der durch eine Eiswasserschale bzw. einen wolkenfreien Himmel gebildet wurde.

Hatten bei Kontrollversuchen Gas und Hintergrund die gleiche Temperatur, wurde auch tatsächlich kein messbarer Effekt festgestellt.

Der Messsensor

Um festzustellen, ob ein Körper durch ein Treibhausgas erwärmt wird, musste ein Messsensor entwickelt werden, welcher nur auf Strahlungseffekte reagiert. Umwelteinflüsse bzw. Wärmetransporte anderer Art, mussten möglichst verhindert werden. Gleichzeitig wurde ein Sensor-Aufbau angestrebt, welcher auch im Feldversuch möglichst genaue Aufzeichnungen liefert, um vergleichbare Ergebnisse, mit dem Laborversuch, zu erzielen.

Abbildung 1 Messsensor

Als abstrahlender Körper im Messsensor wurde ein einseitig schwarz beschichtetes Cu-Plättchen gefertigt. Die geringe Wandstärke von 1 mm mit gleichzeitig guter Wärmeleitfähigkeit des Materials, wirkt sich positiv auf schnelle Reaktionszeiten aus (< 10 Sek.). Dieses Plättchen wurde mit einer Klammer und Wärmeleitpaste zusätzlich mit einem Gleichstrom Heizelement (Vollkeramisches Heizelement aus Siliziumnitrid Typ Hi, 7,5 Ohm bei Raumtemperatur) verbunden. Dieses Heizelement wurde jedoch bei den hier vorgestellten Versuchen noch nicht in Betrieb genommen und soll erst bei zukünftigen Experimenten verwendet werden.

Damit der abstrahlende Körper möglichst nur in die gewünschte Richtung (zum IR Fenster) strahlt, wurde die Rückseite des Cu-Körpers poliert. Ein verchromtes Messingteil, sowie die verspiegelte Innenseite des Druckgehäuses verhindern weitgehend Abstrahlung in die falsche Richtung.

Damit die Temperatur des Cu-Plättchens ermittelt werden kann, wurde auf der Rückseite ein poliertes Messingröhrchen aufgelötet. Dieses wird als Einschub für den Messstab des elektronischen Thermometers verwendet und mit einer Wärmeleitpaste gefüllt.

Abbildung 2 Beschichtetes Cu Plättchen

Der gesamte Messsensor wird für den Messbetrieb evakuiert. Damit ist Konvektion im Messsensor verhindert, als auch der Einfluss der Wärmeleitfähigkeiten der gemessenen Gase. Für die Temperaturerfassung kam ein Handmessgerät XP100 von Lufft® mit dem Temperaturfühler PT100 zum Einsatz.

Der Versuchsaufbau im Laborbetrieb/Funktionsprinzip

Abbildung 3 Laborbetrieb des Messsensors im Schema und Fotografie

Der Messsensor wird für den Laborbetrieb, mittels Dichtung, gasdicht auf ein poliertes Edelstahlrohr fixiert. Das Edelstahlrohr wird auf der anderen Öffnung in ein Gefäß mit Eiswasser getaucht, um es ebenso gasdicht zu verschließen.

Durch das IR Fenster hat der abstrahlende Körper im Messsensor nun eine optische Verbindung mit den Eiswürfeln im Eiswasser (Eis absorbiert nahezu 100% der Infrarotstrahlung und bleibt im Wasser konstant bei 0 °C).

Das Edelstahlrohr (Durchmesser 120 mm x 500 mm) hat zwei seitliche, verschließbare Öffnungen. Diese dienen zur Befüllung des Rohres mit einem Gas (Entlüftungs- und Befüllstutzen). Die polierte Oberfläche des Rohres hat einen hohen Reflektionsgrad und damit absorptionsarme Eigenschaften.

Mit diesem Aufbau können Infrarot aktive Gase geprüft werden, in wie weit diese, den Strahlungsfluss beeinflussen können

Abbildung 4 Reaktion des Messsensors auf Eisoberfläche

Wie in der Abbildung 4 zu sehen ist, stellt sich nach dem Platzieren des Eiswassers ein niedrigeres Temperaturniveau des Messsensors ein.

Diese Abkühlung wird durch IR-Abstrahlung verursacht, bis sich ein Gleichgewicht zwischen IR-Strahlung und Wärmezufuhr aus der unmittelbaren Umgebung eingestellt hat.

Messergebnisse des Versuchsaufbaus im Laborbetrieb

Messergebnisse Argon

Um festzustellen, ob die Änderung der Wärmeleitfähigkeit der eingelassenen Gase einen Einfluss auf den Messsensor hat, wurde Argon als nicht IR aktives Gas verwendet.

Bei der Messung mit Argon wurde kein Einfluss auf den Verlauf der Temperaturkurve festgestellt. Es ist davon auszugehen, dass der Messsensor nicht von unterschiedlichen Wärmeleitfähigkeiten der Prüf-Gase beeinflusst wird.

Messergebnisse CO2

Bei der Messung von CO2 regierte der Messsensor durch eine unmittelbare Reaktion

auf das Einlassen des Kohlendioxids, die Abkühlung des Sensors wurde deutlich beeinflusst.

Abbildung 5 Reaktion Messsensor auf Kohlendioxid im Laborversuch

Wie in Abbildung 5 zu erkennen ist, war die Temperatur des Messsensors noch in einem deutlichen Abwärtstrend. Dieser kehrte sich augenblicklich nach dem Einleiten von 0,75 L CO2 in einen positiven um.

Messergebnisse Propan/Butan

In Abbildung 6 ist zu sehen, dass sich der Messsensor beim Einlassen von 0,75 L Propan/Butan noch stärker als beim CO2 erwärmt.

Abbildung 6 Reaktion Messsensor auf Butan/Propan im Laborversuch

Nachdem das Propan/Butan wieder aus der Messröhre durch Spülen mit Luft entfernt wurde, trat wieder eine Abkühlung des Sensors, mit der bereits bekannten Abkühlungsrate, ein.

Diskussion der Ergebnisse:

Es konnte demonstriert werden, dass die IR-aktiven Gase die Temperatur des Sensors messbar beeinflussen können. Die Wirksamkeit einer Gegenstrahlung wurde damit nachgewiesen.

Die untersuchten Gase wurden vor dem Einlassen auf die gleiche Temperatur wie die Röhre erwärmt und ohne große Druckdifferenz (< 2 Pa) in das Prüfrohr eingelassen.

Gegenprobe mit IR-Kamera

Um die erhaltenen Ergebnisse mit einem anderen Messverfahren zu überprüfen, wurden die Strahlungen der untersuchten Gase mit der Wärmebildkamera der Firma Testo detektiert und auch der Versuchsaufbau variiert.

Hierbei wird die mit dem Messsensor der Testo-Kamera empfangene IR-Strahlung in eine fiktive Temperatur umgerechnet.

Verwendetes Gerät: Testo 872, Thermografie Kamera 320 x 240 Pixel, 60mK

IR Kamera Laborversuch

Abbildung 7 IR Kamera Laborversuch im Schema und Photographie

Bei dem Einsatz der IR-Kamera im Laborversuch blickt diese durch ein verspiegeltes gasdichtes Rohr auf den Boden mit Eiswasser und misst aus dieser Position die Temperatur des Eiswassers.

Wird nun ein Gas in die Versuchsanordnung eingelassen, kann nun direkt an der IR-Kamera

abgelesen werden, ob das zu prüfende Gas, die in den Messsensor gelangende IR-Strahlung, verstärkt, abschwächt oder unverändert lässt.

Messergebnisse des Versuchsaufbaus im Laborbetrieb

Messergebnisse Kohlendioxid:

Abbildung 8 Reaktion der IR Kamera auf Kohlendioxid im Laborversuch / T1= -3,1 °C T2= -0,2 °C

Die Kamera gibt für das Eiswasser ohne IR-Gase eine Temperatur von -3,1 °C an. Da die Kamera nicht geeicht werden kann und ohnehin nur die Veränderung von Interesse ist, wird dieser Wert als Startwert genommen.

Die Temperatur der Eiswasseroberfläche stieg nach Einlassen von 0,75 L Kohlendioxid unmittelbar von -3,1 °C auf -0,2 °C; also ein Temperaturanstieg von 2,9 Kelvin.

Messergebnisse Propan/Butan:

Abbildung 9 Reaktion der IR Kamera auf Propan/Butan im Laborversuch T1= -1,5 °C T2= 3,0 °C

Die angezeigte Temperatur der Eiswasseroberfläche stieg nach Einlassen von 0,75 L Propan/Butan unmittelbar von -1,5 °C auf 3 °C; also ein Temperaturanstieg von 4,5 Kelvin.

Diskussion der Ergebnisse:

Es konnte demonstriert werden, dass die IR-aktiven Gase den Strahlungsfluss messbar beeinflussen können.

Die verwendete IR-Kamera ist also in der Lage, Veränderungen der Strahlungsintensitäten welche durch die untersuchten Gase verursacht werden zu detektieren.

Auch hier wurden die untersuchten Gase vor dem Einlassen auf die gleiche Temperatur wie die Röhre erwärmt und ohne große Druckdifferenz (< 2 Pa) in das Prüfrohr eingelassen.

Der Versuchsaufbau im Feldversuch/Funktionsprinzip

Um den Ansatz der Vorder- und Hintergrundstrahler weiter zu verfolgen, wurde nach den Laborversuchen der klare Nachthimmel anstatt der Eiswürfel als „Hintergrundstrahler“ herangezogen.

Die Versuche wurden bei 20 °C auf 800 m Seehöhe und ca. 75% rel. Luftfeuchte durchgeführt.

Abbildung 10 Feldbetrieb des Messsensors im Schema und Fotographie

Der Messsensor wird für den Feldversuch, mittels Dichtung, gasdicht auf ein poliertes Edelstahlrohr fixiert. Die Messöffnung blickt nach oben. Das am oberen Ende offene Edelstahlrohr wird nahezu senkrecht dem klaren Himmel entgegen gerichtet. Dabei darf kein Objekt der Umgebung höher als das Edelstahlrohr sein, da sonst IR Strahlung aus der Umgebung in das Edelstahlrohr eingestrahlt wird. Die Messungen werden bei Dunkelheit durchgeführt, um eine Bestrahlung durch die Sonne auszuschließen.

Durch die polierte Oberfläche des Rohres (hoher Reflektionsgrad) hat der abstrahlende Körper im Messsensor nun eine optische Verbindung mit dem Himmel.

Das Edelstahlrohr hat zwei seitliche, verschließbare Öffnungen. Diese dienen zur Befüllung des Rohres mit einem Gas. Mit diesem Aufbau kann somit geprüft werden, ob eine zusätzliche Menge an IR-aktiven Gasen die Gegenstrahlung erhöht und die Abkühlungsrate des Sensors beeinflusst

Um möglichst den Gasverlust an die Umgebung durch das offene Rohr zu minimieren,

kann eine Rohrverlängerung eingesetzt werden. Ebenso sollten nur Prüf-Gase verwendet werden, die deutlich schwerer als die Umgebungsluft sind.

Messergebnisse CO2

Abbildung 11 Reaktion des Messsensors im Feldbetrieb auf Kohlendioxid 3.8.2018 / 23:02 + 23:06

Wie in Abbildung 11 zu sehen, konnte keinerlei Beeinflussung des Temperaturverlaufes durch Einlassen von 0,75 L Kohlendioxid in das Messrohr festgestellt werden, auch ein nochmaliges Einlassen von weiteren 0,75 L Kohlendioxid brachte keinerlei Beeinflussung des Messsensors.

Messergebnisse Propan/Butan

Abbildung 12 Reaktion des Messsensors im Feldbetrieb auf Butan/Propan 3.8.2018 / 23:13

Später, aber im selben Messzyklus, wurde auch Propan/Butan in das Messrohr eingelassen, siehe Abbildung 12.

Unmittelbar nach dem Einlassen von 0,75 L Propan/Butan wurde der Temperaturverlauf messbar beeinflusst.

Diskussion der Ergebnisse

Bei diesem Feldversuch konnte, im Gegensatz zum Laborversuch, keinerlei Reaktion des Messsensors auf das Einlassen von Kohlendioxid in das Prüf-Rohr beobachtet werden.

Bei Propan/Butan erfolgte unmittelbar nach ihrer Zugabe, sowohl im Laborversuch als auch im Feldversuch, eine Erwärmung des Sensors.

Weitergehende Erläuterungen der unterschiedlichen Reaktionen der IR-Gase finden sich im Kapitel „IR Kamera Feldversuch“.

Bild: Joujou  / pixelio.de

IR Kamera Feldversuch

Abbildung 13 IR Kamera Feldversuch im Schema und Photographie

Bei dem Einsatz der IR-Kamera im Feldversuch blickt diese durch ein verspiegeltes gasdichtes Rohr direkt in den wolkenfreien Nachthimmel. Die Erd- Atmosphäre strahlt gemäß ihrer Gaseigenschaften und Temperatur in die IR-Kamera und diese ordnet der (Gegen)Strahlung eine Temperatur zu.

Wird nun ein Prüf-Gas in die Versuchsanordnung eingelassen, kann nun direkt an der IR-Kamera abgelesen werden, ob das zu prüfende Gas, die in den Messsensor gelangende IR-Strahlung (in diesem Fall die atmosphärische Gegenstrahlung), verstärkt, abschwächt oder unverändert lässt.

Messergebnisse des Versuchsaufbaus im Feldversuch

Messergebnisse Kohlendioxid:

Abbildung 14 Reaktion der IR Kamera im Feldversuch auf Kohlendioxid: T1= -35,8 °C, T2= -35,7 °C

Beim Einlassen von 0,75 L Kohlendioxid wurde keine signifikante Änderung der Temperatur festgestellt. Der angezeigte Unterschied von 0,1 K liegt innerhalb der Messgenauigkeit der IR-Kamera.

Messergebnisse Propan/Butan:

Abbildung 15 Reaktion der IR Kamera im Feldversuch auf Propan/Butan: T1= -36,5 °C, T2 = -19,4 °C

Nach Einlassen von 0,75 L Propan/Butan-Gases wurde ein Temperaturanstieg von rund 17 Kelvin festgestellt!

Diskussion der Ergebnisse:

Propan/Butan sind nur in sehr kleinen Spuren in der Atmosphäre vorhanden und Ihre Absorptionsbanden sind bei rund 3 bzw. 7 µm teilweise von der Wasserdampf-Strahlung und vom atmosphärischen Fenster (8 – 13 µm) betroffen. Die Hintergrundstrahlung des wolkenfreien Himmels kann die Strahlung von Propan/Butan nicht vollständig überlagern. Die Strahlung des viel wärmeren Propan/Butans in der Röhre verursachte deswegen einen deutlichen Erwärmungseffekt bzw. eine Zunahme der Gegenstrahlung.

CO2 ist mit 400 ppm ein relevanter Bestandteil der Atmosphäre. Da seine Strahlung schon nach wenigen 100 m gesättigt ist (Lit. M. Schnell, siehe Einleitung), hat das atmosphärische CO2 auch keinen signifikanten Temperatur-Nachteil gegenüber dem CO2 in der Röhre. Die atmosphärische CO2-Strahlung überlagert hier vollständig die CO2-Strahlung in der Röhre, so dass eine Temperatur-Erhöhung nicht feststellbar war.

Die beiden Versuche mit den IR-aktiven Gasen CO2 und Propan/Butan sind eine experimentelle Bestätigung des Prinzips der Vorder- und Hintergrundstrahlung.

Drüber hinaus sollte mit den CO2-Versuchen auch der Frage nachgegangen werden, ob die atmosphärische CO2-Strahlung bei einer Konzentration von 400 ppm bereits gesättigt ist. Die Ergebnisse sprechen für diese Aussage, allerdings muss man auch die einfache Versuchsdurchführung und die geringe Empfindlichkeit der Detektoren berücksichtigen. Es kann nicht ausgeschlossen werden, dass der Nachweis eines geringen CO2-Effektes an begrenzten Möglichkeiten der Messsysteme gescheitert ist.

Geplante Versuchsreihen:

Die Feldversuche wurden bis dato in Sommernächten durchgeführt, welche eine feuchte Luft aufwiesen (75% relative Luftfeuchtigkeit). Daher sind nun im Winter klare und trockene Nächte für weitere Versuchsreihen angestrebt.

Ebenso wird in der laufenden Arbeit die Sensitivität des Messsensors überprüft, da eine Detektion der Gegenstrahlung im sehr kleinen Leistungsbereich liegt.

Als weiteres „Treibhausgas“ soll auch Methan untersucht werden.