Die Nachtspeicherheizung

Elektrisch heizen ist eine bequeme Sache. Man spart den Schornstein, den Öltank, den Platz für die Gastherme oder das Wärmepumpenaggregat. Ein Knopfdruck oder ein Befehl der Automatik sorgen völlig geräusch-, wartungs- und emissionsfrei für angenehme Wärme.
In den 1960er Jahren verbreitete sich die Nachtspeicherheizung als moderne Heizungsvariante und verdrängte einen Teil der Kohleöfen, später nach der Ölkrise 1973 zunehmend auch Ölkessel. Der Ausbau der Kernenergie schien zu garantieren, dass es dauerhaft billigen Strom geben werde. Zudem existierte im alten Energieversorgungssystem ein deutlicher Verbrauchsunterschied von Tag und Nacht. Im Vergleich zu heute arbeitete ein geringerer Teil der Industrie im 24/7-Betrieb. Zudem waren die Kraftwerke schlechter regelfähig als heute.
Das Prinzip der Elektroheizung ist denkbar einfach. Gewendelte Heizdrähte bilden einen ohmschen Widerstand, der den Strom zu 100 Prozent in Wärme umsetzt. Diese heizt einen oft aus Keramik bestehenden Speicherkörper auf und sorgt für eine Wärmespeicherung über die Zeiten, in denen kein preisgünstiger Heizstrom zur Verfügung steht. Eine andere Variante sind Infrarot-Heizgeräte. Moderne Elektroheizungen haben mitdenkende Automatiken. Sie merken sich den Verbrauch vom Vortag und speichern nach Abfrage des Außentemperaturgebers nur so viel Wärme ein, wie vermutlich gebraucht werden wird. Reicht das nicht aus, wird kurzfristig zum Lichtstromtarif zugeheizt.
In den Anfangszeiten der sechziger und siebziger Jahre war die Nachtspeicherheizung auch preislich konkurrenzfähig. Den Strom gab es nachts schön billig und CO2war halt Lebensbaustein, Löschmittel und in Getränken drin. Heute zahlt man 18 bis 22 Cent für die Kilowattstunde Heizstrom, es gibt nur wenige überregionale Anbieter. Die Umrüstung auf kostengünstigere Wärmequellen ist eher schwierig, denn viele Häuser wurden mit der E-Heizung projektiert und haben keine Schornsteine und Wasserumlaufsysteme mit Heizkörpern. Speziell bei Mehrfamilienhäusern fällt die Umrüstung aus Kostengründen meist aus.
Nicht nur durch die heftig gestiegenen Strompreise bekam die Nachtspeicherheizung einen schlechten Ruf. In der heutigen CO2-zentrierten Weltsicht erweist sich der energetische Umweg Brennstoff -> Wärme -> Strom -> Wärme gegenüber Brennstoff -> Wärme nicht nur als teurer, sondern vor allem als emissionsreicher. Zudem richtete sich die öffentliche Diskussion zunehmend darauf, dass die Nachtspeicherheizungen vor allem für die Erzeuger, also die großen und bösen Stromkonzerne, von Vorteil sind.
So trat am 1. Oktober 2009 die Energieeinsparverordnung (EnEV 2009) in Kraft, die eine schrittweise Außerbetriebnahme von elektrischen Speicherheizsystemen vorsah. Danach durften Nachtstromspeicherheizungen, die vor 1990 in Wohngebäude mit mehr als fünf Wohneinheiten eingebaut wurden, nur noch bis Ende 2019 betrieben werden. Später eingebaute Nachtstromspeicherheizungen durften noch bis zum Ablauf von 30 Jahren nach Einbau betrieben werden. Die Pflicht zur Umstellung entfiel, wenn das Gebäude die Anforderungen der Wärmeschutzverordnung vom August 1994 einhält.

Vorwärts zurück

Obwohl das Verbot der EnEV 2009 nur einen kleinen Teil der Nachtspeicherheizungen betraf, beschloss der Bundestag im Jahr 2013, es wieder außer Kraft zu setzen. Der betreffende § 10a EnEV, der die Außerbetriebnahme von Nachtspeicherheizungen regelte, wurde wieder aufgehoben. Spielen die höheren Emissionen plötzlich keine Rolle mehr? Immerhin steht eine Elektroheizung für etwa 600 Gramm CO2pro Kilowattstunde, entsprechend dem deutschen Strommix. Ein erdgasgefeuerter Brennwertkessel emittiert weniger als die Hälfte. Aus klimapolitischer Sicht ist „Power to heat“ (P2H) also kontraproduktiv. Die als Sektorkopplung bezeichnete Ausweitung der Elektrizität auf Wärme und Verkehr dürfte den jetzigen Strombedarf verdoppeln bis verdreifachen.
Genau das ist das Ziel der Ökolobby. Die jetzige Stromversorgung und die Möglichkeiten der verbraucherfernen Einspeisung geraten an Grenzen. Indem neue Stromverbraucher planwirtschaftlich generiert werden, zum Beispiel eine Million E-Mobile, verdrängt man die bisher für Transport und zur Wärmegewinnung genutzten Brennstoffe. Das sorgt das für die Absatzsicherung Zufallsstrom erzeugender Anlagen.
Diese mit Vehemenz betriebene Initiative zur Sektorkopplung indoktrinierte die Politik erfolgreich. Es herrscht der Aberglaube, die Umstellung von Wärme- und Verkehrssektor auf Elektrizität sei kostengünstig möglich, da künftig Unmengen von Strom fast zum Nulltarif aus Wind und Sonne zu erhalten seien. Insbesondere Erzeugungsspitzen, die heute zum Abregeln auch der regenerativen Anlagen führen, seien damit gut nutzbar.
Das ist ein Holzweg. Die These vom reichlich verfügbaren billigen Strom ist Wunschdenken und von keinerlei Fakten gedeckt. Zeitweise Erzeugungsspitzen durch atlantische Tiefausläufer können keine Versorgung mit Strom, Wärme und Mobilität sichern. Der Rückgang der gesicherten Stromproduktion stellt sich nach Erhebungen des BDEW (Bundesverband der Energie- und Wasserwirtschaft e.V.) so dar:
Eine Jahreshöchstlast von über 80 Gigawatt wird schon ab 2023 schwerlich ohne Importe abgesichert werden können. Das Maß erwarteter Überschüsse aus Wind- und Sonnenkraft ist unklar und in jedem Fall nur temporär. Heizen und Fahren erfordert aber Energie zu jeder Zeit. Damit bleiben nur zwei Optionen:
Entweder die P2H-Anlagen haben nur begrenzte Betriebsstunden und müssen durch andere, herkömmliche Systeme ergänzt werden oder sie beziehen ihren Strom auch aus konventionellen Quellen. Die erste Variante wäre teuer, die zweite würde die konventionelle Erzeugung stabilisieren und sogar seinen Ausbau auf bis zu 100 Gigawatt erfordern (siehe hier).
 
P2H würde Sinn machen bei einem hohen Anteil CO2-armer, stabiler und kostengünstiger Erzeugung, die aber durch den weiteren Zubau volatiler Anlagen nicht erreichbar ist.
 
Während Deutschland seinen Strombedarf zum völlig falschen Zeitpunkt hochtreibt,  bemüht sich die EU, ihn zu senken. Dabei dreht sie am ganz großen Rad und kümmert sich – um Staubsauger. Seit September 2017 gilt die Öko-Design-Verordnung 666/2014. Danach darf die Stromaufnahme von neuen Geräten 900 Watt nicht mehr überschreiten. In einem Normalhaushalt ist vermutlich eine halbe Stunde Staubsaugen pro Woche (zweimal „Tagesschau“ hintereinander!) schon reichlich angesetzt. Die Einsparung gegenüber einem Altgerät mit 1600 Watt übers Jahr ist lächerlich angesichts der Strommengen, die in Deutschland durch P2H verbraten werden sollen.
Die Verordnung schuf zunächst Arbeit für den Europäischen Gerichtshof (EuGH). Strittig war die Frage, ob die zulässige Stromaufnahme nur bei sauberem Staubfangbeutel erreicht werden muss und dann mit weiterem Beutelfüllstand ansteigen darf und damit die Vorgabe dennoch erfüllt wird. Die Firma Dyson bietet hingegen beutellose Geräte an, deren Leistungsaufnahme weitgehend konstant ist. Dyson prozessierte gegen die vermeintliche Bevorteilung der herkömmlichen Geräte mit Staubbeutel wie bei den Produkten von BSH (Bosch-Siemens-Hausgeräte) – und verlor.
Mit Spannung sehen wir den nächsten Öko-Design-Richtlinien entgegen.
 
So sparen wir Strom beim Staubsaugen und verschwenden ihn beim Heizen. Elektrizität ist die edelste Form der Energie. Sie ist universell einsetzbar und die unverzichtbare Grundlage von Digitalisierung und Industrie 4.0. Wenn sie auf Niedertemperaturwärme reduziert wird, kommt das einer Degradierung gleich. Stefan Fassbinder formuliert es so: „Mit Strom heizen ist, wie Möbel verbrennen, die man nicht verkaufen kann. Aber warum stellt man dann die Möbel erst her?“




ACHGUT Seite auf Facebook behindert

Mitteilung zu Achgut.com auf Facebook

Seit heute Vormittag treten erhebliche Probleme bei der Verwaltung unserer Facebook-Präsenz auf. Beiträge, welche externe Links enthalten, können nicht mehr auf der Facebook-Seite der Achse des Guten gepostet werden oder werden nach wenigen Minuten gelöscht. Wir können Sie daher auf Facebook leider nicht mehr auf unsere aktuellen Artikel und Fundstücke hinweisen.
Eine Begründung hat Facebook nicht angegeben. Wir prüfen derzeit rechtliche Schritte.
Bei Twitter (@Achgut_com) gibt es keine Einschränkungen.
Sie können diese Information gerne in den sozialen Medien weiterverbreiten.
Social Media Redaktion
Achgut.com




Zwischenbilanz: Was ist aus den Thesen der kalten Sonne geworden?

1) KLIMAWIRKUNG DER SONNE: Im Buch wird eine Vielzahl von gut dokumentierten Fallstudien aufgearbeitet, die eine deutliche Klimawirkung der Sonne auf Temperatur und Niederschläge beschreiben. Dies steht im krassen Gegensatz zum IPCC-Ansatz in den Klimamodellen, der einen fast vernachlässigbar geringen Einfluss der Sonne auf das Klima in seinen Berechnungen zugrundelegt. Ganz offensichtlich klaffen hier die rekonstruierte Klimageschichte und theoretische Klimamodellwelt krass auseinander. Seit Erscheinen des Buches ist eine große Anzahl weiterer begutachteter Fachpublikationen erschienen, die eine starke solare Beeinflussung des Klimas feststellten. Übersichten auf Google Scholar, Scopus, Maarten Blaauw. Die im Buch identifizierte Diskrepanz besteht weiterhin und gefährdet die Akzeptanz der Klimamodellierungsergebnisse.
2) OZEANZYKLEN: Im Buch wird der systematische Einfluss der 60-jährigen atlantischen und pazifischen Ozeanzyklen (AMO, NAO, PDO) auf das Klima beschrieben und in den Kontext der globalen Temperaturentwicklung der letzten 150 Jahre gesetzt. Während führende Modellierer sie zur Zeit der Buchveröffentlichung noch als unwichtiges Rauschen abtaten, haben die Ozeanzyklen in den letzten Jahren einen regelrechten Durchbruch in der Fachwelt erlebt. Die kühlenden und wärmenden Halbphasen der Ozeanzyklen sind nun anerkannte Klimafaktoren und werden jetzt sogar in vielen Mittelfristprognosen berücksichtigt (siehe z.B. Tung & Zhou 2013, Gervais 2016, Seidov et al. 2017). Die gebremste Erwärmung der letzten anderthalb Jahrzehnte ist Teil dieser Zyklik.
3) MITTELALTERLICHE WÄRMEPERIODE: Vor 1000 Jahren ereignete sich in vielen Teilen der Erde eine natürliche Wärmephase, die mit einer erhöhten Sonnenaktivität zusammenfiel. Klimamodelle können die Warmphase nicht reproduzieren, was nicht verwundert, denn der einzige aktive Wärmetreiber in den Modellen – das CO2 – war weitgehend konstant in den letzten 10.000 Jahren der vorindustriellen Zeit. Um verlässliche Zukunftsprognosen abzugeben, müssen Modelle jedoch zwingend die bekannte Vergangenheit abbilden können, ansonsten ist auch die Qualität ihrer Klimaprognosen fraglich. Der IPCC hat den im Buch bemängelten schwerwiegenden Modellierungsfehlschlag mittlerweile in seinem neuesten Klimazustandsbericht eingeräumt, wenn auch versteckt auf Seite 414 in Kapitel 5.3.5 (Arbeitsgruppe 1). Eine Erwähnung des schweren Mangels in der Zusammenfassung für Politiker unterblieb jedoch, so dass die Erkenntnis der großen Öffentlichkeit verborgen blieb. Die mangelnde Transparenz seitens des IPCC im Umgang mit unbequemen Resultaten verwundert ein ums andere Mal.
4) AEROSOL-JOKER: Im Buch wird die fragwürdige „Joker-Rolle“ der Schwefeldioxid-Schwebstoffe (SO2) in den Klimamodellen kritisiert. Als vor einigen Jahren bekannt wurde, dass der Ruß viel stärker wärmt als vormals angenommen, wurde die plötzlich überschüssige Wärme in den Modellen einfach über das kühlende SO2 aufgefangen. Allein diese Maßnahme erlaubte es den Modellierern, die angesetzte starke Erwärmungswirkung des CO2 beizubehalten. Im anderen Fall hätten die in den letzten 150 Jahren beobachteten Erwärmungsraten die simulierten Raten weit unterschritten und die CO2-Klimasensitivität hätte entsprechend erniedrigt werden müssen. In den vergangenen Jahren hat sich nun jedoch gezeigt, dass die Kühlwirkung der SO2-Aerosole signifikant überschätzt wurde, was in etlichen Fachpublikationen aus dem Bereich der Aerosolforscher deutlich belegt wurde (z.B. Stevens 2015, Malavelle et al. 2017). Der schnell aus dem Ärmel gezauberte Aerosol-Joker ist damit hinfällig, wie im Buch bereits befürchtet.
5) CO2-KLIMASENSITIVITÄT: Hinsichtlich der CO2-Klimasensitivität werden Im Buch Szenarien am unteren Rand der IPCC-Spanne von 1,5-4,5°C pro CO2-Verdopplung diskutiert. Vormals hatte der IPCC einen besten Schätzwert von 3,0°C abgegeben. Eine ganze Reihe von Fachpublikationen bestätigt nun, dass der IPCC die CO2-Klimasensitivität vermutlich lange Jahre lang stark überschätzt hatte. Die Hamburger Stevens-Gruppeerrechnet jetzt eine reduzierte Klimasensitivität von nur noch 2,21°C pro CO2-Verdopplung. Andere Arbeiten aus der jüngsten Zeit gehen von ähnlich niedrigen Werten aus, darunter Masters (2014) mit 2,2°C, von der Heydt et al. 2014 mit 2,26°C; Loehle 2014 mit 1,99°C, Skeie et al. 2014 mit 1,8°C, Lewis & Curry 2015 mit 1,64°C und Spencer & Braswell 2014 mit 1,3°C.
6) ENERGIEWENDE: Im Buch wird davor gewarnt, die deutsche Energiewende zu überstürzen, da dies zu einem enormen Kostenrisiko führen würde. Sechs Jahre nach Veröffentlichung dieser Kritik ist nun genau dies eingetreten und gefährdet ernsthaft die Zukunft der schlecht geplanten Energiewende. Viele Medien und Experten teilen jetzt die Sorge (z.B. Daniel Wetzel in der Welt: Kurzschluss bei der Energiewende; Justus Haucap in der FAZ: Deutschlands teurer Energie-Irrweg).
7) BIOTREIBSTOFFE: Im Buch wurde davor gewarnt, dass die Umweltbilanz von Biostreibstoffen weniger gut ausfällt als lange behauptet. In den letzten Jahren wurde dies nun bestätigt und es wurde die traurige Gewissheit erlangt, dass Biostreibstoffe nahezu kein CO2 einsparen und zudem zur Umweltzerstörung beitragen (z.B. Sterman et al. 2018, Gnansounou 2018).
 
Für eine weitere Prognose aus dem Buch „Die kalte Sonne“ ist es für ein Fazit noch zu früh. Lüning und Vahrenholt rechnen im Buch für die kommenden Jahre mit einer leichten globalen Abkühlung, da sowohl Sonnenaktivität und Ozeanzyklen in eine kühlende Phase eintreten. Da die derzeit erlahmende Sonne aufgrund der trägen Ozeane erst mit mehrjähriger Verzögerung klimatische Wirkung zeigt und vieljährige Mittelwerte zu betrachten sind, wird diese Prognose erst in einigen Jahren überprüfbar.
Zwischenzeitlich nutzten Klimaaktivistenkreise den kurzzfristigen Anstieg der globalen Temperaturen im Rahmen des El Nino 2015/16 und interpretierten dies als angebliches Indiz für das Scheitern der Prognose. Mittlerweile (Stand 2018) sind die Temperaturen jedoch wieder auf das allgemeine Temperaturplateau zurückgefallen, dass seit 2000 herrscht. Die auf Wikipedia verbreitete Graphik wurde indessen auf dem Höhepunkt des El Nino 2016 eingefroren, so dass die enorme nachfolgende Abkühlung dem Wikipdia-Leser verborgen bleibt. Aufforderungen zur Aktualisierung der Graphik blieben ergebnislos, ebenso wie die Aufforderung zur Korrektur und Ergänzung vieler anderer Details im Wikipedia-Artikel zu Sebastian Lüning. Wie in vielen politisch sensiblen Bereichen sind leider auch die Seiten zum Klimawandel auf Wikipedia fest in Aktivistenhand. Die reale globale Temperaturentwicklung laut RSS-Satellitendaten sieht um einiges wenger dramatisch aus als in der Wikipedia-Graphik suggeriert.

Abbildung: Globale Temperaturentwicklung (Anomalien in °C) laut UAH Satellitendaten (via WoodforTrees).
Der Beitrag erschien zuerst bei „Die kalte Sonne“ hier



Das Windrad, technisch nüchtern betrachtet

Das Fatale daran ist, so der Autor, dass sie ihren jeweiligen Glauben von ihrem Erwartungshorizont abhängig machen. Genau das trifft heute für viele zu, die sich mit keiner oder minimaler Kenntnis über Elektrotechnik und deren Gesetzmäßigkeiten eine schöne Welt der Energieerzeugung vorstellen, allein, weil sie der Auffassung sind, damit Gutes zu tun.

Ähnlich wie derzeit die deutsche Sprache verkehrt wird, weil man meint, der Gattungsbegriff verstoße gegen die Gleichberechtigung von Mann und Frau (oder Frau und Mann), wird mit sprachlichen Floskeln („Liebe Mitbürgerinnen und Mitbürger“) auch im Energiebereich versucht, erfolgreich zu agieren. Eines der bekanntesten Beispiele lieferte hierzu Herr Trittin, der die sog. Energiewende an einer Kugel Eis pro Monat festmachte. Diese besagte Kugel hat jedoch eine Dimension bekommen, dass sie kein Mensch je vertragen könnte. Die Fortsetzung findet sich dann in Sätzen, wie „Wind und Sonne schicken keine Rechnung“ und „Irgendwo weht der Wind immer“. Beim ersteren Satzkonstrukt wäre es konsequent, wenn Wind und Sonne zusätzlich die Rechnung für die Erstellung von Wind- und Solarkraftwerken und deren Instandhaltung gleich mit übernehmen würden. Der zweite Satz ist bereits in der Formulierung falsch, richtig wäre einzig – wenn man eine großflächige Totalflaute außer Acht

lässt – „Immer weht der Wind irgendwo“. Wenn nämlich der Wind irgendwo immer weht, wäre es sicher ergebnisorientiert, wenn man nur dort Windräder aufbauen würde.

Das was durch die verfahrene Politik in Unkenntnis elektrotechnischer Grundlagen aus dem Ruder läuft, wird nun ebenfalls durch sprachliche Kunstwerke vertuscht. Begriffe wie „Zappelstrom“ und „Stromautobahnen“ sollen dem Normalbürger Perspektiven eröffnen, das dasjenige, was von den Grundlagen her nicht umsetzbar ist, durch weitere Hilfskonstrukte korrigiert und wirtschaftlich funktionsfähig und sinnvoll gemacht werden kann.

Das Studium der Publikation „Wie sauber sind die weißen Riesen“ von H.-J. Wagner (Lehrstuhl Energiesysteme und Energiewirtschaft, Institut für Energietechnik, Ruhruniversität Bochum) hat mich inspiriert, einmal ein Excel-Blatt aufzumachen und die erforderlichen Energien zu kalkulieren, da die dort angegebene energetische Amortisationszeit von lediglich einigen Monaten bei mir Skepsis ausgelöst hat.

Orientierung lieferte die in der Publikation gezeigte Abbildung 5, die Angaben für ein 1,5 MW Anlage enthält. In meiner Energiebilanz für ein 2 MW Windrad habe ich mit der Eisengewinnung aus Erz im Hochofen begonnen, gefolgt vom Materialaufwand für Gondel und Nabe, Generator, Umrichter, Fundament mit Zementbrennen, Armierungsstahl, Verarbeitungs- und Umformenergie, was zusammen zu immerhin 5,5 GWh führt. Reduziert man dieses Ergebnis linear auf ein 1,5 MW Windrad entsprechend der zitierten Publikation, ergeben sich 3,46 GWh, die mit dem publizierten Wert in Einklang stehen, auch wenn die berücksichtigten Terme etwas unterschiedlich sind.

Das, was die Publikation aus welchen Gründen auch immer verschweigt und zu dem phantastischen Ergebnis weniger Monate Amortisationszeit führt, ist die von der Windgeschwindigkeit abhängige Leistung. Die Publikation setzt dauerhaft die Nennleistung von 1,5 MW an, was zwar rechnerisch möglich ist, aber in krassem Missverhältnis zur Realität steht. Bekanntlich nimmt die Leistung einer Windkraftanlage in 3. Potenz mit der Windgeschwindigkeit zu. Die angegebenen 1,5 MW sind aber die Grenzleistung, bevor das Windrad abgeschaltet werden muss. Derartige Arbeitspunkte kommen nur wenige Minuten oder Stunden innerhalb eines Jahres vor. Entscheidend ist also das über das Jahr sich ergebende Windprofil, davon hängt ab, ob die mittlere Leistung 10 %, 5 % oder noch weniger von der Nennleistung beträgt.

Entsprechend der Publikation ergibt sich rechnerisch bei einer durchgängigen Windgeschwindigkeit von 13,5 m/s eine energetische Amortisationszeit von 0,3 Jahren unter Bedingungen, die es in der realen Welt nicht gibt. Auch bei einer unrealistischen durchgängigen Windgeschwindigkeit von 6 m/s beträgt die energetische Amortisationszeit 3,4 Jahre, was der Leistungsabhängigkeit in der 3. Potenz von der Windgeschwindigkeit geschuldet ist. Ohne nun die Windprofile je Region zu differenzieren, lässt sich ein vom Windprofil abhängiges „eta“ einführen, welches regional unterschiedlich ist und sich zwischen 2 % und 8 % bewegt. Die daraus errechenbaren energetischen Amortisationszeiten liegen bei 6 bis zu 12 Jahren und sind nur für jedes einzelne Windrad vor Ort bestimmbar.

Geht man von einer Lebensdauer von 20 Jahren aus, so kann die für die Erstellung der Windkraftanlage erforderliche Energie als Hypothek betrachtet werden, die das Windrad in rund 10 Jahren erst einmal zurückzahlen muss, bevor ein nutzbarer Energiebeitrag für den freien Verbrauch zur Verfügung steht. Bezogen auf das Gesamtsystem kann man das auch als einen Wirkungsgrad von rund

50 % bezeichnen, indem man Nutz-Energie zur aufgewandten Energie ins Verhältnis setzt.

Dabei sind die Energien für Erdarbeiten, Zuwegung, Transporte, Systeme für die Netzanbindung und Netzregelung usw. nicht einmal einbezogen. Das alles mit einer Kugel Eis je Monat bewerkstelligen zu wollen, spricht dafür, dass interessierte Leute die Menschen mit politischen Aussagen von der Wahrheit entfernt halten wollen. Das ist insofern einfach, da diese Leute zu keiner Zeit zur Verantwortung gezogen werden können und damit geneigt sind, ihre Ideologie zusammen mit einem immensen Unwissen politisch oder vorsätzlich irreführend erfolgreich an den Mann zu bringen. Hier darf ich wieder auf die Formulierungen des anfangs zitierten Buches verweisen.

Prof. Dr.-Ing. Peter Puschner

(Dipl.-Ing der Elektrotechnik, promovierter Maschinenbauer, Honorar-Professor)

Anlage (hier):

„Wie sauber sind die weißen Riesen“ von H.-J. Wagner (Lehrstuhl Energiesysteme und Energiewirtschaft, Institut für Energietechnik, Ruhruniversität Bochum)

Energiebilanzen gehören dank der beruflichen Einbindung in schweißtechnische Prozesse zum Alltag des Autors, sie sind sozusagen sein Handwerkszeug, um z. B. autonom arbeitende Punktschweißprozesse für die Automabilindustrie bewerkstelligen zu können.




Dürregeschichte Mitteleuropas: Klimaforscher Christian Pfister mit unerklärlichen Gedächtnislücken

Am 2. August 2018 brachte SRF ein längeres Radiointerview mit dem bekannten Berner Klima-Historiker Christian Pfister zur diesjährigen langen Dürreperiode in Mitteleuropa:

Extreme Trockenheit – Droht uns eine Megadürre?
Klimaforscher Christian Pfister warnt: Trotz technologischem Fortschritt sind wir den Wetterextremen ausgeliefert. Der Mensch müsse klüger werden – und sich anpassen. […] Um die verheerenden Auswirkungen längerer Dürreperioden zu veranschaulichen, erinnert der Berner Historiker an die Megadürre von 1540. Der Jahresniederschlag betrug nur gerade ein Drittel der üblichen Menge, teils fiel wochenlang kein Tropfen Regen über Mitteleuropa. In Basel und Köln liess sich der Rhein auf dem Rücken von Pferden überqueren. Die fatale Kombination aus Hitze und Trockenheit hinterliess verbrannte Erde. […] Doch Pfister warnt vor falschen Schlüssen: «Solche Ausreisser wie 1540 gab es immer, allerdings extrem selten.»1542 sei bereits ein kaum je überliefertes, nasskaltes Jahr ohne Sommer gewesen. Heute müsse man dagegen von einem Trend sprechen: «Was wir derzeit erleben, zeigt an, wie die normalen Sommer der Zukunft aussehen. Dazu kommen Extreme, die wir noch nie gesehen haben.» Der Klimawandel sei kein Papiertiger, warnt Pfister.
Weiterlesen beim SRF

Pfister bezeichnet das Dürrejahr 1540 als Ausreißer, während die Dürre 2018 die zukünftige Norm darstellen könnte. Eine steile These. Zumal sie dem widerspricht, was der heute emeritierte Klimahistoriker Pfister noch im Jahr 2000 selber feststellte (pdf hier). Eine seltsame Gedächtnislücke. Im Fazit der Arbeit lesen wir doch tatsächlich, dass beim Vergleich des Zeitraums von 1525 bis 2000 die häufigsten Dürren in Mitteleuropa während des Maunder-Minimum im 17. Jahrhundert auftraten und am wenigsten im 20. Jahrhundert:

Die bisherigen Forschungen zu sommerlichen Trockenperioden in Mitteleuropa haben sich bisher stark am Beispiel der Periode 1943 bis 1952 mit ihrem Höhepunkt im Dürresommer 1947 orientiert, die vielfach als einzigartig in den letzten Jahrhunderten betrachtet worden sind. Die vorliegenden Ergebnisse tragen dazu bei, diese Ansicht zu relativieren: Sie unterstreichen nicht nur den seit einiger Zeit bekannten Tatbestand, dass die Dürre des Sommers 1540 jene von 1947 punkto Dauer und Intensität buchstäblich in den Schatten stellte. Sie deuten auch daraufhin, dass, was die Häufigkeit von Dürresommern betrifft, die letzten fünf Jahrhunderte in zwei unterschiedliche Perioden von annähernd gleicher Länge gegliedert werden können, indem sommerliche Trockenperioden in den zwei Jahrhunderten 1525 bis 1730 wesentlich häufiger auftraten als seither. Bei der Interpretation dieser Zahlen ist allerdings zu berücksichtigen, dass die Daten in der älteren Periode fast ausschliesslich aus der Zentral- und Nordostschweiz stammen, wodurch regionale Effekte stärker ins Gewicht fallen, während die Daten von 1780 und vor allem von 1864 an die westlichen Landesteile mit berücksichtigen. Ihren Höhepunkt erreichte die Tendenz zur Häufung von sommerlichen Dürreperioden in den Jahren 1718 bis 1728, als jeder zweite Sommer wesentlich zu trocken war. Zwar trat in diesen 11 Jahren kein Jahrhundertereignis hervor, aber zweimal (1718/19 und 1723/24) kamen unmittelbar aufeinanderfolgende Trockensommer und dazwischenliegende regenarme Winter und Frühjahrsperioden in ihrer kumulativen Wirkungen auf den Wasserhaushalt einem solchen gleich. Die Auswirkungen dieser langen Dürreperiode auf Ökosysteme wäre zu untersuchen. Gesamthaft gesehen war die Belastung des 20. Jahrhunderts durch Dürresommer bemerkenswert gering, wie dies bereits für Naturkatastrophen (Lawinen, Überschwemmungen) festgestellt worden ist. Auch in dieser Hinsicht trägt das zu Ende gehende Jahrhundert seine Bezeichnung als Gunstjahrhundert offensichtlich zu Recht.

Man reibt sich verwundert die Augen. Was passiert hier genau? Will oder kann sich Pfister nicht mehr erinnern? War alles falsch, was er früher gemacht hat? Steht er lieber auf der Seite der vermeintlich Guten und verbiegt zu diesem Zweck sogar die Realitäten?
Übernommen von die kalte Sonne hier