Der „Masterplan 100% Klimaschutz“ der Stadt Heidelberg

Wir nehmen das „mitmachen kann jeder“ wörtlich und machen mit diesem Beitrag mit. Anlass für uns war der einschlägige Artikel im Heidelberger Stadtblatt, 21. Jg. – Ausgabe Nr. 11 vom 13.März 2013. Dieses Blatt wird kostenlos an die Haushalte verteilt (s. Masterplan.jpg im Anhang). Darf man den Spaß an der Heidelberger Aktion verderben? Der Autor bittet alle Kinder und die ihnen geistig verwandten Stadtväter Heidelbergs um Entschuldigung. Nebenbei: um uns nicht dem Vorwurf politischer Inkorrektheit auszusetzen sind unter „Stadtväter“ selbstredend auch alle weiblichen Gemeinderatsmitglieder zu verstehen. Nun zur Sache selber: Liebe Heidelberger Stadtväter, Klimaschutz ist unmöglich!
Klima ist nämlich gemäß Definition der Weltorganisation für Meteorologie das mindestens 30-jährige statistische Mittel von Wetter, genauer von Wetterparametern, wie Temperaturen, Luftfeuchten, Luftdrücken, Windgeschwindigkeiten usw. Wie das Wetter ändert sich auch das Klima in allen Klimazonen (tropisch, gemäßigt, polar) der Erde seit ihrem Bestehen. Es hat noch nie konstantes Klima gegeben, an keinem Ort, zu keiner Zeit. Und es wird dies auch zukünftig niemals geben. Ein Phänomen (Klima), das sich dauernd ändert, kann man logischerweise nicht schützen. Man müsste dazu mit dem Schutz des Wetters anfangen. Klimaschutz ist absurd.
Die Klimaänderungen der Vergangenheit waren oft stärker als heute. So berichtet der Biologe Prof. Josef Reichholf (Univ. München) in seinem lesenwerten Buch „Eine kurze Naturgeschichte des letzten Jahrtausends“ vom Bau der berühmten Regensburger Steinbrücke in der trockenen Donau. Die heutige Temperaturen übertreffende mittelalterliche Warmzeit hatte zu einem weitgehenden Abschmelzen der Alpengletscher geführt, so dass die großen Flüsse Rhein und Donau in den heißen Sommern kein Wasser mehr führten. Zu Köln am Rhein durchquerten damals die Leute den ausgetrockneten Fluss zu Fuß. Man stelle sich solche ganz natürlichen Klimavorgänge – menschgemachtes CO2 konnte damals noch keine Rolle spielen – heute vor. Die Stadtväter Heidelbergs und die RNZ würden den Weltuntergang ausrufen. Es ging aber auch umgekehrt zu. In Zeiten des 30-jährigen Krieges war die Ostsee über viele Monate lang zugefroren. Gustav Adolf überquerte sie bei seinem Zug nach Deutschland zu Fuß und führte dabei schweres Gerät mit. In dieser Klimaperiode, die heute als „kleine Eiszeit“ bezeichnet wird, war es wesentlich kälter als gegenwärtig. Solche natürlichen Klimaextreme, warm oder kalt, werden irgendwann wiederkommen, ganz ohne unser Zutun!

  1. Offenbar meinen die Stadtväter Heidelbergs, das Klima mit Vermeidung des „klimagefährlichen“ CO2 schützen zu können. Zumindest einige von Ihnen werden sich vielleicht noch an ihre Gymnasialzeit erinnern. Dort haben sie, falls sie nicht geschlafen haben, gelernt, dass CO2 ein Spurengas ist. Sein Volumenanteil in der Luft beträgt heute etwa 0,04%. Es ist damit noch seltener als das Edelgas Argon. Dennoch ist CO2 lebensnotwendig! Pflanzen verdanken der Photosynthese, deren Hauptbestandteil CO2 ist, ihre Existenz. Ohne CO2 gäbe es weder Mensch noch Tier. Mehr CO2 führt zu besserem Pflanzenwachstum (hier), so auch von Getreide. Im Gegensatz zu den Stadtvätern Heidelbergs wissen dies zum Beispiel die Tomatenzüchter bestens, sie begasen nämlich ihre Gewächshäuser mit CO2.

Die CO2-Emissionen Heidelbergs sollen nunmehr gemäß den Plänen der Stadtväter um 95% reduziert werden. Dieser Plan ist gleichbedeutend mit der Absicht, alle Einwohner Heidelbergs zu töten! Ihn durchzuführen ist glücklicherweise unmöglich, und wir gehen natürlich davon aus, dass die Heidelberger Stadtväter überhaupt nicht wissen, was sie da vorhaben. Um 95% aller CO2-Emissionen Heidelbergs zu vermeiden, müssten nämlich alle Heidelberger das Ausatmen einstellen (dazu weiter unten mehr), kein Auto dürfte mehr fahren, keine Wohnung dürfte mehr geheizt werden und das im DAX notierte Unternehmen „Heidelberger Cement“ müsste sofort seine Zementproduktion einstellen, denn die Zementherstellung gehört zu den am stärksten CO2-erzeugenden Produktionsprozessen überhaupt. Schauen wir uns nur einmal stellvertretend die menschliche Ausatmung verglichen mit dem CO2-Ausstoß von Autos an, um die Absurdität von CO2-Vermeidung zu demonstrieren. Die folgende Rechung, bestehend aus simplen 5 Schritten, kann bereits ein guter Hauptschüler begreifen bzw. durchführen:
1) Ein KfZ Schein zeigt, dass ein Auto etwa 150 g = 0,15 kg CO2 pro Kilometer ausstößt.
2) Dies ergibt bei 10.000 km Fahrleistung pro Jahr 1,5 t CO2 im Jahr.
3) Dies ergibt weiter bei 1 Milliarde Autos weltweit 1,5 Milliarden t CO2 im Jahr.
4) Der Mensch atmet 400 kg = 0,4 t CO2 im Jahr aus (nicht naturneutral, denn diese Menge entspricht grob dem bei der Nahrungsmittelherstellung erzeugten CO2, so ist beispielsweise bereits die Verbrennungsenergie von 0,7 Liter Erdöl für das Backen eines Laibs Brot erforderlich).
5) Heute 7 Milliarden Menschen erzeugen 0,4 x 7 ≈ 3 Milliarden t CO2 im Jahr, also etwa das Doppelte des weltweiten Autoverkehrs.
Trotz dieser in allen Fachbüchern nachzulesenden Fakten ist CO2 für die grün dominierten deutschen Medien ein Luft-Schadstoff –> Klimakiller –> Umweltverschmutzer –> Gift! Hiermit hat die Verdummung der Öffentlichkeit durch grüne Ideologie säkulare Ausmaße erreicht.
Und unsere CO2 –Steuer für Autos? Wenn schon Steuer, dann sollte uns der Fiskus konsequenterweise eine Ausatmungssteuer an Stelle der CO2-KfZ-Steuer abknöpfen, das wäre zumindest ehrlich.
http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/CO2_Kraftwerk.jpg
Bild: Eine typische Klimasünderin
Was ist nun aber am CO2 angeblich so klimagefährlich? CO2 absorbiert das vom Erdboden ins Weltall abgestrahlte Infrarot und trägt daher glücklicherweise zur Erwärmung der Erde bei (Treibhauseffekt). Der Effekt des vom Menschen zusätzlich in die Erdatmosphäre gebrachten CO2 ist allerdings unmessbar klein. Es gibt bis heute keine begutachtete wissenschaftliche Veröffentlichung, in der ein anthropogener (=menschgemachter) Beitrag zum Treibhauseffekt nachgewiesen werden konnte. Dies beweist zwar nicht, dass es einen anthropogenen Beitrag nicht gibt. Es belegt aber, dass er unmaßgeblich klein und unbedeutend ist. Noch einmal: der extrem kleine anthropogene Erwärmungsbeitrag durch CO2 ist gemeint, CO2 ist dennoch das zweitstärkste Treibhausgas nach dem Wasserdampf.
Alle bisherigen Temperaturveränderungen der Erde bis auf den heutigen Tag waren natürlicher Art. Dieses Faktum belegt nicht zuletzt die globalweite Abkühlung seit etwa 15 Jahren – trotz ansteigendem CO2 in der Erdatmosphäre.  Wir können nur hoffen, dass diese Abkühlung nicht in eine neue kleine Eiszeit mündet, nicht wenige Klimaforscher sehen der schwächelnden Sonne wegen Anzeichen dafür. Auch bei uns werden die Winter immer länger und härter. Als weiteres Info für naturwissenschaftlich Interessierte (hier).
Der CO2 Ausstoß Deutschlands im Jahre 2012 betrug etwa 2,5% der weltweiten CO2-Emissionen. Reduktionen von 2,5% wirken sich rechnerisch auf die globale Mitteltemperatur mit Änderungen über 100 Jahre im Bereich von Hundertstel Celsiusgraden aus, sie sind also ein Nulleffekt. Vom noch kleineren Beitrag Heidelbergs zu diesem Nulleffekt sprechen wir erst besser gar nicht. China, Indien, Brasilien und die USA denken daher gar nicht daran, ihre CO2-Emissionen zu reduzieren und haben damit völlig recht. CO2 ist, wie wir es hier gelernt haben, ein unabdingbar notwendiges Naturgas, dessen Anstieg in der Atmosphäre höchst wünschenswert ist, denn dieser Anstieg hilft, die zunehmende Erdbevölkerung besser zu ernähren.
Der CO2-Anstieg ist zu Ende, wenn die Menschheit alle fossilen Brennstoffe verfeuert haben sollte (was nicht geschehen wird). Diese Schwelle ist etwa bei Verdoppelung der heutigen CO2-Konzentration erreicht. Im Übrigen geben wir mit Verfeuern von Kohle, Holz und Gas der Erdatmosphäre nur wieder das CO2 zurück, welches sie früher einmal besaß. Welche Länder unternehmen denn überhaupt noch die unsinnigen Anstrengungen von CO2-Reduktion zum Zweck des „Klimaschutzes“? Es sind die EU, die Schweiz, Australien und Neuseeland. Mal sehen, wie lange sie sich diese kostspieligen Dummheiten noch leisten werden. Deutschland ist, wie schon früher in seiner Geschichte unseliger oder unsinniger Aktionen wieder einmal mit Dummheiten ganz vorne dabei (Vorreiter!). Wir können also wieder einmal stolz sein, der Katzenjammer wird freilich kommen.
Nun aber endlich unser Beitrag zum Heidelberger Masterplan:
Liebe Stadtväter, vergesst das böse CO2 und startet lieber eine Aktion, um Ländern der dritten Welt Partikel-Filter für ihre Kohlekraftwerke zu schenken. Damit würdet ihr, liebe Stadtväter, einen echten Beitrag zum globalen Umweltschutz leisten. Und alle Kinder wären zu recht begeistert. Da nun bei Laien Missverständnisse entstehen könnten, eine Erläuterung: die vorgeschlagenen Filter absorbieren Schmutzpartikel und Aerosole, CO2 kann nicht mit Filtern entfernt werden – glücklicherweise, denn wir brauchen höhere CO2-Konzentrationen in der Atmosphäre für mehr Getreide. Also nochmals: CO2-Vermeidung hat weder etwas mit Klimaschutz noch mit Umweltschutz zu tun. CO2-Vermeidung ist einfach blanker Unsinn.
Auf den weiteren Unsinn des Masterplans, nämlich den Energiebedarf der Kommune Heidelberg um die Hälfte zu verringern, wollen wir nur kurz eingehen. Dieses Vorhaben ist – die Stadtväter mögen diese zutreffende Beurteilung verzeihen – idiotisch. Die öffentliche Infrastruktur Heidelbergs käme bei 50% Reduktion zum erliegen. Schulen, Krankenhäuser und die Arbeitsräume der Heidelberger Stadtväter könnten nicht mehr geheizt werden, die Straßenbahnen würden nicht mehr fahren usw. Historische Gebäude, wie das Hotel Ritter müsste man in meterdickes Styropor einpacken usw. Offenbar hilft bei diesem Masterplan ein „Institut“ IFEU mit. Ob solche Institute – Auffangbecken von „Experten“, die nach Beendigung des Klima- und Energiewende-Hypes vermutlich beschäftigungslos auf der Straße sitzen werden – objektiv beraten, sei dahingestellt.
Energieeinsparung ist selbstverständlich ein wichtiger Eckstein jeder Kommune, denn sie verringert die Kosten. Der Autor würde allerdings eher ein von grüner Ideologie freies, ordentliches Ingenieurbüro zur Beratung der Stadt Heidelberg bei der Aufgabe der Energieeinsparung empfehlen. Die Spielräume beim Energiesparen sind leider nicht mehr sehr groß. Mit Photovoltaik klappt es jedenfalls gar nicht. Zur Demo sollten sich die Heidelberger Stadtväter einmal eine ordentliche Kostenrechnung ihrer Solaranlage in Wieblingen vorlegen lassen – Baukosten und Betriebskosten gegen Stromerzeugung. Sie werden sich wundern! Diese komplett nutzlose und teure Anlage wurde ehemals vom Gemeinderat gegen den sachlich völlig berechtigten Widerstand der Bürgermeisterin Beate Weber durchgesetzt. Zur Information und Ernüchterung für Interessierte zu den vom IFEU genannten Hauptsäulen der Einsparung empfehlen wir den pdf-Anhang „Energie.pdf“ von Michael Limburg.
Was zeigt uns der Heidelberger Masterplan noch, der gemäß den Schildbürger-„Meistern“ zutreffender „Meisterplan“ heißen müsste? Er beantwortet uns die Frage, woran man eine neue Religion erkennt. Um dies näher zu erläutern, führe man ein kleines Experiment durch, bei dem man unauffällig in Gesellschaft religiöse Themen anschneide und sich dabei auf alte Religionen beschränke; etwa auf den römisch-katholischen Glauben. Unhöfliche Bemerkungen oder gar Witze über den abgedankten oder den neuen Papst und sogar scharfe Kritik an der Politik des heiligen Stuhls werden von der Umgebung keinesfalls als Faux Pas wahrgenommen. Macht man sich dagegen eines ähnlichen Missgriffs bei der neuen Religion „Klimaschutz“ schuldig, wird es ernst. Man wird nicht mehr eingeladen und verliert gute Bekannte. So stellt man also schnell fest, ob eine Religion neu ist. Die Ironie dabei: Die Bewertung der neuen Religion „Klimaschutz“ erlaubt die Verwendung von Sachargumenten, die der alten Religionen nicht. Halten wir fest:
Abfällige Bemerkungen über eine Religion führen nur bei neuen Religionen zur Verärgerung oder gar Aggressivität des Gegenübers. Es ist ferner sinnlos, bei Gesprächen über eine neue Religion auf Sachargumente zu setzen. Insbesondere neue Religion basiert auf Glauben, niemals auf Fakten. Die kommen erst dann zum Zuge, wenn es mit der neuen Religion wieder bergab geht.
Man muss dennoch die Hoffnung nicht völlig aufgeben. Schließlich gab es sogar in den finstersten, religiösen Jahrhunderten endlich eine Bewegung, die heute als Aufklärung bezeichnet wird. Sie hat es fertig gebracht, den Übergriffen religiöser Gläubigen und den von diesen fanatisch Gläubigen kühl profitierenden Herrschaftsklicken Einhalt zu gebieten (französische Revolution). Freilich war es für die Aufklärung ein langer Weg. Heute sind alte Religionen in die private Ecke zurückgedrängt, dort gehören sie auch hin.
Den neuen Religionen wird es ebenso wie den alten Religionen ergehen, nur wesentlich schneller. Schließlich können heute mehr Leute rechnen als früher, oder nehmen wir dies zumindest einmal an. Bis es aber mit dem „Klimaschutz“ so weit ist, dürfen wir mit historischem Auge lustige und komische Aufrufe an Gläubige studieren, wie beispielsweise den „Masterplan Heidelbergs“. Er ist ein Musterbeispiel für neue Religion. Der Unsinn von religiösen Aufrufen neuer Religionen steht denen alter Religionen wie etwa den mittelalterlichen Aufrufen zu „heiligen“ Kreuzzügen um nichts nach. Früher ging es um die Rettung der Seele, heute um die Rettung der Erde (s. hierzu auch die Aktion „Earth Hour“ des WWF). Die Komik im Fall Heidelbergs ist besonders pikant, weil der Schildbürgerstreich „Klimaschutz durch 95%-ige CO2-Reduzierung“ in einer renommierten deutschen Universitätsstadt stattfindet.
Prof. Dr. Horst-Joachim Lüdecke
EIKE Pressesprecher
P.S. Der Beitrag ist für Verteilungszwecke hier noch einmal als separates pdf angefügt (Artikel_als_pdf). Die angegebenen Internet-Links sind natürlich nur im EIKE-Artikel selber nutzbar.

Related Files




Erst zum Gipfel, dann talwärts: Die Temperaturentwicklung in Deutschland seit 1980 und deren wesentliche Ursachen

Kurvenreiche Strecke: Im ständigen Auf und Ab des Klimas ist nun wieder die Kälte „dran“, und für Warmisten wird nicht nur die Straße schmaler, sondern auch die Luft immer dünner. Foto: Stefan Kämpfe.
Ohne Untersuchung der Großwetterlagen und der Sonnenaktivität kann eine umfassende Erklärung des Temperaturverhaltens während der vergangenen gut 3 Jahrzehnte nicht gelingen. Zwar behauptet die einseitig auf „Treibhausgase“ fixierte Klimawissenschaft noch immer, dass der Einfluss der Sonne auf unser Klima gering sei. Aber in den vergangenen 15 Jahren hat die Zahl der Studien, Veröffentlichungen und kritischen Beiträge, welche das genaue Gegenteil beweisen, enorm zugenommen. Spätestens mit der Veröffentlichung des Buches „Die kalte Sonne- warum die Klimakatastrophe nicht stattfindet“ von VAHRENHOLT/LÜNING (2012) erreichte die Diskussion über die tatsächlichen Ursachen des Klimawandels nun auch die breite Öffentlichkeit. Wir können im Rahmen dieser Arbeit nicht alle bekannten meteorologischen, klimatologischen, solar- und astrophysikalischen Zusammenhänge untersuchen und aufzeigen. Zunächst einmal wollen wir uns die Häufigkeitsentwicklung der Großwetterlagen seit 1980 ausführlich ansehen. Nach HESS/BREZOWSKY (1952, 1969, 1977) werden 29 Großwetterlagen (GWL) für Mitteleuropa unterschieden, hinzu kommen einzelne, nicht diesen 29 Lagen zuordenbare Fälle, welche dann als sogenannte „Übergangslagen“ bezeichnet und im Rahmen dieser Untersuchung nicht weiter berücksichtigt wurden, da sie nur an 0 bis höchstens 3 Tagen je Monat auftreten. Bei der Ermittlung der Großwetterlagen, welche auch vom Deutschen Wetterdienst (DWD) monats- und jahresweise veröffentlicht werden, gilt die Regel, dass eine einzelne Wetterlage mindestens 3 Tage hintereinander andauern muss, um eindeutig als solche klassifiziert zu werden (monats- und jahreswechselübergreifendes Ermitteln ist selbstverständlich möglich). Jede GWL ist durch 2, 3 oder höchstens 4 Großbuchstaben eindeutig bestimmt. Es ergeben sich dadurch zunächst sieben GWL, die sich durch gerichtete Strömung über Mitteleuropa auszeichnen (Strömung „kommt“ aus N, NE, SE, S, SW, W oder NW). Die fehlende Richtung E (Ost) „verbirgt“ sich hinter der Lagebezeichnung des dabei für Mitteleuropa wetterbestimmenden Hochs über (Fenno)- Skandi(navi)en (HF) oder über dem Nordmeer und (Fenno)- Skandi(navi)en (HNF). Es handelt sich dabei also um Lagen, bei der die geografische Lage des für Mitteleuropa bestimmenden Druckgebiets (hier: Ein Hoch über Skandinavien im weitesten Sinne) namensgebend war, ähnlich ist es beim Hoch, der Hochdruckbrücke, beim Tief  und beim Trog über Mitteleuropa (HM, BM, TM, TRM), beim Hoch über dem Nordmeer (HN), dem Trog über Westeuropa (TRW) und dem Hoch oder dem Tief über den Britischen Inseln (HB, TB). Den kursiv gekennzeichneten Lagen wird außerdem jeweils der Großbuchstabe A für antizyklonal nachgestellt, wenn sie sich über Mitteleuropa durch Hochdruckeinfluss auszeichneten, oder Z (zyklonal) bei über Mitteleuropa vorherrschendem Tiefdruckeinfluss. Da die Lagen HM, BM und HB über Mitteleuropa immer vorwiegend antizyklonal, das TM, TB, der TRW, TRM sowie die beiden Sonderfälle der Westlagen, Südliche Westlage (WS) und Winkelförmige Westlage (WW), stets zyklonal sind, erübrigt sich für diese ein weiterer Buchstabe. Es bedeutet also beispielsweise WZ „Zyklonale Westlage“ oder HNFZ „Hoch über dem  Nordmeer und (Fenno)- Skandi(navi)en, in Mitteleuropa mit Tiefdruckeinfluss (zyklonal)“. Für Statistiken werden ähnliche Großwetterlagen zu Großwettertypen zusammengefasst; für spezielle Fragestellungen ist außerdem noch eine weitergehende Zusammenfassung möglich; siehe folgende Tabelle:

Entscheidend ist nun, ob sich, parallel zum beobachteten Temperaturverlauf seit 1980, auch die Häufigkeit bestimmter GWL und GWT geändert hat. Leider ist es fast unmöglich, vielen Großwetterlagen eine eindeutige Erwärmungs- oder Abkühlungswirkung zuzuordnen, da erstens eine Gewichtung nach der sehr unterschiedlichen Häufigkeit der einzelnen GWL vorgenommen werden müsste, und zweitens gibt es enorme jahreszeitliche Unterschiede. So kann eine antizyklonale Südlage (SA) im Winter strenge Kälte bringen (Mitte Januar 1982), im Sommer hingegen große Hitze (Anfang August 1994), denn die für die Lufttemperaturen letztendlich entscheidenden Luftmassen sind besonders bei den von Hochdruckgebieten dominierten Wetterlagen jahreszeitbedingt extrem unterschiedlich; und selbst innerhalb einer Jahreszeit können bei ein und derselben Wetterlage sehr unterschiedliche Luftmassen auftreten. Eine Ermittlung der Luftmassenhäufigkeit war wegen des enormen Aufwands im Rahmen dieser Arbeit nicht möglich und bleibt späteren Studien vorbehalten. Anhand klimatischer Erfahrungswerte lassen sich jedoch folgende Regeln für die Jahresmitteltemperaturen aufstellen:

  1. Westlagen (besonders WA und WZ) „tragen“ das insgesamt etwas mildere Klima Westeuropas nach Deutschland (Jahresmittel von Plymouth 10,8°C, Deutschland auf demselben 50. Breitengrad, selbe Höhenlage 9,5 bis 10,5°C), so dass Westlagen im Jahresmittel geringfügig erwärmend wirken.
  2. Südwestlagen wirken in allen Jahreszeiten erwärmend, besonders im Herbst und Winter.
  3. Ostlagen wirken- trotz ihrer Wärme im Sommer- insgesamt kühlend (Jahresmittel von Kiew auf  dem 50. Breitengrad nur 7,4°C, mit Höhenkorrektur etwa 8,4°C).
  4. Nordlagen wirken überwiegend kühlend, Südlagen überwiegend wärmend.
  5. Die wärmsten Jahre sind solche mit einem hohen West- und Südwestanteil zwischen November und März und einem hohen Anteil von Hochdruck-, Süd- und Südwestwetterlagen zwischen April und Oktober.
  6. Zentralhochlagen (HM, BM) sind zwar im Winter (Dez.- Feb.) meist etwas zu kalt, mitunter temperaturnormal oder selten zu mild, besonders zwischen April und Mitte Oktober aber meist deutlich zu warm. Generell tendieren antizyklonale Wetterlagen im Winter zu unter- und im Sommer zu übernormalen Temperaturen.

Zunächst lohnt also einmal ein Vergleich, wie sich wärmende und kühlende Großwettertypen (GWT) im Jahresverlauf seit 1980 entwickelt haben:
 

Abb. 1: Eine augenscheinliche, wesentliche Änderung der Häufigkeiten wichtiger Großwettertypen ist nur bei den Westlagen erkennbar- diese nahmen deutlich ab, weil auch der NAO- Index seit Beginn der1980er Jahre einen fallenden Trend aufweist.
Die folgende Abbildung zeigt, dass Lagen mit südlichem Strömungsanteil etwas stärker zunahmen, als solche mit Nordanteil:

Abb. 2: Zwar nahmen Lagen mit Südanteil etwas stärker zu, als die mit Nordanteil. Aber auch daraus lässt sich nur ein geringer Teil der insgesamt beobachteten Temperaturänderung seit 1980 erklären, vor allem erklärt dies nicht die mit dem Jahr 2001 beginnende leichte Abkühlung.
Weiterhin zeigt sich, dass antizyklonale (hochdruckbeeinflusste) Wetterlagen deutlich abnahmen, während 5- b- artige Lagen (das sind zyklonale Lagen mit nördlicher bis östlicher Anströmung in den unteren Luftschichten, bei denen es aber in höheren Luftschichten oft zu einem mehr oder weniger intensiven Aufgleiten feuchter Mittelmeerluft kommt, was mitunter starke Niederschläge besonders in Süd- und Ostdeutschland auslöst; diese Lagen sind außerdem fast durchweg zu kalt und sehr sonnenscheinarm) etwas zunahmen:

Abb. 3: Hochdruckwetterlagen nahmen deutlich ab, 5- b- artige etwas zu.
Insgesamt bestätigen diese Untersuchungen unsere für den Temperaturverlauf von Erfurt (2012) getroffenen Aussagen, dass Änderungen in den Zirkulationsverhältnissen, speziell bei den Großwetterlagen, nur relativ geringe Teile der beobachteten Temperaturänderungen erklären können und statt dessen WI- Effekte, höhere Sonnenscheindauer und die Sonnenaktivität dominant sind (dass es aber auch einen bemerkenswerten Einfluss der Sonnenaktivität auf die Häufigkeit der Großwetterlagen gibt, werden wir gleich noch sehen). Am ehesten lassen sich noch die tendenziell schon länger anhaltende Abkühlung im Winter und die Erwärmung im Frühling mit geänderten Zirkulationsverhältnissen erklären:
 

Abb. 4: Kältere Winter auch durch weniger West- und mehr Nordwetter, wärmere Frühjahre auch durch mehr Hochdruckwetter (antizyklonale Lagen).
Im Sommer sind die Verhältnisse insgesamt noch schwieriger zu bewerten. Zwar nahm die Häufigkeit von Wetterlagen mit Nordanteil ab und die mit Südanteil, darunter besonders Südwest, deutlich zu, aber dafür wurden die im Sommer besonders warmen antizyklonalen Lagen seltener:

Abb. 5: Im Sommer nahmen die besonders stark erwärmend wirkenden antizyklonalen Wetterlagen („Hochdruckwetter“) sehr deutlich ab.
Insgesamt sei noch angemerkt, dass im Herbst Westwetterlagen deutlich ab- und Wetterlagen mit Süd- und Nordanteil etwas zugenommen haben.
Nun stellt sich natürlich die Frage, was die schwankende Häufigkeitsverteilung der Großwetterlagen beeinflussen könnte. Beim Blick in historische Wetterkarten fallen die strengen Februarmonate 1956, 1986 und 2012 mit ihrer Häufung nördlicher bis östlicher Wetterlagen auf. Vor jedem dieser kalten Februare gab es im November eine relativ hohe Sonnenaktivität, die im Dezember und Januar deutlich abnahm. F. BAUR (1956) schrieb dazu sinngemäß „… dass die Entwicklung des Großwetters auf zwei Ursachenkomplexe zurückzuführen ist: Auf die vorausgegangenen Zustände und Vorgänge des Weltwetters und auf die mengen- und artmäßigen Schwankungen der die Erde treffenden Sonnenstrahlung.“ Vor dem kalten Februar 2012 hat die im November 2011 noch hohe Sonnenaktivität ähnlich deutlich nachgelassen, wie 1956, auch 1985/86 war die Abnahme deutlich. F. BAUR schreibt weiter: „… der Einzigartigkeit des Temperaturverlaufs im Winter 1955/56… ging eine gleichfalls in 2 Jahrhunderten noch nie beobachtete Entwicklung auf der Sonne voraus… . Die Sonnenfleckenrelativzahlen… sind 1955 im November bis auf 89,2 gestiegen… danach folgte ein starker Fall des Monatsmittels der Sonnenfleckenrelativzahlen vom Nov. zum Dez. um 14% und zum Januar um weitere 8%… . Einigermaßen vergleichbar ist dieser Verlauf nur mit 1847/48… Es ist bemerkenswert, dass auch damals ein (einzelner) strenger Wintermonat auftrat, jedoch … um einen Monat früher als 1956, nämlich im Januar 1848 (Temp.- Abw. minus 6,8°C).“ Er merkt weiterhin an, dass die gut zu beobachtenden Sonnenflecken selbst zwar keinen nennenswerten Einfluss auf die Abstrahlung der Sonne im Bereich des sichtbaren Lichtes haben, sie aber die Photosphäre der Sonne so verändern, dass unter anderem die Menge der abgegebenen Ultravioletten Strahlung schwanken kann. Heute weiß man, dass eine zurückgehende Anzahl der Sonnenflecken auch ein Anzeichen für eine Abnahme der Stärke des solaren Magnetfeldes, des Sonnenwinds („Teilchenstrahlung“) und der solaren Radiostrahlung ist. Diese letztgenannten Größen sind es letztendlich, welche über verschiedenartige, komplizierte Mechanismen Witterung und Klima maßgeblich beeinflussen (die Sonnenflecken selbst bilden das Verhalten der „unsichtbaren“ Solarstrahlungsfrequenzen nur unvollständig ab). Da aber nur Daten über die Anzahl und Entwicklung der Sonnenflecken („Sonnenfleckenrelativzahlen“) in guter Qualität für den gesamten Betrachtungszeitraum verfügbar waren, sollen diese hier bei den weiteren Untersuchungen genutzt werden. Die folgende Abbildung zeigt die Entwicklung der Verhältnisse auf der Sonne vor und während des Kälteeinbruchs im Winter 2011/12:
 
Abb. 6: Starke Abnahme der Sonnenaktivität zwischen November 2011 und Februar 2012, Quelle: EIKE).
Es lag also nahe, einmal die Beziehungen zwischen der Anzahl der Sonnenflecken und der Häufigkeit der Großwetterlagen zu untersuchen. Zunächst haben wir die Jahresmittelwerte der Sonnenfleckenrelativzahlen zur jährlichen Anzahl der Großwettertypen (GWT) in Beziehung gesetzt. Bei den meisten GWT ergaben sich bei jährlicher Betrachtungsweise nur geringe bis mäßige Zusammenhänge, was bei der starken Schwankung der einzelnen Jahreswerte aber auch nicht wundert. Immerhin zeichneten sich positive Zusammenhänge zu West- und HM- Lagen ab, während Meridionallagen gehäuft bei geringer Sonnenaktivität auftraten. Durchaus bemerkenswert ist aber der Zusammenhang aber zum GWT Nord:

Abb. 7: Bei höherer Sonnenaktivität werden Nordlagen tendenziell seltener.
Um die starken, jährlichen Schwankungen auszugleichen, sind wir erstens in der Zeit weiter zurück und zweitens zu einer gleitenden Mittelbildung übergegangen. Wir konnten die Großwetterlagen bis einschließlich 1957 zurückverfolgen und haben ein über 11 Jahre gleitendes Mittel gewählt (bei der Betrachtung eines bestimmten Jahres fließen außer dessen Wert auch die Werte der jeweils 5 Vorgänger- und Nachfolgerjahre gleichrangig in das Gleitende Mittel ein). Somit ist das erste Betrachtungsjahr 1962 (inklusive 1957 bis einschließlich 1967), das letzte 2006. Der 11jährige Zeitraum wurde gewählt, weil er in etwa der Länge des Schwabe- Zyklus der Sonnenaktivität entspricht. Da Witterung und Klima verzögert auf Störgrößen, so auch auf Änderungen der Sonnenaktivität, reagieren, sollte sich bei dieser Vorgehensweise ein deutlicherer Zusammenhang zeigen. Die Ergebnisse sind bemerkenswert:

Abb. 8: Die Variabilität der Häufigkeit des GWT West wird zu 56% positiv von der Variabilität der Sonnenaktivität beeinflusst- bei höherer Sonnenaktivität treten tendenziell mehr Westlagen auf.

Abb. 9: Die Variabilität der Häufigkeit von Wetterlagen mit Nordanteil wird zu 51% von der Variabilität der Sonnenaktivität beeinflusst, allerdings negativ, so dass bei höherer Sonnenaktivität tendenziell weniger Nordwetter auftritt.
Die folgende Abbildung zeigt die Korrelationskoeffizienten einiger weiterer wichtiger Wetterlagengruppen bei 11- jähriger, gleitender Mittelung:

Abb. 10: Den abgebildeten Korrelationskoeffizienten entsprechen Bestimmtheitsmaße von 49 % beim GWT HM und 47 % bei Wetterlagen mit Südanteil. Antizyklonale Lagen (27 %), 5- b- Lagen (20 %) und Meridionallagen (16 %) werden noch mäßig, Ostlagen (GWT E)mit 3 % praktisch gar nicht von der Sonnenaktivität beeinflusst.
Zum Abschluss der Betrachtungen zum Einfluss der Sonnenaktivität auf die Großwetterlagen wollen wir uns noch einmal die Westwetterlagen etwas näher ansehen, denn von der nachlassenden Sonnenaktivität sind die einzelnen Großwetterlagen des GWT West unterschiedlich stark betroffen, was die folgende Abbildung zeigt:

Abb. 11: Die Häufigkeit der Westwetterlagen (GWT W) folgt im Großen und Ganzen der Sonnenaktivität (Schwarze Kurve). Dabei nahmen besonders die im Winter stark erwärmend wirkenden GWL WA und WZ im Verlauf der letzten 3 Jahrzehnte stark ab, während die Südlichen und die Winkelförmigen Westlagen (WS und WW) schon etwas eher und weniger deutlich zurückgingen. Bei geringerer Sonnenaktivität, welche auch zu einer Südverlagerung der Frontalzone führt, verschieben sich also die Gewichte innerhalb der Westlagen zumindest indirekt in Richtung der meist kühleren WS- und WW- Lagen.
Abschließend sei noch angemerkt, dass die Sonnenaktivität natürlich nicht allein das Verhalten der Großwetterlagen steuert. Auf andere wichtige Faktoren wie die AMO, die NAO und das ENSO- Phänomen, konnten wir im Rahmen dieser Arbeit nicht eingehen.
Zum Abschluss ein kurzer Ausblick- Wie könnte sich unser Klima in naher Zukunft entwickeln?
Klimaprognosen sind leider bei weitem nicht so einfach, wie uns das die Experten vom IPCC oder vom PIK immer einreden wollen. So wurde der gerade zu Ende gegangene Hochwinter (Januar und Februar) 2013 von fast allen Langfristvorhersagen deutlich zu mild vorhergesagt; er fiel aber im Vergleich zur Normalperiode 1961 bis 1990 etwas zu kalt, im Vergleich zum Mittel der vorangehenden 30 Jahre (1983 bis 2012) sogar deutlich zu kalt aus. Deshalb können und wollen wir keine exakte Prognose abgeben. Es verdichten sich jedoch die Anzeichen, dass es in den kommenden 3 bis 5 Jahrzehnten zu einer mehr oder weniger deutlichen Abkühlung kommen dürfte; manche Forscher halten sogar eine „Kleine Eiszeit“ mit ähnlichen Verhältnissen wie zur Zeit des „Dalton- Minimums“ der Sonnenaktivität in der 1. Hälfte des 19. Jahrhunderts für sehr wahrscheinlich. H. MALBERG hat in zahlreichen Arbeiten den engen, langfristigen Zusammenhang zwischen Sonnenaktivität und Lufttemperaturen nachgewiesen (folgende Abbildung):

Abb. 12: Die Sonnenaktivität (obere Abbildung) beeinflusst maßgeblich den Temperaturverlauf in Europa (Quelle: MALBERG, 2013).
In unserer Arbeit haben wir uns vorrangig mit den Ursachen des Temperaturverlaufs in Deutschland seit 1980 befasst. Zu Beginn dieses Untersuchungszeitraumes war das Maximum des intensiven Schwabe- Zyklus 21 zu beobachten; um 1990 folgte das noch intensivere des Zyklus 22, während der Zyklus 23, der sein Maximum 2000/2001 erreichte, schon deutlich schwächer ausfiel, allerdings nur in der Sonnenfleckenrelativzahl, nicht in der magnetischen Aktivität, oder der Röntgenaktivität der Sonne, diese stiegen bis ca. 2003 weiter an. Der aktuelle, noch nicht beendete Zyklus 24 fiel bislang sehr schwach aus und ähnelt hinsichtlich seiner sehr geringen Intensität den Zyklen 5 und 6, welche zu Beginn des 19. Jahrhunderts den letzten Höhepunkt der „Kleinen Eiszeit“ einleiteten. Die folgende Abbildung zeigt den sehr aktiven Zyklus 22 im Vergleich zum Zyklus 5, welcher dem jetzigen Zyklus 24 ähnelt:

Abb. 13:Während bei dem Schwabe- Zyklus 22 zu Beginn der 1990er Jahre sehr hohe Sonnenfleckenrelativzahlen von bis zu 200 aufgetreten sind, ähnelt der momentane Zyklus 24 dem unten abgebildeten Zyklus 5 vom Beginn des 19. Jahrhunderts. Er dauert länger, und die Sonnenfleckenrelativzahlen bleiben sehr niedrig (Quelle: www.schulze-md./de)
Weil die mittleren Lufttemperaturen der Sonnenaktivität aufgrund der Trägheit des Klimasystems mit einer deutlichen Verzögerung von mindestens einem halben Jahrzehnt folgen, wird auch der Temperaturverlauf der letzten Jahrzehnte transparenter. Auf die intensiven Schwabe- Zyklen 21 und 22 reagierte das Klima in Deutschland mit einer Erwärmung, die zeitversetzt etwa 10 Jahre später ihr Maximum (Jahr 2000) erreichte und dann- als Reaktion auf den schon schwächeren Zyklus 23- wieder zu fallen begann. Seit Mitte der 2000er Jahre ist die Sonnenaktivität nur noch sehr gering ausgefallen, und tendenziell nahm die Sonnenaktivität im Betrachtungszeitraum insgesamt stark ab, was sich nun auch zunehmend auf die Temperaturen auswirkt:

Abb. 14: Träges Klima- die Jahresmitteltemperaturen in Deutschland (Grün) folgten der Sonnenaktivität (Rosa) mit einer Verzögerung von mehr als einem Jahrzehnt, wenn man nur die sichtbaren Parameter der solaren Aktivität betrachtet. Die sehr hohe Sonnenaktivität der späten 1970er bis frühen 1990er Jahre wirkte darauf noch lange- bis zum Jahr 2000- nach.
Werden indes die bereits erwähnten, nicht sichtbaren Parameter, wie magnetische Aktivität oder kurzwellige elektromagnetischen Strahlung der Sonne betrachtet oder die Sonnenwindaktivität (für deren Einflüsse auf das Wetter z.B. der Svensmark- Effekt als Oberbegriff steht) und diese in Zusammenhang zur Temperaturentwicklung gesetzt, wird der unmittelbare Einfluss der solaren Aktivität auf unser Wetter/Klima sichtbar.

Abb. 15 (Quelle: http://bobtisdale.blogspot.com/2008/08/reference-graphs-total-solar-irradiance.html) zeigen die PMOD-TSI-Kurve von 1900 – 2007 (blau, vor 1980 rekonstruiert, PMOD = Physikalisch-Meteorologisches Observatorium Davos) und in rot die Satelliten-ACRIM-TSI-Kurve. Deutlich ist erkennbar, dass die solare Aktivität zum ausgehenden 20. Jahrhundert deutlich ansteigt und ihr Maximum erreicht. Dies wird noch mehr in der Abbildung rechts deutlich, wird jeweils der polynomische Trend angelegt. Anzumerken ist noch, dass der 23. Zyklus aufgrund der anderen Messcharakteristik von ACRIM III gegenüber ACRIM I (ACRIM = Active Cavity Radiometer Irradiance Monitor) im Vergleich zu seinen beiden Vorgängerzyklen gedämpft ist, also, würde auf ACRIM I normiert, er  nochmals höher ausfiele.
Werden die NASA-Satellitenmessungen ab 1980 mit den rekonstruierten TSI-Werten (TSI = Total Solar Irradiance) verknüpft, so ergibt sich die nachfolgende Datenreihe links.

Abb. 16: Die Datenreihe zeigt den TSI von 1850, dem Jahr, indem das IPCC seine Temperaturbetrachtung beginnen lässt, bis 2007. Sie passt auch zur Protonenaktivität (rot = Hochenergie: >10 MeV, gelb = Sonnenfleckenzahl) der Sonne, die als Maß ihrer Gesamtaktivität gilt, Abbildung rechts, Quelle: NOAA Space Environment Center. Ebenso zum Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus, der in 2003 sein Maximum hatte und der den Schwabe-Zyklus elementar beeinflusst, sowie zur Aussage der Max Planck Gesellschaft aus 2004, “Sonne seit über 8.000 Jahren nicht mehr so aktiv wie heute“.
Auch die folgende Abbildung belegt, dass die Aktivität der Sonne bis in den 23. Sonnenzyklus stetig ansteigt und diese Aktivitätssteigerung in den Sonnenflecken nicht sichtbar wird. D.h. die Sonnenflecken sind kein geeignetes Maß, um die tatsächliche solare Aktivität wieder zu geben. Sie sind dann erste Wahl, wenn es gilt, lange Zeitreihen, miteinander zu vergleichen, weil deren Beobachtungen einige Jahrhunderte zurück reichen.

Abb.17  (http://www.gao.spb.ru/english/astrometr/index1_eng.html) verdeutlicht, die Sonnenflecken sind nur eingeschränkt aussagefähig zur solaren Aktivität. Während der 23. Zyklus deutlich weniger Sonnenflecken zeigt als seine beiden Vorgänger und dadurch fälschlich abgeleitet wird, die solare Aktivität wäre deutlich niedriger, ist die Höhe der Strahlungsleistung gleich zu seinen Vorgängern. Der Betrag (Flächenintegral)ist sogar größer.
Dies zeigt auch sehr deutlich ein weiterer Parameter, der von Solar Stanford University verwendet wird und der für ein Maß für die magnetische und Sonnenwindaktivität ist, die Heliosphärische Stromschicht.

Abb. 18 (Quelle: ”Analysis of the heliospheric current sheet at Earth’s orbit and model comparisons”, Lepping, R. P.; Szabo, A.; Peredo, M.; Hoeksema, T., NASA Goddard Space Flight Center, International Solar Wind 8 Conference, p. 95, http://wso.stanford.edu/gifs/Tilts.gif) zeigt die Lage der Heliosphärischen Stromschicht der Sonne (Heliospheric Current Sheet) während der Sonnenzyklen 21 – 23 anhand zweier Analysemethoden, wobei angegeben wird, dass die Radialdaten möglicherweise genauer sind. Wie Leistenschneider übrigens in seiner 8-teiligen EIKE-Reihe, “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ zeigen konnte, ist dies eine falsche Einschätzung der Fachleute in Stanford. Deutlich ist zu sehen, dass die Sonne im 23. Sonnenzyklus am aktivsten war. Dieser fiel mit dem Maximum des Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries- Suess- Zyklus zusammen, der in 2003 sein 200-jähriges Maximun hatte.
Das gleiche Bild der Sonnenaktivität zeichnen Wilson & Hathaway in ihrer Arbeit “On the Relationship Between Solar Wind Speed, Geomagnetic Activity, and the Solar Cycle Using Annual Values”, NASA (Marshall Space Flight Center). Dort ist die folgende Abbildung des geomagnetischen aa- Index abgebildet.

Abb. 19 oben zeigt den aa- Index von 1868 – 2006. Die blauen Balken geben das Sonnenminimum der Sonnenzyklen an. Deutlich ist zu sehen, dass die geomagnetische Aktivität ab 1900 zunimmt und ihr Maximum im 23. Schwabe-Zyklus um 2003 hat. Die Abbildung darunter zeigt den geomagnetischen aa- Index in Verbindung der Sonnenfleckenzahl R  für die Jahre 1868 – 2006. Die blauen Balken zeigen das jeweilige solare Minimum und die roten Balken das jeweilige solare Maximum. Auch hier ist ab 1900 eine deutliche Steigerung der Sonnenaktivität zu verzeichnen und im 23. Schwabe-Zyklus um 2003 die Sonnenaktivität am höchsten. Im ihrem Bericht weisen Wilson & Hathaway übrigens darauf hin, dass die magnetische Aktivität jeweils nach dem Zyklusmaximum, wie es anhand der Fleckentätigkeit ermittelt wird, ihr Maximum erreicht.
Weil fast alle Astrophysiker von einer auch in den kommenden Jahren geringen Sonnenaktivität ausgehen, dürften nach unseren Untersuchungen auch die Temperaturen in naher Zukunft  weiter sinken. Es ist bemerkenswert, dass T. LANDSCHEIDT schon in den 1980er Jahren diese Entwicklung bereits im Großen und Ganzen richtig vorhergesagt hatte. Ihm zu Ehren wäre es wünschenswert, das aktuelle Aktivitätsminimum der Sonne als Landscheidt- Minimum zu bezeichnen.
Da wir uns im letzten Teil unserer Arbeit mit der Sonnenaktivität beschäftigt haben, wollen wir ganz am Ende noch einmal kurz auf die Sonnenscheindauer zurückkommen, deren Zunahme maßgeblich an der Erwärmung der vergangenen Jahrzehnte beteiligt war (siehe Teil 2). H. SVENSMARK fand heraus, dass die bis in tiefere Luftschichten vordringende Kosmische Strahlung bei höherer Sonnenaktivität abnimmt (dafür sorgt das dann stärkere solare Magnetfeld). „Kosmische Strahlung“ besteht jedoch aus hochenergetischen Teilchen, welche die Bildung von Kondensationskeimen und damit die Bildung tiefer Wolken und Nebel fördern. Im Zuge der aktuell nachlassenden Sonnenaktivität schwächt sich auch das solare Magnetfeld deutlich ab, so dass sich die Intensität der Kosmischen Strahlung wieder erhöht. Mehr tiefe Wolken und mehr Nebel bedeuten aber weniger Sonnenschein. Dass die Zunahme der Sonnenscheindauer an den meisten deutschen Stationen trotzdem bis in die Gegenwart andauerte, liegt an den umfangreichen Luftreinhaltemaßnahmen, welche den „Svensmark- Effekt“ bislang noch überkompensierten. Es gibt aber bereits Gegenden, wo sich die nachlassende Sonnenaktivität bereits auf die Sonnenscheindauer auswirken könnte- die Hochseeinsel Helgoland oder der Westen Englands, wo der Effekt der Luftreinhaltemaßnahmen zwar auch vorhanden, aber deutlich geringer ist. Unsere letzte Abbildung zeigt, dass die Trendwende zu sonnenscheinärmeren Zeiten dort bereits begonnen hat, auch auf dem Festland dürfte sich diese Entwicklung  ab sofort deutlicher bemerkbar machen.

Abb. 20: Im atlantischen Klima hat die „Trendwende“ zu sonnenscheinärmerer Witterung bereits Mitte der 2000er Jahre begonnen. Quelle für die England- Werte: http://sunshinehours.wordpress.com/category/uk-met/
Verfasst und zusammengestellt (2013) von
Stefan Kämpfe, Weimar
Josef Kowatsch, Hüttlingen
Raimund Leistenschneider, EIKE
Literaturliste
Abdussamatow, H. I. (2012): Zweihundertjährige Abnahme der Solarstrahlung führt zu einem Ungleichgewicht des thermischen Budgets der Erde und zu einer Kleinen Eiszeit. Petersburg 2012 http://nextgrandminimum.files.wordpress.com/2012/11/abduss_apr.pdf
Baur, F.: Gedanken und Tatsachen zur Frage der Ursache der strengen Kälte im Februar 1956. Nachdruck in: Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 43/06 (Sonderbeilage 12/06) vom 17.05.2006
Calder, N., Svensmark, H. (2007): The Chilling Stars – A New Theory of Climate Change, übersetzt ins Deutsche von Helmut Böttiger: Sterne steuern unser Klima: Eine neue Theorie zur Erderwärmung. Patmos Verlag, Düsseldorf 2008
Deutscher Wetterdienst (DWD) (2010, 2011): Großwetterlagen- Anzahl der Tage.
www.dwd.de
Fett, W. (2012): Klimawandelschuldzuweisung: Mensch oder doch Sonne? Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 73/12 (Sonderbeilage 35/12) vom 12.12.2012
Hess, P., Brezowsky, H.: Katalog der Großwetterlagen Europas. Ber. Dt. Wetterd. in der US- Zone 33, 1952.
Hess, P., Brezowsky H.: Katalog der Großwetterlagen Europas. 2. neu bearbeitete und ergänzte Auflage. Ber. Dt. Wetterd. 15 (113), 1969.
Hess, P., Brezowsky, H.: Katalog der Großwetterlagen Europas 1881–1976. 3. verbesserte und ergänzte Aufl.. Ber. Dt. Wetterd. 15 (113), 1977.
http://.wikipedia.org/ Zeitreihe der Lufttemperatur in Deutschland ab 1761
Kämpfe, S., Kowatsch, J., Leistenschneider, R.: Starker Temperaturanstieg seit 1979 in Erfurt- warum CO2 dabei nur eine unbedeutende Nebenrolle spielt! Teil 1 Vorstellung der Hauptakteure (20.10.2012) und Teil 2 „Trittbrettfahrer“ CO2- Das Phantom der Klimawissenschaft (26.10.2012) www.eike-klima-energie.eu
Landscheidt, T. (1983): Solar oscillations, sunspot cycles and climatic change. Boulder 1983
Leistenschneider, R. (2011): Dynamisches Sonnensystem- die tatsächlichen Hintergründe des Klimawandels, Teile 1 bis 8
Teil 1 – Die Sonne bestimmt den Temperaturgang
Teil 2 – Die Sonne, der faszinierende Stern
Teil 3 – Sonnenflecken und ihre Ursachen
Teil 4 – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht,
            interplanetares Magnetfeld
Teil 5 – Die variable Sonne
Teil 6 – Der Einfluss der Sonne auf unser Wetter/Klima
Teil 7 – Der Einfluss der Sonne auf die Wolkenbedeckung über Svensmark hinaus
Teil 8 – Zukünftige Temperaturentwicklung und deren Schwankungen
Teile 1 bis 8 bei www.eike-klima-energie.eu
Malberg, H. (2002 bis 2013) Beiträge des Instituts für Meteorologie der Freien Universität Berlin/Berliner Wetterkarte:
– Über den Klimawandel in Mitteleuropa seit 1850 und sein Zusammenhang mit der Sonnenaktivität. SO 17/02
– Die globale Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO 27/02
– Die nord- und südhemisphärische Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO 10/03
– Der solare Einfluss auf das mitteleuropäische und globale Klima seit 1778 bzw. 1850. SO 01/07 (2007) – In Memoriam
Prof. Richard Scherhag.
– Über den dominierenden solaren Einfluss auf den Klimawandel seit 1701. SO 27/07
– El Nino, Vulkane und die globale Erwärmung seit 1980. SO 34/07
– El Niño und der CO2-Anstieg sowie die globale Erwärmung bei CO2-Verdopplung. SO 02/08
– Die unruhige Sonne und der Klimawandel. SO 20/08
– Über die kritische Grenze zwischen unruhiger und ruhiger Sonne und ihre Bedeutung für den Klimawandel. SO 03/09
– La Niña – El Niño und der solare Einfluss – Der Klimawandel 1950-2008. SO 11/09
– Über das Stadtklima und den Klimawandel in Deutschland seit 1780. SO 18/09
– Langfristiger Klimawandel auf der globalen, lokalen und regionalen Klimaskala und seine primäre Ursache: Zukunft
braucht Herkunft. SO 29/09 (2009)
– Der solare Einfluss auf den Klimawandel in Westeuropa seit 1672. SO 37/09 (2009)
– Rekonstruktion des Klimawandels seit 1860 bzw. 1672 aufgrund solarer Aktivitätsänderungen, SO 11/10 (2010)
– Kurzperiodische und dekadische Klimavariabilität im Zeitraum 1980-2009. SO18/10 (2010)
– Über scheinbare und tatsächliche Klimaerwärmung seit 1850. SO 26/10 (2010)
– Analyse des solaren Effekts und des langfristigen Klimawandels seit 1680 sowie des gegenwärtigen kurzperiodischen
Klimaverhaltens SO 09/11 (2011)
-Über sprunghafte Anstiege von CO2 und globaler Temperatur –SO 05/12 (2012)
-Fakten zum Klimawandel seit der Kleinen Eiszeit SO 01/13
Standardisierte beziehungsweise normalisierte NAO- Werte Januar 1950 bis Dezember 2011: www.cpc.noaa.gov/
Tabellen der Sonnenfleckenrelativzahlen www.schulze-md./de (dort auch Abbildungen aller 23 Zyklen) und www.swpc.noaa.gov/solarCycle
Vahrenholt, F., Lüning, S.(2012): Die kalte Sonne. Warum die Klimakatastrophe nicht stattfindet. Hoffmann und Campe, Hamburg 2012
Werner, P. C., Gerstengarbe, F.W. (2010): KATALOG
DER GROSSWETTERLAGEN EUROPAS
(1881-2009)
NACH PAUL HESS UND HELMUT BREZOWSKY. PIK Report
No. 119 Potsdam 2010
http://sunshinehours.wordpress.com/category/uk-met/ Sonnenscheindauer in Südwestengland und Wales
”Analysis of the heliospheric current sheet at Earth’s orbit and model comparisons”, Lepping, R. P.; Szabo, A.; Peredo, M.; Hoeksema, T., NASA Goddard Space Flight Center, International Solar Wind 8 Conference, p. 95
Wilson & Hathaway, “On the Relationship Between Solar Wind Speed, Geomagnetic Activity, and the Solar Cycle Using Annual Values”, NASA

Related Files




Lastganglinien als Erfolgskontrolle der Energiewende mit Windenergie- und Fotovoltaik-Anlagen

Eine energiewirtschaftliche Bewertung der Stromeinspeisung aus Windkraft- und Fotovoltaik-Anlagen kann sehr zuverlässig über Lastganglinien erfolgen, die den zeitlichen Verlauf der Einspeiseleistungen der jeweiligen Erzeugungsanlagen darstellen. Bei  Gegenüberstellung der im deutschen Stromnetz benötigten Leistung kann anhand der Lastganglinien wirkungsvoll kontrolliert werden, welcher Energieträger mit welchem prozentualen Anteil den momentanen Bedarf deckt.
Diese effektive Erfolgskontrolle mittels der Lastganglinien unterbleibt in allen öffentlich geführten Diskussionen. Dabei ist aus allen Daten der zu ihrer Veröffentlichung gesetzlich verpflichteten Übertragungsnetzbetreiber Amprion, 50 Hertz, TenneT und Transnet BW (www.eeg-kwk.net) und der European Energy Exchange (www.eex.com) klar zu erkennen, dass die sichere Stromversorgung in Deutschland ohne einen ausreichend großen dargebotsunabhängigen konventionellen Kraftwerkspark nicht gewährleistet werden kann. Nur ein „allzeit bereiter“ Kraftwerkspark ist in der Lage, die Diskrepanz zwischen Stromangebot und Stromnachfrage zu decken.
Diagramm 1: Stromverbrauchskurve (Band bis ca. 73 000 MW) in den Wintermonaten 2013 und die Einspeiseleistungen aller  Windenergie- und Fotovoltaik-Anlagen in Deutschland

Zur Erzeugung des in Deutschland verbrauchten Stroms speisen Kraftwerke mit einer Leistung von bis zu 80.000 MW in zeitlicher Abhängigkeit vom Verbrauch in das öffentliche Stromnetz ein. Diese von den Anforderungen der Stromverbraucher zeitabhängige Einspeiseleistung wird bisher von konventionellen und seit einigen Jahren verstärkt von regenerativen Stromerzeugungs-Anlagen bereitgestellt, wobei die EEG-Anlagen mit gesetzlich festgelegtem Vorrang ins Stromnetz einspeisen, während die konventionellen Anlagen dem stark variierenden Stromverbrauch und der unsteten Einspeiseleistung der Windenergie- und Fotovoltaik-Anlagen nachregeln. Im Diagramm 1 sind die akkumulierten Einspeiseleistungen aller Windenergie-Anlagen (Wind blau) und aller Fotovoltaik-Anlagen (Solar gelb) maßstäblich zum Stromverbrauch (roter Hintergrund) für den Zeitraum Dezember 2012 bis Februar 2013 wiedergegeben.
In Deutschland sind aktuell 24.000 Windenergie-Anlagen mit einer Nennleistung von ca. 30.000 MW und Fotovoltaik-Anlagen mit einer Nennleistung von ca. 32.000 MW installiert. Damit hat der Bestand an Windenergie- und Fotovoltaik-Anlagen mit zusammen 62.000 MW Nennleistung fast die Größenordnung der Einspeiseleistung des Kraftwerksparks erreicht, die zur Sicherstellung einer stabilen Stromversorgung in Deutschland zeitgleich zur Abnahme im Stromnetz zur Verfügung stehen muss. Als Nennleistung einer Stromerzeugungsanlage wird die höchste Leistung definiert, die bei  optimalen Betriebsbedingungen dauerhaft zur Verfügung gestellt werden kann. Windenergie-Anlagen erreichen beispielsweise ihre auf dem Typenschild angegebene Nennleistung erst bei Windgeschwindigkeiten ab 13 m/sec bis 15 m/sec, die bei starken bis stürmischen Windverhältnissen vorliegen und per Definition zu „Widerstand beim Gehen gegen den Wind“ führen.

Lastganglinien

Zuverlässige Aussagen über die Wertigkeit der Stromerzeugung aus Windenergie- und Fotovoltaik-Anlagen, d.h. Aussagen über die zeitadäquate Erzeugung von kWh (elektrische Arbeit), können aus Lastganglinien gewonnen werden, da diese den zeitlichen Verlauf der Einspeiseleistung dokumentieren.
Diagramm 2: Lastganglinie (zeitabhängige Einspeiseleistung) aller deutschen Windenergie-Anlagen ab 2010 mit aktuell 30.000 MW Nennleistung

Das Diagramm 2 stellt die gesamte Stromeinspeisung aller Windenergie-Anlagen in Deutschland im Zeitraum 2010 bis Februar 2013 dar. In diesem Zeitraum wurde die installierte Nennleistung des Windenergie-Kraftwerkparks um 5 000 MW auf über 30.000 MW erhöht (blauer Hintergrund). Die dargestellte Lastganglinie ist charakterisiert durch eine ausgeprägte Stochastik mit hohen Leistungsspitzen und langen Zeiträumen minimaler Einspeiseleistung. Eine gesicherte Stromeinspeisung mit einem akzeptablen „Sockel“ an Einspeiseleistung ist über den gesamten Darstellungszeitraum nicht zu konstatieren. Daher bleibt die  „gesicherte Minimalleistung“ aller 24 000 Windenergie-Anlagen in Deutschland trotz des starken Zubaus der letzten Jahre im gesamten Zeitraum und insbesondere auch in den Wintermonaten mit höherem Stromverbrauch weiterhin nahezu Null: „Wenn kein Wind weht, sind alle Windmühlen betroffen“.
In der öffentlichen Diskussion der Regenerativen Energien werden gerne die Begriffe „Elektrische Leistung (kW)“ und „Elektrische Arbeit (kWh)“ miteinander vermischt. Die Zuwachsraten an installierter Nennleistung werden als Beleg für den Erfolg der regenerativen Stromerzeugung gewertet, obwohl diese nur den Zuwachs an möglichem Potential bei optimalem Angebot an Windgeschwindigkeit und Sonneneinstrahlung beschreiben. Zur Klarstellung sei nochmals dieses einfache Beispiel angefügt: Eine Windenergie-Anlage mit einer Nennleistung von 1 MW liefert, wenn sie über einen Tag ständig mit ihrer maximalen Leistung von 1 MW betrieben wurde, die elektrische Arbeit von 24 MWh (1 MW*24h=24 MWh). Bei Windgeschwindigkeiten unter 3 m/sec steht die Anlage still; die volle Leistung wird bei Sturmstärke erreicht. Die oft geübte Praxis der  Verrechnung von Nennleistungen regenerativer Anlagen mit den Leistungen von „Atomkraftwerken“ ist entweder raffiniert angelegte  Irreführung oder zeugt von völliger Unkenntnis der Fakten.
Diagramm 3: Lastganglinie (zeitabhängige Einspeiseleistung) aller deutschen Fotovoltaik-Anlagen ab Juli 2010 mit aktuell 32.000 MW Nennleistung; „Stundenganglinie“, weil Stundenwerte genutzt werden.

Das Diagramm 3 mit Darstellung der Lastganglinie aller deutschen Fotovoltaik-Anlagen und der Entwicklung der Nennleistung dieser Anlagen mit aktuell ca. 300 Millionen m² Kollektorfläche spiegelt den rasanten Ausbau innerhalb der letzten drei Jahre (13 000 MW -> 32 000 MW Nennleistung) und den krassen Widerspruch zu den tatsächlich eingespeisten Leistungen wider. Auffällig sind auch die hohen Stromimpulse in den Sommermonaten, die kurzzeitig in den Mittagsstunden ins Stromnetz eingespeist werden und mit dem starken Zubau der Anlagen in den letzten Jahren sehr hohe Amplituden mit steilen Flanken erreichen. Zudem ist die Lastganglinie des gesamten Fotovoltaik-Anlagenparks durch den stark ausgeprägten Sommer-Winterzyklus charakterisiert. In den Wintermonaten wurden an vielen Tagen nur wenige Hundert MW Leistung als Maximal-Amplitude in der Mittagszeit erreicht.
Durch die Abhängigkeit von der Sonneneinstrahlung können diese Anlagen grundsätzlich nur eine gepulste Stromeinspeisung mit teilweise sehr hohen Stromspitzen zur Mittagszeit vorwiegend in den Sommermonaten anbieten. In den Wintermonaten tendiert die Stromeinspeisung auch um die Mittagszeit zu Minimalwerten von wenigen Hundert MW. Die stark verminderte Bereitstellung von elektrischer Arbeit (kWh) aus Fotovoltaik in den Wintermonaten – hervorgerufen durch den niedrigen Sonnenstand und die im Winter vorherrschenden Wetterlagen – läuft dem in dieser Jahreszeit stark steigenden Strombedarf der Verbraucher konträr entgegen. In den Wintermonaten werden nur etwa 10 % der elektrischen Arbeit (kWh) der Sommermonate erzeugt.
Im Diagramm 4 wurden die Einspeiseleistungen aller Windenergie- und Fotovoltaik-Anlagen in Deutschland für den Zeitraum 2010 bis 2013 aufsummiert. Das Diagramm zeigt ebenfalls sehr deutlich die Diskrepanz zwischen der installierten Nennleistung (hellgrüne Fläche) mit einem starken Zuwachs von über 20.000 MW Nennleistung seit Mitte 2010 auf aktuell 62.000 MW Nennleistung und der Lastganglinie der unstet einspeisenden Anlagen. Die im Diagramm als dunkelgrüne Fläche ausgebildete Lastganglinie (Flächenintegral) repräsentiert die gewonnene elektrischen Arbeit (kWh) über die Jahre. 2010 wurden laut Fraunhofer Institut 49,5 Milliarden kWh, 2012 73,7 Milliarden kWh ins Stromnetz eingespeist.
Diagramm 4: Lastganglinie (zeitabhängige Einspeiseleistung) aller deutschen Windenergie- und Fotovoltaik-Anlagen ab Juli 2010 mit aktuell 62 000 MW Nennleistung

Die von allen Windenergie- und Fotovoltaik-Anlagen erzeugte Leistung ist als Lastganglinie (dunkelgrüne Zackenkurve) dargestellt. Man erkennt unschwer, dass die erzeugte Leistung  (Einspeiseleistung) dauerhaft nur einen geringen Teil der Nennleistung, also der maximal möglichen Leistung bei optimalen Betriebsbedingungen bezüglich des Dargebots an „Sonne und Wind“ ausmacht. Durch Überlagerung von „Sonne und Wind“ wird ein gewisser Ausgleich in der Sommer-Winter Charakteristik der Lastganglinie erreicht.
Auffällig bei allen Lastganglinien ist die Charakteristik der Stromeinspeisung mit hohen Spitzen und tiefen Tälern über den gesamten Zeitraum, ohne dass über den starken Zubau an Anlagen in den letzten Jahren ein Trend zur Vergleichmäßigung der Einspeiseleistung oder eine „Sockelbildung“ für die Minimale Einspeiseleistung zu konstatieren ist. Auch in 2012 wäre ohne Vorhalten eines vollumfänglichen konventionellen Kraftwerksparks mit grundlastfähigen Anlagen die Stromversorgung des Industriestandorts Deutschland nicht machbar gewesen, obwohl bereits 74 Milliarden kWh über „Sonne und Wind“ in 2012 eingespeist wurden. Bisher konnte noch kein konventionelles dargebotsunabhängiges Kraftwerk durch Anlagen auf Basis von „Sonne und Wind“ ersetzt werden.
Die Diagramme 5 und 6 dokumentieren den Beitrag der Einspeiseleistung aller deutschen Windenergie- und Fotovoltaik-Anlagen mit 62.000 MW Nennleistung zur Stromversorgung jeweils im Zeitraum 12. bis 17. Januar 2013 bzw. 15. bis 18. Februar 2013. Diese „Lupen“ der im Diagramm 4 dargestellten akkumulierten Lastganglinie zeigen sehr deutlich, dass auch über relativ lange Zeiträume die Stromnachfrage mit bis zu 70.000 MW Einspeiseleistung nur durch minimale Beiträge von wenigen Hundert MW Leistung aus Fotovoltaik und Windenergie gedeckt werden konnte.
Diagramm 5: Lastganglinie (zeitabhängige Einspeiseleistung) aller deutschen Windenergie- und Fotovoltaik-Anlagen mit aktuell 62 000 MW Nennleistung im Januar 2013

Diagramm 6: Lastganglinie (Einspeiseleistung pro Zeit) aller deutschen Windenergie- und Fotovoltaik-Anlagen mit aktuell 62 000 MW Nennleistung im Februar 2013

Stromverbrauchsspitzen treten im Winter morgens um 9 Uhr und abends um 18 Uhr auf, zu Zeiten, zu denen die Fotovoltaik-Anlagen wegen des Sonnenstands nur minimal beitragen können (siehe gelbe Strompulse). Minimale Leistungsbeiträge gerade zu diesen Tageszeiten auf diesem niedrigen Niveau sind keine Seltenheit. So haben am 17.2.2013 alle Wind- und Fotovoltaik-Anlagen mit einer gesamten installierten Nennleistung von 62.000 MW nur 141 MW Einspeiseleistung zur Verfügung gestellt, also gerade einmal 2,24 Promille.

Energiespeicherung

Vor einem weiteren Zubau von Wind- und Fotovoltaik-Anlagen sind Speichermöglichkeiten zu schaffen. Ohne ausreichende Energiespeicherung ist angesichts der Volatilität der Einspeiseleistung der Windenergie- und Fotovoltaik-Anlagen ein Ersatz von konventionellen Anlagen unmöglich. Pumpspeicherkraftwerke stellen die effektivste großtechnische Möglichkeit zur Speicherung von Energie, die zur Stromversorgung genutzt werden kann, dar. In Deutschland sind über 30 große und kleine Pumpspeicherkraftwerke verfügbar. Das neueste und leistungsfähigste mit 1.060 MW Nennleistung ist das Pumpspeicherkraftwerk Goldisthal mit zwölf Millionen Kubikmeter Wasser im Oberbecken und einer Gesamtlänge des Ringdamms des Oberbeckens von 3.370 Metern. Insgesamt sind in Deutschland zurzeit Kapazitäten von ca. 7.000 MW am Netz. Die Leerlaufzeiten dieser Pumpspeicherkraftwerke liegen größtenteils zwischen 5 bis 7 Stunden, abhängig von der Auslegung der Anlagen. Um die Leistung von 1.000 MW über einen Zeitraum von 24 Stunden durchgängig  bereitzustellen, müssen also ca. 4 Pumpspeicher a 1.000 MW vorhanden sein. Ohne einen parallel betriebenen konventionellen Kraftwerkspark muss aufgrund der fehlenden gesicherten minimalen Leistung der Windenergie- und Fotovoltaik-Anlagen (im Betrachtungszeitraum zeitweise weit unter 1.000 MW) nahezu der gesamte Stromverbrauch aus gespeicherter Energie über mehrere Tage sichergestellt werden. Im Beispiel (Diagramm 5) hätten daher 6 Tage mit der Last bis 70.000 MW durch Speicherung überbrückt werden müssen. Daraus würden 1.680 Pumpspeicherkraftwerke (70*4*6) mit je 1.000 MW Nennleistung bzw. 70 Speicherkraftwerke  mit dem jeweils 24-fachen Wasservolumen (bis 300 Millionen m³) von Ober- und Untersee resultieren, was völlig illusorisch ist.
Für den im Schwarzwald geplanten Bau eines Pumpspeicherkraftwerks werden Milliardenbeträge an Baukosten geschätzt. Aus diesem Kostenansatz allein wird deutlich, dass die Speicherung von Energie für die an den Stromverbrauch angepasste  Stromgewinnung als Backup für Regenerative Anlagen nicht machbar ist. Zudem ist das in Deutschland etablierte Umweltschutzverständnis eine weitere Hürde für den Bau dieser Anlagen. Trotzdem werden die Realisierungsmöglichkeiten und das technische Potential der Speicherung in allen öffentlichen Diskussionen völlig überschätzt und mit dem lapidaren Hinweis auf Forschungs- und Entwicklungsbedarf, der sicher vorhanden ist, abgehandelt. Die Kostenfrage wird völlig ignoriert.
Eine nennenswerte Zwischenspeicherung in Fahrzeugbatterien ist wegen des zu erwartenden schleppenden Ausbaues der Elektroautoflotte und der ebenfalls zu erwartenden Uneinsichtigkeit der Fahrzeughalter in die Notwendigkeit zur Entladung seiner Batterien zur Netzstützung nicht realisierbar.
Ebenso illusorisch ist die Idee der Produktion von „Windgas“ (Herstellung von Methan über den Sabatier-Prozess) an Windenergieanlagen als Speichermethode für diese gewaltigen Energiemengen. Aus dem mehrstufigen Prozess über Wasserstoff zu Methan zur Bereitstellung für die Wiederverstromung in Gaskraftwerken resultieren große Wirkungsgradverluste, so dass mit maximal 25 % des ursprünglichen Energieniveaus für die erneute Stromgewinnung gerechnet werden kann. Zur Kompensation dieser Verluste würde selbstverständlich der Bedarf an weiteren Windenergie- und Fotovoltaik-Anlagen nochmals beträchtlich ansteigen. Daraus resultiert ein Kreislauf, der allein schon an der Kostenfrage
scheitern würde.

Gedankenexperiment Vollversorgung mit Sonne und Wind

Die Vertreter der "100 % Regenerative-Option" gehen von der zukünftigen Installation von Windenergie-Anlagen im Onshore-Bereich von 200.000 MW Nennleistung, im Offshore-Bereich von 85.000 MW Nennleistung und für Fotovoltaik-Anlagen von 250.000 MW Nennleistung aus, also in der Summe von 535.000 MW Nennleistung.
Um die Auswirkungen einer Vervielfachung der Installation von Windenergie- und Fotovoltaik-Anlagen auf die Stabilität der Stromversorgung in Deutschland überprüfen zu können, bietet sich ein Gedankenexperiment an. Es wird angenommen, dass ein Bundesland durch den gesamten in Deutschland bisher installierten Kraftwerkspark aus „Sonne und Wind“ fiktiv versorgt wird. Ein gutes Beispiel für diese Überprüfung ist Baden-Württemberg, weil für dieses Versorgungsgebiet die Lastganglinien des Stromverbrauchs und der Einspeiseleistungen über die von EEX (European Energy Exchange) und Entsoe bereitgestellten Daten direkt verfügbar sind (Übertragungsnetzbetreiber Transnet BW). Zudem erreichte die bundesweite Stromproduktion aus Windenergie- und Fotovoltaik-Anlagen mit 73,7 Milliarden kWh in 2012 fast den Stromverbrauch von Baden-Württemberg von 80 Milliarden kWh.
Diagramm 7: Einspeiseleistung aller Windenergie- und Fotovoltaik-Anlagen in Deutschland relativ zur Stromverbrauchskurve für Baden-Württemberg (Band bis ca. 10 000 MW) im Winter 2013

Mit der Fokussierung der aktuell in Deutschland installierten gesamten Wind- und Fotovoltaik-Kapazitäten auf dieses Bundesland wäre die angestrebte Endausbaustufe also fiktiv bereits heute erreicht. Auch der abgeschlossene Bau von Stromtrassen wäre simuliert, da fiktiv quasi alle Anlagen ideal mit dem Bundesland vernetzt sind. Müsste dann nicht Baden-Württemberg durch diese regenerative Stromproduktion voll versorgt werden können?
Der Vergleich für Baden-Württemberg (Diagramm 7) zeigt deutlich die Diskrepanz zwischen dem Stromverbrauch mit ca. 9.000 MW mittlerer Einspeiseleistung und der Stromerzeugung der gesamtdeutschen Windenergie- und Fotovoltaik-Anlagen (grüne Fläche) im Zeitraum Dezember 2012 bis Februar 2013. Selbst bei massivem Ausbau der regenerativen Energien aus "Sonne und Wind" um den Faktor 12 von derzeit 5 000 MW (in BW aktuell installiert) auf 62 000 MW Nennleistung kann das Bundesland Baden-Württemberg nicht versorgt werden. Die massive Unterdeckung (rote Flächen) über lange Zeiträume ist offensichtlich, obwohl die Windenergie- und Fotovoltaik-Anlagen mit 62.000 MW Nennleistung und einer Erzeugung von 73,7 Milliarden kWh einem Stromverbrauch in Baden-Württemberg von 80 Milliarden kWh mit einer mittleren Einspeiseleistung von ca. 9.000 MW in 2012 gegenüber steht. Auch in diesem Vergleich zeigt sich der gravierende, aber meist nicht beachtete Unterschied zwischen Leistung und Arbeit.
Aufgrund der bundesweiten typischen Einspeisecharakteristik gilt diese Aussage auch für alle anderen Bundesländer in unterschiedlicher Stufung. Selbst für Rheinland-Pfalz („mein Heimatland“) mit einem Stromverbrauch von „nur“ 30  Milliarden kWh und einer mittleren Einspeiseleistung von ca. 3.500 MW ist die Versorgung nicht machbar, wie eine gedachte Horizontallinie bei 3.500 MW im Diagramm 7 demonstriert. Zudem wäre der gesamte Kraftwerkspark eines fiktiv versorgten Bundeslandes generell nicht in der Lage, die auftretenden Stromspitzen auszugleichen.
Zusammenfassung:
In Deutschland werden fast ausschließlich die beeindruckenden Gesamtzahlen der Energieerzeugung in „Haushalten“ bzw. die jährlich neuen Rekordmarken für die installierte Nennleistung der bundesdeutschen Windenergie- und Fotovoltaik-Anlagen in Diskussionen eingeführt. Die energiewirtschaftlich maßgeblichen Lastganglinien dieser Anlagen, die die eingespeiste Leistung der Anlagen als Funktion der Zeit dokumentieren, also das Resultat des Betriebs des Kraftwerksparks aus „Sonne und Wind“ darstellen, werden fast völlig ignoriert. Deshalb herrschen in weiten Teilen der Bevölkerung schwerwiegende Fehleinschätzungen zum Potenzial dieser Erzeugungsanlagen vor.
Ebenso wie durch den Mangel an Einspeiseleistung bei sehr hohem Verbrauch – mehrfach Blackout-Gefahr im Winter letzten Jahres wegen des extremen Stromverbrauchs von bis zu 82. 000 MW Einspeiseleistung – kann die Stabilität der Stromversorgung durch unkoordinierte hohe Netzeinspeisungen gefährdet werden. Daher werden Abschaltmechanismen für die Anlagen eingeführt werden müssen, die zukünftig verstärkt zur Vergütung auch von nicht erzeugtem Strom führen.
Die Regenerativen Energien aus „Sonne und Wind“ sind Additive. Der Kraftwerkspark aus Windenergie- und Fotovoltaik-Anlagen kann prinzipiell den konventionellen Kraftwerkspark nicht ersetzen, auch wenn dies oft unter dem Stichwort „Entcarbonisierung“ kolportiert wird. Diese eminent wichtige Feststellung zur „Energiewende“ wird permanent in allen öffentlich geführten Diskussionen u.a. mit Hinweisen auf die „Unzulänglichkeit der Bundesregierung“ oder auf noch „ausstehende Ergebnisse zur Speicherung“ und „fehlende Stromtrassen“ nebulös unterschlagen. Die ausstehenden Stromtrassen z.B. nützen zum Abtrag der Stromspitzen – also der Verteilung von lokalen Überschüssen (z.B. von Nord- nach Süddeutschland). Bei Windflaute und zugeschneiten Fotovoltaik-Anlagen – also bei Mangelsituationen – bieten sie keine Hilfe.
Letztlich wird das begrenzte Regelband der konventionellen Anlagen den Endpunkt der volatilen Netzeinspeisung der Windenergie- und Fotovoltaik-Anlagen aus physikalisch-technischen Gründen bestimmen. Der Ausweg Energiespeicherung zur Glättung der Lastganglinien der Windenergie- und Fotovoltaik-Anlagen in der notwendigen Größenordnung bis 70.000 MW über mehrere Tage, der konventionelle Kraftwerke verzichtbar machen könnte, ist auch nicht ansatzweise in Sicht. Zudem werden die Kosten, die ja gleichzeitig auch Verbrauch von Ressourcen sind, über die Dauer und Intensität des Fortgangs der Energiewende in jetziger Ausgestaltung entscheiden.  Durch die EEG-Festlegung der vorrangigen Netzeinspeisung wird ein doppelter Kraftwerkspark faktisch erzwungen.
Ich danke herzlich Herrn Rolf Schuster für die intensive Zusammenarbeit und die Beistellung der Diagramme, die auf Basis der Daten der Übertragungsnetzbetreiber erstellt wurden, zu deren Veröffentlichung sie gesetzlich verpflichtet sind.
Zu meiner Person: Ich interessiere mich seit mehr als 20 Jahren für die Effektivität von Erzeugungsanlagen für regenerative Energien. Mir geht es um effektive Stromerzeugung und den Erhalt unserer Kulturlandschaft.
Autor Dipl. Phys. Karl Linnenfelser

Quellen:
Daten der Übertragungsnetzbetreiber
BDEW
Fraunhofer Institut
Weiterführender Link:

Irrsinn in Irsching: Einem dringend gebrauchten Gaskraftwerk droht das Aus

–Wegen der Energiewende, sagen die Betreiber und wollen nun Geld vom Staat
Der Beitrag kann als pdf aus dem Anhang heruntergeladen werden

Related Files




Energiewende-Export floppt. Zweifel am Erfolg wachsen im Ausland

Die gewagte deutsche Energiewende wird im Ausland interessiert mitverfolgt. Schon werden Wetten abgeschlossen, ob das teure Experiment wohl funktonieren kann. Immer mehr internationale Experten melden mittlerweile ernsthafte Zweifel an. In der Printausgabe der Welt vom 20. März 2013 berichtete Daniel Wetzel in einem Artikel mit dem Titel “Energiewende ist international ein Flop” über eine aufschlussreiche Umfrage des Weltenergierates. Der Artikel ist auch in einer Online-Version verfügbar, mit dem entschärften Titel “Andere Staaten verschmähen die Energiewende”:

Weltweit wachsen die Zweifel am Erfolg der deutschen Energiewende. Internationale Experten sind sich sicher, dass sie die deutsche Wirtschaft schwächt. Das belegt eine Umfrage des Weltenergierats. […] Kurzfristige Abschaltung von Atomkraftwerken bei unbegrenzter Subventionierung von erneuerbaren Energien: In Deutschland gilt dies seit Fukushima als Königsweg der Energiepolitik. Allerdings gibt es in Europa und weltweit kaum ein Land, das diese deutsche “Energiewende” für nachahmenswert hält. Das geht aus einer Umfrage der deutschen Sektion des Weltenergierates in 23 Mitgliedsländern hervor, die der “Welt” exklusiv vorliegt. […] Der gewachsene Zweifel hängt möglicherweise mit den unerwartet stark gestiegenen Strompreisen in Deutschland zusammen, die auf viele Länder abschreckend wirken, glaubt Stotz: “Ganz offensichtlich muss man sich eine Energiewende auch leisten können.” (weiterlesen auf Welt Online)

In einem dazugehörigen Kommentar in der Welt mit dem Titel “Deutschland im Abseits” plädiert Daniel Wetzel für mehr Besonnenheit und lehnt Klimaalarmismus als wichtigste Begründung für die Energiewende ab:

Auch erscheint die Notwendigkeit, sich in höchster Geschwindigkeit von fossilen Energieträgern zu verabschieden, nicht mehr so dringlich wie noch vor wenigen Jahren. Denn die Angst vor dem Klimawandel scheint weltweit inzwischen weitgehend verflogen zu sein. Die Erderwärmung legt offenbar seit mehr als zehn Jahren eine Pause ein, und die Politiker vieler Ländern scheinen erst einmal eine überzeugende Erklärung für dieses Phänomen abwarten zu wollen, bevor sie dem Kampf gegen den Klimawandel wieder höhere Priorität einräumen. Davon ganz abgesehen: Ein anderes großes Industrieland hat es gerade auch so geschafft, den CO2-Ausstoß pro Kopf der Bevölkerung auf den Stand der frühen 6oer-Jahre zu senken. Klimapolitischer Klassenbester sind nun die USA, die dank der Fracking-Technologie in der Erdgasförderung ihre schmutzigen Kohlekraftwerke abschalten können.

(1) Der Verband Berliner Kaufleute und Industrieller veranstaltete am 18.3.13 in Berlin eine Podiumsdiskussion mit dem kessen Titel: “ Ist die Energiewende noch zu retten?„.
Teilnehmer auf dem Podium waren (Bild oben, von links nach rechts) Prof. Justus Haucap – Ökonom Uni Düsseldorf Institut für Wettbewerbsökonomie der Universität Düsseldorf , Alexander Jung Generalbevollmächtigter – Vattenfall Europe AG für das Land Berlin,  Boris Schucht – Vorsitzender der Geschäftsführung 50hertz Transmission GmbH  und Friedbert Pflüger – Geschäftsführender Gesellschafter, Pflüger Internationale Beratung GmbH (Moderation); sowie Wolfgang von Geldern – Staatssekretär a.D., Vorsitzender des Vorstandes, Wirtschaftsverband Windkraftwerke e. V.
Ich (M.L.) durfte auch daran teilnehmen und auf einige grundsätzliche Schwächen der Energiewende hinweisen, z.B. auf den Ausfall einer zukünftigen Klimakatastrophe (zumindest wegen Erwärmung) trotz stetig und kräftig wachsender CO2 Konzentration  und das überreiche sowie ständig wachsende Angebot an fossilen wie auch Kernbrennstoffen. Beide Argumente – obwohl sauber belegt- beeindruckten die Podiumsteilnehmer in keiner Weise. Denn die offizielle Inhaltsangabe der Diskussion gem. der Website des VBKI lautet:

DROHT DER ENERGIEWENDE DAS AUS? DAS WAR DIE ZENTRALE FRAGE DER PODIUMSDISKUSSION AM 18. MÄRZ IM VBKI. DASS DIESER PROZESS RICHTIG UND WICHTIG IST – DARIN WAREN SICH ALLE DISKUTANTEN EINIG. DOCH DIE EXPERTEN WISSEN AUCH, DASS ES NOCH VIELE SCHWACHSTELLEN GIBT, DIE ES ZU OPTIMIEREN GILT.

Tlw. übernommen von „Die Kalte Sonne“, Die Welt“ und ergänzt um den Bericht zur Podiumsdiskussion des VBKI und das Zitat von 50 Hz Chef Boris Schucht von Michael Limburg




Wie gut war Hansen im Jahre 1988?

HANSENS SZENARIEN

Die drei Szenarien und ihre Vorhersagen werden von Hansen 1988 wie folgt definiert:
„Szenario A nimmt einen fortgesetzten exponentiellen Anstieg der Spurengase an…“ Hansens vorhergesagter Temperaturanstieg von 1988 bis 2012 soll 0,9°C betragen, MEHR ALS VIER MAL SO VIEL wie die tatsächliche Zunahme um 0,22°C.
„Szenario B nimmt ein zurückgehendes lineares Wachstum der Spurengase an…“ Hansens vorhergesagter Temperaturanstieg von 1988 bis 2012 beträgt 0,75°C, MEHR ALS DREI MAL SO VIEL wie die tatsächliche Zunahme um 0,22°C.
„Szenario C nimmt einen raschen Schnitt bei den Spurengasemissionen an, so dass der Gesamt-Klima-Antrieb nach dem Jahr 2000 nicht mehr zunimmt”. Hansens vorhergesagte Temperaturzunahme von 1988 bis 2012 beträgt 0,29°C, NUR 31% HÖHER als die aktuelle Zunahme von 0,22°C.
Folglich kommt also nur Szenario C, das einen raschen Schnitt bei den Spurengasemissionen annimmt, in die Nähe der Wahrheit.
„ES GAB IN WIRKLICHKEIT ABER KEINEN SCHNITT DER SPURENGASEMISSIONEN”
Wie jedermann weiß, beweisen die Messungen des atmosphärischen CO2 auf dem Mauna Loa, dass es KEINEN IRGENDWIE GEARTETEN SCHNITT der Spurengasemissionen gegeben hat. Tatsächlich setzt sich die rapide CO2-Zunahme ohne Abschwächung fort.

Was macht RealClimate aus dieser Lage?
„…Während die Simulation nicht perfekt war, hat sie doch jede vernünftige naive Hypothese, die die Leute im Jahre 1988 erstellt hatten, bestätigt (die offensichtlichste war eine Vorhersage einer Nicht-Änderung) … Die Schlussfolgerung ist die gleiche wie in jedem der vergangenen Jahre; die Modelle sind auf der niedrigen Seite einiger Änderungen und auf der hohen Seite bei anderen, aber trotz kurzfristiger Anstiege und Rückgänge setzt sich die globale Erwärmung zumeist wie vorhergesagt fort“.
Geht weiter, Leute, hier gibt es nichts zu sehen, alles ist OK, „die globale Erwärmung setzt sich zumeist wie vorhergesagt fort“.
Schlussfolgerungen
Hansen 1988 ist der Eckpfeiler des gesamten AGW-Abenteuers, der Theorie, dass die Anthropogene (vom Menschen verursachte) Globale Erwärmung zu einer Klimakatastrophe in naher Zukunft führen wird. RealClimate, der führenden Website der Warmisten, sollte man zur Veröffentlichung einer Graphik gratulieren, die AGW so eindeutig widerlegt und die alle Ergebnisse der Klimamodelle des offiziellen Klima-Teams (das „Hockey-Team“) so in Frage stellt.
Hansens Modellrechnungen aus dem Jahr 1988 basieren auf einer Klimasensitivität (vorhergesagte Temperaturzunahme bei einer Verdoppelung des CO2-Gehaltes) von 4,2°C. Die tatsächliche CO2-Zunahme seit 1988 liegt irgendwo zwischen Hansens Szenario A („fortgesetzte exponentielle Zunahme der Spurengase“) und Szenario B („reduzierte lineare Zunahme von Spurengasen“). Also wäre es basierend auf den Fehlvorhersagen der Szenarien A und B um einen Faktor drei oder vier vernünftig anzunehmen, dass die Klimasensitivität eher bei 1°C als bei 4°C liegt.
Was die Schlussfolgerung von RealClimate betrifft, dass Hansens Simulation „jede vernünftige naive Hypothese, die die Leute im Jahre 1988 erstellt hatten, bestätigt hat (die offensichtlichste war eine Vorhersage einer Nicht-Änderung)“, so ist sie FALSCH. Selbst eine „naive“ Vorhersage einer Nicht-Änderung wäre näher bei der Wahrheit (bei 0,22°C) als Hansens Szenarien A (Erwärmung um 0,68°C) und B (Erwärmung um 0,53°C)!
Ira Glickstein
Link: http://wattsupwiththat.com/2013/03/20/how-well-did-hansen-1988-do/#more-82273
Übersetzt von Chris Frey EIKE