Das Rätsel der Eiszeiten XIII – Terminator II

Redaktionelle Vorbemerkung: dieser Teil ist ungewöhnlich lang und enthält einige Bildunterschriften sowie eine ganze Reihe von Anmerkungen, die wir der Einfachheit halber im Englischen belassen haben. Leider hat Typo3 zwar die schöne Möglichkeit Textstellen im Entwurf hoch bzw. tiefer zu stellen, also beispielsweise das Sauerstoffisotop 18 mit hochgestellter 18 zu schreiben, das ist beim Abspeichern aber sofort wieder weg (vielleicht kennt ja ein Leser den Trick, wie’s trotzdem geht). Leider bleibt es bisher also beim unschönen 18O, CO2 usw. Nun zum SOD – Text:

Im einem vorigen Teil Eleven – End of the Last Ice age haben wir die Abfolge der Ereignisse betrachtet, die zum Ende der jüngsten Eiszeit geführt haben – Termination I.

Der Zeitpunkt dieses Ereignisses lag vor 17.500 bis 18.000 Jahren (Anmerkung 1). Wir haben auch gesehen, dass die „zunehmende solare Einstrahlung“ dies nicht erklären kann. Mit Hilfe von Illustration habe ich einige Plots in Pop Quiz: End of An Ice Age erstellt – alle aus den letzten 100 Jahren und habe die Leser aufgefordert herauszufinden, welcher Plot zu Termination I passt.

Aber diese einfache Graphik der Einstrahlung auf 65°N am 1. Juli bringt das Problem für die „klassische Version“ der „Milankovitch-Theorie“ auf den Punkt (siehe Part Six – “Hypotheses Abound). Einfach gesagt, falls die Sonneneinstrahlung vor 18.000 Jahren zum Ende der Eiszeit führte, warum hat die gleiche oder eine sogar noch höhere Einstrahlung  vor 100.000, 80.000 oder 60.000 bis 30.000 Jahren nicht zu einem früheren Ende der Eiszeit geführt hatte:

Figure 1

Und eine visuellere Demonstration der Sonneneinstrahlung mit der Zeit siehe man bei den Hövmoller-Plots in den comments of Part Eleven nach. Das andere Problem für die Milankovitch-Theorie als Ursache für das Ende der Eiszeit ist die Tatsache, dass die Temperaturen auf der südlichen Hemisphäre vor den globalen Temperaturen gestiegen sind. Der Süden hat also die Welt aus der Eiszeit geführt. Das ist schwer zu erklären, falls das Schmelzen der Eisschilde auf der Nordhemisphäre der Grund für das Ende der Eiszeit sein sollten. Man schaue dazu noch einmal Eleven – End of the Last Ice age an. Soweit unser kurzer Rückblick auf Termination I (T-I). Jetzt also Termination II (T-II). Dies ist das Ende der vorletzten Eiszeit.

Die traditionelle Milankovitch-Theorie sagt aus, dass der Höhepunkt der Sonneneinstrahlung in hohen Breiten vor rund 127.000 Jahren der Auslöser für eine massive Deglaziation war, die jene frühere Eiszeit beendet hatte. Die gut bekannte SPECMAP-Datierung des Meeresspiegels/Eisvolumen mit der Zeit legt den Zeitpunkt für T-II vor 128.000 Jahren ±3000 Jahre fest. Alles in Ordnung. Oder doch nicht?

Welche Grundlage hat die SPECMAP-Datierung?

Die am meisten verwendeten und am besten bekannten Aufzeichnungen bzgl. Eiszeiten stammen aus Ozean-Sedimenten. Diese waren die ersten langzeitlichen Klimaaufzeichnungen, die hunderttausende Jahre zurückreichen. Wie funktionieren sie, und was messen Sie?

Sauerstoff existiert in Form einiger unterschiedlicher stabiler Isotope. Das häufigste dieser Isotope ist 16O, gefolgt von 18O, jedoch mit einem deutlich kleineren Anteil. Wasser existiert ebenfalls in Gestalt dieser beiden Isotope und das bequeme Verhalten zu verdunsten und als Niederschlag als H218O mit unterschiedlichen Raten im Vergleich zu H216O zu fallen. Die Messungen werden dargestellt als das Verhältnis (oder delta oder δ) als δ18O in parts per thousand.

Die Reise des aus den Ozeanen verdunsteten Wasserdampfes gefolgt von Niederschlag, erzeugt eine Maßzahl des Start-Verhältnisses der Isotope ebenso wie die lokale Temperatur des Niederschlags. Das komplexe Endergebnis dieser unterschiedlichen Prozess-Raten ist, dass in der Tiefsee benthic foraminifera 18O aus der Tiefsee aufnehmen, und dieses δ18O steht dann meistens in einem Verhältnis zum globalen Eisvolumen. Die daraus resultierenden Tiefsee-Sedimente sind daher eine Zeitreihe des Eisvolumens. Allerdings sind die Raten der Sedimentation keine exakte Wissenschaft und auch nicht zeitlich konstant.

Als Ergebnis viel sorgfältiger Arbeit durch zahlreiche Forscher über viele Jahrzehnte ergab sich eine Studie von Hays, Imbrie & Shackleton (1976). Dies zeigte, dass Änderungen des Eisvolumens mit orbitaler Häufigkeit von Präzession und Schiefe erfolgen (etwa alle 20.000 und alle 40.000 Jahre). Aber es gibt sogar ein noch stärkeres Signal – den Beginn und das Ende von Eiszeiten – etwa alle 100.000 Jahre. Dies fällt grob zusammen mit Änderungen der Exzentrizität des Erdorbits. Jedoch hat niemand eine (brauchbare) Theorie, die diesen Umstand mit Beginn und Ende von Eiszeiten in Verbindung bringt.

Nun gibt uns das klare Signal von Schiefe und Präzession in den Aufzeichnungen die Option, die Aufzeichnung so zu tunen, dass die Spitzenwerte in der Aufzeichnung zu den orbitalen Häufigkeiten von Präzession und Schiefe passen. Wir haben die Tuning-Methode in einigen Kommentaren zu Teil IX zu einem ähnlichen, aber viel späteren Datensatz diskutiert – den LR04. Die Methode ist nicht falsch, aber wir können das Timing der Schlüsselereignisse nicht bestätigen. Glücklicherweise gibt es inzwischen einige neue Verfahren.

Datierung von Eisbohrkernen

Es waren begeisternde Zeiten der letzten mehr als zwanzig Jahre in der Klimawissenschaft für Leute, die dicke warme Kleidung tragen und „alles hinter sich lassen“ wollen.

Viele Eisbohrkerne stammen aus Grönland und der Antarktis. Aus Grönland gibt es eine Reihe, die 123.000 Jahre zurück reicht (NGRIP). Aus der Antarktis gibt es eine Reihe, die 800.000 Jahre zurück reicht (EDC bzw. „Dome C“). Aus der Antarktis stammt auch der Wostok-Eisbohrkern, der etwa 400.000 Jahre zurück reicht und einen aus Dronning Maud Land (bzw. DML oder EDML), der eine etwas höhere Auflösung hat, aber nur 150.000 Jahre zurück reicht.

Was messen diese Eisbohrkerne, und wie wird die Datierung vorgenommen? Die Eisbohrkerne messen die Temperatur zur Zeit der Ablagerung als Schnee mittels der oben diskutierten δ18O-Messung (Anmerkung 2), welche in diesem Fall nicht eine Maßzahl für das globale Eisvolumen, sondern für die Lufttemperatur ist. Das in Bläschen eingeschlossene Gas in den Bohrkernen gibt uns die CO2 und CH4-Konzentrationen. Wir können auch Staubablagerungen und alle möglichen anderen Inhalte messen.

Das erste Problem ist nun, dass das Gas „jünger“ ist als das Eis, weil es sich noch so lange bewegt, bis der Schnee genügend komprimiert ist. Also brauchen wir ein Modell, um dies zu simulieren, und es gibt einige Unsicherheiten über den zeitlichen Unterschied zwischen Eis und Gas. Das zweite Problem ist das der Datierung. Zu Beginn können wir jährliche Schichten ablesen. Nach einer ausreichenden Zeit (einige Jahrzehnte bis tausende von Jahren) können diese Schichten nicht mehr voneinander unterschieden werden, stattdessen kann man nur noch Modelle der Physik über Eisflüsse heranziehen. Dann kam es zu einigen günstigen Zeitmarken wie den 10Be-Ereignissen (hier) vor etwa 50.000 Jahren. Nachdem die Physik von Eisflüssen und externe Ereignisse nicht mehr ausreicht, werden die Daten durch anderweite Methoden weiter justiert, ebenso wie Bohrkerne aus der Tiefsee.

Höhlen, Korallen und genaue Terminierung via Radiometrie

Weder Bohrkerne aus der Tiefsee noch aus Eis bieten viel Gelegenheit einer Radiometrischen Datierung. Aber Höhlen und Korallen tun dies sehr wohl.

Für Neulinge hinsichtlich von Datierungs-Verfahren: hat man eine Substanz A, die sich in Substanz B mit einer „Halbwertszeit“ auflöst, die genau bekannt ist, und wenn man genau weiß, wie viel von Substanz A und Substanz B zu Beginn vorhanden war (d. h. keine Möglichkeit des Eindringens zusätzlicher Mengen der Substanzen A oder B in das, was wir messen wollen), dann kann man sehr genau das Alter berechnen, in der sich die Substanz gebildet hat. Im Grunde läuft alles darauf hinaus, wie der Ablagerungsprozess funktioniert. Die Datierung mittels Uran-Thorium war erfolgreich bei Kalkablagerungen im Gestein.

Man nehme also eine lange Reihe, kontinuierlicher Ablagerungen, messe das δ18O (und 13C) an einer Menge Punkten entlang dieser Reihe. Dann nehme man eine Anzahl von Beispielen und berechne das Alter entlang der Reihe mittels Radiometrie. Das, was genau in den Bohrkernen gemessen wird, ist kompliziert, aber ich werde erheblich vereinfachen und einfach behaupten, dass es nur um zwei Problempunkte geht:

1. Die tatsächliche Menge der Ablagerung, wenn während extremer Vereisung nicht viel Wasser zur Verfügung steht, um diese Ablagerungen hervorzubringen.

2. Die Variation von δ18O (and 13C), die in erster Linie von der lokalen Lufttemperatur abhängt.

Für an mehr Details Interessierte empfehle ich McDermott 2004. Einige relevante Auszüge finden sich unten in Anmerkung 3.

Korallen bieten die Möglichkeit, via radiometrischer Datierung genaue Daten zum Meeresspiegel zu bekommen. Die wichtigste Variable, die man kennen muss, sind Absenkungen und Hebungen der Erdkruste. Die genaue Datierung von Höhlen und Korallen war während der letzten 20 Jahre eine Wachstumsindustrie mit einigen interessanten Ergebnissen.

T-II

Winograd et al. (1992) analysierten die Höhle Devils Hole [= Teufelsloch”] in Nevada (DH-11):

Der zeitliche Verlauf von δ18O in Devils Hole (Abbildung 2) zeigt klar die Sägezahn-Verteilung der maritimen δ18O-Aufzeichnungen, die interpretiert worden sind als die Folge von Ausdehnung und Rückzug der nordhemisphärischen Eisschilde. Aber was war die Ursache für die δ18O-Variationen in DH-11 in Abbildung 2? Man nimmt an, dass die δ18O-Variationen im atmosphärischen Niederschlag – in erster Näherung – Änderungen der mittleren Temperatur im Winter und im Frühjahr reflektieren.

Fig. 2, Bildinschrift: Variationen der δ18O-Werte entlang des 36 cm langen Bohrkerns DH-11. Jeder Punkt repräsentiert ein Stück Kalkspat, das auf δ18O-Werte analysiert worden ist; die Zeitpunkte wurden auf die δ18O-Daten übertragen durch Interpolation zwischen 21 MS-Intervallen datiert nach Uran-Reihen in Intervallen. Die Verteilung der MS-Alter entlang des Bohrkerns wird markiert durch vertikale Linien unter dem oberen Rand; Fehlerbalken () durch horizintale Linien. Die Präzision der δ18O-Daten () beträgt 0,07 pro mil dargestellt relativ zu VSMOW in einem Maßstab normalisiert zu δ18O von SLAP = -55,5 pro mil. Aus Winograd et al 1992

Termination II ereignet sich bei 140±3 (2σ) ka in der DH-11-Reihe, bei 140± 15 ka in der Wostok-Reihe (14) und bei 128 ± 3 ka in der SPECMAP-Reihe (13). (Die Unsicherheit in der DH-11-Reihe liegt in den 2σ-Unsicherheiten der MS-Datierungen via Uran; andere Datierungen und Unsicherheiten stammen aus den angegebenen Quellen). Termination III ereignete sich bei etwa 253 +/- 3 (2σ) ka in der DH-11-Reihe und bei etwa 244 +/- 3 ka in der SPECMAP-Reihe. Diese Unterschiede sind Minimum-Werte.

Sie vergleichen die sommerliche Einstrahlung bei 65°N mit SPECMAP, Devils Hole und dem Wostok-Bohrkern in einer einfachen Graphik:

Figure.3, Bildinschrift: Vergleich der maritimen SPECMAP und DH-11 δ18O-Reihen, des antarktischen Eisschildes δD-Aufzeichnung aus Wostok und Einstrahlung im Juni auf 60°N im mittleren und späten Pleistozän. Alle Aufzeichnungen wurden normalisiert in Einheiten der Standardabweichung über die Länge der gezeigten Aufzeichnung. Zeitskalen sind wie in den genannten Quellen. Durchgezogene vertikale Linien repräsentieren Terminationen (das heißt, näherungsweise Mittelpunkte der Deglaziationen) in den Kurven von DH-11 und Wostok. Gestrichelte vertikale Linien sind Terminationen in der SPECMAP-Aufzeichnung. Römische Zahlen stehen für Terminationen nach Broecker und Van Donk. Die Zahlen am oberen Rand repräsentieren die Zeit zwischen den Terminationen in den DH-11- und Wostok-Aufzeichnungen. Kurze gestrichelte und strichpunktierte Linien werden im Text beschrieben. Zeitpunkte von Terminationen (und von anderen interessierenden Ereignissen) in der DH-11-Kurve sind Minimum-Werte wegen der Verweilzeit des Grundwassers im Ash-Meadow-Becken (siehe Text). Nach Winograd et al 1992

Natürlich war nicht jeder glücklich mit diesen neuen Informationen, und wer weiß schon, wofür die Isotopen-Messungen wirklich ein Proxy waren?

Slowey, Henderson & Curry 1996

Einige Jahre später, im Jahre 1996 haben Slowey, Henderson & Curry (nicht die berühmte Judith) über ihre Forschung Folgendes gesagt: Unsere Daten implizieren ein Timing und eine Dauer in Übereinstimmung mit der maritimen Chronologie. Die ursprüngliche U-Th-Datierung der maritimen δ18O-Aufzeichnungen stützt die Theorie, dass orbitale Variationen ein fundamentaler Grund für die Klimaänderung im Pleistozän waren.

Henderson & Slowey 2000

Dann, im Jahr 2000, kamen die gleichen Henderson & Slowey (ohne Curry) mit:

Milankovitch vermutete, dass die sommerliche Einstrahlung in mittleren Breiten der Nordhemisphäre direkt die Klimazyklen der Eiszeit verursacht hätten. Dies würde implizieren, dass Zeiten mit einem Zusammenbruch der Eisschilde korrespondieren sollten mit Spitzen der nordhemisphärischen Juni-Einstrahlung.

Aber die vorletzte Deglaziation hat sich als dem widersprechend erwiesen, weil die Juni-Einstrahlung vor 127.000 Jahren ihren Spitzenwert erreicht hatte, während viele Aufzeichnungen des Klimas der Vergangenheit zeigen, dass es bereits 15.000 Jahre früher Änderungen gegeben haben könnte. Es gibt eine eindeutige Signatur der vorletzten Deglaziation in den maritimen Aufzeichnungen der Sauerstoff-Isotope. Aber die Datierung dieses Ereignisses, das signifikant vor der 14C-Altersbandbreite liegt, war nicht möglich.

Hier datieren wir die vorletzte Deglaziation mittels einer Aufzeichnung von den Bahamas mit einer neuen U-Th-Isochronen-Methode. Nach den erforderlichen Korrekturen für eine a-recoil mobility von 234U und 230Th und einer kleinen Alterskorrektur wegen der Sediment-Durchmischung wird der Mittelpunkt der vorletzten Deglaziation bestimmt als vor 135.000 ± 2.500 Jahren. Dieses Alter ist konsistent mit einigen auf Korallen basierenden Schätzungen des Meeresspiegels, aber es ist schwierig, dies mit der Juni-Einstrahlung der Nordhemisphäre abzugleichen als Auslöser der Eiszeit-Zyklen.

Zhao, Xia & Collerson (2001)

Hoch präzise 230Th-238U-Altersbestimmungen aus einem Stalagmiten aus der Newdegate-Höhle im südlichen Tasmanien sagen aus: Das schnellste Stalagmiten-Wachstum erfolgte zwischen vor 129.200 ± 1600 Jahren und 122.100 ± 2000 Jahren († 61,5 mm pro 1000 Jahre). Dies fällt zusammen mit einer Zeit produktiven Korallenwachstums in Westaustralien (vor 128.000 bis 122.000 Jahren). Dies ist die erste hoch aufgelöste kontinentale Aufzeichnung der Südhemisphäre, die verglichen und korreliert werden kann mit den maritimen Aufzeichnungen. Eine derartige Korrelation zeigt, dass das Auftreten des Meeresspiegels während der Zwischeneiszeit und der Beginn höchster Regenmengen auf dem Festland synchron erfolgte. Die Stalagmiten-Wachstumsrate zwischen vor 129.200 und 142.200 Jahren († 5,9 mm pro 1000 Jahre) lag niedriger als im Zeitraum vor 1452.200 und 154.500 Jahren († 18,7 mm pro 1000 Jahre). Dies impliziert trockenere Bedingungen während der vorletzten Deglaziation trotz steigender Temperatur und steigendem Meeresspiegel.
Diese asymmetrische Verteilung der Niederschlagsmenge wird verursacht durch breitenabhängige Bewegungen subtropischer Hochdruckgebiete und einer damit verbundenen Westwind-Zirkulation als Reaktion auf den Temperaturgegensatz zwischen Äquator und Polen. Sowohl maritime als auch kontinentale Aufzeichnungen in Australien zeigen, dass das Einstrahlungsmaximum im Zeitraum zwischen vor 126.000 und 128.000 Jahren auf 65°N direkt verantwortlich war für die Aufrechterhaltung der vollen zwischeneiszeitlichen Bedingungen, obwohl unklar bleibt, welche Auslöser die vorletzte Deglaziation (vor † 142.000 Jahren) hatte.

Bildinschrift: Höhen und initiale 230U/238U-Aktivitäts-Verhältnisse für Unterbeispiele des Stalagmiten NEW-B aus der Newdegate-Höhle. Offene Quadrate mit Fehlerbalken und schwarze Punkte repräsentieren jeweils Höhen und initiale 230U/238U-Aktivitäts-Verhältnisse. Die Anpassungslinie durch die offenen Quadrate zeigt eine Wachstumshistorie für NEW-B in fünf Phasen, einschließlich der Zeitspanne und Wachstumsrate für jede Phase in Klammern. Aus Zhao et al 2001

Gallup, Cheng, Taylor & Edwards (2002)

Funde innerhalb der letzten Zwischeneiszeit-Terrasse auf Barbados enthalten Korallen, die während der vorletzten Deglaziation gewachsen sind, oder Termination II. Wir verwendeten kombinierte Datierungen mit 230 Th und 231Pa, um zu bestimmen, dass sie vor 135.800 ± 800 Jahren gewachsen sind. Dies zeigt , dass der Meeresspiegel zu jener Zeit um 18 ± 3 Meter unter dem Niveau von heute lag. Dies wiederum zeigt, dass der Meeresspiegel bis auf 20% seines Spitzenwertes während der letzten Zwischeneiszeit vor 136.000 Jahren gestiegen ist. Dies ist ein Widerspruch zu den Vorhersagen der Milankovitch-Theorie.

Abbildung 2B fasst die Aufzeichnung der Höhe des Meeresspiegels zusammen, wie er sich aus den neuen Daten ergibt. Am wichtigsten: unsere Aufzeichnung enthält auch Korallen, die die Höhe des Meeresspiegels direkt während T-II zeigen. Dem zufolge ereignete sich der meiste Anstieg (ca. 80%) während dieser Zeit vor 135.000 Jahren. Das ist grob konsistent mit frühen Verschiebungen von δ18O, gefunden auf den Bahamas und in Devils Hole und mit frühen (vor 134.000 Jahren) Korallen der letzten Zwischeneiszeit aus Hawaii. All diese stellen das Timing von Termination II in der SPECMAP-Aufzeichnung in Frage.

Figure 5, Bildinschrift: Abbildung 2 (A): Juni-Einstrahlung auf 65°N. Die durchgezogenen vertikalen grauen Linien sind eine Referenz zu Spitzenwerten der Einstrahlung, und die gepunkteten vertikalen Linie repräsentiert eine Referenz für die halbe Höhe des Spitzenwertes im Zeitraum zwischen vor 140.000 und 130.000 Jahren. (B) Höhe des Meeresspiegels, rekonstruiert mit Korallen von Barbados mit übereinstimmenden 230Th und 231Pa-Zeitaltern aus dieser Studie (Dreiecke mit Beschriftung) und von (12) (Kreise). Die alle drei Kriterien erfüllenden Beispiele (siehe Text) sind in gelb; das Beispiel in blau erfüllt zwei Kriterien. (C) δ18O-Aufzeichnungen in Ablagerungen von SPECMAP (dicke Linie) und von Devils Hole (dünne Linie). (D) Wostok-Aufzeichnungen des atmosphärischen δ18O (blau), atmosphärische CO2-Konzentration (schwarz) und Temperatur aus Deuterium-Messungen (rot). Aus Gallup et al 2002

Natürlich ist für die vielköpfige Hydra noch nicht alles verloren (siehe auch Anhang 4): Die Milankovitch-Theorie in ihrer einfachsten Form kann T-II zwar nicht erklären. Wie auch Termination I. Allerdings ist es aber zumindest immer noch plausibel, dass Antrieb durch Insolation eine Rolle beim Timing von T-II gespielt hat. Da Deglaziationen beginnen müssen, während sich die Erde in einem Eiszeit-Zustand befindet, ist es nützlich, Faktoren zu betrachten, die eine Deglaziation während eines eiszeitlichen Maximums auslösen können. Darunter sind (i) Meereis schneidet eine Feuchtigkeitsquelle für die Eisschilde ab; (ii) isostatische Depression kontinentaler Krusten und (iii) hohe sommerliche Einstrahlung auf der Südhemisphäre durch Auswirkungen auf die atmosphärische CO2-Konzentration.

Yuan et al 2004 präsentieren gegenteilige Beweise:

Datierungen mit Thorium-230 und Sauerstoffisotopen von Stalagmiten aus der Dongge-Höhle in China zeigen den asiatischen Monsun und den Niederschlag in niedrigen Breiten währewnd der letzten 160.000 Jahre. Zahlreiche abrupte Änderungen der 18O/16O-Werte resultieren aus Änderungen des tropischen und subtropischen Niederschlags, getrieben von Einstrahlung und Zirkulationsverschiebungen im Zeitmaßstab von Jahrtausenden.

Der Letzte zwischeneiszeitliche Monsun dauerte 9700 ± 1100 Jahre und begann mit einem abrupten Abfall (weniger als 200 Jahre) der 18O/16O-Werte vor 129.300 ± 900 Jahren. Er endete mit einem abrupten Anstieg (weniger als 300 Jahre) dieser Werte vor 119.600 ± 600 Jahren. Der Beginn fällt zusammen mit einem Anstieg der Einstrahlung und dauerte während der gesamten zwischeneiszeitlichen vollumfänglichen Bedingungen. Dies zeigt, dass die Einstrahlung den finalen Anstieg bis hin zu vollständigen zwischeneiszeitlichen Bedingungen ausgelöst hat.

Aber sie kommentieren auch: Obwohl das Timing von Monsun-Termination II konsistent ist mit dem Einstrahlungs-Antrieb auf der Nordhemisphäre, sind nicht alle Klimaänderungen zu dieser Zeit konsistent mit solch einem Mechanismus.

Figure 6

Der Meeresspiegel war offensichtlich bis auf ein Niveau von 21 Metern unter dem heutigen Niveau gestiegen, und zwar schon vor 135.000 Jahren (27 & Gallup et al. 2002), was dem größten Teil der Einstrahlungs-Zunahme voraus lief. Die halbe Strecke von T-II aus maritimen Sauerstoffisotopen wurde datiert auf einen Zeitpunkt vor 135.000 ± 2500 Jahren (Henderson & Slowey 2000).

Auf Funde in Höhlen basierende Beweise aus den Alpen zeigen Temperaturen nahe dem heutigen Niveau vor 135 ± 1200 Jahren (31). Die Halbe Höhe des δ18O-Anstiegs in Devils Hole (vor 142.000 ± 3000 Jahren) läuft ebenfalls dem größten Teil des Einstrahlungs-Anstiegs voraus (20). Eine Zunahme der antarktischen Temperatur und des atmopsphärischen CO2 (32) um die Zeit von Termination II scheint zu Zeiten begonnen zu haben, die von einigen wenigen bis zu vielen Jahrtausenden vor dem größten Teil der Einstrahlungs-Zunahme reichen (4, 32, 33).

Drysdale et al 2009

Es wird verbreitet angenommen, dass Variationen der Intensität der Einstrahlung in hohen nördlichen Breiten, hauptsächlich durch die Präzession der Äquinoktien, das Timing der Eiszeit-Terminationen des späten Pleistozäns gesteuert haben. Allerdungs wurde jüngst darauf hingewiesen, dass Änderungen der Schiefe der Ekliptik ein wichtigerer Mechanismus dafür sein könnte. Wir präsentieren eine neue, auf Stalagmiten basierende maritime Chronologie des Nordatlantik, die zeigt, dass die vorletzte glaziale Termination (Termination II) vor 141.000 ± 2500 Jahren vor heute stattgefunden hat. Das ist zu früh, um mit der sommerlichen Einstrahlung auf der Nordhemisphäre erklärt werden zu können, ist aber konsistent mit Änderungen der Schiefe der Erde. Unsere Aufzeichnung zeigt, dass die Terminationen I und II durch drei Erdachsenschiefe-Zyklen voneinander getrennt sind und dass sie in nahezu identischen Phasen der Schiefe begannen.

Für Leser, die bis hier durchgehalten haben, ist das inzwischen Standard. Aber die Drysdale-Studie ist in zweierlei Hinsicht interessant: wegen ihrer Datierungsmethode und ihres „ein Ergebnis in einer Reihe“, was zu einer Theorie mit Beweisen passt (Mehr Text aus der Studie habe ich in Anmerkung 5 extrahiert). Schauen wir zuerst auf die Datierungs-Methode:

Was sie getan haben war im Grunde, die Bohrkerne aus der Tiefsee, die das globale Eisvolumen zeigen (aber sie haben keine unabhängige Datierung), mit genauen radiometrisch datierten Höhlenablagerungen zusammenzubringen. Wie haben sie es gemacht? Es ist kompliziert, beruht aber auf dem Zueinanderbringen der δ18O – Werte in beiden Aufzeichnungen. Der Versuch einer absoluten Datierung für existierende Tiefsee-Bohrkerne ergibt sehr interessante Ergebnisse, falls er konsistent ist.


 Figure 7, auf die Übersetzung des Bildinhalts wurde verzichtet und dafür auf das englische Original verwiesen.

Der Zusammenhang zwischen Corchia δ18O und Wassertemperaturen vor der Iberischen halbinsel während T-II (Abbildung 2) ist bemerkenswert. Obwohl die Mechanismen, die die δ18O-Variationen in den Höhlenablagerungen steuern, komplex sind, glauben wir, dass Corchia δ18O hauptsächlich durch Variationen der Regenmenge getrieben wird – als Reaktion auf Änderungen der regionalen Wassertemperatur. Frühere Studien von Corchia zeigen, dass das δ18O sensitive ist gegenüber vergangenen Änderungen der nordatlantischen Zirkulation sowohl im orbitalen als auch im Millenium-Zeitmaßstab. Dabei nimmt δ18O während kälterer Phasen zu und während wärmerer Phasen ab.

Figure 8, von Drysdal et al. 2009, Bildinschrift im Original belassen.

Und jetzt zur Hypothese:


Figure 9, von Drysdale et al. 2009
Wir finden, dass die Stärke der norhemisphärischen Sommer-Insolation nicht sehr wahrscheinlich die treibende Kraft für Termination II war. Die Intensitäten waren nahe am Minimum zum Startzeitunkt von T-II und ein verzögerter Response zu dem vorangegangenen Insolations-Peak um ~148.000 ka ist wegen seiner kleinen Amplitude unwahrsheinlich (Fig. 3A). Das ist ein Argument gegen die SPECMAP Kurve als verlässlicher Zeit-Spiegel durch T-II, wenn man den Zeitabstand von ~8 ka für den T-II Mittelpunkt (8) mit unserem Record vergleicht. Ein viel stärkeres Argument ist mit der Erdachsenschiefe als dem verantwortlichen Mechanismus gegeben.Auf der Basis unserer Ergebnisse (Fig. 3B) beginnen sowohl T-I als auch T-IImit derselben Phase der Erdachsenneigung und die Periode von beiden ist exakt die gleiche wie die 3 Erdachsen Zyklen (~123 ka).

EPICA 2006

Here is my plot of the Dronning Maud Land ice core (DML) on EDC3 timescale from EPICA 2006 (data downloaded from the Nature website):

Figure 10, Daten von Epica
Die zahlreichen antarktischen und grönländischen Eisbohrkerndaten unterliegen immer noch zahlreichen Datierungsverbesserungen, daher habe ich die letzten Arbeiten nicht berücksichtigt. Ich dachte nur, es wäre gut das Eisbohrkernthema zu vertiefen. Der Wert δ18O ist ein temperaturproxy. Auf diser Zeitskala begannen die lokalen temperaturen um 138.000 Jahre BP anzusteige

Zusammenfassung

Neue Daten zu T-II aus den letzten 20 Jahren radiometrischer Zeitermittelung und aus verschiedenen Stellen zeigen, dass T-II ungefähr 140.000 Jahre BP begann. Als nächsten Bild nun die Insolationskurve bei 65ºN über die letzten 180 kyrs zusammen mit den besten Daten der Eiszeitenden, die um ungefähr 121 bis 125 kyrs auseinanderliegen:

Figure 11

Wir lernten ein paper mit unterschiedlicher Evidenz für den Start von T-II kennen – Yuan et al. (see note 6). Alle Evidenz einschließlich Datierung des Meeresanstiegs, spricht für T-II Start um 140.000 Jahre BP. Dies bedeutet, dass die Zeit zwischen den Eiszeitenden ungefähr 122.000 Jahre beträgt!

Noch als Ergänzung, weil Winograd et al, 1992 T-III um etwa 253 kyrs berechneten: Dies bedeutet für die Zeit zwischen T-III und T-II um die 113.000 Jahre, also genau fünf einschlägige Erdschiefen-Zyklen!

References

A Pliocene-Pleistocene stack of 57 globally distributed benthic D18O records, Lorraine E. Lisiecki & Maureen E. Raymo, Paleoceanography (2005) – free paper

Continuous 500,000-Year Climate Record from Vein Calcite in Devils Hole, Nevada, Winograd, Coplen, Landwehr, Riggs, Ludwig, Szabo, Kolesar & Revesz, Science (1992) – paywall, but might be available with a free Science registration

Palaeo-climate reconstruction from stable isotope variations in speleothems: a review, Frank McDermott, Quaternary Science Reviews 23 (2004) – free paper

Direct U-Th dating of marine sediments from the two most recent interglacial periods, NC Slowey, GM Henderson & WB Curry, Nature (1996)

Evidence from U-Th dating against northern hemisphere forcing of the penultimate deglaciation, GM Henderson & NC Slowey, Nature (2000)

Timing and duration of the last interglacial inferred from high resolution U-series chronology of stalagmite growth in Southern Hemisphere, J Zhao, Q Xia & K Collerson, Earth and Planetary Science Letters (2001)

Direct determination of the timing of sea level change during Termination II, CD Gallup, H Cheng, FW Taylor & RL Edwards, Science (2002)

Timing, Duration, and Transitions of the Last Interglacial Asian Monsoon, Yuan, Cheng, Edwards, Dykoski, Kelly, Zhang, Qing, Lin, Wang, Wu, Dorale, An & Cai, Science (2004)

Evidence for Obliquity Forcing of Glacial Termination II, Drysdale, Hellstrom, Zanchetta, Fallick, Sánchez Goñi, Couchoud, McDonald, Maas, Lohmann & Isola, Science (2009)

One-to-one coupling of glacial climate variability in Greenland and Antarctica, EPICA Community Members, Nature (2006)

Millennial- and orbital-scale changes in the East Asian monsoon over the past 224,000 years, Wang, Cheng, Edwards, Kong, Shao, Chen, Wu, Jiang, Wang & An, Nature (2008)

Notes

Note 1 – In common ice age convention, the date of a termination is the midpoint of the sea level rise from the last glacial maximum to the peak interglacial condition. This can be confusing for newcomers.

Note 2 – The alternative method used on some of the ice cores is δD, which works on the same basis – water with the hydrogen isotope Deuterium evaporates and condenses at different rates to “regular” water.

Note 3 – A few interesting highlights from McDermott 2004:

2. Oxygen isotopes in precipitation

As discussed above, d18O in cave drip-waters reflect

(i) the d18O of precipitation (d18Op) and

(ii) in arid/semi- arid regions, evaporative processes that modify d18Op at the surface prior to infiltration and in the upper part of the vadose zone.

The present-day pattern of spatial and seasonal variations in d18Op is well documented (Rozanski et al., 1982, 1993; Gat, 1996) and is a consequence of several so-called ‘‘effects’’ (e.g. latitude, altitude, distance from the sea, amount of precipitation, surface air temperature).

On centennial to millennial timescales, factors other than mean annual air temperature may cause temporal variations in d18Op (e.g. McDermott et al., 1999 for a discussion). These include:

(i) changes in the d18O of the ocean surface due to changes in continental ice volume that accompany glaciations and deglaciations;

(ii) changes in the temperature difference between the ocean surface temperature in the vapour source area and the air temperature at the site of interest;

(iii) long-term shifts in moisture sources or storm tracks;

(iv) changes in the proportion of precipitation which has been derived from non-oceanic sources, i.e. recycled from continental surface waters (Koster et al., 1993); and

(v) the so-called ‘‘amount’’ effect.

As a result of these ambiguities there has been a shift from the expectation that speleothem d18Oct might provide quantitative temperature estimates to the more attainable goal of providing precise chronological control on the timing of major first-order shifts in d18Op, that can be interpreted in terms of changes in atmospheric circulation patterns (e.g. Burns et al., 2001; McDermott et al., 2001; Wang et al., 2001), changes in the d18O of oceanic vapour sources (e.g. Bar Matthews et al., 1999) or first-order climate changes such as D/O events during the last glacial (e.g. Spo.tl and Mangini, 2002; Genty et al., 2003)..

4.1. Isotope stage 6 and the penultimate deglaciation

Speleothem records from Late Pleistocene mid- to high-latitude sites are discussed first, because these are likely to be sensitive to glacial–interglacial transitions, and they illustrate an important feature of speleothems, namely that calcite deposition slows down or ceases during glacials. Fig. 1 is a compilation of approximately 750 TIMS U-series speleothem dates that have been published during the past decade, plotted against the latitude of the relevant cave site.

The absence of speleothem deposition in the mid- to high latitudes of the Northern Hemisphere during isotope stage 2 is striking, consistent with results from previous compilations based on less precise alpha-spectrometric dates (e.g. Gordon et al., 1989; Baker et al., 1993; Hercmann, 2000). By contrast, speleothem deposition appears to have been essentially continuous through the glacial periods at lower latitudes in the Northern Hemisphere (Fig. 1)..

..A comparison of the DH-11 [Devils Hole] record with the Vostok (Antarctica) ice-core deuterium record and the SPEC- MAP record that largely reflects Northern Hemisphere ice volume (Fig. 2) indicates that both clearly record the first-order glacial–interglacial transitions.

Note 4 – Note the reference to Milankovitch theory “explaining” Termination I. This appears to be the point that insolation was at least rising as Termination began, rather than falling. It’s not demonstrated or proven in any way in the paper that Termination I was caused by high latitude northern insolation, it is an illustration of the way the “widely-accepted point of view” usually gets a thumbs up. You can see the same point in the quotation from the Zhao paper. It’s the case with almost every paper.

If it’s impossible to disprove a theory with any counter evidence then it fails the test of being a theory.

Note 5 – More from Drysdale et al 2009:

During the Late Pleistocene, the period of glacial-to-interglacial transitions (or terminations) has increased relative to the Early Pleistocene [~100 thousand years (ky) versus 40 ky]. A coherent explanation for this shift still eludes paleoclimatologists. Although many different models have been proposed, the most widely accepted one invokes changes in the intensity of high-latitude Northern Hemisphere summer insolation (NHSI). These changes are driven largely by the precession of the equinoxes, which produces relatively large seasonal and hemispheric insolation intensity anomalies as the month of perihelion shifts through its ~23-ky cycle.

Recently, a convincing case has been made for obliquity control of Late Pleistocene terminations, which is a feasible hypothesis because of the relatively large and persistent increases in total summer energy reaching the high latitudes of both hemispheres during times of maximum Earth tilt. Indeed, the obliquity period has been found to be an important spectral component in methane (CH4) and paleotemperature records from Antarctic ice cores.

Testing the obliquity and other orbital-forcing models requires precise chronologies through terminations, which are best recorded by oxygen isotope ratios of benthic foraminifera (d18Ob) in deep-sea sediments (1, 8).

Although affected by deep-water temperature (Tdw) and composition (d18Odw) variations triggered by changes in circulation patterns (9), d18Ob signatures remain the most robust measure of global ice-volume changes through terminations. Unfortunately, dating of marine sediment records beyond the limits of radiocarbon methods has long proved difficult, and only Termination I [T-I, ~18 to 9 thousand years ago (ka)] has a reliable independent chronology.

Most marine chronologies for earlier terminations rely on the SPECMAP orbital template (8) with its a priori assumptions of insolation forcing and built-in phase lags between orbital trigger and ice-sheet response. Although SPECMAP and other orbital-based age models serve many important purposes in paleoceanography, their ability to test climate- forcing hypotheses is limited because they are not independent of the hypotheses being tested. Consequently, the inability to accurately date the benthic record of earlier terminations constitutes perhaps the single greatest obstacle to unraveling the problem of Late Pleistocene glaciations..

..

Obliquity is clearly very important during the Early Pleistocene, and recently a compelling argument was advanced that Late Pleistocene terminations are also forced by obliquity but that they bridge multiple obliquity cycles. Under this model, predominantly obliquity-driven total summer energy is considered more important in forcing terminations than the classical precession-based peak summer insolation model, primarily because the length of summer decreases as the Earth moves closer to the Sun. Hence, increased insolation intensity resulting from precession is offset by the shorter summer duration, with virtually no net effect on total summer energy in the high latitudes. By contrast, larger angles of Earth tilt lead to more positive degree days in both hemispheres at high latitudes, which can have a more profound effect on the total summer energy received and can act essentially independently from a given precession phase. The effect of obliquity on total summer energy is more persistent at large tilt angles, lasting up to 10 ky, because of the relatively long period of obliquity. Lastly, in a given year the influence of maximum obliquity persists for the whole summer, whereas at maximum precession early summer positive insolation anomalies are cancelled out by late summer negative anomalies, limiting the effect of precession over the whole summer.

Although the precise three-cycle offset between T-I and T-II in our radiometric chronology and the phase relationships shown in Fig. 3 together argue strongly for obliquity forcing, the question remains whether obliquity changes alone are responsible.

Recent work invoked an “insolation-canon,” whereby terminations are Southern Hemisphere–led but only triggered at times when insolation in both hemispheres is increasing simultaneously, with SHSI approaching maximum and NHSI just beyond a minimum. However, it is not clear that relatively low values of NHSI (at times of high SHSI) should play a role in deglaciation. An alternative is an insolation canon involving SHSI and obliquity.

Note 6 – There are a number of papers based on Dongge and Hulu caves in China that have similar data and conclusions but I am still trying to understand them. They attempt to tease out the relationship between δ18O and the monsoonal conditions and it’s involved. These papers include: Kelly et al 2006, High resolution characterization of the Asian Monsoon between 146,000 and 99,000 years B.P. from Dongge Cave, China and global correlation of events surrounding Termination II; Wang et al 2008, Millennial- and orbital-scale changes in the East Asian monsoon over the past 224,000 years.

Link: http://scienceofdoom.com/2014/01/23/ghosts-of-climates-past-thirteen-terminator-ii/

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/

Teil VII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-7-global-circulation-models-i/

Teil VIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-8-global-circulation-models-ii/

Teil IX: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-9-global-circulation-models-iii/

Teil X: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-10-global-circulation-models-iv/

Teil XI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-xi-das-ende-der-letzten-eiszeit/
Teil XII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-xii-gcm-v-wie-enden-eiszeiten/





Kohle-Stillleger Gabriel – …als Bettvorleger gelandet

Was war da passiert? Macht Gabriel nun den Drehofer, nach altem Vorbild von Konrad Adenauer, der gesagt haben soll: „Was interessiert mich mein Geschwätz von gestern?“. Denn Gabriel sagte lt. Welt vom 16.11.14 Ein Kohleausstieg zeitgleich zum Atomausstieg sei wirtschaftlicher Selbstmord und mit ihm nicht zu machen. Das „Klimaziel sei auch ohne Kohleausstieg zu erreichen zitiert sinngemäss noch am 16.11.14 das Nachrichten-Portal von Web.de
Oder meint er evtl. nicht nur sein Geschwätz von gestern sondern auch das von heute? Das wäre ja morgen von gestern.
Oder hat er Druck von der Klimakanzlerin bekommen, die beim bald anstehenden G7 Vorsitz den „Klimaschutz“ wieder  als oberste Priorität behandeln will, und 2015 beim xten „UN-Klimagipfel“ in Paris nicht als Sprechblasen-Puppe, die ihre Zusagen nicht hält, da stehen will?
Oder haben ihm Greenpeace und Co doch mehr imponiert, als er es öffentlich zugeben wollte?
Wir wissen es nicht! Doch die wahrscheinlichste Variante ist, dass in Gabriels Ministerium die Rechte nicht weiß, was die Linke tut, oder umgekehrt. Oder anders ausgedrückt, der Apparat des Ministeriums, der die Gesetzes-Vorlage erarbeiten muss, den schnellen Volten des Ministers nicht folgen kann oder mag. Denn so eine Vorlage entsteht nicht über Nacht, wohl aber die Meinungsänderungen des Sigmar Gabriel.
Man kann es auch so ausdrücken, der ehemalige Pop-Beauftragte seiner Partei, dann Umweltminister unter Rot- Schwarz, mit sehr großem Anteil an der jetzigen Malaise, dann Parteivorsitzender der SPD, dann zusätzlich wieder Minister – diesmal für Wirtschaft- und gleichzeitig Vizekanzler  der großen Koalition, hat seinen Laden einfach nicht mehr im Griff.
Das ist bei der völlig verfahrenen, aber zu 100 % selbst verschuldeten Situation, die die Politik der Energiewende herbeigeführt hat, auch völlig verständlich. Unverständlich, aber vor allem unakzeptabel ist jedoch, dass die Akteure immer wieder ein sinnlos teures Unterfangen durch weitere sinnlos teure Unterfangen „retten“ wollen.
Denn was wird passieren, wenn die Vorlage das Kabinett am 3. Dezember  passiert und Anfang 2015 im Gesetzblatt steht?
1.     Die Versorger werden gegen die daraus folgende Enteignung  mit großer Erfolgsaussicht klagen, der Steuerzahler wird dann die Milliarden zu zahlen haben.  Z.B. hat die bereits sehr gebeutelte EnBW erst im Mai 2014 ein für 1,3 Milliarden Euro gebautes Kohlekraftwerk in Karlsruhe in Betrieb Beschreibung: http://images.intellitxt.com/ast/adTypes/icon1.png genommen.
2.     Die fehlenden Strommengen werden teuer importiert werden müssen, sofern sie jemand zur richtigen Zeit anbietet. Oder wir sitzen im Dunkeln. Dann verbleibt die damit verbundene Wertschöpfung im Ausland. Die Folge ist,
3.     Dass zehntausende hochwertschöpfender Arbeitsplätze in der Kraftwerksbranche und deren Zulieferern abgebaut werden müssen (1)
Daran ändert sich auch nichts, wenn statt der stillzulegenden Kohlekraftwerke Gaskraftwerke hierzulande errichtet werden. Díe haben zwar pro erzeugter kWh nur etwa halb so viel CO2 Ausstoß sind aber in der Stromerzeugung 2-3 x so teuer. Und rechnen sich für die Betreiber erst recht nicht.
4.     Dass bedeutet, das weitere zig Milliarden Euro vom Verbraucher zusätzlich aufzubringen sind, um die Versorger zu veranlassen, unrentable Gaskraftwerke auch dann vorzuhalten und zu betreiben, wenn deren Strom wg. der Vorrangeinspeisung nicht gebraucht wird. Denn die nur  zeitweise und ungeplant anfallende Riesenmenge an „Erneuerbarem“  Strom (es sind inzwischen fast 83 GW an Leistung der EE Anlagen installiert) wird dann ins Netz gedrückt. Die Zahl der Haushalte, die ihren Strom nicht mehr bezahlen können steigt schnell weiter an.
5.     Last but not least wird auch der letzte Verantwortliche in den Führungsetagen der Grundstoff- und auch Chemieindustrie, wie auch in vielen anderen Wirtschaftsbetrieben mit hohem Energieeinsatz, beschließen seinen Betrieb zu retten und mit ihm ins Ausland zu gehen. Der Exodus gut bezahlter, hoch wertschöpfender Arbeitsplätze wird zur Lawine anschwellen. Der Verbraucher zahlt also mehrfach. Erst für den teuren Strom und dann mit dem Verlust seines Arbeitsplatzes.
Dass die Gewerkschaften sich bisher kaum durchringen konnten dagegen massiv zu protestieren ist bezeichnend. Doch erst wenn der letzte Arbeitsplatz verloren ist, werden sie feststellen, dass Ideologie und Staatsgläubigkeit, verbunden mit politischer Korrektheit, keinen einzigen satt macht. Ob diese Erkenntnis dann noch nützt?
(1) http://www.welt.de/wirtschaft/article134653345/Kohleausstieg-koennte-Zehntausende-Jobs-kosten.html
Ergänzung: Hier noch zwei Zitate zum Thema: (aus A. Wendts Buch "Der grüne Blackout")
Ausspruch eines ehemals führenden Unionspolitikers  

„Ich habe mit Angela Merkel oft über die Energiewende gestritten. Sie ist da stur bis zum ideologischen Starrsinn.“

oder das hier
Ein Vorsitzender einer großen, einflussreichen Organisation, der öfters sowohl mit Angela Merkel als auch mit Sigmar Gabriel und etlichen Abgeordneten spricht:

„Die Parteien in Berlin unterscheiden sich bei der Energiewende nur durch die Grade ihres Irrsinns.“




Buchtipp:Meine Erlebnisse an deutschen Kernreaktoren und Wiederaufarbeitungsanlagen: Lustige und weniger lustige Geschichten eines Insiders

Letztlich ist er, wie eine ganze Generation von deutschen international anerkannten, hochklassigen Ingenieuren, Wissenschaftlern und Kaufleuten, an der Ignoranz und Unzuverlässigkeit der hiesigen Politik gescheitert, die glaubte den grünen Angstmachern dadurch den Wind aus den Segeln zu nehmen, indem sie bedenkenlos und gegen alle Vernunft, deren Angstparolen folgte. Man machte sie sich sich einfach zu eigen, und warf dann bedenkenlos die Pflicht für das Wohlergehen des ganzen ihnen anvertrauten Volkes durch sichere Versorgung mit fast unerschöplicher Energie durch Kernspaltung über Bord. Milliardenbeträge und glänzendes Know How wurden einfach auf den Abfallhaufen der Geschichte befördert.
Jeder der auf der A2 bei Hamm vorbeifährt wird immer wieder an diese Sünden der Politik erinnert. Denn dort steht als Industriedenkmal– für alle sichtbar- das „eingemottete“ Kernkraftwerk Hamm-Uentrop, weiterhin aktiv, jedoch ohne Strom abgeben zu dürfen. Es wurde auf Weisung der damaligen NRW SPD Regierung unter Johannes Rau stillgelegt. Wie auch der schnelle Brüter in Kalkar. Milliarden waren vernichtet worden, der NRW Regierungschef Johannes Rau hingegen wurde später zum Bundespräsidenten gewählt.
Zu den sonderbarsten Erlebnissen des Autors zählte ein Kontrollbesuch der Wiener Atombehörde am Kernkraftwerk KNK I, wobei sich herausstellte, das der Prüfer, ein Inder, selbst radioaktives Material in den Reaktor eingeschleppt hatte. Ein Juwelier in München ließ am Garchinger Forschungsreaktor FRM wertlose Diamanten zur Aufhellung bestrahlen und verkaufte sie teuer an die Filmprominenz in Nizza. Er wurde gefasst, als die Edelsteine in der Mittelmeersonne sich verfärbten.
Das Brüterkernkraftwerk SNR 300 in Kalkar hatte alle 17 Genehmigungen durchlaufen und wurde von den Landespolitikern in Nordrhein-Westfalen gestoppt, als die Anlage bereits vollständig errichtet war und zum Betrieb anstand. Heute wird auf diesem Grundstück ein Freizeitpark betrieben und die ehemaligen Komponenten des Kraftwerks dienen zur Kinderbelustigung.
Bei der Stilllegung der Wiederaufarbeitungsanlage WAK in Karlsruhe war die Entsorgung der plutoniumhaltigen Konzentratlösung ein besonderes Problem. Zwei baden-württembergische Landesminister verlangten deren Transport quer durch Deutschland nach Belgien.
Auch die obskure Rolle, des sich später als Atomgegner gebenden Klaus Traube wird aus nächster Nähe beleuchtet. Schließlich waren Traube und Marth enge Kollegen im selben Betrieb. Traubes -vielleicht ungewollte- Nähe zu den Hauptakteuren der RAF und ihrer Sympathisanten wird objektiv beschreiben. Aus dieser Sicht ergibt sich ein völlig anderes Bild des K. Traube, der es verstand, sich als Opfer zu stilisieren.
Beim Lesen muss man als Leser oft schmunzeln, der Erzählstil Marth´s ist flüssig und oft fesselnd, doch am Ende bleibt ein sehr bitterer Nachgeschmack, der sich aus der Erkenntnis speist, wie schnell die Öffentlichkeit das zynische Spiel der Politik und auch von Teilen der Wirtschaft vergisst, wenn es um die heutige Bewertung der teuren und auf Lügen basierenden taktischen Mätzchen derselben Parteien und Personen wie vor 30 oder 40 Jahren geht. Da wurden auf dem Altar des Machterhaltes skrupellos Glanzleistungen deutscher Ingenieurskunst und Milliarden an Volksvermögen geopfert, aber niemand, wirklich niemand, wurde jemals dafür zur Verantwortung gezogen. Ein Spielchen, dass offenbar immer wieder spielbar ist und auch heutzutage mit denselben Parteien, denselben Behauptungen und Lügen jedoch mit anderen Personen endlos weiter geht.
Uneingeschränkte Leseempfehlung.
U.a- zu erwerben bei Amazon hier
Willy Marth betreibt den Blog "Rentnerblog" mit erbaulichen und weniger erbaulichen Anekdötchen aus der hierzulande sterbenden  Kerntechnik




Ein Strommarkt für die Energiewende

Das Ziel

In der Einleitung vom Grünbuch werden die Ziele definiert: …Bis 2020 sollen die Treibhausgasemissionen um 40 Prozent gegenüber 1990 und der Primärenergieverbrauch um 20 Prozent gegenüber 2008 sinken. Die erneuerbaren Energien sollen bis 2025 40 bis 45 Prozent und bis 2035 55 bis 60 Prozent zum Stromverbrauch beitragen... Bis 2020 sind es noch sechs Jahre, das ist im überregulierten Deutschland ein Wimpernschlag für Investitionen. Vielleicht soll ja auch nur die Statistik helfen. Nur mal so als Denkanstoß: Die Energie aus Kernspaltung gilt als Primärenergie. Deshalb wird der in den Kernkraftwerken produzierte Strom für die Statistik mit dem Faktor 3 multipliziert. Elektrische Energie aus Wind und Sonne hergestellt, ist natürlich bereits Primärenergie, weil ja per Definition "gute Energie". Wenn man jetzt die Kernkraftwerke durch Windmühlen etc. ersetzen könnte…Kann man natürlich nicht und es muß deshalb mehr Strom aus fossilen Kraftwerken her. Die Nummer mit den "Treibhausgasemissionen" wird folglich voll nach hinten los gehen. Aber auch da könnte die Statistik helfen: Sie unterscheidet nämlich nicht zwischen dem exportierten Abfallstrom aus Wind und Sonne und dem importierten Strom aus französischen Kernkraftwerken, polnischen Steinkohlekraftwerken oder tschechischen Braunkohlekraftwerken. In der Politik braucht man Statistiken gar nicht zu fälschen, man muß sie nur "richtig" interpretieren können.
Neue erneuerbare Energien-Anlagen müssen dabei dieselbe Verantwortung für das Gesamtsystem übernehmen wie konventionelle Kraftwerke… Völlig falsch Herr Minister. Verantwortung können immer nur Menschen übernehmen. Wenn es auch bekanntermaßen Deutschen besonders schwer fällt, die bevorzugt "innerlich schon immer dagegen waren" oder gleich besser "von allem nichts gewusst haben" wollen. Wie wäre es also, wenn Sie einmal Verantwortung für die "Energiewende" und ihre absehbaren Folgen übernehmen würden?

Funktionsweise des Strommarktes

In diesem ersten Kapitel wird die Funktion der Strombörse und ihre verschiedenen Handelsprodukte erklärt. Ganz verschämt steht auch hier ein Satz, über den in der Öffentlichkeit kaum diskutiert wird: …Überwiegend schließen Unternehmen aber weiterhin direkte Lieferverträge mit Stromerzeugern ab. Der Handel mit diesen außerbörslichen Lieferverträgen wird „Over the Counter“ (OTC) genannt… Hier würden einmal konkrete Zahlen gut tun. Wohlgemerkt, über die physikalischen Mengen (nicht wie oft das "Stück Papier" an der Börse umgeschlagen wird, sondern die physikalische Energie mit der der Kontrakt hinterlegt wird und die letztendlich hergestellt und verbraucht wird), die an der Börse gehandelt werden, im Vergleich zu der gesamten Produktion. Im weiteren Papier wird nämlich immer etwas von "Marktsignalen" erzählt, die von der Börse ausgehen. Wenn von der Strombörse "Marktsignale" ausgehen sollen, die über den weiteren Ausbau des Kraftwerksparks bestimmen sollen, müßte aber erstmal ein Zwang für Stromhandel ausschließlichüber die Börse erfolgen. Die Signale, die eine Strombörse auf die tatsächlichen Handelspreise aussenden kann, sind prinzipiell gering, wenn nicht irreführend. Der Strommarkt verhält sich gänzlich anders, als die anderen Rohstoffmärkte (Öl, Getreide, Metalle etc.). Elektrische Energie ist weder lagerbar, noch frei transportierbar. Ein Arbitrage-Handel ist damit gar nicht möglich und die Teilmärkte Börse und OTC sind somit nur sehr locker verbunden.
Noch ein schönes Beispiel für die gestelzte Sprache eines Politbüros: …Setzen die Stromnachfrage oder Erzeuger, die ihre Fixkosten einpreisen, den Strommarktpreis, können auch sehr teure Grenzkraftwerke Deckungsbeiträge erzielen. Wenn die Grenzen der verfügbaren Erzeugungskapazitäten erreicht werden, kann der Ausgleich von Angebot und Nachfrage entweder durch Lastmanagement (d. h. Lastreduktion durch flexible Verbraucher) oder die letzte Erzeugungseinheit erfolgen… Alles klar? Wenn nicht, hier eine Übersetzung in Alltagssprache: Jedes Unternehmen muß seine vollständigen Kosten am Markt erzielen können, da es sonst pleite geht. Leider ist dies zur Zeit bei vielen Kraftwerken der Fall. Sind erst einmal genügend konventionelle Kraftwerke in die Pleite getrieben worden, kann bei Dunkel-Flaute die Stromversorgung nicht mehr aufrecht erhalten werden. Stromabschaltungen sind die Folge. Kurz vorher explodieren noch die Strompreise. Der Minister hat auch gleich noch einen Tip parat: …Wenn der Preis den Nutzen übersteigt, können Verbraucher ihren Strombezug freiwillig reduzieren. Bereits am Terminmarkt gekaufter Strom könnte in diesem Fall gewinnbringend weiterverkauft werden… Auf Deutsch: Spekuliere an der Börse, mach deinen Laden dicht und geh hin und genieße die schöne, neue Welt.
Dieser Abschnitt endet mit einem wunderbaren Satz zur Erklärung der zukünftigen Situation an der Strombörse: …In Zeiten von Überkapazitäten ist diese implizite Vergütung von Leistung gering. Sie steigt, je knapper die Kapazitäten am Strommarkt sind… Wenn erst mal die Mangelwirtschaft durch die Vernichtung konventioneller Kraftwerke vollendet ist, wird zwar weiterhin der Börsenpreis an vielen Tagen durch den Einspeisevorrang im Keller bleiben, aber bei Dunkel-Flaute würde man ein tolles Geschäft machen können, wenn man dann noch ein Kraftwerk hätte.

Herausforderungen

Geschichte kann so gnadenlos und witzig sein: …Der Strommarkt ist liberalisiert. Bis 1998 hatten Stromversorger feste Versorgungsgebiete… Wer hat das heutige Chaos erfunden? Die SPD hat’s erfunden. Bis zu dem angegebenen Zeitpunkt war die deutsche Stromwirtschaft geradezu dezentral organisiert (Hamburger-, Berliner-, Bremer-EVU, Bayernwerke, Preussenelektra, RWE, Badische Elektrizitätswerke, usw., usw.). Dann kam ein gewisser Wirtschaftsminister Wilhelm Werner Müller (parteilos). Er war der überraschende Joker des Gazprom-Mitarbeiters — und in seinem damaligen Lebensabschnitt Bundeskanzlers — Gerhard Schröder (SPD). Dieser Müller gab die Parole aus, nur schlagkräftige Großkonzerne seien im zukünftigen Europa überlebensfähig. Sein persönliches Streben galt besonders dem Verhökern der gesamten ostdeutschen Stromversorgung, plus Hamburg und Berlin als Dreingabe, an den schwedischen Staatskonzern Vattenfall. Vattenfall war damals — und inzwischen wieder — von den schwedischen Sozialdemokraten beherrscht. Auch hier fällt der SPD ihre eigene Entscheidung wieder auf die Füße. Damals wohl gelitten, als Gegengewicht zu dem "badischen Atomkonzern", der noch eine wesentliche Beteiligung durch die EDF hatte, während die schwedische Schwesterpartei den "Atomausstieg" verkündet hatte. Inzwischen hat Schweden längst den Ausstieg vom Ausstieg vollzogen und man erwärmt sich nun im Volksheim für die "Klimakatastrophe". Nicht weiter schwierig, wenn man seinen Strom nahezu hälftig aus Wasserkraft und Kernenergie herstellt. Schlecht nur für unseren tapferen Sozialdemokraten, in seiner Funktion als "Wendeminister": Arbeitsplätze gegen fixe Ideen, wie wird er sich wohl entscheiden?
Um diesen Umbau der Energieversorgung möglichst geräuschlos und ohne lästige Öffentlichkeit durchführen zu können, wurde damals dem grünen Koalitionspartner der Bonbon "Atomausstieg" zugestanden. Damit unsere Schlafmützen der deutschen Industrie nicht aufwachen, wurde die Einführung der Planwirtschaft mit dem Neusprech-Wort "Strommarktliberalisierung" getarnt. Tatsächlich gingen die Strompreise in den Anfangsjahren auch etwas zurück und das EEG kostete damals wenig mehr als eine Trittinsche Eiskugel. Michel konnte also beruhigt weiterschlafen. Es waren ja die, die für mehr Gerechtigkeit und die, die die Umwelt schützen an der Regierung. Was sollte an deren Plänen schlechtes sein? Die Sonne strahlte zwar, aber schickte immerhin keine Rechnung.
Manche Sätze sind von beängstigender Klarheit: …Derzeit werden zahlreiche Kraftwerke von ihren Betreibern stillgelegt. Dieser erforderliche Marktbereinigungsprozess wird in den kommenden Jahren anhalten… Man drückt große Mengen Abfallstrom, den keiner braucht, solange in den Markt, bis die Konkurrenz pleite macht. Im Neusprech heißt das "Marktbereinigung", in der Volkswirtschaftslehre schlicht Dumping (Verkauf von Waren unterhalb der Herstellungskosten). Erst vernichtet man die Arbeitsplätze in den Kraftwerken, anschließend durch überhöhte Strompreise, die in der Industrie. Der Morgenthau-Plan war dagegen wirkungslos.
Ganz langsam dämmert dem Wirtschaftsminister, welche Probleme noch in seiner Amtszeit auf ihn zu kommen: …2011 wurden acht Kernkraftwerke mit einer Erzeugungskapazität von insgesamt rund acht Gigawatt endgültig stillgelegt. … Bis 2022 werden hierdurch weitere Erzeugungskapazitäten in Höhe von rund 12 Gigawatt stillgelegt… Die damals stillgelegten Kernkraftwerke, waren die "alten und kleinen". Deshalb wurde im Jahr 2013 in den verbliebenen Kernkraftwerken mit 97,3 TWh immer noch mehr Strom, als mit Wind (53,4 TWh) und Sonne (30,0 TWh) zusammen  erzeugt. Er müßte in den nächsten acht Jahren deshalb den Ausbau mehr als verdoppeln, um die Kraftwerke wenigstens energetisch zu ersetzen. Deshalb schreibt er auch gleich im folgenden Absatz: …Hierbei nehmen Windenergie und Photovoltaik die tragende Rolle ein. Wind und Sonne sind die Energiequellen mit den größten Potentialen und den geringsten Kosten… Na denn, die Partei kann sich nicht irren. Es war ja schließlich ein Sozialdemokrat, der mit dem Slogan "Die Sonne schickt keine Rechnung" ein bescheidenes Vermögen gemacht hat.
Hier ist es wieder, das übliche ideologische Geschwafel: …Der Gesamtbedarf an fossilen Kraftwerken und insbesondere der Bedarf an Grund- und Mittellastkraftwerken sinkt, während der Bedarf an flexiblen Spitzenlasttechnologien und Lastmanagement steigt… Speicher gibt es nicht, aus der Kernenergie soll ausgestiegen werden, warum sollte also der Bedarf an fossilen Kraftwerken sinken? Grundlast ist der niedrigste, das ganze Jahr über ständig auftretende Bedarf — also auch nachts. Gabriel glaubt ja viel zu können, aber die Sonne nachts scheinen zu lassen, dürfte ihm nicht gelingen. Mittellast ist der während der Werktage auf die Grundlast aufsattelnde gleichmäßige Energiebedarf. Geht er vielleicht bereits von einer vollständigen Abschaffung der Arbeitswelt aus? Die Spitzenlast ergibt sich zusätzlich an wenigen Stunden pro Tag (z.B. Strombedarf der Bahnen im Berufsverkehr). Vom Bedarf aus betrachtet, ergibt sich also überhaupt keine Veränderung, egal auf welche Art der Strom erzeugt wird. Lediglich durch die Störungen auf der Angebotsseite aus Windmühlen und Photovoltaik ergibt sich ein zusätzlicher und ohne "Erneuerbare" gar nicht vorhandener Regelungsbedarf. 
Man spürt förmlich die Unsicherheit und es wird im nächsten Abschnitt ordentlich weiter geschwurbelt: …Wir bewegen uns von einem Stromsystem, in dem regelbare Kraftwerke der Stromnachfrage folgen, zu einem insgesamt effizienten Stromsystem, in dem flexible Erzeuger, flexible Verbraucher und Speicher zunehmend auf das fluktuierende Dargebot aus Wind und Sonne reagieren… Da ist sie wieder, die für alle Religionen typische Verheißung des Paradieses in der Zukunft.
Ein wichtiger Grundsatz der Werbung und Propaganda ist die Verbreitung von Halbwahrheiten: …Die derzeit zu beobachtenden niedrigen Großhandelspreise unterstreichen die Tatsache, dass es gegenwärtig erhebliche Überkapazitäten gibt. Die teilweise angekündigten oder bereits realisierten Stilllegungen von Kraftwerken sind ein Zeichen dafür, dass der Strommarkt die richtigen Signale aussendet… Der Zusammenbruch der Handelspreise an der Börse beruht ausschließlich auf dem Einspeisevorrang der "Erneuerbaren". Wenn das Angebot von Wind- und Sonnenenergie wegen der Wetterverhältnisse hoch ist und die Nachfrage gering (typisch an Feiertagen), fallen die Handelspreise. In manchen Stunden muß sogar ein negativer Energiepreis (Entsorgungsgebühr) bezahlt werden. Das Marktsignal wäre eindeutig: Sofortige Abschaltung der "Erneuerbaren". Die Gesetze der Planwirtschaft (Einspeisevorrang und EEG-Vergütung) verbieten dies aber ausdrücklich. Es bleibt nur noch der Ausweg konventionelle Kraftwerke abzuschalten. Teilweise nagelneue, mit den weltweit höchsten Umweltstandards. Gut gemeint, ist halt noch lange nicht gut gemacht.
Alle Theoretiker versuchen immer, ihre Gedanken mit Fällen aus der Praxis zu hinterlegen. Dies gibt ihnen das Gefühl, nicht in einem Elfenbeinturm zu leben. So werden auch im Grünbuch (Seite 14) unter der Überschrift …Kapazitäten sind eine notwendige, aber keine hinreichende Bedingung für Versorgungssicherheit…, zwei Beispiele geliefert: Einmal der Februar 2012 in Deutschland — und man ist ja weltmännisch — der 7. Januar 2014 in USA. Sätze wie … eine große Zahl von Bilanzkreisverantwortlichen hatte zu wenig Strom am Markt beschafft, um den tatsächlichen Verbrauch in ihren Bilanzkreisen zu decken… lassen — zumindest bei Genossen — sofort das Bild vom profitgierigen Spekulanten an der Börse erscheinen, der versucht die "Energiewende" zu sabotieren. Die Wahrheit ist viel simpler. Es gibt keine 100% zutreffende Wettervorhersage. Insofern kann man nie die Produktion an "Erneuerbaren" verlässlich voraussagen. Elektrische Energie ist nicht speicherbar (anders als Öl, Kohle etc.) und deshalb kann eine Strombörse auch keine Signale (Arbitrage) für den Netzbetrieb liefern. Die Regelenergie kommt aber aus einem ganz anderen Topf (Netzentgelte). Insofern handelt jeder Börsenhändler rational und richtig, wenn er stets zu knapp einkauft.
Noch toller ist das Beispiel aus den USA: …Der Grund dafür war, dass diese Anlagen keinen ausreichenden Anreiz hatten, auch einsatzbereit zu sein und tatsächlich eingesetzt zu werden… So ist das nun mal, wie das Windrad Wind braucht, brauchen die "flexiblen und klimafreundlichen" Gaskraftwerke ausreichend Erdgas zum Betrieb. Man hat an der gesamten Ostküste verstärkt auf Gaskraftwerke gesetzt. Weniger aus Klimaschutz, viel mehr aus Kostengründen. Im Gebiet des Marcellus Shale (fracking!) ist das Gas noch billiger als US-Kohle. Leider wird auch dort Erdgas in den Metropolen zum Heizen und in der Industrie verwendet. Durch den Kälteeinbruch hatten sich die Erdgaspreise nahezu verzehnfacht. Kraftwerke und Gebäudeheizungen haben das Rohrleitungssystem förmlich leer gesaugt. Im Einvernehmen mit den Kraftwerksbetreibern hat man die Gaskraftwerke vom Netz genommen, um die Preisexplosion zu stoppen. Seit dem, tobt eine höchst interessante Diskussion, wer zusätzliche Leitungskapazität — die nur wenige Stunden im Jahr gebraucht wird — finanzieren soll. Ein Schelm, wer Parallelen zu Stromautobahnen für Windstrom von Nord nach Süd sieht!
In den folgenden Absätzen wird versucht, über die eigentlich erkannten Probleme hinweg zu schwafeln: …Alternativ können flexible Verbraucher ihre Stromnachfrage reduzieren und z.B. bereits eingekauften Strom am Markt gewinnbringend verkaufen… Welche flexiblen Verbraucher? Bisher hat man ein Fußballländerspiel geguckt, wenn es übertragen wurde und Autos produziert, wenn sie bestellt waren. Nur Banken und Spekulanten — sonst die ärgsten Feinde aufrechter Sozialdemokraten — können Strom gewinnbringend handeln. Und im besten Politikerjargon geht es nahtlos weiter: …Auf diese Weise kann der zu niedrigen Grenzkosten angebotene Strom aus Wind- und Sonnenenergie effizient und sicher in das System integriert werden… Der dümmliche Werbeslogan "Die Sonne schickt keine Rechnung" wird auf Ministerebene "zu niedrigen Grenzkosten angebotener Strom aus Wind- und Sonnenenergie" umgeschrieben und wenn man Abfallstrom gegen Erstattung der Entsorgungskosten ins Ausland verhökert wird er "effizient und sicher in das System integriert". Mein absoluter Lieblingssatz folgt erst kurz danach: …Der Strommarkt ist damit weit entfernt von einem „Überschuss“ erneuerbarer Energien. 2035 könnte die minimale Residuallast minus 25 Gigawatt betragen… Auf Deutsch: 2035 könnten wir mehr als 25 GW (das ist mehr als das Doppelte, was zur Zeit noch an Kernkraftwerken am Netz ist) Leistung aus Wind und Sonne erzeugen, als wir überhaupt an Strom verbrauchen. Jedem im Politbüro der "Hauptstadt der DDR" wären vor Rührung die Tränen gekommen, bei einer solchen Übererfüllung des Plansoll. Wie hoch dann wohl die Entsorgungsgebühren sein werden?

Flexibilität als eine Antwort

Neben der zeitweisen Stromabschaltung, werden hier echte technologische Knaller zur Lösung der Überproduktion empfohlen: …Bei geringer Residuallast kann mit Strom auch direkt Wärme erzeugt und damit Heizöl bzw. Gas eingespart werden… Wenn die Wetterlage mehr Strom produziert als überhaupt gebraucht wird, soll man mit Strom heizen. Zum zehnfachen Preis von Heizöl. Der Tauchsieder als Retter der Schlangenölverkäufer (wird bereits in Bremen erprobt).
Manche Aussagen sind schlicht dummdreist: …Darüber hinaus können bei gekoppelten Märkten auch die unterschiedlich verfügbaren Technologien effizienter genutzt werden (z. B. Wind und Sonne in Deutschland, Wasserkraftspeicher in den Alpen und in Skandinavien)… Vielleicht fragt mal einer im Ministerium bei den Betreibern der alpinen Wasserkraftwerke an. Die gehen sogar von Schließung der bestehenden Anlagen aus, wenn das Dumping mit deutschem Abfallstrom noch länger anhalten sollte. Manchmal weiß man auch nicht, ob man lachen oder weinen soll: …Die Kosten für die Erschließung der notwendigen technischen Potenziale sind umso geringer, je breiter und direkter die Preissignale wirken… Nur sind die Preissignale durch den Einspeisevorrang und die EEG-Vergütung völlig auf den Kopf gestellt. Oder noch gestelzter: …Bei statischer Betrachtung erhöht sich die EEG-Umlage bei einer Abregelung bei moderat negativen Preisen in einem stärkeren Maße, als bei Abregelung bei einem Preis von Null. Bei dynamischer Betrachtung hingegen erweist sich die Abregelung bei moderaten negativen Preisen als kosteneffizient… Entsorgungsgebühren fallen immer dann an, wenn es keine wirtschaftliche Verwendung für den Abfall gibt. Einzig sinnvolle Konsequenz ist daher die Müllvermeidung — sprich die Abschaltung der Anlagen bei Überproduktion.
So langsam ahnen die Schlangenölverkäufer, daß die Geschäfte zukünftig nicht mehr so profitabel weiter laufen können: Insbesondere Biomasseanlagen erbringen zunehmend Regelleistung. Zukünftig sollte die Teilnahme am Markt für (negative) Regelleistung auch für Wind- und Photovoltaikanlagen möglich sein… Man will sich das Abschalten als "negative Regelleistung" vergüten lassen — hofft jedenfalls der Ingenieur. Vielleicht will man die Windräder auch als Ventilatoren laufen lassen. Innerhalb eines Windparks dürften sich dann tolle Koppelgeschäfte verwirklichen lassen. Aber, damit ist der Kreativität im Wirtschaftsministerium noch kein Ende gesetzt: …Biomasseanlagen haben mit der Flexibilitätsprämie einen Anreiz, ihre Anlagen flexibel auszulegen und zukünftig vor allem bei hohen Strompreisen einzuspeisen. Auch Wind- und Photovoltaik-Anlagen können z. B. durch Schwachwindturbinen oder Ost-West-Ausrichtung eine gleichmäßigere Einspeisung erzielen und in Zeiten hoher Strompreise die hohe Nachfrage besser decken… Die Konstrukteure von Biogasanlagen haben selbstverständlich auf eine gleichmäßige Auslastung der Anlagen gesetzt, um die Kapitalkosten gering zu halten. Wer soll die zusätzlichen Speicher, Motoren, Verstärkung der Netzanschlüsse etc. bezahlen, wenn plötzlich "geregelt" eingespeist werden soll? Der "Biostrom" würde damit noch teurer. Die "Schwachwindturbinen" und die Ost-West-Ausrichtung kommentieren sich von selbst.

Marktpreissignale für Erzeuger und Verbraucher stärken

Dem Minister scheint der Einsatz von Windrädern als Ventilatoren so wichtig, daß er noch einmal im nächsten Kapitel ausdrücklich gefordert wird: …Die Präqualifikationsbedingungen sollten so angepasst werden, dass insbesondere Windenergieanlagen in Zukunft negative Regelleistung bereitstellen können… Der nächste Verbesserungsvorschlag erscheint eher etwas nebulös: …Auch könnte in Zukunft die ausgeschriebene Menge für Regelleistung an die jeweilige Einspeisung von Wind- und Sonnenenergie angepasst werden… Soll es vielleicht demnächst ein Forschungsprojekt zum aufblasbaren Kraftwerk geben?
Schön ist, wenn Politiker auch mal erkennen, daß das Fehlverhalten einiger Geschäftemacher die Folge ihrer blödsinnigen Gesetze ist: …Schätzungen gehen davon aus, dass nur 30 – 50 Prozent der Bilanzkreisverantwortlichen ihren Bilanzkreis aktiv am Intradaymarkt bewirtschaften… Kein Mensch kann das Wetter des nächsten Tages mit hundertprozentiger Sicherheit voraussagen. Im wirklichen Leben ist ein Händler, der etwas verkauft, was er gar nicht besitzt, ein Betrüger. Deshalb hat jeder Händler ein Lager. Anders im Stromgeschäft. Dort gibt es einen Wohltäter, den Übertragungsnetzbetreiber, der jede fehlende Lieferung augenblicklich ersetzt. Da Wohltäter nur im Märchen vorkommen, holt der sich seine (erhöhten) Kosten über die Netzentgelte von uns zurück. Ein klassisches Geschäft zu Lasten Dritter — aber von der Politik ausdrücklich so gewollt.

Stromnetze ausbauen und optimieren

Eine alte Propagandaweisheit besagt, daß es egal ist, ob etwas falsch oder wahr ist, man muß es nur oft genug wiederholen. So steht auch hier wieder: …Überregionaler Stromaustausch gleicht die Schwankungen von Wind, Sonne und Nachfrage aus… Wer immer noch dieses Märchen glaubt, sollte sich schnellstens mal mit den meteorologischen Datensammlungen bzw. den Einspeiseverläufen der Übertragungsnetzbetreiber beschäftigen.
Mit den ewig selben fadenscheinigen Argumenten werden auch die Nord-Süd "Stromautobahnen" begründet: …Dies erhöht in zahlreichen Stunden den Transportbedarf von Norden nach Süden… Keine einzige Windmühle wird je ein konventionelles Kraftwerk ersetzen können. Weht kein Wind, wird auch keine elektrische Energie erzeugt, weht zufällig mal kräftiger Wind, heißt das noch lange nicht, daß diese auch gebraucht wird. Die Nord-Süd-Leitungen dienen nur dem Zweck, die Überproduktion aus Norddeutschland nach Süddeutschland zu entsorgen — hofft man. Dies wird eher an wenigen Stunden, als an zahlreichen geschehen. Eine weitere Fehlinvestition der "Energiewende", für die wir Bürger zahlen müssen.
Ebenso irrsinnig und rein ideologisch begründet ist die Annahme: …Der Stromhandel unterstellt ein Netz ohne Engpässe… Die Vernachlässigung der Transportkosten ist ja gerade ein zentraler Geburtsfehler von Strombörse und EEG. Gibt es auch eine staatliche Tankerflotte, die kostenlos billiges Erdgas nach Europa transportiert? Wer von der Preisdifferenz zwischen USA und Europa profitieren möchte, muß sich völlig selbstverständlich Tanker auf eigene Kosten chartern. Woher leitet ein Windmüller daher ab, daß sein billiger Strom aus der Nordsee (Standortvorteil) kostenlos nach Süddeutschland transportiert wird? Wer Produktionsanlagen weit entfernt von Verbrauchern baut, muß auch selbst für den Transport aufkommen.
Ein weiterer Vorschlag aus der Küche des Wirtschaftsministeriums, der die Situation nur verschlimmert: …Um Redispatchpotentiale außerhalb der Netzreserve zu erschließen, könnten beispielsweise bestehende Netzersatzanlagen mit Steuerungstechnik ausgestattet werden… Wer bezahlt die Umrüstung und den zusätzlichen Verschleiß? Soll noch ein Stück Umweltschutz auf dem Altar des EEG geopfert werden? Netzersatzanlagen haben wesentlich geringere Umweltstandards als konventionelle Kraftwerke — was auch kein Problem ist, da sie nur im Notfall eingesetzt werden sollten. Was hat Vorrang, die Versorgungssicherheit des städtischen Krankenhauses oder die Wolke über der Photovoltaikanlage im Villenviertel?
Schön ist auch, daß das Wirtschaftsministerium zum Ideenwettbewerb aufruft: …Es ist zu klären, inwieweit die bisher aus den rotierenden Massen der Generatoren erbrachte Momentanreserve durch Energiespeicher oder Photovoltaik-Anlagen mit Umrichtern ersetzt werden kann… Gar nicht. Es sei denn, mit Umrichter sind Motor-Generator-Sätze gemeint. Aber, spätestens wenn alle Kernkraftwerke abgeschaltet sind, bekommen unsere "Energieexperten" noch eine Nachhilfestunde in Elektrotechnik erteilt.

Einheitliche Preiszone erhalten

Man kann es kaum unverblümter ausdrücken, daß es sich beim Stromhandel nicht um Marktwirtschaft, sondern Planwirtschaft handelt: …Dieses einheitliche Marktgebiet – auch „einheitliche Preiszone“ oder „einheitliche Gebotszone“ genannt –, ist die Grundlage dafür, dass sich deutschlandweit und in Österreich die gleichen Großhandelspreise für Strom bilden… Transportkosten werden bewußt ausgeklammert. Wenn sonst irgendjemand weit entfernt von einer Autobahn ein Fabrik baut, muß er selbst für den Transport sorgen. Der niedrige Grundstückspreis und ein geringes Lohnniveau als Marktsignal, lassen sich unmittelbar gegen die erhöhten Transportkosten aufrechnen. Anders im Stromhandel. Hier gibt es keine Transportkosten. Die Verbraucher müssen dem cleveren Investor einen Autobahnanschluß bis vor dessen Türe bauen. Im Volksmund würde man so etwas als schmarotzen bezeichnen.
Wenige Absätze später, wird diese zentrale planwirtschaftliche Säule des EEG-Systems deshalb noch einmal ohne wenn und aber bekräftigt: …Die Möglichkeit, den Strom versorgungssicher und effizient im Netz zu transportieren, ist die Voraussetzung für den Erhalt der einheitlichen Preiszone… Wohlgemerkt, wir reden hier von zwei- bis dreistelligen Milliardenbeträgen, die in die Übertragungs- und Verteilnetze investiert werden müssen, damit die Windmüller und Sonnenstromer ihr Produkt überhaupt zum Verbraucher transportieren können. Eine der gigantischsten Umverteilungen von unten (alle Stromverbraucher) nach oben (wenige Produzenten), die je in dieser Republik statt gefunden haben.

Die europäische Kooperation intensivieren

Ein echter politischer Hammer ist die folgende Aussage: ...Wenn Strom in das Ausland exportiert wird, profitieren die ausländischen Stromverbraucher vom günstigen Strom in Deutschland, während deutsche Stromerzeuger zusätzliche Erlöse erzielen und dort teilweise die Konkurrenz verdrängen… Ist das wirklich das politische Ziel dieser Regierung? Deutsche Kleinrentner etc. machen sich für ausländische Stromkunden krumm, damit deutsche Stromerzeuger — gemeint sind ja wohl eher Windmüller und Sonnenfarmer — reicher werden? Wie lange glaubt man hier, daß sich unsere Nachbarn diesen Angriff auf ihre Arbeitsplätze gefallen lassen? 
Geradezu schizophren sind die folgenden Sätze: …Dies gilt auch, weil die Bedeutung dargebotsabhängiger erneuerbarer Energien und damit stochastisch verfügbarer Erzeugung wächst. Durch die großräumigen Ausgleichseffekte bei den Höchstlasten und dem Beitrag der erneuerbaren Energien zur gesicherten Leistung besteht im europäischen Binnenmarkt grundsätzlich ein geringerer Bedarf an Erzeugungskapazität, Lastmanagement und Speichern… Also die stochastische (zufällige) Erzeugung durch "Erneuerbare"wächst und dadurch nimmt die gesicherte Leistung zu. Das hat etwas von der unbefleckten Empfängnis der Jungfrau Maria. Nur kommt man mit einem Glaubensbekenntnis bei der Stromerzeugung nicht weiter. Technik ist eben keine Religion!
Unabhängig davon, für welches Strommarktdesign sich Deutschland, seine Nachbarländer oder andere EU-Mitgliedstaaten entscheiden, sollten beispielsweise gemeinsame Regeln geschaffen werden für Situationen, in denen in mehreren gekoppelten Strommärkten gleichzeitig relativ hohe Strompreise im Großhandel beobachtet werden… Autsch! Kriegt da jemand Angst, daß unsere Nachbarn doch nicht bei Dunkel-Flaute bedingungslos einspringen? Bekommt jemand Bedenken, daß unsere Nachbarn das Gefasel von "Marktsignalen" wörtlich nehmen und den Preis verlangen, der bezahlt werden muß? Bisher war so etwas ausgeschlossen. Jeder mußte ausreichende Reserven vorhalten. Nur in echten Notfällen — Flaute und Dunkelheit zählen nicht dazu — sind dann die Nachbarn vorübergehend für einander eingesprungen. Aber das ist der Unterschied zwischen Nachbarschaftshilfe und Schmarotzertum.
 Dr. Ing. Klaus-Dieter Humpich, zuerst erschienen bei NUKEKLAUS




Die Milch, das Mädchen und Deutschlands Klimaziele – Über den politisch korrekten Umgangs mit Statistiken

Das Interessante an der deutschen Klimapolitik ist die Tatsache, dass man hier besonders schön die altbekannte Tatsache vorgeführt bekommt, dass man keiner Statistik trauen sollte, die man nicht selbst gefälscht hat. Statt von Fälschung spricht man in maßgeblichen Kreisen heute allerdings lieber vornehm von „kreativem Umgang“.
Betrachtet man die Auftragung der CO2-Emissionen für Deutschland im Zeitraum ab 1990, so zeigt sich ein erkennbar nach unten verlaufender Trend, Bild 1. Besonders hilfreich war vor allem in den Anfangsjahren, dass man die weltweit einmalige Gelegenheit hatte, die geradezu grotesk energieineffiziente Infrastruktur der ehemaligen DDR abzuwickeln. Die DDR hatte pro Kopf der Bevölkerung einen erheblich höheren Energieverbrauch als der Westen. Es gibt u.a. Berichte über Wohnhäuser, wo man die Temperatur im Winter dadurch regelte, indem man die Fenster mal mehr und mal weniger öffnete, weil die Heizung kein Ventil hatte. So war es leicht, spektakuläre Einsparungen zu erzielen. Allerdings gibt es auch Jahre, in denen es zu einem erneuten Anstieg kam.
Bild 1. Für die letzten 24 Jahre weisen die jährlichen CO2-Emissionen in Deutschland eine erkennbar rückläufige Tendenz auf (Daten: [STAT, UMBA])

Das hehre 40-%-Ziel der Bundesregierung…

Erklärtes Ziel der aktuellen Bundesregierung ist eine Reduktion dieser „Treibhausgas“-Emissionen um 40 % bis zum Jahre 2020 [HEND]. Die Frage ist allerdings, wieweit dieses Ziel realistisch erreichbar sein dürfte. Üblicherweise untersucht man dazu den bisherigen Verlauf mithilfe statistischer Verfahren. Dazu analysiert man die Messwerte daraufhin, ob ihr Verlauf durch eine mathematische Funktion beschrieben werden kann. Mit der dann gefundenen Gleichung rechnet man dann die in der Zukunft zu erwartenden Werte aus, um festzustellen, ob sich die gewünschte Abnahme bis zum entsprechenden Zeitpunkt einstellen dürfte. Falls ja, wäre alles im grünen Bereich. Anderenfalls wird man seitens der Politik entsprechende Zwänge (Pardon, gemeint sind natürlich Anreize) einsetzen müssen.
Allerdings gibt es zahlreiche unterschiedliche statistische Auswerteverfahren, so dass man bei ihrer Auswahl und ihrem Einsatz, wie bereits erwähnt, eine gewisse „Kreativität“ ausleben kann. Versuchen wir also zunächst herauszufinden, welcher dieser Methoden sich die Politik vermutlich bedient hat, um zur Festlegung des 40-%-Ziels bis zum Jahre 2020 zu kommen. Folgt man der Logik der allseits bekannten Zunft der Milchmädchen, die deutschen Politikern bei allem, was höhere Mathematik angeht, häufig als Vorbild zu dienen scheinen, so vermeidet man am besten allzu aufwendige Rechenverfahren. Am einfachsten ist es, zwei geeignet erscheinende Messdaten herauszugreifen: Einmal als Ausgangspunkt das Jahr 1990 und einmal einen Wert so ungefähr gegen Ende der Messreihe hin, der so liegt, dass eine durch beide Punkte gezogene gerade Linie im Jahre 2020 beim gewünschten Zahlenwert endet. Und siehe da, es geht: Die Erreichung des heute gültigen 40-%-Ziels erscheint zwanglos möglich, wenn man lediglich die Werte der Jahre 1990 und 2009 durch eine gerade Linie verbindet und diese anschließend bis 2020 verlängert, Bild 2.

Bild 2. Eine Trendlinie auf der alleinigen Grundlage der Werte von 1990 und 2009 lässt das 40-%-Ziel durchaus realistisch erscheinen
Soweit, so gut. Allerdings stimmt dieser Trend aufgrund der dummerweise äußerst unflexiblen Gesetze der Mathematik nur, solange man die übrigen Werte der Reihe aus der Betrachtung herauslässt. Eine saubere Trendauswertung sollte jedoch alle in einer solchen Zeitreihe enthaltenen Werte berücksichtigen, Bild 3.

Bild 3. Lineare Trendermittlung für die CO2-Emissionen 1990-2013 mit Projektion bis 2030. Für das Jahr 2020 wird das 40-%-Ziel jetzt deutlich verfehlt

und die böse Realität

Berücksichtigt man also für die Berechnung eines linearen Trends alle Werte der Jahre von 1990 bis 2013, so erhält man eine Abnahmerate von 0,81 %/ Jahr. Bis 2020 erhielte man so eine Verringerung der Emissionen um 24,3 %, während der Wert für 2030 bei 32,4 % läge. Für eine politische Führung, die gerne als weltweites Vorbild in Sachen Klimaschutz wahrgenommen werden möchte, ist das keinesfalls ausreichend.
Zudem zeigt sich bei genauer Betrachtung der Werte in Bild 3 eine ärgerliche Unstimmigkeit: Im Verlauf der letzten fünf Jahre stiegen die CO2-Emissionen recht deutlich wieder an. Dies könnte auf einen Bruch bzw. eine Umkehr des bisherigen Trendverlaufs hindeuten. Um dies genauer zu erkennen, kann man für den gesamten Datenpark den gleitenden Durchschnitt ermitteln und als Kurve darstellen. Dies ist eine leicht zu handhabende Methode, mit deren Hilfe sich schnell erkennen lässt, ob im Verlauf einer Wertereihe Trendänderungen auftreten. Eine entsprechende Darstellung zeigt Bild 4.

Bild 4. Der gleitende Durchschnitt macht Trendwechsel besser erkennbar
Tatsächlich erkennt man bei Anwendung dieser Methode deutlich einen Trendwechsel im Zeitraum ab 2009. Für die Analyse der Zeitreihe sollte man daher besser eine Polynomfunktion wählen. Als sinnvollster Ansatz wurde ein Polynom zweiter Ordnung (Bild 5) gewählt, weil dieses von verschiedenen vertretbaren Ansätzen das beste Bestimmtheitsmaß aufweist.

Bild 5. Verwendet man für die Analyse der Zeitreihe ein Polynomansatz zweiter Ordnung, so sinkt der CO2-Ausstoß nicht unter 800 Mio. t/ Jahr und es kommt ab etwa 2025 sogar zu einem erneuten Anstieg
Als Fazit ergibt sich, dass der bisherige Verlauf der Reduktion des deutschen CO2-Ausstoßes im Zeitraum seit 1990 bei korrekter Handhabung der üblichen statistischen Verfahren die Regierungsziele nicht bestätigt. Den deutschen Umwelt- und Klimapolitikern bleiben daher nur zwei gleichermaßen unangenehme Alternativen: Entweder sie geben zu, dass die angestrebten „Klimaschutzziele“ unrealistisch und daher nicht zu erreichen sind, oder sie ergreifen einschneidende Maßnahmen für eine verstärkte Einschränkung des Energieverbrauchs. Letzteres dürfte jedoch mit an Sicherheit grenzender Wahrscheinlichkeit negative Auswirkungen auf die wirtschaftliche Entwicklung des Landes haben.

Die Haltung „Deutschland gegen den Rest der Welt“…

Wenn man sich von der deutschen „heilen Klimaschutz-Welt“ abwendet und die weltweite Entwicklung der letzten 24 Jahre in Sachen CO2-Ausstoß und Klimapolitik genauer ansieht, bekommt man den Eindruck, dass sich Deutschland diesbezüglich in eine ähnlich fatale Situation manövriert hat wie 1914 und 1939, als man es zuwege gebracht hatte, sich so viele Feinde zu schaffen, dass der Ausgang der dann ausbrechenden Kriege eigentlich von vornherein klar war. Deutschland hat in den letzten 24 Jahren weit mehr als eine halbe Billion € in das Bemühen investiert, seinen CO2-Ausstoß um etwa 200 – 220 Mio. t/ Jahr zu senken. Doch was bedeutet das im Vergleich mit der Wirklichkeit auf dem Rest des Planeten?
Bild 6 zeigt, wie sich der weltweite menschengemachte CO2-Ausstoß seit Beginn der Industrialisierung im 18./19. Jahrhundert verstärkt hat. Die Kurve lässt erkennen, wie sehr die Entwicklung unserer heutigen technischen Zivilisation mit der Möglichkeit der Nutzung von zusätzlichen, nicht-natürlichen Energieressourcen verknüpft ist. Mitte des 18. Jahrhunderts war der Mensch noch auf Holz, eigene Muskelkraft, Zugtiere und ein wenig Wind- und Wassermühlentechnik angewiesen. Ohne Motoren, Heizöl und Elektrizität könnte unser Planet schwerlich mehr als eine Milliarde Menschen ernähren, und selbst deren Lebensstandard wäre kümmerlich: Kalte Wohnungen, harte körperliche Arbeit, Mangelernährung, Seuchen, früher Tod im Kindbett, Zähne ziehen ohne Betäubung etc. etc.

Bild 6. Die Entwicklung unserer heutigen technischen Zivilisation war nur durch Nutzbarmachung zusätzlicher Energieressourcen möglich (Daten: [USDE])
Grundlage der Selbstverpflichtung Deutschlands und auch der EU ist das als Kyoto-Protokoll bezeichnete Abkommen, das mit diversen Nachbesserungen eine Reduktion der Treibhausgasemissionen bis 2020 um bis zu 40 % vorsieht. Seit seiner Verabschiedung hat die Welt allerdings nicht stillgestanden. Der rote Teil der Grafik in Bild 6 zeigt, dass der mit der Industrialisierung begonnene Trend zu verstärkter Nutzung fossiler Ressourcen auch nach 1990 völlig ungebrochen anhielt. Von 1990 bis 2012 stieg der weltweite CO2-Ausstoß um rund 13 Mrd. t/ Jahr auf inzwischen knapp 35,5 Mrd. t/ Jahr an [USDE]. Das entspricht einer Zunahme von fast 58 %. Die von Deutschland erzielten Einsparungen machen lediglich etwa 0,5 % dessen aus, was die gesamte Menschheit inzwischen an CO2 produziert.

kommt das Land teuer zu stehen

Für die Utopie, quasi im Alleingang gegen alle anderen die Welt vor dem „Klimawandel“ retten zu müssen, zahlt Deutschland einen hohen und immer weiter steigenden Preis. Dieser drückt sich nicht nur in den Hunderten von Milliarden Euro aus, die hierzulande in untaugliche Systeme zu Erzeugung „erneuerbarer“ Energie investiert werden, sondern auch darin, dass das Land in der Rangliste moderner Industrienationen stetig immer weiter nach unten rutscht. Besonders deutlich wird das am Beispiel von Grundstoffindustrien wie beispielsweise der Stahlerzeugung, Bild 7.

Bild 7. Während Deutschlands Stahlproduktion mit ca. 44-45 Mio. t/Jahr seit 1990 praktisch stagniert, ist sie weltweit um 109 % auf inzwischen 1607 Mio. t/ Jahr angestiegen (Grafik: Wirtschaftsvereinigung Stahl)
Damit hat sich der Anteil Deutschlands an der Welt-Stahlproduktion innerhalb der letzten 24 Jahre mehr als halbiert. Mit nur noch knapp 3 % rutscht das Land industriepolitisch inzwischen selbst in der zweiten Liga schon in Richtung der Abstiegsränge. Ähnliche Entwicklungen sind auch in anderen wichtigen Industriesektoren wie Aluminium, Zement sowie der Chemie zu beobachten. Einer kürzlichen Meldung zufolge hat die chemische Industrie– und das ist Deutschlands drittgrößter Industriesektor nach Auto- und Maschinenbau – seit 2011 ihre Produktion bzw. ihre Investitionen in Deutschland nicht erhöht [EIKE]. Und der gleichen Quelle zufolge erwägt laut einer Umfrage der deutschen Industrie- und Handelskammer zufolge fast ein Viertel aller Unternehmen der Schwerindustrie, ihre Produktion in Deutschland zu verringern. Was viele Mitbürger zudem nicht wissen: Deutschland kauft heute energieintensiv erzeugte Metalle und Chemikalien in viel größerem Umfang ein als früher. Auf gut Deutsch gesagt: Wir lassen andere Länder die CO2-intensiven Produkte erzeugen, die wir selbst nicht mehr herstellen wollen, kaufen diese dann ein und brüsten uns vor der Öffentlichkeit dann als die ganz tollen CO2-Einsparer.
Aus Angst vor einem angeblichen Klimawandel, an dessen Existenz neben immer mehr Wissenschaftlern auch wachsende Anteile der Bevölkerung deutliche Zweifel anmelden, hat sich das Land einer ruinösen „Klimarettungspolitik“ verschrieben. An die Erreichbarkeit der lauthals verkündeten „Klimaziele“ durch Reduktion unseres CO2-Ausstoßes können höchstens noch Milchmädchen glauben. Der Rest der Welt sieht Deutschland bei seinem Kurs ins industriepolitische Abseits mit einem mokanten Lächeln auf den Lippen zu und wahrt zugleich seine wirtschaftlichen Interessen. Getreu dem Spruch Sigmar Gabriels: „Für die meisten anderen Länder in Europa sind wir sowieso Bekloppte“ [GABR].

Weitere unsinnige Belastungen für die Industrie

Natürlich ist auch der Politik klar, dass Deutschland seine vollmundig proklamierten Ziele wohl kaum erreichen wird. Doch statt die Ziele zu ändern, übt man lieber in bewährter Manier Druck auf die Industrie aus. Einer Mitteilung im Spiegel Online zufolge [SPIE] hat das Kabinett in der vergangenen Woche beschlossen, dass gut 50.000 Firmen in der Bundesrepublik alle vier Jahre sogenannte Energie-Audits durchführen sollen, eine Art Buchprüfung für Energieeffizienz. Interessierte Kreise aus „der Wissenschaft“, die sich offensichtlich lukrative Aufträge seitens der unter Druck gesetzten Unternehmen erhoffen, bemängeln der gleichen Meldung zufolge, dass die Massnahmen zu unverbindlich seien, und hoffen auf ein weiteres Bündel von Maßnahmen „für einen effizienteren Energieeinsatz“, das das Bundeskabinett am 3. Dezember beschließen will. Der „Nationale Aktionsplan für Energieeffizienz“, kurz Nape, und soll ebenfalls helfen, das „Klimaziel“ zu erreichen. Dabei geht es um ganze 23 Mio. t CO2 im Jahr, wofür die Firmen 15 Mrd. € investieren sollen.
Abgesehen von dem bürokratischen Aufwand, wenn 50.000 Firmen gezwungen werden, jeweils etliche Mitarbeiterstunden auf das Studium dieser neuen bürokratischen Monstrosität zu verschwenden, ist schon die Tatsache entlarvend, dass man seitens des beteiligten Fraunhofer Instituts für System- und Innovationsforschung glaubt den Unternehmen vorrechnen zu müssen, wie lohnend die entsprechenden Investitionen doch seien. Diese Bürokraten-„Wissenschaftler“ in ihren Elfenbeintürmen haben anscheinend nicht die geringste Vorstellung davon, in welchem Umfang sich jeder Gewerbebetrieb tagein, tagaus mit der Möglichkeit beschäftigt, Kosten zu senken, wo immer es nur geht. Diesen Leuten braucht man ihren Job nicht zu erklären, sie wissen selbst ganz genau, wann sich eine Investition rechnet und wann eben nicht. Denn diejenigen, die es nicht können, werden vom Wettbewerb eher früher als später aussortiert.
Fred F. Mueller
Quellen
[EIKE] http://www.eike-klima-energie.eu/news-cache/europas-gruener-selbstmord-schwerindustrie-verlegt-investitionen-ins-ausland/
[GABR] http://www.1730live.de/sigmar-gabriel-nimmt-in-kassel-stellung-zur-energiewende
[HEND] http://www.heute.de/bundesumweltministerin-barbara-hendricks-will-mehr-kohlekraftwerke-vom-netz-nehmen-35722120.html
[SPIE] http://www.spiegel.de/wirtschaft/soziales/energiewende-firmen-koennten-23-millionen-tonnen-co2-sparen-a-1001488.html
[STAT] http://de.statista.com/statistik/daten/studie/2275/umfrage/hoehe-der-co2-emissionen-in-deutschland-seit-1990/
[UMBA] http://www.umweltbundesamt.de/sites/default/files/medien/384/bilder/dateien/2_abb_thg-emissionen_2014-03-07_0.pdf
[USDE] http://cdiac.ornl.gov/ftp/ndp030/global.1751_2010.ems