Das „Treibhaus“ treibt Journalisten in die Glaubwürdigkeitskrise- „Diese Welt braucht mutige Journalistinnen und Journalisten“

Weitere Forderungen zwecks Rückgewinnung von Vertrauen in die Arbeit von Journalisten sind: „Wir dürfen niemals die Regeln unseres Handwerks verlassen.“ Oder: „Gründliche Recherche, richtig geht immer vor schnell. Das ist der Unterschied zwischen einem Gerücht und einer Nachricht.“ Nur so könne der Leser lernen zu unterschieden, ob etwas relevant oder irrelevant ist. Doch kann dies ein Journalist, wenn die Überbringer von Botschaften wissenschaftliche Gremien oder Arbeitsgruppen von Experten sind, die Themen oder Probleme ansprechen, die völlig neuartig sind und zwecks Überprüfung ein Fachwissen erfordern, über das auch ein qualifizierter Journalist nicht verfügt. Wichtig ist es, bei Pressepräsentationen eine emotionale Distanz und damit seine Kritikfähigkeit zu wahren.
Am 26. August 2014 erging eine Presseeinladung der Michael Otto Stiftung für Umweltschutz, des Potsdam-Instituts für Klimafolgenforschung und der Technischen Universität Berlin durch das PIK in Potsdam. Ort waren die Mozartsäle in Hamburg. Der Titel der Veranstaltung lautete: „Klimawandel und Klimaschutz: zwischen globaler Transformation und nationalen Herausforderungen“. Als Anreiz wurde angeboten eine Podiumsdiskussion mit Bundesumweltministerin Hendricks. Zelebriert wurde der Abschluss der Förderung der Professur „Ökonomie des Klimawandels“ an der Technischen Universität Berlin. Doch kein Journalist entzog sich der „Gleichförmigkeit der Meinung“. Keiner hatte den Mut zu fragen, wie man das Klima, das ein Konstrukt darstellt und von langjährigen Wetterbeobachtungen abhängt, schützen könne. Das Wetter gehört zu den irreversiblen Naturvorgängen. Es kann weder rückgängig noch ungeschehen gemacht werden und seinen Wandel, der jedwedem Klimawandel zugrunde liegt, kann auch kein Mensch beeinflussen, nicht einmal eine Weltmacht wie die Vereinigten Staaten vor Amerika oder die Vereinten Nationen. Die Ohnmacht vor dem Wetter wird zu kaschieren gesucht durch eine angebliche Macht über das Klima. Aber auch eine „globale Transformation“ und die Schaffung einer „Weltregierung“ würde an der Allgemeinen Zirkulation mitsamt der Wettervielfalt auf der Erde nichts ändern.
Mögen sich auch Deutsche Unternehmer mitsamt ihrer „Stiftung 2°“ für Klimaschutz aussprechen und sich dem staatlichen Diktat „Klimaschutz“ wohlgefällig beugen, das Wetter nimmt dies nicht zur Kenntnis und macht weiter, was es will. Es ist nach wie vor als „chaotisches System“ so unverstanden und unberechenbar, dass es sich jeder mittelfristigen Vorhersage entzieht. Wie das Weihnachtswetter regional in Deutschland ausfallen wird, das steht sprichwörtlich „in den Sternen“!
„Die Katastrophen sind die Saturnalien der Journalisten“
Die Saturnalien waren ein römischer Festtag am 17. Dezember zu Ehren des Gottes Saturn, der als Herrscher des urzeitlichen „goldenen Zeitalters“ galt. Wichtigster Aspekt der Saturnalien war die Aufhebung der Standesunterschiede. Auch Sklaven wurden an diesem Tag von ihren Herren wie Gleichgestellte behandelt. An einigen Universitäten wie Göttingen, Kiel und Köln werden „Saturnalien“ als studentisches Fest veranstaltet, bei dem man in der Vorweihnachtszeit mit den Dozenten „abrechnet“. Wenn Gerd Ruge als Journalist „Katastrophen“ als „Saturnalien“ der Journalisten bezeichnet, dann fand so ein Ereignis am 22. Januar 1986 im Hotel Tulpenhof in Bonn statt.
An diesem Tag hatte die Deutsche Physikalische Gesellschaft e. V. zu einer Pressekonferenz eingeladen, um den Journalisten die „Warnung vor der drohenden Klimakatastrophe“ zu präsentieren. Unter Aufhebung der Standesunterschiede wurde von Professoren den Pressevertretern Einblick in die Geheimnisse moderner physikalischer Forschung gegeben. Erläutert wurde die Rolle des CO2 als potentielle Gefahrenquelle für weltweite Klimaveränderungen. Die Wirkung des CO2 wurde mit der Wirkung der Glasabdeckung eines nur durch Sonneneinstrahlung „beheizten“ Treibhauses verglichen. Bei Verdoppelung des CO2-Gehaltes sollte die Temperatur in äquatornahen Breiten um 2°C, in „unseren Breiten“ um 4°C und in polnahen Breiten um 8°C steigen und eine Verschiebung der Klimazonen bewirken. Verschwinde das schwimmende Eis am Nordpol und auch das Eis über der Antarktis, dann würde der Meeresspiegel sukzessive bis zu 60 Meter ansteigen.
Dies wäre die ideale Stunde für kritischen Journalismus gewesen, doch dieser erstarrte aus Ehrfurcht vor der Weisheit der physikalischen Prominenz, repräsentiert durch die Physikprofessoren K. Heinloth (Bonn) und J. Fricke (Würzburg). Kein Journalist wagte zu fragen, was die Physiker das „Klima“ anginge, das statistisch vom Wetter abgeleitet werde und daher lediglich den historischen Wetterwandel abbilde und widergebe. Im Gegensatz zum Wetter, das auf physikalischen Vorgängen in der Atmosphäre beruhe, sei „Klima“ kein Naturvorgang, der in irgendeiner Weise vom Menschen beeinflusst werden könnte. Zudem ist Wetter so komplex und vielfältig, dass es bis heute keine Definition von Wetter gibt. Und was das Wetter betrifft, so kann der Mensch dieses nicht verändern, indem er in die Allgemeine Zirkulation lenkend eingreift und die Winde so wehen lässt, wie es ihm gefällt.
Noch peinlicher wäre es für die Herren Physiker geworden, wenn ein Journalist die Courage gehabt hätte zu fragen, wie es nachts in dem „durch Sonneneinstrahlung beheizten Treibhauses“ aussieht. Warum es darin mit Sonnenuntergang empfindlich kalt wird, sich an den Scheiben sogar Eisblumen bilden und im Winter der Großteil der Treibhäuser leer steht, weil die Heizkosten unerschwinglich hoch sind und einen Gemüseanbau gänzlich unrentabel machen. Mit Glas kann man zwar ein Gewächshaus oder einen Wintergarten bauen, doch Glas ist ein guter Wärmeleiter und führt zu einer schnellen Auskühlung des Treibhauses. Mittels Doppel- und Dreifachverglasung kann man die Wärmeleitfähigkeit verringern, doch nur wegen der zwischen den Glasscheiben eingesperrten Luft. Luft, die stillgestellt ist, ist der schlechteste Wärmeleiter in der Natur.
 Die Propagandisten beziehen die „Prügel“, die die Protagonisten verdienen!
Journalisten sind wie Boten und schon in der Antike galt: Der Überbringer schlechter Nachrichten wird geköpft. Daher forderte Sophokles: „Töte nicht den Boten!“ Abstrakt ist ein Journalist der Überbringer einer Botschaft auf Veranlassung eines Senders an einen Empfänger. Der Sender ist die Deutsche Physikalische Gesellschaft. Sie lädt zu einer Pressekonferenz,  füttert Journalisten mit Informationen, die diese über die Medien an ein breiteres Publikum, das Volk als Empfänger, weitergeben und das politische Klima, den „Zeitgeist“, beeinflussen sollen. Bei Unglücks- oder Katastrophenbotschaften hat sich der Ausdruck „Hiobsbotschaft“ eingebürgert. Derartige Hiobsbotschaften sollen zum Nachdenken, zur Umkehr und Verhaltensänderung führen. Sie erfüllen einen politisch-pädagogischen Zweck, sind ein gesellschaftliches Regulativ. Doch sie müssen sinnvoll sein und es muss ein konkretes Schutzobjekt geben. Bisher hat noch kein Jurist das Schutzobjekt „Klima“, das nur als Abstraktum existiert, umreißen können.
Der Journalist steht vor der Gewissensfrage: Soll er die Botschaft ungeprüft übernehmen und weitergeben? Dann ist er nichts als ein Handlanger. Soll er die Botschaft kritisch werten, Fragezeichen setzen? Er würde damit die Entscheidung den Lesern, Zuhörern oder Zuschauern als mündige Bürger übertragen. Das könnte ihm Kritik eintragen. Oder soll er die Botschaft nehmen und dramatisieren, um Aufmerksamkeit zu erhöhen und den Absatz zu steigern? Das würde ihm sicher positiv angerechnet. Das Nachrichtenmagazin Der Spiegel wählte die dritte Variante und ließ auf der Titelseite am 11. August 1986 den Kölner Dom in der blauen Nordsee versinken. Der Spiegel bediente damit die mythische Angst vor der „Sintflut“ als Strafe Gottes für uns sündigen Menschen.
Der Journalist ist in einer durchaus tragisch-zwieträchtigen Rolle. Ist er nur ein Instrument und wie weit reichen seine Gestaltungsmöglichkeiten? Das Schlimmste wäre, wenn er als „nützlicher Idiot“ missbraucht würde. Ihm musste eine positive und wichtige Rolle zugewiesen werden. Und dies taten die „Experten“. In einem Aufsatz „Der Treibhauseffekt als journalistische Herausforderung“ beschrieben 1998 H.-P. Peters vom Forschungszentrum Jülich und M. Sippel vom Südwestfunk ihre Gedankengänge: „Umweltprobleme sind generell attraktive Themen für die journalistische Berichterstatten. So können sich Journalisten wegen des hohen Umweltbewusstseins sicher sein, dass das Thema interessierte Leser, Zuhörer und Zuschauer findet. Der Einsatz für den Umweltschutz gilt weithin als „sozial wünschenswert“. Journalisten, die sich dieser Themen annehmen, können daher mit sozialer Anerkennung rechnen. Der Journalist als „Warner“ vor Risiken und als Aufdecker von Missständen dürfte die beliebteste Rolle sein, in der sich Journalisten gefallen“. Die Journalisten konnten der Versuchung nicht widerstehen, erfüllten die in sie gesetzten Erwartungen, betrieben die „Skandalisierung“ von Umweltproblemen, prangerten die „Schuldigen“ öffentlich an und inszenierten im Muster simpler Mythen ein Schauspiel „das Gute im Kampf mit dem Bösen“, bei dem der Leser sich immer auf die moralisch richtige Seite der „Guten“ schlagen konnte.
Die „Klimaproblematik“ wurde mit dem sprachlichen Unwort „Klimakatastrophe“ durch die Deutsche Physikalische Gesellschaft eingeführt und vom Spiegel popularisiert. Über die Magazine Spiegel wie Stern wurde das Thema aktiv in die öffentliche Debatte eingespeist, bis es 1987 die mediale die politische Bühne eroberte und als „Klimapolitik“ einen Parteienwettbewerb entfachte darüber, wer in diesem unseren Lande der beste „Klimaschützer“ sei.
Peters und Sippel fassen zusammen: „Bei der Entstehung des Themas haben offenbar Wissenschaftler eine ungewöhnlich aktive Rolle gespielt. Nicht Umweltschutzbewegung, nicht Katastrophe, sondern die Warnungen von Wissenschaftlern, die bereit waren, sich auch öffentlich und politisch zu exponieren, waren international Pate der Klimadebatte. Auch in Deutschland fällt die aktive Rolle der Wissenschaftler auf“. In der amerikanischen Berichterstattung fällt zudem auf, dass die Zahl der Beiträge über den Treibhauseffekt mit der Lufttemperatur stieg. In den heißen Sommermonaten berichteten die Medien überproportional häufig über den Treibhauseffekt. Besonders der heiße Sommer 1988 wurde von James Hansen (NASA) genutzt, um die Folgen des Treibhauseffekts zu dramatisieren und im Kongress das psychologische Klima zu manipulieren. Das Wetter konnte und kann sich nicht wehren gegen solch unverschämten Missbrauch! Der amerikanische Kommunikationswissenschaftler L. Wilkins kritisierte 1993, dass die Treibhaus-Hypothese unhinterfragt übernommen wurde. Sie ist bis heute nicht durch Messungen belegt und muss mit dem Verweis auf eine „Konsensmeinung unter Experten“ geglaubt werden. Dabei sollte gerade der Glaube in der Wissenschaft verpönt sein. Wo sind die mutigen Journalisten, die den „Klimaexperten“ die entscheidenden Fragen stellen und sie wie den Kaiser in seinen neuen Kleidern entzaubern?
Die Journalisten sollten sich mit ihrer Rolle als Verbreiter einer Botschaft bescheiden und sich nicht auf das glatte Parkett der Erfinder und Propagandisten des „Treibhauseffektes“ samt „Klimakatastrophe“ begeben. Etwas mehr Bescheidenheit würde ihr Ansehen wie ihre Glaubwürdigkeit erhöhen.
Oppenheim, den 2. Oktober 2014                                                             
Dipl.-Met. Dr. phil. Wolfgang Thüne




Abschätzung der globalen Erwärmung durch CO2 und solaren Einfluss

Anmerkung der Redaktion:
Die "Klimasensitivität" genannte Größe  wurde erfunden, um der Vermutung auf sinnvolle Weise Rechnung zu tragen, dass die globale Mitteltemperatur der Atmosphäre evtl. auf eine bestimmte Weise durch Anwachsen der Kohlendioxid-Konzentration in die Höhe getrieben werden könnte. Zu diesem Zweck wurden Kräfte definiert (postuliert) sog. "Forcings", deren Einfluss, mittels bestimmter physikalisch begründeter und überwiegend plausibler Annahmen, diese Erhöhung als Abwanderung aus dem Gleichgewicht bewerkstelligen sollen. Einer der dafür erforderlicher Faktoren ist die Klimasensitivität. Sie besagt um wieviel K (°C) die Erwärmung bei Verdopplung der CO2 Konzentration ansteigt.

Abschätzung der globalen Erwärmung durch CO2 und solaren Einfluss

Hermann Harde

Helmut-Schmidt-Universität Hamburg, Holstenhofweg 85, 22043 Hamburg

Unser Verständnis der zurückliegenden und aktuellen Veränderungen unseres Klimas basiert einerseits auf Beobachtungen, aber ebenso auf Untersuchungen von Rückkopplungsprozessen sowie Modellrechnungen zum Klima.
In dieser Arbeit wird ein weiterentwickeltes Zweilagen-Klimamodell vorgestellt, das speziell darauf ausgerichtet ist, den Einfluss der ansteigenden CO2 -Konzentration in der Atmosphäre auf die globale Erwärmung sowie die Auswirkungen einer sich ändernden Solaraktivität auf unser Klima zu berechnen.
Das Modell beschreibt die Atmosphäre und die Erdoberfläche als zwei Lagen, die gleichzeitig als Planck’sche Absorber und Strahler wirken. Im Gleichgewicht geben dabei die Erde wie die Atmosphäre über Strahlung sowie den Wärmeaustausch zwischen den Lagen genauso viel Leistung wieder ab, wie sie von der Sonne und der Nachbarlage aufnehmen.
Eine externe Störung, die ihre Ursache in einer Änderung der Solaraktivität oder der Konzentration von Treibhausgasen haben kann, verändert das Gleichgewicht und führt damit zu veränderten mittleren Temperaturen der Erde und der Atmosphäre.
Das Modell berücksichtigt die kurzwellige und langwellige Streuung von Strahlung in der Atmosphäre und an Wolken, insbesondere wird Mehrfach-Streuung und Reflexionen zwischen der Erdoberfläche und den Wolken einbezogen. Es berücksichtigt ebenfalls die üblichen Rückkopplungsprozesse wie Änderungen in der Wasserdampfkonzentration, des Temperaturgefälles mit der Höhe (lapse rate) oder der Erdalbedo. Zusätzlich werden aber auch die von der Temperatur abhängigen Wärmeflüsse durch Konvektion und Evapotrans­piration sowie die durch Temperatur und solaren Einfluss induzierten Änderungen des Bewölkungsgrades und deren Rückwirkungen auf das Gleichgewicht mit einbezogen.     
Während Klimamodelle Strahlungsverluste und deren Auswirkungen auf die Energiebilanz üblicherweise über den Strahlungsantrieb beschreiben, werden in dieser Arbeit Änderungen von Treibhausgaskonzentrationen direkt auf die kurz- und langwellige Absorption dieser Gase zurückgeführt, die damit die Schlüsselparameter in dem hier dargestellten Modell repräsentieren. Die Absorptionen durch die wichtigsten Treibhausgase Wasserdampf, Kohlenstoffdioxid, Methan und Ozon werden ermittelt aus Einzel-Linien-Berechnungen, die zurückgreifen auf die HITRAN08-Datenbank und für die Solarstrahlung den Spektralbereich von 0,1 – 8 µm, für den infraroten Bereich das Spektrum von 3 – 100 µm abdecken.
Da sich die Konzentration der Treibhausgase und der atmosphärische Druck mit der Umgebungstemperatur und der Höhe über dem Erdboden ändern, werden die Berechnungen für bis zu 228 Unterschichten von der Erdoberfläche bis in 86 km Höhe und zusätzlich für drei Klimazonen, die Tropen, Mittleren Breiten und die Polarregionen, durchgeführt. Um dann die Absorptionsänderung mit wachsender CO2-Konzentration zu erfassen, werden diese Rechnungen für 14 verschiedene Konzentrationen von 0 – 770 ppm bei sonst identischen Bedingungen wiederholt.
Die sich ändernde Ausbreitungslänge des Sonnenlichts in einer Unterschicht, die abhängt vom Einfallswinkel der Strahlung zur Atmosphäre und damit von der geographischen Länge und Breite, wird berücksichtigt durch die Darstellung der Erde als abgestumpftes Ikosaeder (Bucky Ball), das aus 32 Flächenelementen mit wohldefinierten Winkeln zur einfallenden Strahlung besteht und dann jede dieser Flächen einer Klimazone zugeordnet wird.
Die Ausbreitung der langwelligen Strahlung, insbesondere die von der Atmosphäre selber emittierte Strahlung in Abwärts- und Aufwärtsrichtung, die wesentlich von der Temperaturverteilung in vertikaler Richtung abhängig ist, wird mit einem erweiterten Modell zum Strahlungstransfer für jede Klimazone getrennt berechnet.
Die kurz- und langwelligen Spektren zeigen ein ausgeprägtes Sättigungsverhalten mit wachsender Wasserdampf- und CO2-Konzentration sowie eine starke gegenseitige Überlappung. Beide Effekte führen zu einer erheblichen Abschwächung des Treibhauseffektes mit wachsender Konzentration.
Das hier vorgestellte Klimamodell greift auf die in dieser Arbeit berechneten kurz- und langwelligen Absorptionen zurück, um hiermit die Oberflächentemperatur sowie die untere Troposphärentemperatur als Funktion der CO2-Konzen­tration zu ermitteln. Der Temperaturanstieg bei verdoppelter CO2-Konzentration liefert dann unmittelbar die CO2 Gleichgewichts-Klimasensitivität.
Unterschiedliche Szenarien für wolkenfreien und regulär bewölkten Himmel werden ausführlich untersucht, dies unter Berücksichtigung aller wesentlichen Rückkopplungseffekte sowie solaren Einflüsse. Entsprechende Simulationen zeigen den dominanten Einfluss einer Bewölkungsänderung auf die globale Erwärmung, dies ausgelöst durch eine thermisch und/oder solar induzierte Wolken-Rückkopplung. Insbesondere wird aufgrund dieses starken Wolkeneinflusses deutlich, dass die gemessene Erwärmung im letzten Jahrhundert nur zufrieden stellend erklärt werden kann, wenn ein wesentlicher Anteil dabei einer erhöhten solaren Aktivität zugeordnet wird.
Die Simulationen ergeben eine CO2 initiierte Erwärmung von 0,2 °C (100 ppm CO2-Anstieg) und einen solaren Anteil von 0,54 °C über diesen Zeitraum. Dies entspricht einer CO2 Klimasensitivität von 0.56 °C (Verdopplung von CO2) und einer Solarsensitivität von 0.54 °C (0.1 % Anstieg in der Solarkonstanten). Diese Ergebnisse stehen im klaren Widerspruch zu den Darstellungen des IPCC, der den Temperaturanstieg über das letzte Jahrhundert ausschließlich anthropogenen Emissionen von Treibhausgasen (95 % Wahrscheinlichkeit) zuordnet und von einer Klimasensitivität zwischen 1,5 °C und 4,4 °C ausgeht, während jeglicher Einfluss durch die Sonne geleugnet wird.

Besonderheiten und Unterschiede zu anderen Untersuchungen

Spektrale Berechnungen
Die spektrale Absorption der Treibhausgase ebenso wie die zum Boden gerichtete und ans All abgegebene langwellige Strahlung stellen die Schlüsselparameter für ein Klimamodell dar, um hiermit die CO2 Klimasensitivität zu berechnen. Daher werden in dieser Arbeit zunächst die wesentlichen Grundlagen und Ergebnisse dieser Berechnungen zusammengestellt. Hierzu zählen insbesondere:
–   Neue Linien-Linien-Spektralberechnungen der Absorption (nicht Strahlungsantrieb):
      kurzwellige Absorption von 0.1 – 8 µm für Wasserdampf, CO2, CH4,
      langwellige Absorption von 3 – 100 µm für Wasserdampf, CO2, CH4 und O3,
      alle wesentlichen Berechnungen mit hoher Spektralauflösung (besser 1 GHz),
      mit hoher lokaler Auflösung für 228 atmosphärische Schichten über 86 km Höhe
      und für 3 Klimazonen.
–   Detaillierte Strahlungstransferberechnungen für die abwärts und aufwärts gerichtete Infrarotstrahlung, gestützt auf ein neues und verallgemeinertes Strahlungstransfer-Modell.  
Klimamodell
Das Modell berechnet den Einfluss einer wachsenden CO2-Konzentration sowie einer erhöhten Solaraktivität auf die globale Erwärmung:
–   Es ermittelt die Energiebilanz durch Strahlungs- und Wärmetransfer zwischen Erdoberfläche und Atmosphäre unter Gleichgewichtsbedingungen.
–   Es verwendet die berechnete kurz- und langwellige Absorption sowie die auf- und abwärts gerichteten Strahlungsflüsse in der Atmosphäre als Schlüsselparameter für das Klimamodell.
–   Es berücksichtigt Wolkeneinflüsse und Vielfachstreuung von kurz- und langwelliger Strahlung an Wolken sowie an der Atmosphäre.
–   Die Strahlungs- und Wärmeflüsse sind an entsprechenden Satellitendaten kalibriert.
–   Das Modell reagiert auf Bewölkungs-Änderungen mit einer Bodentemperatur-Änderung, die an die ISCCP-Beobachtungen über den Zeitraum 1983 – 2010 angepasst sind.
–   Es berücksichtigt die bekannten Rückkopplungsprozesse durch Wasserdampf, Änderungen in der vertikalen Temperaturverteilung der Atmosphäre sowie durch Reflexionsänderungen an der Oberfläche.
–   Zusätzlich wird ein temperaturabhängiger Wärmetransport durch Konvektion und Evapotranspiration einbezogen, Prozesse, die in anderen Klimamodellen nicht betrachtet werden.
–   Das Modell berücksichtigt ebenfalls eine thermisch verursachte Bewölkungsänderung als Rückkopplungs­prozess, der angetrieben wird sowohl durch die Treibhausgase wie durch eine veränderte Strahlungsintensität der Sonne und maßgeblich die Klima- ebenso wie die Solarsensitivität bestimmt.
–   Alternativ wird eine nicht-thermisch verursachte, rein solar stimulierte Bewölkungsänderung betrachtet, die ausschließlich auf die Solarsensitivität wirkt und die Klimasensitivität unverändert lässt.

Ergebnisse

Als wesentliche Ergebnisse dieser Arbeit sind anzuführen:
–   Die Spektralberechnungen zeigen sehr stark gesättigte Absorptionen für Wasserdampf und CO2 sowie eine deutliche Überlappung und gegenseitige Beeinflussung dieser Gase, die den Anteil von CO2 am Treibhauseffekt wesentlich begrenzen.
–   Aus den Strahlungstransfer-Berechnungen für die drei Klimazonen lässt sich das Verhältnis der von der Atmosphäre abgegebenen Wärmestrahlung zum Boden und zum All ermitteln.
–   Es werden erstmals Berechnungen zum Einfluss von Wolken auf die globale Temperatur vorgestellt, die sich an den ISCCP-Beobachtungen orientieren.
–   Die vorgestellten Simulationen erlauben eine klare Unterscheidung von Ergebnissen, die für wolkenfreien und bewölkten Himmel gelten und den dominanten Einfluss der Bewölkung auf die globale Temperatur wie auf die Klimasensitivität wiedergeben.
–   Die Klimasensitivität bei mittlerer Bewölkung (66 %) ist nur halb so groß wie unter wolkenfreien Bedingungen.

–   Rückkopplungen:

Wasserdampf-Rückkopplung: Sie wird ermittelt aus den Spektralberechnungen für die drei Klimazonen und liefert einen deutlich niedrigeren Beitrag als in den  IPCC-Berichten aufgeführt. Sie besteht aus einem stärkeren positiven Anteil, verursacht durch die mit der Temperatur ansteigende langwellige Absorption, und einem kleineren, dämpfenden Anteil durch die kurzwellige Strahlung.
Der lineare Anstieg der Absorptionen mit der Temperatur ergibt sich aus dem exponentiellen Anstieg der Wasserdampfkonzentration entsprechend dem Clausius-Clapeyron-Gesetz und andererseits einer logarithmischen Zunahme der Absorptionen mit der Dampfkonzentration aufgrund der spektralen Sättigungseffekte.
Vertikale Temperaturänderung: Aufgrund der sich ändernden Strahlungsflüsse in Abwärts- oder Aufwärtsrichtung bei veränderter vertikaler Temperaturverteilung  in der Atmosphäre (lapse rate) ergibt sich ein resultierender positiver Rückkopplungsbeitrag im Unterschied zu Angaben in der Literatur, wo i.a. von einer leicht negativen Rückkopplung ausgegangen wird.
Oberflächen-Albedo: Vom IPCC übernommen.
Konvektion: Bei wachsender CO2-Konzentration steigt die Temperatur der unteren Troposphäre weniger rasch an als die Bodentemperatur. Als Folge nimmt der Wärmefluss durch Konvektion und Wärmeleitung vom Boden zur Atmosphäre weiter zu und trägt zu einer negativen Rückkopplung bei.
Evapotranspiration: Ebenso erhöht sich mit zunehmender Bodentemperatur der latente Wärmefluss und trägt damit zu einem deutlich negativen Rückkopplungsbeitrag bei.
Thermisch induzierte Bewölkungsänderung: Eine thermisch angetriebene Änderung der Bewölkung kann verursacht werden durch Treibhausgase, hier dem CO2, und ebenso durch Schwankungen in der solaren Strahlungsleistung. Änderungen in der Bewölkung verursachen eine starke positive Rückkopplung, die sich in diesem Fall sowohl auf die Klima- wie auf die Solarsensitivität auswirkt.
Nicht-thermische solar induzierte Bewölkungsänderung: Der Bewölkungsgrad kann ebenfalls beeinflusst werden durch kosmische Strahlung und/oder erhöhte UV-Strahlung, die beide ihre Ursache in Änderungen der Solaraktivität haben. Diese Rückkopplung wirkt nur auf die Solarsensitivität und lässt die Klimasensitivität unbeeinflusst.
–   Aufgrund der unterschiedlichen Auswirkungen der zwei Bewölkungseffekte auf eine globale Erwärmung erlauben die Simulationen eine Unterscheidung von thermisch und solar induzierten Bewölkungsänderungen sowie eine Angabe über die Wichtung dieser Beiträge.

–   Berechnete Klima- und Solarsensitivitäten:

o  Ohne jede thermisch oder solar verursachte Bewölkungsänderung, aber unter Berücksichtigung aller weiteren relevanten Rückkopplungsprozesse (Wasserdampf, vertikale Temperaturverteilung, Albedo, Konvektion und Evapotranspiration) berechnet sich die Klimasensitivität zu CS = 0.43°C.
Dieser sehr niedrige Wert ergibt sich aufgrund der stark gesättigten Wasserdampf- und CO2-Absorption, der niedrigen Wasserdampf-Rückkopplung und der negativen Rückkopplungen durch Konvektion und Evapotranspiration.
o  Mit CO2 induzierter thermischer Bewölkungs-Rückkopplung (in Übereinstimmung mit den ISCCP-Beobachtungen zur Bewölkungsänderung), aber ohne Berücksichtigung eines thermischen Solaranteils ergibt sich eine maximale Klimasensitivität von CS = 1.73°C.
Ein Anstieg um 100 ppm CO2 über das letzte Jahrhundert würde unter diesen Annahmen dann zu einer globalen Erwärmung von 0.6 °C beitragen.
o  Mit thermisch induzierter Bewölkungs-Rückkopplung, verursacht durch CO2 sowie einer erhöhten Solaraktivität von 0.2 % über das letzte Jahrhundert würde sich eine unrealistisch hohe globale Erwärmung von 1.32 °C (0.6 + 0.72 °C) ergeben.
o  Ohne thermische aber solar induzierte Bewölkungs-Rückkopplung (in Übereinstimmung mit den ISCCP-Beobachtungen zur Bewölkungsänderung) wird eine Klimasensitivität von CS = 0.43 °C und eine Solarsensitivität von SS = 0.32 °C errechnet.
Bei einer erhöhten Solaraktivität von 0.2 % über das letzte Jahrhundert steuert dann die Sonne eine Erwärmung von 0.64 °C und CO2 nur 0.1 °C bei in Übereinstimmung mit der gemessenen globalen Erwärmung von 0.74 °C.
o  Für eine niedrigere Solaraktivität von nur 0.1 % und ebenfalls einer kleineren zugrunde gelegten negativen Konvektions- und Evapotransipirations-Rückkopplung ergibt sich eine Klimasensitivität von CS = 0.56 °C, die Solarsensitivität zu SS = 0.54 °C.
Dann steuert CO2 0.2 °C und die Sonne 0.54 °C zur Erwärmung bei.
Um alle Randbedingungen einer erhöhten Solaraktivität und CO2-Konzentration über das letzte Jahrhundert erfüllen zu können, und dies in Übereinstimmung mit der beobachteten Erwärmung sowie der Änderung der Wolkenbedeckung in der Zeit 1983 – 2010, wird eine Kombination beider die Bewölkung beeinflussenden Mechanismen herangezogen mit einem thermischen Anteil von 9 % und einem dominierenden Solarbeitrag von 91 %.
o  Ein Wert für die Gleichgewichts-Klimasensitivität von ~ 0.6 °C stellt dabei eher eine obere Grenze hierfür dar. Wird eine Solaranomalie von 0.2% zugrunde gelegt, reduziert sich dieser Wert auf nur ~ 0.4 °C.

Anmerkung des Autors

in New York wurde vor kurzem der Klimagipfel von Ban Ki-Moon eröffnet mit dem Ziel, weiter die Staaten auf eine Reduzierung von Treibhausgas-Emissionen einzuschwören. All dies basiert auf den phantastisch aufgeblähten Werten des IPCC zur Klimasensitivität.

Wie Sie wissen, beschäftige ich mich seit geraumer Zeit mit einer möglichst soliden und auch nachvollziehbaren Berechnung dieser Größe, bei der ich zu deutlich niedrigeren Werten komme.

Das Spektakel in New York möchte ich daher zum Anlass nehmen, Sie auf einen neuen Artikel von mir aufmerksam zu machen, der als Open Access in der Zeitschrift Open Journal of Atmospheric and Climate Change seit Anfang September auf der Webseite http://www.scipublish.com/journals/ACC/recent  einzusehen ist.

Um Sie zu motivieren, den etwas umfangreicheren Artikel auch zu Ende zu lesen, füge ich eine Zusammenfassung bei, in der die Besonderheiten, Neukeiten und Unterschiede zu anderen Untersuchungen zusammengestellt sind.




Energiewende: Verzicht auf Nutzung der Kernenergie und Substitution durch alternative Energien?

Sie waren Basis für sechs Ausstiegsgesetze. Eine Diskussion mit Energieexperten entsprechender  Industrien, Inhaber  kerntechnischer Universitätsinstitute und führenden Kernforschungszentren wurde nur sehr vereinzelt geführt. Gegner wurden  bespöttelt. Wissenschaftlich fundierte Argumente, kritische Warnungen, Kostenkalkulationen und Machbarkeitsstudien wurden völlig ignoriert.
Die Ethik – Kommission übersah, dass vor 1,8 Milliarden Jahren in Oklo/Gabun ca. 6 Reaktoren  kritisch wurden. Diese liefen eine Million Jahre. Sie waren  Vorläufer unserer 17 Leichtwasser  –  Reaktoren. Endlagerung erfolgte bis heute problemlos. In der ca. 50 jährigen Geschichte gab es gemäß einer achtstufigen Bewertungsscala (INES der Internationale Atomenergiebehörde (IAEA), ab 2000 drei registrierte Störfälle der Stufe 2; Weitere Meldungen wurden von den Behörden ausnahmslos niedriger eingestuft.                                                                                                                      
Die pauschalen Forderungen, unsere KKW abzuschalten, sind aus den genannten Gründen nicht  nachvollziehbar. Fukushima ist kein Kronzeuge für die Behauptung, die  Technologie sei nicht  beherrschbar.
 
Der THTR -300 wurde als universell einsetzbare Energiequelle entwickelt und als 30 MW AVR 30 Jahre getestet. Als Prototyp mit einer Leistung von 2 x 109 kWh a-1 in Hamm-Uentrop 1970 bis 1983 fertig gestellt und bis1989 betrieben. 
Der Paradigmenwechsel bestand im Austausch der Brennstäbe durch Graphitkugeln. Zwei Sicherheitsprüfung in Jülich haben  eindrucksvoll bewiesen, das der Reaktor inhärent ist. Erfinder und Betreiber haben Mai 1999 einen Lizenz- und Kooperationsvertrag mit dem Energieversorger ESKOM in Südafrika geschlossen. Mit Design-Verbesserungen wird der Pebble Bed Modular Reactor (PBMR) gebaut und global erfolgreich betrieben.
Unser Brutreaktor wurde im KFZ Karlsruhe in Anlehnung an den in Frankreich betriebenen Superphenix, Bauweise POOL-System, (s. Abb.) – entwickelt und in Kalkar seit 1985 gebaut.  Er erfüllte nicht, die in der BRD geforderten Sicherheitsbestimmungen und musste umgebaut werden. Das neu entwickelt LOOP System wurde in Kalkar seit 1985 gebaut, fertiggestellt und nach sechsjähriger behördlicher Prüfung die Betriebsgenehmigung verweigert. Neue LOOP Anlagen wurden in Russland, Indien, USA, GB, China und Südafrika gebaut.
Den sicheren European Preassureized Reaktor, später in Kooperation mit Framatom Fr., entwickelte Siemens. Der leistungsfähigere Reaktor (1600 MW), ist effektiver (15∙109 kWh a-1) als  zuvor gebaute und wird den geforderten Sicherheitsmaßnahmen gerecht.

Reaktoren der 4. Generation  

Argentinien, Brasilien, Canada, Frankreich, Japan, Republik Korea, Süd-Afrika, England und USA arbeiten im Generation IV International Forum (GIF) zusammen, um die Entwicklung  einer vierten Generation kerntechnischer Systeme für die Zeit nach 2050 vorzubereiten. Hinzu kamen 2002 die Schweiz, 2003 Euratom, 2006 China und Russland. Nach strengen Kriterien sollten sechs Reaktortypen bzw. vier Technologielinien gemeinsam untersucht werden.
Aktuelle Kommentare zur Misere der Energiewende sind technologischer Rückschritt, ökologisch Illusionen, finanziell und volkswirtschaftlich ruinös, beschäftigungspolitisch eine Pleite. Ähnlich die Kritik des Bundesrechnungshofes zur Energiewende. Moniert werden ausufernden Kosten, keinen hinreichenden Überblick über die finanziellen Auswirkungen.       
Die eingesetzte Expertenkommission der Bundesregierung rät der Politik das  EEG komplett abzuschaffen, da es 1. Kein kosteneffizientes Instrument für Klimaschutz 2. Keine messbare Technologie relevante Innovationswirkung hat und  3. Steigende Kosten zuletzt 22 Milliarden €, bewirkt.
Die 50 jährige Diskussion um das  Endlager Gorleben zur Lagerung  strahlender Spaltrückstände von 450 Tonnen (ca. 22,5 m³) pro Jahr, diente  Grüne und Gegner die Endlagerung zu verhindern. Deutschland verfügt  über keine brauchbaren monolytischen Ton- und Granitlagerstätten sondern über zahlreiche, geeignete Salzlager.
Die Endlagerfrage muss politisch offen gehalten werden, um den Ausstieg aus der Kernenergie zu begründen.
Im MPG Teilinstitut Greifswald konzentriert man sich, basierend auf Erfolge mit Fusionsreaktoren in Garching auf die Weiterentwicklung des Stellarators und baut den Nachfolger WENDELSTEIN 7-X. Der Bau wurde im April 2000 begonnen und am 20.07.2014 fertiggestellt und zuvor am 20.05.2014 feierlich eingeweiht*
Nach Stand vom 18. Januar 2013 betreiben 30 Länder weltweit 437 KKW´s mit einer gesamten elektrischen Nettokapazität ca. 372 Gigawatt. Gegenwärtig sind 438 in Betrieb, 71 im Bau und 170 in der Planung. Einen herben Dämpfer erhielt der Ausstieg am 3. Gedenktag der Fukushima – Katastrophe. Präsident Shinzo Abe verkündete Kernenergie zu nutzen und von den 48 stillgelegten KKW erste zu reaktivieren und neue zu bauen.
Der gesamte Aufsatz zum Thema kann als pdf im Anhang heruntergeladen werden.
Über den Autor:
Als ehemaliger Hochschullehrer und Wissenschaftler sah der Autor  sich  daher gefordert, Fakten zusammenzutragen und den neuesten Kenntnisstand in Vorträgen und Veröffentlichungen darzulegen, zumal der Autor vierzig Jahre lang als ordentlicher Professor den  Lehrstuhl für Anorganische Chemie II an der Ruhr- Universität Bochum leitete und damit dieses Fachgebiet in Lehre und Forschung vertrat. Die Elementreihe der Actinoide mit Thorium, Uran und Plutonium sind ein wichtiger Bestandteil des Fachwissens.
Zu Person:
Prof. Dr. rer. nat. habil. PhD, DSc (Cantab). Dr h.c. mult. Honorarprofessor. an der Tong – Ji – Universität in Shanghai. Der Autor dieses Beitrags zur Problematik der Energieversorgung mit Kernenergie stützt sich mit seinen Erfahrungen der öffentlichen Wahrnehmung auf viele Teilnahmen an Veranstaltungen der Konrad-Adenauer Stiftung, dem Bildungswerk Potsdam sowie dem Forum Wirtschaft etc. wo Vertreter von Regierungen, Politik und  anderen Institutionen  mit einem interessierten Publikum dieses Thema diskutierten. 
* Mit Dank an Leser P. Herbst für die Richtigstellung 

Related Files




Immer am Rand eines großen Stromausfalls

Sie erinnern sich doch sicher noch an jene Zeit, als unser Strom nur mit Kohle, Kernkraft, Erdöl, Erdgas und Wasserkraft erzeugt wurde. Dann werden Sie auch noch wissen, dass wir damals nicht durch Berichte über drohende Stromausfälle erschreckt worden sind, dass stromintensive Betriebe staatlich nicht zur Produktionsunterbrechung veranlasst wurden, um Netzzusammenbrüche zu vermeiden, und dass es keine drastische programmierte Stromverteuerung gab, die staatlich durch Gesetz verordnet war. Es ist eine preiswerte, eine sichere, eine schöne Zeit gewesen in der Versorgung mit Strom. Wollen Sie, dass die wirklich vorbei sein soll? Wenn nicht, dann wehren Sie sich doch endlich.

Kein Wind, Spannungsabfall – ein Aluminiumwerk musste seine Produktion abwürgen

Vor kurzem war aus Essen zu lesen: „Die Essener Aluminium-Hütte Trimet hat das deutsche Stromnetz in den letzten zwölf Monaten durch Herunterfahren der Produktion gleich zweimal vor dem Zusammenbruch bewahrt.“ Die Westfälische Rundschau (hier) zitierte am 17. September den Trimet-Vorstandsvorsitzenden Martin Iffert mit den Worten: „Wir sind darauf vorbereitet, dass so etwas im Zuge der Energiewende passieren kann, waren aber überrascht, dass wir die Notbremse gleich zweimal ziehen mussten.“ Nach Ifferts Angaben hätten die Stromnetze nach einem plötzlichen Abfall der Windenergie „kurz vor dem Kollaps“ gestanden. Die Produktion habe man für jeweils eine Stunde herunterfahren müssen, „bis andere Kraftwerke den Spannungsabfall ausgleichen konnten“. Aber die Bürger erfahren von solchen Folgen der „Energiewende“ fast nie etwas. Sie sollen die Wende lieben, nicht ablehnen.

Der Produktionsausfall wird bezahlt – zwangsweise von allen Stromverbrauchern

Die Trimet Aluminium SE ist ein konzernunabhängiges Familienunternehmen und in Deutschland Marktführer. Sie stellt Primäraluminium in drei Hütten her – in Essen, in Hamburg und in Voerde. Ihr Strombedarf für die Produktion von Aluminium ist immens. Die Westfälische Rundschauschreibt: „Trimet frisst so viel Strom wie die Städte Essen, Dortmund und Bochum zusammen. Eine Abschaltung wirke wie die Entlastung durch zwei Kraftwerke, so Trimet-Eigner Heinz-Peter Schlüter. Seit Beginn der Energiewende wird diskutiert, ob die Abschaltung konventioneller Kraftwerke zugunsten von Wind- und Solarkraftwerken zu Blackouts in der Stromversorgung führen kann. Das Herunterfahren der Trimet-Produktion, das mit einer Bereitschaftspauschale und zusätzlich mit bis zu 400 Euro pro Megawatt vergütet wird, gehört dabei zum Notfallplan.“ Die Vergütung wird abgewälzt auf alle übrigen Stromverbraucher.

Blackout-Gefahr schon auf 3500mal im Jahr gestiegen

Die Gefahr solcher Netzzusammenbrüche besteht erst, seitdem Deutschland begonnen hat, seine Stromerzeugung auf Windkraft und Sonnenschein (Fotovoltaik) umzustellen. Diese „Blackouts“ drohen nicht nur bei plötzlich zu wenig Strom, weil der Wind nachgelassen hat oder dicke Wolken den Sonnenschein unterbrechen, sie drohen auch, wenn Wind und Sonne zuviel Strom liefern und das Netz überlasten. Situationen wie diese gibt es technisch zwangsläufig immer häufiger. Damit also ist die Stromversorgung in Deutschland nicht mehr sicher genug. Sie ist sogar hochgefährdet. Jeden Tag kann es zu einem Stromausfall kommen. Noch ist es bisher gelungen, durch blitzschnelle Eingriffe einen Netzzusammenbruch abzuwenden, aber die Zahl dieser Notfälle hat erheblich zugenommen und tut es weiter. 2011 hat es (geschätzt) rund 500 solche Eingriffe gegeben, 2014 werden es (geschätzt) rund 3500 werden (siehe Grafik rechts).

Auch Privatverbraucher müssen auf Stromabschaltungen gefasst sein

Längst besteht auch die Gefahr von Stromabschaltungen für private Stromverbraucher – ebenfalls eine Folge der „Energiewende“. So war schon 2012 in der FAZ zu lesen: „Stromengpässe könnten in Zukunft gelegentlich auch zu Stromabschaltungen für alle Verbraucher führen. Jeweils eineinhalb Stunden wären dann jeweils genau definierte Regionen komplett vom Strom abgehängt. Danach gäbe es wieder 13,5 Stunden Strom, bevor eine abermalige Abschaltung vorgenommen würde, sagte Martin Konermann, Vorstandsmitglied der ENBW Regional AG während eines Journalisten-Workshops in Wendlingen. Auf diese Weise könnte der Stromverbrauch um 5 Prozent reduziert werden. Müsste die Entlastung stärker sein, würden die Pausen zwischen den Stromabschaltungen in den einzelnen Regionen kürzer ausfallen. „Das ist nur die Ultima Ratio“, schränkte Konermann ein. Auf diese Weise könnte ein Blackout vermieden werden, wenn alle anderen Maßnahmen zur Stabilisierung des Netzes schon ergriffen wurden, einschließlich der freiwilligen, entlohnten Lastreduzierung durch Wirtschaftsbetriebe, die durch die Abschaltverordnung geregelt werden soll.“ (FAZ vom 6. Dezember 2012, Seite 13).

Künftig mehr Angst vor Stromausfall? Ja!

Auf die Frage „Muss man künftig mehr Angst vor Stromausfällen haben?“ hat Jochen Homann, Präsident der Bundesnetzagentur, abwiegelnd und unzutreffend zunächst geantwortet: „Diese Sorge ist unbegründet. Mit Blick auf die Maßnahmen, die von den Übertragungsnetzbetreibern getroffen werden, lässt sich sagen, dass niemand in Deutschland Angst vor zunehmenden Stromausfällen haben muss.“ Dann jedoch räumte er ein: „Durch die Abschaltung von Kernkraftwerken und den Zubau von lastferner erneuerbarer Erzeugung ist das bestehende Netz aber deutlich mehr unter Stress geraten. Die Übertragungsnetzbetreiber, die für den funktionierenden Netzbetrieb zuständig sind, müssen viel häufiger in die Netznutzung eingreifen, um den sicheren Betrieb des Netzes zu gewährleisten.“ (FAZ vom 25. Juni 2014 in einem ganzseitigen Inserat, bezeichnet als „Verlagsspezial Zukunft Energie und Technik“).

Der Energiewende geopfert: die bisher einzigartige Verlässlichkeit des Stroms

Die Stromverbraucher-Schutzvereinigung NAEB schreibt in ihrem jüngsten Mitglieder-Newsletter vom 19. September unter dem Stichwort Netzstabilität – volatiler Strom: „Seit 120 Jahren betreiben wir Drehstromnetze in Europa. Seit 80 Jahren erfreuen die sich hoher Stabilität dank Ingenieurleistung, Groß-Generatoren jenseits 250 Megawatt Leistung und verbrauchsortnaher Kraftwerke gemäß der 400 kV/ 200 km-Regel. Das Ergebnis ist die einzigartige Stabilität im europäischen Netz. Deutschland ist wegen seiner Mittenlage mit Koppelstellen zu allen Seiten der Nutznießer. Diese Stabilität wird ohne Not und unverantwortlich der Energiewende mit all ihren Störfaktoren geopfert, wobei die Schäden sogar gesamt Mitteleuropa betreffen: 2006 gab es bei einer geplanten Abschaltung einen Windkraft bedingten Stromausfall mit europa-weiten Folgen (jedoch minimalen bei uns); Polen und Belgien beginnen mit Querreglern den volatilen deutschen Stromes abzuwehren und berauben damit Deutschland des Mittenlagen-Vorteils; der Steuerungsaufwand (Personal und Technik) in den Netzregelzentralen wächst ins Unermessliche; die gesetzlichen Regelungen zur EEG-Abrechnung, Direkt-Vermarktung dieses Stromes und zur Abwicklung der gesetzlichen Ersatzansprüche bei sicherheitsbedingten Abschaltungen ziehen in den nächsten Jahren noch weitere Kostensteigerungen nach sich.“

Ein Untersuchungsauftrag über die Folgen von Stromausfall

Die Blackout-Gefahr als Folge von Wind- und Sonnenstrom dämmerte schließlich auch den Politikern. Denn ohne Strom läuft schon lange nichts mehr, und die Abhängigkeit von ihm wird immer größer. Daher hatte der Bundestagsausschuss für Bildung, Forschung und Technikfolgenabschätzung das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) mit einer Untersuchung beauftragt. Er sollte feststellen, „wie sich ein langandauernder und großflächiger Stromausfall auf besonders kritische Infrastrukturen wie z. B. Trinkwasser, Abwasser, Informations- und Kommunikationssysteme, Finanz- und Gesundheitsdienstleistungen auswirken könnte, insbesondere im Fall eines Kaskadeneffekts über Länder und nationale Grenzen hinweg“. Versorgungsengpässe, Störungen der öffentlichen Sicherheit und Beeinträchtigungen im Straßen- und Schienenverkehr hätten auch schon bei Naturkatastrophen einen Eindruck von der Verletzbarkeit moderner Gesellschaften gegeben sowie höchste Anforderungen an das Gesundheits-, Notfall- und Rettungswesen gestellt. Wegen der großen Abhängigkeit nahezu aller kritischen Infrastrukturen von der Stromversorgung, sei ein großflächiger und längerfristiger Stromausfall mit massiven Versorgungsstörungen, wirtschaftlichen Schäden sowie Gefährdungen der öffentlichen Sicherheit von zentraler Bedeutung.

Das Ergebnis: die Folgen kommen einer nationalen Katastrophe zumindest nahe

Veröffentlicht hat der Ausschuss den TAB-Bericht als Bundestagsdrucksache 17/5672 vom 27. April 2011. Der Bericht zeige, „dass die Folgen eines solchen Stromausfalls einer nationalen Katastrophe zumindest nahekommen könnten“. Es bedürfe einer Mobilisierung aller internen und externen Kräfte des Bevölkerungsschutzes, um die Auswirkungen zumindest zu mildern. In der Zusammenfassung des Berichts heißt es unter anderem: „Aufgrund der nahezu vollständigen Durchdringung der Lebens- und Arbeitswelt mit elektrisch betriebenen Geräten würden sich die Folgen eines langandauernden und großflächigen Stromausfalls zu einer Schadenslage von besonderer Qualität summieren. Betroffen wären alle Kritischen Infrastrukturen, und ein Kollaps der gesamten Gesellschaft wäre kaum zu verhindern.“

Zu vielen Bürgern ist das Katastrophen-Potential von Stromausfall nicht bewusst

Und dann: „Trotz dieses Gefahren- und Katastrophenpotenzials ist ein diesbezügliches gesellschaftliches Risikobewusstsein nur in Ansätzen vorhanden. Die Stromversorgung als Kritische Infrastruktur ist für die Bevölkerung kein Thema, die Möglichkeit von Stromausfällen und die Folgen einer Unterbrechung der Stromversorgung werden ausgeblendet. Erlebte Stromausfälle werden meist schnell vergessen.“ In der Bevölkerung fehlt dieses Risikobewusstsein offensichtlich bis heute.*) Dabei genügt es schon, nur die Zusammenfassung zu lesen, um zu erkennen, was uns blüht, wenn der Strom ausfällt. Es sind auch die dann gesetzlich festgelegten staatlichen Eingriffe. Der Bericht konzentriert sich zwar auf die Folgen eines längeren Stromausfalls. Aber selbst wenn er nur einige Stunden oder wenige Tage dauert und Notstrom-Aggregate an besonders wichtigen Stellen Überbrückungshilfe leisten, sind sie schon schlimm genug. Hier nur ein kleiner Ausschnitt aus der Zusammenfassung:

Was bei Stromausfall alles nicht mehr funktioniert

„Die Folgen eines Stromausfalls treten abrupt auf und sind massiv. Aus einer Vielzahl von Unfällen, liegengebliebenen Zügen und U-Bahnen, umzulenkenden Flügen sowie Lkw- und Güterstaus in Häfen ergeben sich erhebliche Einschränkungen der Mobilität und des Gütertransports. Insbesondere in Metropolen und Ballungsräumen führen Staus und Unfälle im Straßenverkehr zu chaotischen Zuständen. Brandbekämpfung, Notrettung und Krankentransporte, Einsätze zur Sicherstellung der Notstromversorgung sowie eine Vielzahl weiterer Maßnahmen zur allgemeinen Schadensbewältigung werden erheblich behindert. Da alle Tankstellen ausgefallen sind, wird der Treibstoff für die Einsatzfahrzeuge knapp. Darüber hinaus drohen erhebliche Engpässe bei der Versorgung der Bevölkerung, beispielsweise mit Lebensmitteln oder medizinischen Bedarfsgütern.“ Alles in allem lautet das Ergebnis: Der große „Blackout“ hätte katastrophale Folgen.

Die Wahrscheinlichkeit von Stromausfall nimmt zu

Der Bericht beschreibt auftragsgemäß aber nur die Folgen eines Stromausfalls, eines länger dauernden, eines schwerwiegenden, nicht seine Ursachen. Dennoch geht er auf „mögliche und plausible Ursachen“ kurz ein und nennt Extremwetterereignisse (Stürme, Schnee, Eis, Hochwasser), kriminelle oder terroristische Aktionen, Epidemien und Pandemien. Er erwähnt aber auch, dass durch die „Zunahme dezentraler und stochastischer Stromeinspeisung“ das Risiko des Netzversagens und höherer Ausfallraten steigt. Damit sind Wind – und Sonnenstrom gemeint. Ebenso vergisst er nicht, dass hierbei „technisches oder menschliches Versagen bei der Netzsteuerung und Netzkontrolle“ möglich ist. Doch er vermeidet es, als Ursache hierfür die Klimaschutz- und Energiewendepolitik samt des unzuverlässigen Wind- und Sonnenstroms zu benennen. Folglich findet sich im Bericht auch nicht die naheliegende Idee, vor diesen Folgen der Energiewende zu warnen, geschweige denn, dazu aufzufordern, sie wenigstens zu stoppen. Jedenfalls liest man, insgesamt sei mit guten Gründen davon auszugehen, dass künftig die Ausfallwahrscheinlichkeit zunehmen werde. Der vollständige Bericht hier.

Deutschland hat sich ohne Not zusätzlich hochverletzlich gemacht

Steffen Hentrich, Mitarbeiter im Liberalen Institut der Friedrich-Naumann-Stiftung für die Freiheit, schrieb vor einem Jahr (hier): Es ist kein Geheimnis mehr, dass der nahezu ungebremste Ausbau der sogenannten erneuerbaren Energieträger im Kontext eines technisch und ökonomisch völlig überforderten Stromnetzes zum Risiko für die Versorgungssicherheit in Deutschland und zunehmend auch bei unseren europäischen Nachbarn wird.“ Deutschland ist wie alle modernen Industriestaaten durch mögliche Stromausfälle ohnehin hochverletzlich geworden. Aber mit seiner Energiewende-Politik erhöht Deutschlands politische Führung diese Gefahr zusätzlich und ohne Not auf mutwillige, unverantwortliche Weise.

Wie war’s in Deutschland doch vordem
ganz ohne Windstrom so bequem
und ohne Strom aus Fotozellen.
Da kam es nicht zu schlimmen Fällen
wie Stromausfall durch zuviel Wind
und zuviel Sonne. Denn technisch blind
und ökonomisch auch
verlässt man sich auf Windeshauch
und ebenso – auch das nicht fein –
auf hin und wieder Sonnenschein.
Drum droht seitdem so Knall auf Fall
nun in der Tat stets Stromausfall.

_______________________________________________________________________
*) Im Dezember 2012 hat das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe eine Untersuchung zur Vorbeugung von Stromausfällen vorgestellt. Deutschland sei für die Folgen eines großen Blackouts bisher kaum gerüstet. Die Bevölkerung sei darauf nicht vorbereitet. Für einen solchen Fall habe kaum jemand vorgesorgt. Zusammen mit dem TÜV Rheinland, dem Energieversorger Eon und anderen Partnern hat das BKK mögliche Gefahrensituationen für das Stromnetz analysiert, um Ansätze für einen besseren Schutz vor großflächigen und lang anhaltenden Stromausfällen zu entwickeln. (FAZ vom 4. Dezember 2012, Seite 16). Laut einer Umfrage des Landes Nordrhein-Westfalen aus dem Jahr 2012 sind die Bürger kaum auf einen Notfall vorbereitet. Die wenigsten horten Lebensmittel, Wasser, Batterien oder besitzen gar Notstromaggregate, so Behörden-Sprecherin Ursula Fuchs. “Je städtischer die Menschen leben, desto schlechter sind sie für eine Krise gerüstet.” Viele Menschen gingen fälschlich davon aus, zwei Wochen ohne Strom gut überstehen zu können. “Die wenigsten wissen, dass relativ schnell die Abwasserversorgung zusammenbricht und auch das Handynetz nicht mehr funktioniert”, so Fuchs. (Quelle hier).
Übernommen von K.P. Krauses Blog hier




Wenn Emotionen den Journalismus fressen – Die „Tagesthemen Nachrichten“ und die Klimakonferenz in New York

Sorry, Kollege Roth: Was Sie da ankündigten war leider, um es auf direktem amerikanischen Slang zu sagen: „Bullshit.“ Da wurde der Eindruck erweckt, als ob die Klimaerwärmung Katastrophen ausgelöst hätte, die den Menschen Angst machen. Ja, Angst haben die Menschen, weil ihnen solch unreflektierte Nachrichten vorgesetzt werden. Wie bitte schön erklären Sie sich, dass wir es mit Katastrophenschäden dank der Erderwärmung zu tun haben, wenn alle, wirklich alle Institute, auch und gerade die, die für den IPCC, auf deutsch: „Weltklimarat“ arbeiten, seit 17 Jahren einen leichten Temperaturrückgang messen.(Video hier)
Also das müssen, Sie mir erklären: Wir haben einen realen Temperaturrückgang, aber die Katastrophen nehmen wegen der Erderwärmung zu? Nun kann es sein, dass Sie keine Zeit haben, sich so im Detail mit der Materie zu beschäftigen. Dafür sollten dann in der Redaktion unabhängige, nachfragende Fachkollegen sitzen. Aber der Beitrag wurde von Isabel Schayani, die aus der Monitor Redaktion in Köln stammt, gefertigt. Nun habe ich fast alle Konferenzen besucht, die sich kritisch mit der Menschen gemachten Klimaerwärmung beschäftigen. Isabel Schayani habe ich da nie gesehen. Sie ist mir als sehr gute Kennerin des Iran bekannt und in dieser Frage teile ich fast komplett ihre Ansichten. Von 1979 bis 1983 habe ich nämlich auch regelmäßig als Journalist im Iran gearbeitet und wundere mich, mit welcher Nonchalance wir über die Realitäten in den islamischen Ländern hinweg schauen. Aber als Klimaexpertin ist sie mir noch nie aufgefallen.
Schon in der Anmoderation erwähnten Sie den Hurrikan „Sandy“, der vor zwei Jahren große Schäden in New York anrichtete. Sind sie sicher, dass es ein Hurrikan war? Meine letzte Information lautete, dass die Einstufung strittig war, ob es sich um einen Hurrikan der Stufe 1, als der niedrigsten Klassifizierung handelte oder doch nur um einen sehr starken Sturm. Das ist nämlich in den USA sehr wichtig. In einem Falle müssen die Versicherungen zahlen (Sturm), im anderen Falle hilft die Regierung mit ihrem Katastrophenfond. Sandy wurde nur deshalb so berühmt, weil er die medial gut vernetzte Stadt New York traf. Tage bevor er die Küste erreichte, berichteten auch die deutschen Fernsehsender, wo Sandy jetzt ist. Liveschaltungen und fast stündliche Berichte bliesen so auch durch die deutschen Wohnzimmer. An der Spitze Manhattans stand das Wasser sogar knietief – aber nicht tief genug, um die Reporter zu vertreiben. Für ein spektakuläres Bild sorgte dann Gott sei Dank ein durchgebrannter Trafo. Aber: Sie kennen doch auch die Leitungen und Trafos in den USA. Der deutsche TÜV wurde die halbe Nation in Amerika aus Sicherheitsgründen stilllegen.
Aus noch einem Grund taugt Sandy nicht zur Panikmache. Die langjährige Statistik zeigt, dass seit einigen Jahren die Zahl der Hurrikane abgenommen haben, die letzte Saison fiel ganz aus und damit stimmt auch die zweite Behauptung nicht: Sie seien jetzt stärker geworden. Wo es keinen gibt, kann er auch nicht stärker werden – das müssen Sie mir zugeben. Wo das Ihre Redaktion erfahren kann? Einmal natürlich bei der zuständigen Behörde in den USA aber ich vermittle gern einige Forscher in Deutschland, die Sie je nach Bedarf, sogar wöchentlich mit den neuesten Informationen über unsere Temperatur, die Katastrophen in der Welt und auch das Klima an den Polen informieren.
Im Text hat Isabel Schayani dann formuliert: „die zerbrechliche Schicht der Zivilisation, Sandy hat sie weggespült“, schöner Text, fast poetisch. Aber ein aus Emotionen geborener Quatsch. Zu den Horrorbildern, in denen der Kölner Dom bis auf die Turmspitzen im Wasser steht hat sich auch das Bild des abgesoffenen New Yorks gesellt. Wissen Sie, wie oft die Spitze Manhattans schon unter Wasser stand? Ich nicht. Seit 1969 war ich immer wieder dort und verfolge ziemlich genau, wenn Schneestürme im Winter oder brütende Hitze im Sommer die Ostküste der USA heimsuchen. Einige habe ich selbst erlebt. Das gehört zur Normalität. Früher hat sich auch kein Mensch um die Temperaturen in den USA gekümmert. Heute bestehen unsere Nachrichten aus allen Wetterkapriolen rund um den Globus und erwecken so den Eindruck, das sei neu. Vor allem Hitzewellen und Trockenheiten sind beliebt. Haben Sie auch gemeldet, dass in der Antarktis ein neuer Kälterekord mit -93Grad gemessen wurde? Spannend wäre dann noch die Frage: Wie das Eis bei diesen Temperaturen schmilzt.
Einen kleinen Wink hat Isabel Schayani dem Zuschauer dann doch gegeben, um was es bei der Klimafrage geht. Sie stellte den niederländischen Unternehmer Edgar Westerhof vor, der einen Plan ausgearbeitet hat, wie New York zu schützen sei, denn das was die Stadt bisher gemacht habe, sei lächerlich. Leider so der Nachrichtentext, ist der Auftrag für 20 Milliarden Dollar noch nicht an Herrn Westerhof erteilt. Eine Nachricht für die Hauptsendezeit der wichtigen deutschen Nachrichtensendung?  Wir Zuschauer dürfen uns wundern, was für uns alles wichtig sein soll.
Bei der Beurteilung der Demonstranten gab es zwischen Frau Schayani und der amerikanischen Öffentlichkeit auch ein sehr unterschiedliches Wahrnehmungsvermögen. In „The American Interest“, einem radikalen zentristischen Blog schrieb der angesehene Demokrat und bekennende Obama Wähler Walter Russell Mead: „Es war der gewöhnliche postkommunistischen Marsch der „Leftie“, also der Linksgedrehten. Das ist das Kleinbürgertum, mit seinen bedeutungslosen Ritualen, das damit jene beeindrucken will, die keine Ahnung haben, emotional aufgeregt sind, zu ungebildet, um reflektieren zu können, wie nutzlos und ermüdend solche konventionellen Aufmärsche mittlerweile sind“.
Das Wall Street Journal stellte lapidar fest: „Das einzige was sie erreicht haben, ist den Verkehr durcheinander zu bringen“ und dass die New Yorker Konferenz schon jetzt gescheitert ist, wie alle andern davor auch, wenn es darum geht ein international bindendes Abkommen zur Verringerung der Treibhausgase geht. 
Über die Organisatoren und Finanziers dieser „weltweiten“ Erhebung im Allgemeinen und in New York im Besonderen erfahren wir bei der ARD nichts. Dafür wieder ein emotionaler Einstieg in die Story. Gleich zu beginn stellt Schayani den Aktivisten Roger Peet vor. Der „durch ganz Amerika“ reist, in New York eine Plastikbombe mit CO2-Ballons füllt und dazu erklärt: „Der größte Umweltverschmutzer der Welt ist das US-Militär. Es verbraucht das meiste Öl.“  Da stockt mir schon der Atem. Wir erleben zur Zeit die totale Zerstörung ganzer Landstriche von Nordnigeria bis nach Syrien und dem Irak. Wir sind Zeuge eines globalen Versagens in den Nahostkriegen und der Ebola-Katastrophe. Selbst in Europa, in der Ostukraine werden Städte in Schutt und Asche gebombt, und dann ist es ein solcher Spinner wert, in den Hauptnachrichten der ARD aufzutreten – auch noch wohlwollend vorgestellt. Wie tief muss die Angst von Isabel Schayani vor der nicht stattfindenden Erderwärmung sein, dass Sie solche journalistische Fehlleistungen gebärt.
Al Gore hätte ich mir als Gutmensch unter den Demonstranten auch verkniffen. Vielleicht fällt dem einen oder anderen Zuschauer noch ein, dass er einen mittleren zweistelligen Millionen Dollar Gewinn an der mittlerweile eingestellten CO2-Börse in Chicago eingestrichen hat. Für ihn hat sich sein Klimaengagement gelohnt. Das können die deutschen Rentner und Haushalte ohne eigenes Dach nicht von sich behaupten, die den Ökostrom bezahlen müssen.
Mir wäre auch als Autor dieses Beitrags ein Satz zu UNO-Generalsekretär Ban Ki Moon eingefallen. Würde er nicht dringender gebraucht, um die UN besser auf Krisen, wie die Ebola-Epidemie vorzubereiten, wo die Weltgemeinschaft bisher versagt. Müsste er nicht alles unternehmen, um die Menschen zu schützen, die im Irak und Syrien vertrieben, ermordet und versklavt werden. Wo sind die UN-Kontingente, die in der Ostukraine für Frieden sorgen. Alles sehr komplizierte Aufgaben, sehr dringend, von deren Lösung aber akut Menschenleben abhängen. Er aber marschiert in New York gegen eine Bedrohung, die vor allem seine Organisation, der IPCC, dieser verlogene Weltklimarat aufbläst. Aber an diese Geschichte glaubt halt auch fast die ganze ARD.