24. Januar 2017 – Der Tag, an dem Merkels Energie­wende auf der Kippe stand

Dieser Zustand kann ohne weiteres mehrere Tage anhalten. Während dieser Zeit muss die gesamte notwendige Erzeugungsleistung, die im Winter mindestens 80.000 Megawatt beträgt, von den konventionellen Kraftwerken kommen – also von Kohle- und Kernkraftwerken sowie von Gaskraftwerken.

Die bis Ende 2016 durch die extreme Subventionierung errichteten Windkraftanlagen haben eine theoretische Maximalleistung von 44.600 MW und die Photovoltaik-Anlagen erreichten 39.300 MW. Wie man weiß, bringt diese geradezu ungeheuerlich große Stromerzeugungs-Kapazität im häufigen Ernstfall der Dunkelflaute real absolut nichts.
Dieses riesige System der sogenannten erneuerbaren Energien ist daher nichts anderes als ein die Landschaft verschandelndes paralleles bzw. zweites Stromerzeugungssystem, das wetterbedingt immer wieder einmal total ausfällt, weshalb die konventionellen Kraftwerke immer bereit sein müssen, allein die gesamte Stromversorgung des Landes sicherzustellen.
Wenn es ebenfalls wetterbedingt und daher zufällig eine riesenhafte Leistung produziert, bringt es die Stabilität des Stromnetzes in Gefahr.
Dieser energiepolitische Irrsinn kostet jährlich ca. 24 Mrd. Euro – und er wird gegen alle Vernunft fortgesetzt.

Der 24. Januar 2017 war nun wieder einmal ein Tag, an dem der Ernstfall – der völlige Zusammenbruch der deutschen Stromversorgung – gefährlich nahe kam. Dieser große Blackout wurde gerade noch vermieden, weil die Energieversorger „auch noch das letzte Reservekraftwerk heranzogen“, wie Michael Vassiliadis, der Chef der für die Kraftwerkswirtschaft zuständigen IG Bergbau, Chemie, Energie Reportern mitteilte (1).
Nach dem Bericht von RP-Online führte Vassiliadis auf einer Veranstaltung in Haltern am See vor Journalisten aus, dass „der Zustand am 24. Januar kritisch wurde. Energieunternehmen und Netzbetreiber hätten an diesem Tage die Stromversorgung nur mit größter Mühe aufrechterhalten können.“ Denn die Deutschen forderten – wie an anderen Tagen auch – mehr als 80.000 MW Leistung ab. Vassiliadis: „Die Erneuerbaren konnten nicht einmal fünf Prozent davon bieten“.

Man kennt inzwischen die Zahlen: Die im Winter vorherrschende Quelle von „grünem“ Strom ist die Windkraft. Solarstrom fällt fast völlig aus. In der fraglichen Januarwoche gab es in den Tagen vom 21.1. bis 15.1. Windstromleistungen zwischen 499 und 1518 MW; der Durchschnittswert war 873 MW. Bezogen auf die o.e. „mehr als 80.000 MW Nachfrage“ waren das gerade einmal 1,1 Prozent (und nicht fünf). (Daten von Rolf Schuster).
Mit anderen Worten: Die „Erneuerbaren“ waren buchstäblich nicht vorhanden.

RP-Online weiter: „Auch der Import von Strom war keine Option. Frankreich hatte zu diesem Zeitpunkt angesichts der Kältewelle selbst enorme Schwierigkeiten, den eigenen Bedarf zu decken. Denn viele Franzosen heizen mit Strom. Schon Mitte Januar hatte Paris einen Anti-Kälte-Plan in Gang gesetzt und in den betroffenen Präfekturen Krisenstäbe eingesetzt. Einem Blackout entgingen die Franzosen nur, weil die Inspektion mehrerer Kernkraftwerke verschoben wurde. Frankreich hatte also genug mit sich selbst zu tun.“
Auch britische Nachrichtendienste berichteten über diese Ereignisse (2).
Ein- und auch mehrtägige Flauten, die alle Windräder in Deutschland zur Ruhe kommen ließen, gab es in den letzten Jahren zahlreich. Das Auffüllen dieser Erzeugungslücke durch Solarstromanlagen fand dabei meistens nicht statt, weil es tagsüber nicht immer strahlenden Sonnenschein gibt und in der Dämmerung und nachts überhaupt nichts produziert wird.
Ein Auszug aus diesen Ereignissen:

– Vom 10. bis 16.10.2008 kümmerte die Erzeugung zwischen 50 und 500 MW dahin.

– Vom 4. bis 7.2.2009 lag die Gesamtleistung zwei Tage bei Null und zwei Tage zwischen

400 und 2000 MW.

– Am 25.7. 2012 erreichte die Leistung insgesamt nur 115 MW.

– Im März 2013 wurden kurzzeitig magere 104 MW erzeugt.

– Am 15.10. und am 18.10.2013 leisteten die WKA nur zwischen 150 und 200 MW.

– Am 13.3.2014 leisteten alle deutschen Windräder klägliche 35 MW und tags darauf 215

MW – bei einer installierten Gesamtleistung von 34.000 MW. – also 0,1% und 0,63%.

– Am 16.7.2014 kamen die WKA auf 120 MW – und tags darauf herrschte völlige Windstille in

ganz Deutschland: 20 MW Gesamtleistung – ein Negativrekord mit 0,06%.

– Am 1.10.2014 waren es 482 MW – etwa ein Drittel der Leistung eines einzigen

Kohlekraftwerkes und mit 1,4% der installierten Wind-Gesamtleistung ebenfalls fast nichts.
– Im Januar 2015 erreichte der Windstrom an 4 Tagen (19.-23.1.) zwischen 248 u. 733 MW.
– Vom Februar bis Anfang August 2015 gab es an 17 Tagen nur Windstromleistungen
sämtlicher deutschen WKA zwischen 163 MW und 655 MW.
– Vom 17. bis 20.10.15 gab es hintereinander 554, 901, 506 und 491 MW.
– Eine noch schwächere Phase folgte unmittelbar: Vom 29.10. bis 3.11.15 leisteten alle
Windkraftanlagen 359, 725, 861, 181 und 93 MW.
– Das Jahr 2016 wurde nicht besser: Vom 25.5. bis 27.5. lag die Leistung zwischen 460 und
539 MW.
– Im Juni 2016 gab es an 6 Tagen Leistungen von 468, 642, 209, 517, 407 und 316 MW.
– Im Juli folgte eine zusammenhängende Flauteperiode: Vom 23.7. bis zum 31.7. leisteten
die WKA 689, 128, 893, 689, 773 und 546 MW.

– Es folgten der 16.8. bis 19.8. mit 775, 573 und 295 MW.
– Im September vom 20. bis 22.9. betrugen die Leistungen 457, 742 und 414 MW.
– Im Oktober gab es zwischen dem 23. und 26,10. 583, 745 und 357 MW.
– Der Monat des Beinahe-Blackouts war der Januar 2017. Zwischen dem 21.1. und dem
25.1. leisteten alle Windräder zusammen 740, 499, 851, 755 und 1518 MW. Im
Durchschnitt weniger als 1,1 Prozent der Nachfrage. Weil die Stromimporte fehlten –
unsere Nachbarn benötigten ihren Strom selbst – war das deutsche Stromnetz in größter

Gefahr. Ein einziges Kraftwerk, das ausfällt, ein einziger Leitungsdefekt – und es wäre aus gewesen.

Die obige Liste ist unvollständig; etliche Schwachwind-Tage wurden nicht aufgeführt. Für die Jahre 2015 und 2016 ist festzustellen, dass es in 2015 178 Tage gab, in denen die von allen WKA erzeugte Leistung unterhalb von 3.400 MW lag; 2016 waren es 163 Tage.

Damit erreichten alle deutschen Windräder zusammen in knapp der Hälfte aller Tage beider Jahre weniger als 10 Prozent ihrer Installations-Gesamtleistung. Sie stellen deshalb zum einen nichts anderes als eine gigantische Fehlinvestition dar. Zum anderen aber sorgt die Energiewende dafür, dass der durch die Stromverbraucher zwangsweise subventionierte Ausbau der Windkraft- und der Solarstromanlagen auch weiterhin stattfindet – bei gleichzeitigem Abbau der zuverlässigen konventionellen Kraftwerke. Damit steigt die Wahrscheinlichkeit für den großen Blackout weiter an.

 

Abb.1: Der Januar 2017 war durch eine 11-tägige Flaute gekennzeichnet, die in einer frostigen Wetterperiode in Europa stattfand. Das war in keiner Weise ungewöhnlich und ist im Zusammenhang mit den windschwachen Russland-Hochdrucklagen in jedem Winter mehrfach zu erwarten. Deshalb gab es keine Stromimporte aus den Nachbarstaaten. Bereits am 24.1. drohte in Deutschland der völlige Zusammenbruch des Stromnetzes, der nur knapp vermieden werden konnte. Die sog. Erneuerbaren leisteten in diesem Zeitraum einen vernachlässigbaren Leistungsbeitrag von 1.1 Prozent; typisch für Flauten.

Die rote Linie bei 91.000 MW zeigt die vorhandene Gesamtkapazität sämtlicher „Erneuerbaren“ (also auch Wasserkraft, Müllkraftwerke etc.)     Darstellung: Rolf Schuster.

 

 

Mit einem weiteren Ausbau der unzuverlässigen Windkraft sowie der weitergehenden Stilllegung der verbliebenen Kernkraftwerke mit ihrem nur durch Braunkohlekraftwerke ersetzbaren Grundlaststrom rutscht Deutschland immer weiter in die Gefahr einer nicht mehr beherrschbaren Situation im Netz und eines landesweiten Blackouts hinein. Vielleicht war der Morgen des 25.Januar 2017 ohne ein zusammengebrochenes Stromnetz der letzte erfreuliche Moment, den die Netzbetreiber erlebten. Sie hatten einfach das Glück, dass am 24.1. alle zusammengekratzten Erzeugungskapazitäten ohne Ausfälle funktionierten.
Mit der fortschreitenden Destabilisierung des Stromnetzes werden sie künftig noch mehr Glück benötigen.

 

Den meisten Bürgern ist nicht klar, was ein großer Blackout bedeutet, stellten die Fachleute des Büros für Technologiefolgen-Abschätzung beim Deutschen Bundestag (TAB) in einem sehr ausführlichen Bericht (5) fest, der zwar bereits 2011 erstellt wurde, dessen Aktualität jedoch heute mit jedem Monat zunimmt.

Zitat: „Hinsichtlich der Informiertheit und der Einstellung der Bevölkerung ist ein erhebliches Defizit zu konstatieren. Die Stromversorgung als kritische Infrastruktur ist für die Bevölkerung kein Thema, die Möglichkeit von Stromausfällen und die Folgen einer Unterbrechung der Stromversorgung werden ausgeblendet. Erlebte Stromausfälle werden meist schnell vergessen“.

 

Aus diesem Bericht werden hier weitere wichtige Ergebnisse zitiert:

„Aufgrund der Erfahrungen mit bisherigen nationalen und internationalen Stromausfällen sind erhebliche Schäden zu erwarten. Bisherige Stromausfälle dauerten höchstens einige Tage, einige verursachten jedoch geschätzte Kosten von mehreren Mrd. US-Dollar. Für den Fall eines mehrwöchigen Stromausfalls sind Schäden zu erwarten, die um Größenordnungen höher liegen.

 

Die Folgen eines großräumigen, langfristigen Stromausfalls für Informationstechnik und Telekommunikation müssen als dramatisch eingeschätzt werden. Telekommunikations- und Datendienste fallen teils sofort, spätestens aber nach wenigen Tagen aus.

Die für zentrale Kommunikationseinrichtungen vorgehaltenen Reservekapazitäten wie »Unterbrechungsfreie Stromversorgung« und Notstromaggregate sind nach wenigen Stunden oder Tagen erschöpft bzw. aufgrund ausgefallener Endgeräte wirkungslos.

Damit entfällt innerhalb sehr kurzer Zeit für die Bevölkerung die Möglichkeit zur aktiven und dialogischen Kommunikation mittels Telefonie und Internet.

 

Im Sektor »Transport und Verkehr« fallen die elektrisch betriebenen Elemente der Verkehrsträger Straße, Schiene, Luft und Wasser sofort oder nach wenigen Stunden aus. Dies betrifft sowohl die Transportmittel als auch die Infrastrukturen sowie die Steuerung und Organisation des entsprechenden Verkehrsträgers. Zu Brennpunkten werden der abrupte Stillstand des Schienenverkehrs und die Blockaden des motorisierten Individual- und öffentlichen Personennahverkehrs in dichtbesiedelten Gebieten….Der Straßenverkehr ist unmittelbar nach dem Stromausfall besonders in großen Städten chaotisch. Kreuzungen ebenso wie zahlreiche Tunnel und Schrankenanlagen sind blockiert, es bilden sich lange Staus. Es ereignen sich zahlreiche Unfälle, auch mit Verletzten und Todesopfern. Rettungsdienste und Einsatzkräfte haben erhebliche Schwierigkeiten, ihren Aufgaben, wie Versorgung und Transport von Verletzten oder Bekämpfung von Bränden, gerecht zu werden. Durch den Ausfall der meisten Tankstellen bleiben zunehmend Fahrzeuge liegen, der motorisierte Individualverkehr nimmt nach den ersten 24 Stunden stark ab. Der Öffentliche Personennahverkehr kann wegen knappen Treibstoffs allenfalls rudimentär aufrechterhalten werden.

 

Im Bereich der Wasserversorgung wird elektrische Energie in der Wasserförderung,
-aufbereitung und -verteilung benötigt. Besonders kritisch für die Gewährleistung der jeweiligen Funktion sind elektrisch betriebene Pumpen. Fallen diese aus, ist die Grundwasserförderung nicht mehr möglich, die Gewinnung von Wasser aus Oberflächengewässern zumindest stark beeinträchtigt. Zudem können Aufbereitungsanlagen und das Verteilsystem nur noch durch natürliche Gefälle gespeist werden, sodass erheblich weniger Wasser bereitgestellt und höher gelegene Gebiete gar nicht mehr versorgt werden können.

 

Eine Unterbrechung der Wasserversorgung wirkt sich umfassend auf das häusliche Leben aus: Die gewohnte Körperpflege ist nicht durchführbar; für die Mehrzahl der Haushalte gibt es kein warmes Wasser. Das Zubereiten von Speisen und Getränken ist nur reduziert möglich, und die Toilettenspülung funktioniert nicht. Mit fortschreitender Dauer des Ausfalls ist mit einer Verschärfung der Probleme zu rechnen.

 

Da als Folge der reduzierten oder ausgefallenen Wasserversorgung die Brandbekämpfung beeinträchtigt ist, besteht insbesondere in Städten wegen der hohen Besiedelungsdichte die Gefahr der Brandausbreitung auf Häuserblöcke und möglicherweise sogar auf ganze Stadtteile.

 

Als Folge des Stromausfalls ist die Versorgung mit Lebensmitteln erheblich gestört; deren bedarfsgerechte Bereitstellung und Verteilung unter der Bevölkerung werden vorrangige Aufgaben der Behörden. Von ihrer erfolgreichen Bewältigung hängt nicht nur das Überleben zahlreicher Menschen ab, sondern auch die Aufrechterhaltung der öffentlichen Ordnung.

Die weiterverarbeitende Lebensmittelindustrie fällt zumeist sofort aus, sodass die Belieferung der Lager des Handels unterbrochen wird.

Trotz größter Anstrengungen kann aber mit hoher Wahrscheinlichkeit die flächendeckende und bedarfsgerechte Verteilung der Lebensmittellieferungen nur ungenügend gewährleistet werden. Eine Kommunikation über Vorrat und Bedarf zwischen Zentrale, Lager und Filiale ist wegen des Ausfalls der Telekommunikationsverbindungen erheblich erschwert.

 

Nahezu alle Einrichtungen der medizinischen und pharmazeutischen Versorgung der Bevölkerung sind von Elektrizität unmittelbar abhängig. Das dezentral und hocharbeitsteilig organisierte Gesundheitswesen kann den Folgen eines Stromausfalls daher nur kurz widerstehen. Innerhalb einer Woche verschärft sich die Situation derart, dass selbst bei einem intensiven Einsatz regionaler Hilfskapazitäten vom weitgehenden Zusammenbrechen der medizinischen und pharmazeutischen Versorgung auszugehen ist. Bereits nach 24 Stunden ist die Funktionsfähigkeit des Gesundheitswesens erheblich beeinträchtigt. Krankenhäuser können mithilfe von Notstromanlagen noch einen eingeschränkten Betrieb aufrechterhalten, Dialysezentren sowie Alten- und Pflegeheime aber müssen zumindest teilweise geräumt werden und Funktionsbereiche schließen. Die meisten Arztpraxen und Apotheken können ohne Strom nicht mehr weiterarbeiten und werden geschlossen. Arzneimittel werden im Verlauf der ersten Woche zunehmend knapper, da die Produktion und der Vertrieb pharmazeutischer Produkte im vom Stromausfall betroffenen Gebiet nicht mehr möglich sind und die Bestände der Krankenhäuser und noch geöffneten Apotheken zunehmend lückenhaft werden. Insbesondere verderbliche Arzneimittel sind, wenn überhaupt, nur noch in Krankenhäusern zu beziehen. Dramatisch wirken sich Engpässe bei Insulin, Blutkonserven und Dialysierflüssigkeiten aus.

 

Der dezentral strukturierte Sektor ist schon nach wenigen Tagen mit der eigenständigen Bewältigung der Folgen des Stromausfalls überfordert. Die Leistungsfähigkeit des Gesundheitswesens wird nicht nur durch die zunehmende Erschöpfung der internen Kapazitäten, sondern auch durch Ausfälle anderer Kritischer Infrastrukturen reduziert. Defizite bei der Versorgung, beispielsweise mit Wasser, Lebensmitteln, Kommunikationsdienstleistungen und Transportdienstleistungen, verstärken die Einbrüche bei Umfang und Qualität der medizinischen Versorgung. Die Rettungsdienste können nur noch begrenzt für Transport- und Evakuierungseinsätze eingesetzt werden.

 

Der Zusammenbruch der in Krankenhäusern konzentrierten Versorgung droht. Einige Krankenhäuser können zunächst eine reduzierte Handlungsfähigkeit bewahren und sind dadurch zentrale Knotenpunkte der medizinischen Versorgung.

 

Spätestens am Ende der ersten Woche wäre eine Katastrophe zu erwarten, d.h. die gesundheitliche Schädigung bzw. der Tod sehr vieler Menschen sowie eine mit lokal bzw. regional verfügbaren Mitteln und personellen Kapazitäten nicht mehr zu bewältigende Problemlage. Ohne weitere Zuführung von medizinischen Gütern, Infrastrukturen und Fachpersonal von außen ist die medizinisch-pharmazeutische Versorgung nicht mehr möglich.

 

Bricht die Stromversorgung zusammen, sind alltägliche Handlungen infrage gestellt und gewohnte Kommunikationswege größtenteils unbrauchbar. Stockt die Versorgung, fehlen Informationen und beginnt die öffentliche Ordnung zusammenzubrechen, entstehen Ohnmachtsgefühle und Stress.

Einer dialogischen Krisenkommunikation mit der Bevölkerung wird durch die Ausfälle im Sektor »Informationstechnik und Telekommunikation weitgehend der Boden entzogen.

 

FAZIT: Wie die zuvor dargestellten Ergebnisse haben auch die weiteren Folgenanalysen des TAB gezeigt, dass bereits nach wenigen Tagen im betroffenen Gebiet die flächendeckende und bedarfsgerechte Versorgung der Bevölkerung mit (lebens)notwendigen Gütern und Dienstleistungen nicht mehr sicherzustellen ist. Die öffentliche Sicherheit ist gefährdet, der grundgesetzlich verankerten Schutzpflicht für Leib und Leben seiner Bürger kann der Staat nicht mehr gerecht werden. Die Wahrscheinlichkeit eines langandauernden und das Gebiet mehrerer Bundesländer betreffenden Stromausfalls mag gering sein. Träte dieser Fall aber ein, kämen die dadurch ausgelösten Folgen einer nationalen Katastrophe gleich. Diese wäre selbst durch eine Mobilisierung aller internen und externen Kräfte und Ressourcen nicht »beherrschbar«, allenfalls zu mildern“.

(Ende des Zitats)

 

Der Bericht des Technikfolgen-Büros enthält neben diesen Aussagen eine eingehende Analyse der verschiedenen Problembereiche und diskutiert alle denkbaren Optionen, wie der Schaden durch geeignete Maßnahmen zu begrenzen wäre. Aber die Schlussfolgerung – das o.e. „Fazit“ – ist die ungeschminkte Darstellung des zu Erwartenden. Es ist dem Autor nicht bekannt, ob die Bundeskanzlerin oder die betroffenen Minister (des BMU und des BMWi) diesen Bericht jemals gelesen haben. Vermutlich nicht, denn anders ist die geradezu sture weitere Verfolgung der irrealen Ausbauziele für Wind- und Solarstrom und damit das näher kommende Eintreten der Blackout-Katastrophe nicht erklärbar. Sie würden dann auch erkennen, dass sie jetzt nur noch erneut durch Glück die nächste kritische Situation überstehen könnten – aber was ist mit der übernächsten ? Die Lektüre des TAB-Berichts und die Kenntnis der Folgen würde ihnen auch klar machen, dass eine derartige Katastrophe zum Sturz der Regierung führen würde.

Aber es ist ja gerade noch mal gut gegangen….

 

Quellen:

(1): C.Longin und M.Plück: „Deutsches Stromnetz schrammt am Blackout vorbei, 27.2.2017; RP-Online; http://www.rp-online.de/wirtschaft/unternehmen/deutsches-stromnetz-schrammt-am- blackout-vorbei-aid-1.6636489

(2): Andrew Follet: „Germany facing mass blackouts because of unreliable renewable
energy”; The Daily Caller, USA, 01/03/17;
http://dailycaller.com/2017/02/28/germany-facing-mass-blackouts-because-the-wind-
and-sun-wont-cooperate/

(3): Christian Schlesiger: „Windräder stehen still – und kosten Hunderte Millionen Euro“,
Wirtschaftswoche; 28.4.2016;

http://www.wiwo.de/politik/deutschland/energiewende-windraeder-stehen-still-und-kosten-hunderte-millionen-euro/13515276.html

(4): Günter Keil: „Am Ende der Energiewende-Sackgasse lauert das Dunkelflaute-Gespenst“,
14.9.2014; https://eike.institute/2014/09/14/am-ende-der-energiewende-
sackgasse-lauert-das-dunkelflaute-gespenst/

(5): Thomas Petermann, Harald Bradtke, Arne Lüllmann, Maik Poetzsch, Ulrich
Riehm: „Gefährdung und Verletzbarkeit moderner Gesellschaften – am Beispiel
eines   großräumigen und langandauernden Ausfalls der Stromversorgung“,
17.5.2011; Arbeitsbericht Nr. 141;

Publikation: „Was bei einem Blackout geschieht“, Studie des Büros für

Technikfolgenabschätzung beim Deutschen Bundestag, Bd. 33, 2011, Verlag

edition sigma, Berlin, ISBN 9783836081337, Volltext

 

 

 




Unsicherheiten und Fehler bei Schätzungen des Strahlungs­antriebs sind 10 bis 100 mal größer als der gesamte Strahlungs­effekt zunehmen­den CO2-Gehaltes

Die Charakterisierung als „Leugner“ stammt aus einem Interview mit Joe Kernen von CNBC, in welchem Pruitt gefragt wurde, ob er glaube, dass sich CO2 als der „Kontroll-Knopf“ des Klimas erwiesen habe. Pruitt erwiderte „das wissen wir noch nicht“ und dass es „erheblichen Streit gibt über die Größenordnung der Auswirkung“. Aber er sagte auch: „Nein, ich denke nicht, dass CO2 primär zum Klimawandel beiträgt“. Offensichtlich ist das alles, um sogleich als Klima-„Leugner“ gebrandmarkt zu werden.

Scott Pruitt: „Nein, ich glaube, dass die präzise Messung der Auswirkungen menschlicher Aktivitäten auf das Klima eine sehr große Herausforderung ist, und es gibt hier noch gewaltige Meinungsverschiedenheiten hinsichtlich des Ausmaßes der Auswirkung. Darum – nein, ich würde nicht der Aussage zustimmen, dass CO2 einen primären Beitrag leistet zu der globalen Erwärmung, die wir erleben. Aber das wissen wir noch nicht. … Wir müssen die Debatte fortsetzen, und wir müssen Begutachtung und Analysen fortsetzen“.

In einer Analyse der Washington Post zu Pruitts Kommentaren mit dem Titel „EPA Chief’s Climate Change Denial Easily Refuted…” [etwa: Leugnung des Klimawandels seitens EPA-Chef leicht widerlegt…] war in der Antwort des Kommentators das letzte Statement von Pruitt über die Notwendigkeit enthalten, das Ausmaß der menschlichen Einwirkung weiter zu diskutieren: „Das ist das ganze Zentrum der Wissenschaft. Man stellt immer weiter Fragen“.

In der Antwort zu diesem ziemlich fundamentalen Punkt scheint der Journalist Philip Bump der Zeitung der Ansicht zuzustimmen, dass Fragen und Diskussionen in der Wissenschaft immer weiter gehen müssen (da dies in der Tat „das ganze Zentrum der Wissenschaft“ ist). Aber gleich danach widersprach er sich selbst:

Nun, sicher. Aber im Zentrum der Wissenschaft steht auch, die Antworten auf jene Fragen zu akzeptieren, wenn diese entschieden sind. Und in der wissenschaftlichen Gemeinschaft ist die Antwort auf die Frage der Verbindung zwischen Treibhausgasen und Erwärmung längst entschieden“.

Also, weil offenbar „entschieden ist“, dass CO2 Erwärmung oder Abkühlung verursacht jeweils bei Zu- oder Abnahme, sollten wir nicht nach dem Ausmaß fragen, bis zu dem die Klimamodelle korrekt den Einfluss zu- oder abnehmenden CO2 zeigen, oder eine wie starke Erwärmung oder Abkühlung durch CO2-Fluktuationen verursacht ist relativ zu anderen, das Klima treibenden Faktoren.

Und warum sollten wir davon Abstand nehmen, Fragen nach dem relativen Einfluss des CO2-Antriebs bzgl. des Klimas zu stellen? Weil diese Fragen noch nicht entschieden … oder beantwortet sind. Nicht einmal annähernd. Schließlich sind die Unsicherheits- und Fehler-Bandbreiten im Zusammenhang mit der Modellierung radiativer Energieänderungen im System Erde 10 bis 100 mal größer sind als die Gesamtstärke des Antriebs, den man CO2-Änderungen zuordnet.

1. Strahlungsantrieb durch CO2 von 2000 bis 2010 war lediglich 0,2 W/m²

Das IPCC hatte festgestellt, dass das „globale Klima bestimmt wird durch die Strahlungsbilanz des Planeten“. Falls das Strahlungsenergie-Budget (einfallende vs. ausgehende Strahlung) positiv wird (ausgedrückt in Watt pro Quadratmeter oder W/m²) gibt es Erwärmung. Falls es negativ wird, gibt es Abkühlung. Das IPCC geht davon aus, dass positive Energiebilanzen seit Jahrzehnten auftreten, fast ausschließlich getrieben durch die Zunahme anthropogener CO2-Emissionen.

Den Klimamodellen zufolge beträgt der Gesamt-Klimaantriebs-Effekt der Zunahme des atmosphärischen CO2-Gehaltes von rund 120 ppm während der ~165 Jahre seit 1750 1,8 W/m².

Einer im Jahre 2015 im Journal Nature veröffentlichten Studie zufolge hat die CO2-Konzentration um 22 ppm während der ersten 10 Jahre des 21. Jahrhunderts zugenommen. Der Strahlungs-(Antriebs-)Effekt dieser CO2-Zunahme um 22 ppm wurde mit 0,2 W/m² modelliert. Folglich kamen zu dem Gesamt-Strahlungsantrieb von 1,8 W/m² seit 1750 noch 0,2 W/m² während der ersten Dekade dieses Jahrhunderts hinzu.

Feldman et al., 2015

2. Das Strahlungs-Energie-Ungleichgewicht von 2000 bis 2010 war 0,6 W/m²

In einer Studie in Nature Geoscience aus dem Jahr 2012 mit dem Titel „An update on Earth’s energy balance in light of the latest global observations” von Stephens et al. (2012) wurde das Strahlungs-Energie-Ungleichgewicht der Dekade von 2000 bis 2010 als positiv berechnet, wie erwartet. Interessanterweise jedoch war das positive Energiegleichgewicht von 0,6 W/m² 3 mal größer als der Antriebs-Wert (0,2 W/m²), welchen man im gleichen Zeitraum der CO2-Zunahme zugeordnet hatte.

Stephens et al., 2012

Die gegenwärtige überarbeitete Darstellung der globalen mittleren Energiebilanz für die Dekade 2000 bis 2010 wird präsentiert … für diesen Zeitraum beträgt das mittlere Ungleichgewicht 0,6 W/m², wenn diese TOA-Flüsse in Abhängigkeit betrachtet werden mit dem Best Estimate des ozeanischen Wärmegehaltes seit 2005.

3. 67% (0,4 W/m²) der Energie-Zunahme von 2000 bis 2010 gehen nicht auf CO2 zurück

Falls das Ungleichgewicht im Energiehaushalt im Zeitraum 2000 bis 2010 0,6 W/m² und der modellierte Strahlungsantrieb 0,2 W/m² im gleichen Zeitraum betragen hatte, bedeutet das, dass hier ein positiver Antrieb von 0,4 W/m² wirksam war, der nicht der Zunahme der CO2-Konzentration geschuldet war. Dies zeigt, dass die Schlussfolgerung des IPCC, der zufolge die gesamte oder fast die gesamte Erwärmung der jüngeren Zeit auf die Zunahme anthropogener CO2-Emissionen zurückgeht, nicht gestützt wird durch die Schätzungen des Energie-Ungleichgewichtes an der der Oberfläche. Zwei Drittel des Klimaantriebs müssen irgendeinem unbekannten Mechanismus oder Mechanismen zugeordnet werden, welche das IPCC irgendwie bei Analysen zur Ursachenforschung nicht identifizieren konnte. Und falls nur 33% des jüngsten Klimaantriebs anthropogenen Ursprungs sind und 67% auf unbekannte Ursachen zurückgehen – woher kommt dann die Sicherheit zu behaupten, dass Menschen den Klimawandel treiben?

4. Unsicherheit bzgl. Energie-Änderung ist 10 bis 100 mal größer als CO2-Antrieb

Spricht man von Sicherheit – oder, angemessener, von Unsicherheit – hinsichtlich des Klimaantriebs oder Werten des Energie-Ungleichgewichtes, betonen Stephens et al. die unerlässliche Unsicherheit der Schätzungen des Energie-Ungleichgewichtes von 2000 bis 2010: enorme ±17 W/m².

Eine Unsicherheits-Bandbreite von 17 W/m² hinsichtlich der Schätzung des Energiegleichgewichtes (0,6 W/m²) bedeutet, dass die tatsächliche Energiebilanz irgendwo zwischen -16,4 W/m² bis +17,6 W/m² liegen kann. Eine solche Bandbreite macht die 0,2 W/m² CO2-Antrieb bedeutungslos, ist doch die Unsicherheit des Volumens der Energieänderung von 2000 bis 2010 85 mal größer als der dem CO2 zugeordnete Antrieb im gleichen Zeitraum.

Stephens et al., 2012

Dieses kleine Ungleichgewicht (0.6 W/m²) ist um über 2 Größenordnungen (100 mal) kleiner als die individuellen Komponenten, welche diesen Wert festlegen, und kleiner als der Fehler innerhalb eines jeden Flusses.

Die Gesamt-Energiebilanz ist die Summe der individuellen Flüsse. Die gegenwärtige Unsicherheit bei dieser Gesamt-Energiebilanz an der Oberfläche ist groß und macht bis zu 17 W/m² aus. Diese Unsicherheit ist um eine Größenordnung (10 mal) größer als die Änderungen der Gesamt-Oberflächenflüsse, die assoziiert sind mit zunehmenden Treibhausgasen in der Atmosphäre.

Der genannte Wert des sensible heat flux ist eine Kombination der sensible heat fluxes von Festland und Ozeanen mit einer einfachen Wichtung auf der Grundlage von Festlands-/Ozeandaten. Der Fluss-Wert von 24 W/m² ist ebenfalls größer als zuvor angenommen und bleibt erheblich unsicher, wie die Bandbreite von 14 bis 34 W/m² belegt. Diese resultiert aus unterschiedlichen Schätzungen des Festlands-Flusses. Es gibt keine definitive Messung der Unsicherheit dieses Flusses, und die die angegebene Unsicherheits-Bandbreite lässt kaum eine Beurteilung zu, welcher Wert der wahrscheinlichste Wert ist.

Sogar das IPCC räumt ein, dass die Unsicherheit in Wärmeflüssen bis zu 20 W/m² erreichen kann, und diese Unsicherheit marginalisiert die weniger als 2 W/m² des Gesamt-Strahlungsantriebs anthropogener CO2-Emissionen während der letzten paar Jahrhunderte zur Bedeutungslosigkeit.

IPCC AR4 (2007)

Unglücklicherweise sind die Gesamtflüsse von Wärme und Wasser nicht gut erfasst. Normalerweise werden sie abgeleitet aus Beobachtungen in anderen Bereichen, wie Temperatur und Wind. Als Folge dieser schlechten Erfassung ist die Unsicherheit der aus Beobachtungen gewonnenen Schätzung groß – um die Größenordnung von Zehner Watt pro Quadratmeter für den Wärmefluss, sogar im zonalen Mittel.

IPCC AR5 (2013)

Die Gesamt-Unsicherheit der jährlich gemittelten Ozeanwerte für jeden Term wird in der Bandbreite von 10 bis 20% liegen. Im Falle des Terms des latenten Wärmeflusses korrespondiert dies mit einer Unsicherheit von bis zu 20 W/m². Zum Vergleich, Änderungen der mittleren globalen Werte individueller Wärmefluss-Komponenten, die durch den anthropogenen Klimawandel seit 1900 erwartet werden, liegen auf einem Niveau <2 W/m² (Pierce et al. 2006).

Frank, 2008

Es stellt sich heraus, dass die Unsicherheiten hinsichtlich der energetischen Reaktionen des irdischen Klimasystems über 10 mal größer sind als der gesamte energetische Effekt eines gestiegenen CO2-Gehaltes.

5. Das IPCC verschleiert Unsicherheiten und Fehler beim Strahlungs-Energiewandel

Befürworter der Ansicht, dass CO2 der „Kontrollknopf des Klima ist, wollen die Aufmerksamkeit von den Unsicherheiten und Fehlern der Klimamodellierung natürlich ablenken. Genauso hat das IPCC fortwährend Daten verschwinden lassen, die Zweifel an der „Konsens“-Position säen (welcher zufolge die meisten Klimaänderungen von anthropogenen CO2-Emissionen getrieben worden sein sollen seit Mitte des 20. Jahrhunderts).

Um die Unsicherheits- und Fehlerbandbreiten in den Schätzungen des Strahlungsantriebs in den Klimamodellen aufzufinden, muss man sich ganz bewusst daran machen, das esoterische „Begleitmaterial“ eines jeden Reports zu lokalisieren. Das IPCC wagt es nicht, Schätzungen massiver Klimamodellierungs-Fehler und -unsicherheiten zu veröffentlichen an Stellen, wo man sie am wahrscheinlichsten findet.

Frank, 2008

Man muss Kapitel 8 aufschlagen und besonders das Begleitmaterial [Supplementary Material] betrachten im jüngst veröffentlichten AR 4, um die graphische Darstellung der Fehler in den GCMs zu finden, dargestellt in W/m². Derartige offene Darstellungen von Fehlern und Unsicherheiten erscheinen nicht in den SPMs oder in der Techincal Summary, also dort, wo öffentliche Institutionen sie viel wahrscheinlicher ersehen würden.

Supplementary Material aus Kapitel 8, IPCC AR4

Abbildung S8.5 zeigt, dass GCM-Fehler in der „mittleren kurzwelligen Strahlung in den Weltraum“ um die 25 W/m²-Linie schwankt.

Die Fehler der ausgehenden langwelligen Strahlung, Abbildung S8.7, sind ähnlich groß (~20 W/m²)

6. „Woher stammt die Sicherheit, dass CO2 einen großen Einfluss auf das Klima hat?“

Falls also die Modelle so hoffnungslos voller Fehler und Unsicherheiten stecken, dass ein anthropogenes Strahlungsantriebs-Signal nicht vom Rauschen unterschieden werden kann, oder falls die Größenordnung der den Menschen zugeordneten Erwärmung ein Zehntel bis ein Hundertstel der Bandbreite von Fehlern und Unsicherheiten ausmachen – warum werden dann all jene, die es wagen, das Ausmaß in Frage zu stellen, mit dem Menschen das Klima der Erde beeinflussen, als „Leugner“ der Wissenschaft gebrandmarkt?

Wie genau lautet die Wahrheit, welche die Klima-„Leugner“ leugnen?

Falls die Unsicherheit größer ist als der Effekt, wird der Effekt selbst irrelevant. Falls der Effekt selbst diskussionswürdig ist, von was redet das IPCC dann überhaupt? Und woher stammt die Sicherheit einer großen Auswirkung durch CO2 auf das Klima? – Dr. Patrick Frank, “A Climate of Belief

– See more at: http://notrickszone.com/#sthash.2nhgTChS.spK3keBs.dpuf

Link: http://notrickszone.com/#sthash.2nhgTChS.spK3keBs.dpbs

Übersetzt von Chris Frey EIKE




ATOMWISSEN OHNE RISIKO? NICHT BEI HARALD LESCH!

Der aus dem Fernsehen bekannte Harald Lesch, ist laut Wikipedia ein deutscher Astrophysiker, Naturphilosoph, Wissenschaftsjournalist, Fernsehmoderator und Hochschullehrer, nämlich Professor für Physik an der Ludwig-Maximilians-Universität München und Lehrbeauftragter für Naturphilosophie an der Hochschule für Philosophie München.

In seinem YouTube-Kanal »Terra X Lesch & Co« veröffentlichte er heute einen achtminütigen Videobeitrag zum Thema »Atomkraft ohne Risiko? Der Flüssigsalzreaktor«.

Video nicht mehr verfügbar

Harald Lesch erklärt die atomare Welt. – Quelle: YouTube, Terra X Lesch & Co

Wer nun aber glaubt, dort risikolos etwas über Thorium-Flüssigsalzreaktoren zu erfahren, wird getäuscht. Wer Lesch glaubt, geht das Risiko ein, für dumm verkauft zu werden, ohne es zu merken.

Lesch mag Physik-Professor sein, aber Kernphysik und Kerntechnik zählen offenbar nicht zu seinen Stärken. Er verfügt gewiß über ein nukleares Halbwissen, kennt sich aber nicht wirklich aus und erzählt vieles, das schlicht und ergreifend falsch sind.

Hier drei Beispiele aus dem oben genannten Video:

  1. Ja, in Hamm-Uentrop hat man einen Thorium-Reaktor gebaut. Das war allerdings kein Thorium-Flüssigsalzreaktor, wie Lesch behauptet, sondern der Thorium-Hochtemperaturreaktor THTR-300. Bei diesem sogenannten Kugelhaufenreaktor befand sich der Kernbrennstoff in tennisballgroßen Kugeln befand. Dieses Reaktorkonzept hat Deutschland nach dem Tschernobyl-Unglück aufgegeben. China hat es aufgegriffen und errichtet gerade im Kernkraftwerk Shidaowan in Shandong eine 210-Megawatt-Anlage, die 2018 in Betrieb gehen soll. Beim Kugelhaufenreaktor kann es übrigens zu keiner Kernschmelze kommen, wie Versuche 1967 und 1979 am AVR Jülich im Experiment bestätigten.
  2. Nein, Harald Lesch, der Thorium-Hochtemperaturreaktor in Hamm war kein Schneller Brüter, auch wenn Sie das behaupten. Einen Schnellen Brüter, nämlich den SNR-300, hatte Deutschland zwar ebenfalls gebaut, aber nicht in Hamm, sondern in Kalkar. Na gut, das war ungefähr zur gleichen Zeit, und Hamm wie Kalkar liegen beide in Nordrhein-Westfalen. Klar, da kann man schon mal durcheinanderkommen, auch wenn die Reaktorkonzepte völlig unterschiedlich sind. Übrigens eignet sich ein Schneller Brüter – genauer: ein Schneller Reaktor – sehr wohl dazu, den langlebigen, hochradioaktiven Atommüll zu verwerten und Strom daraus zu machen. Russland zeigt ganz praktisch, wie das geht, nachzulesen in »Strom aus Atommüll: Schneller Reaktor BN-800 im kommerziellen Leistungsbetrieb«.
  3. Lesch erklärt die Selbstregulierung eines Thorium-Flüssigsalzreaktors: Wenn der Reaktor zu heiß wird, geht die Reaktivität zurück, und er kühlt sich selbst wieder ab. Das ist völlig richtig. Allerdings macht das, anders als Lesch behauptet, jeder herkömmliche Kernreaktor ganz genauso. Nein, er explodiert nicht, wenn er zu heiß wird, wie Lesch glaubt – Stichwort: negativer Reaktivitätskoeffizient. Eine Ausnahme ist lediglich der russische RBMK-Reaktor (Tschernobyl-Typ), von dem leider noch 11 Blöcke laufen.

Es ist erschütternd, daß Harald Lesch grundlegenden Dinge nicht weiß – oder nicht wissen will – und derart haarsträubenden Unfug verbreitet. Was sich daraus für seine »naturphilosophischen« Schlußfolgerungen ergibt, dürfte klar sein: »Ex falso quodlibet«, wie der Lateiner sagt. Aus Falschem folgt Beliebiges.

Der Beitrag wurde von Rainers Blog übernommen




Kalt erwischt, oder wie aus einer Klima­königin eine Schnee­königin wurde: Das moderne Märchen der anthropo­genen Erderwärmung

Mitten im Frühling, eine Woche vor dem kalendarischen Frühlingsanfang diese Nachricht, unsere „Klimakönigin“ muss auf dem Boden bleiben. Gemeint ist dabei nicht, auf dem Boden der Tatsachen, sondern, auf dem Boden von Berlin. Und warum, nicht, weil der Hauptstadtflughafen einfach nicht fertig werden will. Haben wir in Deutschland etwa vor lauter Windrädern und Visionen* verlernt, Handfestes zu bauen, hier einen Flughafen, dort einen Bahnhof?

* Wie sagte doch noch gleich Helmut Schmidt: „Wer Visionen hat, der solle zum Arzt gehen.“

Nein, weit gefehlt, Frau Merkel und ihre Journalistenschar mussten wegen eines starken Wintereinbruchs in Washington und an der amerikanischen Ostküste zu Hause bleiben. So wurde ein halber Meter Schnee vorhergesagt und dass, wo der Frühling vor der Tür steht, man von Latif und Co. vor 15 Jahren zu hören bekam, dass es in 10 Jahren keinen Schnee mehr gäbe. Der Schnee weiß vermutlich von den Latif-Ankündigungen nichts und Frau Merkel blieb irrtümlicherweise auf dem Boden. Wenigstens eine, wenn auch anders.

Abb.2 zeigt die zu erwartende Schneefront an der Ostküste, Quelle: (http://www.dw.com/de/washington-zittert-vor-dem-gro%C3%9Fen-schnee/a-18999793). Dort tiefster Winter (kleine Abbildung) und bei uns schaut der Frühling durch die Fenster. Und das, obwohl Washington etwa auf der geographischen Höhe Roms und Deutschland somit deutlicher nördlicher liegt. Aber schon in der Grundschule lernt man, dies liege am Golfstrom. Aber soll der nicht auch abreißen? Was stimmt denn nun bei den Kollegen aus der Klimaerwärmungsfraktion? Fragen über Fragen, wo doch laut IPCC alles klar ist und die bösen Industriestaaten und ihre Bevölkerung an allem Unheil schuld sein sollen und bereits zig Milliarden an Vermögen für eine unsinnige Energiepolitik und sinnlosen Umweltgrenzwerten verpulvert wurden. Aber wie sang schon Konstantin Wecker „Irgendjemand ist immer der Böse im Land“.

Ein Blick auf unsere Heizung, gemeint ist nicht die Stuben-, sondern die Erdheizung, unser Zentralgestirn, die Sonne, zeigt, dass die Zeiten nicht auf Erwärmung, sondern auf Abkühlung stehen.

Abb.3, Quelle: (http://www.solarham.net/averages.htm) zeigt die aktuelle solare Aktivität und damit die Energieabgabe der Sonne im 24. solaren Zyklus. Nicht nur, dass dieser deutlich schwächer als sein(e) Vorgänger ausfiel, er ist derzeit fast auf seinem Minimum angekommen. Ist ähnlich wie bei der Zentralheizung: Steht diese auf klein, wird es im Zimmer auch nicht richtig warm. Und die Sonne ist die Erdheizung: 99,98% der Energie, die die Erde erhält, stammen von der Sonne. Der Rest von 0,02% kommt, nein, nicht vom CO2, sondern aus dem Erdinneren. Von CO2 kommt nichts an zusätzlicher Energie. Dies ist für ein passives „Element“, wie CO2, auch gar nicht möglich.

Eigentlich ziemlich einfache Fakten, denn die Physik ist überall gleich. Wie sagte doch jüngst der Hobby-Fernseh-Astronom Lesch, jeder dürfe seine eigene Meinung, aber nicht seine eigenen Fakten haben. Wie darf denn nun der Autor die oben genannten Fakten verstehen, dass aus der „Klimakönigin“ eine „Schneekönigin“ wurde (obwohl es doch keinen Schnee mehr geben dürfte) und die Journalisten wieder einmal als Bettvorleger gelandet sind? Oder exakter, gar nicht erst gestartet sind.

Aber Herr Lesch und seine Mitstreiter kennen sicherlich die folgende Lebensweisheit:

Theorie ist, wenn man alles weiß und nichts funktioniert.

Praxis ist, wenn man nicht weiß warum, aber es trotzdem funktioniert.

Bei Herrn Lesch uns seinen Mitstreitern haben sich offenbar Theorie und Praxis vereint:

Nichts funktioniert und keiner weiß warum!

Raimund Leistenschneider – EIKE




Ein neues Para­digma für die Klima­wissen­schaft – Ist CO2 un­schuldig?

Mit anderen Worten, es ist durchaus möglich, dass wir jetzt den wissenschaftlichen Nachweis in Händen halten, dass die Menschen nicht verantwortlich sind für den Klimawandel auf der Erde. Das Problem bleibt jedoch, dass sowohl Anhänger als auch Gegner des anthropogenen Klimawandels große Schwierigkeiten haben werden, die Entdeckung von Nikolov-Zeller zu akzeptieren, u.a. deswegen, weil der vorgestellte Mechanismus (gestützt von planetarischen Daten der NASA) nicht in den Universitäten gelehrt wurde. Außerdem enthält das von ihnen übernommene macro-level (top-down)-Verfahren nicht explizit Prozesse wie Strahlungswärme, welche von freien atmosphärischen Spurengasen zurück gehalten wird, wovon man a priori seit 190 Jahren ausgegangen ist. Der Nikolov-Zeller-Artikel verweist aber auf die Tatsache, dass es in der Wissenschaft immer noch zu fundamental falschem Vorstellungen kommt – trotz der spontanen Verfügbarkeit aller notwendigen Informationen der modernen Welt.

Anstatt sich über globale Temperaturtrends oder die Klimasensitivität der Erde gegenüber CO2 auszulassen, haben sich Nikolov und Zeller entschlossen, zu den Grundlagen zurückzukehren, wobei sie von Kopernikus inspiriert worden sind, der das revolutionäre heliozentrische Weltbild des Sonnensystems eingeführt hat, welches später von Johannes Kepler mathematisch bewiesen worden ist. Nikolov und Zeller stellten drei Fragen auf, die von den meisten Klimawissenschaftlern entweder nicht des Fragens oder auch nur des Nachdenkens darüber für würdig befunden worden waren:

1. Welche Temperaturen würden die Felsenplaneten Venus, Erde, Mars sowie die Monde Triton und Titan aufweisen, wenn sie keine Atmosphäre hätten?

2. Können es die gleichen physikalischen Gesetzmäßigkeiten sein, welche die globalen Temperaturen von Venus, Erde, Mars, Titan und Triton bestimmen? Mit anderen Worten, ist die Erde hinsichtlich des Klimas ein Sonderfall, oder sie ein Teil des kosmischen physikalischen Kontinuums?

3. Welches sind die grundlegenden bestimmenden Faktoren, hinsichtlich der mittleren globalen Gleichgewichts-Temperatur jedweden Planeten oder Mondes?

Mittels Analyse geprüfter NASA-Daten von verschiedenen Weltraum-Erkundungsmissionen während der letzten drei Jahrzehnte fanden Nikolov und Zeller heraus, dass die 30-jährige Gleichgewichts-Temperatur der Erde ziemlich stabil und vollständig erklärbar ist im Zusammenhang mit einem interplanetarischen physikalischen Kontinuum. So unglaublich wie das klingt, aber sie entdeckten, dass man einfach extraterrestrische Daten von der Venus, vom Mond, von Mars und Triton heranziehen kann, um die 30-jährige mittlere globale Temperatur der Erde zu bestimmen – mit einem Fehler von lediglich 1°C! Diese genaue Prognose erfolgt mit nur zwei bekannten Parametern der Erde: Dem Gesamt-Luftdruck und der Entfernung unseres Planeten von der Sonne. Wie sich als sehr verblüffend herausstellt, braucht ihr Modell (empirisch abgeleitet aus NASA-Daten) keinerlei Informationen über die Zusammensetzung der Atmosphäre, d. h. über den Anteil der enthaltenen Treibhausgase, um zuverlässig die mittlere globale Temperatur der Erdatmosphäre zu berechnen!. Die folgende Abbildung zeigt das neue Ergebnis (Modell) von Nikolov & Zeller (2017):

Abbildung: In dieser Graphik ist die gemessene globale Gleichgewichtstemperatur an der Oberfläche eines planetarischen Körpers dargestellt beim Fehlen einer Atmosphäre. Das auf der vertikalen Achse dargestellte Verhältnis repräsentiert den Atmosphärischen Thermischen Effekt (ATE) eines Planeten oder Mondes, auch bekannt unter dem Terminus Natürlicher Treibhauseffekt. Die Graphik impliziert, dass der thermale Hintergrund-Effekt (d. h. der ,Treibhauseffekt‘) einer planetaren Atmosphäre NUR eine Funktion des Gesamtluftdrucks ist und nicht von der Zusammensetzung der Atmosphäre abhängt. Mit anderen Worten, der Treibhauseffekt ist physikalisch eine „pressure-induced thermal enhancement „(PTE) [etwa: eine durch den Druck induzierte thermische Verstärkung] und NICHT ein Strahlungsphänomen, welches getrieben ist durch Infraot-Strahlung absorbierende Gase wie gegenwärtig angenommen. Folglich können Kohlenstoff-Emissionen das globale Klima nicht beeinflussen. Die Klimasensitivität der Erde (ECS) gegenüber CO2 ist nahezu Null!

Vor etwa 500 Jahren hat Kopernikus das komplizierte Modell vereinfacht, welches bis dahin planetarische Rückwärtsläufe beschreibt mittels konzeptioneller Beobachtung der Erde von außen. Die Studie von Nikolov und Zeller (2017) vereinfacht das Verständnis der Physik des Klimas, indem sie eine ähnliche grobe extraterrestrische Perspektive annehmen. Ihre Ergebnisse bieten auch neue Einsichten, warum die vom IPCC verwendeten Globalen Klimamodelle (GCMs) auf der Grundlage des Strahlungs-Treibhauseffektes nicht gemessene globale Temperaturtrends nachvollziehen können, weshalb sie nicht zur Grundlage für politische Entscheidungen gemacht werden sollten.

Referenzen:

Nikolov N, Zeller K (2017) New insights on the physical nature of the atmospheric greenhouse effect deduced from an empirical planetary temperature model. EPCC, 2:2, in press.

Volokin D, ReLlez L (2014) On the average temperature of airless spherical bodies and the magnitude of Earth’s atmospheric thermal effect. SpringerPlus 3:723, doi:10.1186/2193-1801-3-723.

NB: Volokin and ReLlez are pseudonyms for Nikolov and Zeller

Übersetzt von Chris Frey EIKE

EIKE Redaktion:

Sobald die Studie vorliegt werden wir sie veröffentlichen. Die Diskussion darüber dürfte spannend werden.

 NZ_Climate_Handout_for_Laymen-1