Eine unbequeme Wahrheit: Während der Kleinen Eiszeit waren die Stürme in Europa stärker als heute

Man malte schaurig-apokalyptische Bilder, welche sich in den Köpfen der verängstigten, unklimatischen Zivilbevölkerung allmählich festsetzen. Nur die wenigsten nahmen sich die Zeit, die ungeheuerlichen Prognosen zu überprüfen. Und diejenigen die es taten, trauten ihren Augen nicht.

Die fachliche Grundlage derartiger Szenarien ist überaus dürftig und wichtige Gegenargumente wurden einfach ausgelassen. Überschattet wurde die ganze Szenerie von möglichen Interessenskonflikten der Protagonisten. Wir haben bereits mehrfach über die verschiedenen Gewerke des Extremwetters berichtet (siehe Artikel-Übersicht und unser Blogbeitrag „Die Versicherungswirtschaft und die Klimakatastrophe: Eine unheimliche Liaison“). 

Heute wollen wir uns einmal die Idee vornehmen, dass Europas Stürme in den kommenden Jahrzehnten immer häufiger und heftiger werden würden. Begründet wird dies mit der zu erwartenden Klimaerwärmung. Hierzu zunächst eine kleine Rückblende in den März 2012, als in Hamburg der „Extremwetterkongress“ stattfand. Die Südwest Presse schrieb damals: 

„Klimaexperten tagen derzeit in Hamburg, um die Entwicklung des Wetters zu diskutieren. Ihre Botschaft ist deutlich: Wetterkatastrophen in Deutschland haben zugenommen – und es wird schlimmer werden. Immer mehr Hagel, Starkregen und Stürme: Analysen des Rückversicherers Munich Re zufolge, die gestern beim “Extremwetterkongress” in Hamburg vorgestellt wurden, müssen wir uns warm anziehen: “Die Daten zeigen eindeutig: Die Zahl wetterbedingter Naturkatastrophen in Deutschland hat sich seit 1970 mehr als verdreifacht”, sagte Peter Höppe, Chef der Munich Re-Georisikoforschung. “Veränderungen in der Atmosphäre tragen einen Anteil daran, dass hier immer mehr Wetterextreme auftreten.” Der Trend setze sich fort. “Für die nächsten 30 Jahre rechnen Klimamodelle in Deutschland vor allem mit einer Zunahme der Sturmintensität und mit mehr Starkniederschlägen, die zu Überschwemmungen führen”, erklärte Höppe.“ 

Und auf Zeit Online war zu lesen: 

„Der [Deutsche Wetterdienst] DWD geht davon aus, dass die Zahl heißer Tage, die Starkniederschläge und die Anzahl der Winterstürme um bis zu 50 Prozent zunehmen.“ 

Auch andere Klimadiskutanten sehen mehr Stürme am Horizont der mittleren Breiten. So veröffentlichte im April 2012 eine britisch-deutsche Forschergruppe um Tim Woolings von der University of Reading in nature geoscience eine neue Studie, in der sie den derzeit schwächelnden Golfstrom als Auslöser von vermehrten Stürmen im östlichen Nordatlantik und in Europa sehen. Durch die Klimaerwärmung würde der Golfstrom allmählich an Kraft verlieren, was dann über Umwege die Sturmtätigkeit befördert, wie Der Standard am 3.4.2012 berichtete (siehe auch Beitrag auf scinexx): 

„Je schwächer die thermohaline Zirkulation ist, desto geringer wird die Zufuhr von warmem Oberflächenwasser in den nördlichen Teil des Nordatlantiks. Dadurch nimmt das Nord-Süd-Gefälle in der Wasseroberflächen-Temperatur zu und beeinflusst somit auch das Temperatur-Gefälle in der unteren Atmosphäre. Dieser so genannte Temperaturgradient ist sehr wichtig für die Entstehung von Tiefdruckgebieten. Je höher der Temperaturgradient, desto mehr potentielle Energie steht für die Entwicklung eines Sturms zur Verfügung. Die Stürme können dadurch extremer werden.“ 

Aber wie kamen die Forscher auf diesen Zusammenhang? Nun, sie verwendeten einen ganzen Strauß der offiziellen IPCC-Klimamodelle. Und eben diese Modelle mussten in der Vergangenheit sehr viel Kritik einstecken (siehe z.B. unser Buch „Die kalte Sonne“). Weder können diese Modelle die Klimageschichte der letzten 10.000 Jahre reproduzieren, noch haben sie den Erwärmungsstop seit 1998/2000 vorhergesagt. Sollten eben diese fehlerhaften Modelle nun wirklich in der Lage sein, die Sturmentwicklung korrekt vorherzusagen? Es dürfen Zweifel angemeldet werden. 

Schon gibt es die ersten, die auf den Sturmangst-Zug aufspringen und das ihnen vermeintlich drohende Leid öffentlich beklagen. Hierzu gehört beispielsweise Christoph Rullmann von der Schutzgemeinschaft Deutscher Wald, der jetzt dringend Hilfe für die Buche fordert. Nachdem das Waldsterben der 1980er Jahre durch den Einsatz von Filtern auf den Kraftwerks- und Fabrikschloten in letzter Sekunde noch einmal abgewendet werden konnte, drohe der Buche nun neues Ungemach, sagte Rullmann am 3.2.2012 im Deutschlandradio

„Aber diese Entwicklung, die sozusagen für den Wald positiv sich gestaltet hat, die wird jetzt überlagert durch die Veränderungen des Klimawandels, der zum Beispiel durch Stürme, durch diese Trockenereignisse, die wir immer stärker haben – wir hatten ja auch wieder dieses Jahr ein sehr trockenes Frühjahr, und das belastet natürlich die Wälder extrem.“ 

Und auf Zeit Online: machte sich bereits Claudia Kemfert Sorgen, ob die Windmühlen mit den von den Modellierern geplanten Stürmen wohl klarkommen werden: 

„Die Zunahme extremer Wettereinflüsse habe auch Auswirkungen auf die Energieversorgung: Claudia Kemfert vom Deutschen Institut für Wirtschaftsforschung sagte, dass die Anfälligkeit für Naturkatastrophen steigen werde, weil Deutschland in den kommenden vier Jahrzehnten den Anteil der erneuerbaren Energien auf 80 Prozent erhöhen wolle. Die Windgeschwindigkeit beispielsweise werde zeitweise geringer, dann wieder stärker als bisher. Das sei für die Windkraftanlagen problematisch, sagte Kemfert. Extreme Stürme könnten die Stromleitungen beeinträchtigen. Die Zunahme extremer Wetterphänomene bringe die Energiewende zwar nicht in Gefahr, aber man müsse sich auf eventuelle Ausfälle vorbereiten.“ 

Zeit für einen Faktencheck 

Es wäre also in der Tat nicht ganz unwichtig zu wissen, was da in den kommenden Jahren und Jahrzehnten auf uns zukommt. Also: Zeit für einen Faktencheck. Um es noch einmal zu betonen: Bei fast allen der oben skizzierten Aussagen handelt es sich um theoretische Projektionen für die Zukunft. Da man bei virtuellen Welten aber nie so ganz sicher sein kann, sollte sich ein jeder Modellierer verpflichtet fühlen, die Eckwerte seiner Berechnungen mit der Realität abzugleichen. Wenn man im Artikel des Standard zur oben genannten Golfstrom-Studie schmökert, bekommt man eine erste Ahnung davon, dass ein solcher Arbeitsschritt wohl notwendig ist: 

„Meteorologen und Ozeanologen in aller Welt müssen sich nun Gedanken machen, wie sensitiv ihre Modelle sind. Denn trotz Übereinstimmungen im Verhältnis zwischen den Änderungen im Ozean und in der Atmosphäre weichen die einzelnen Modelle im Ergebnis teilweise stark voneinander ab.“ 

Ganz so toll scheint es also doch nicht zu passen. Eine Grundcharakteristik der theoretischen Rechnungen scheint zu sein, dass ein wärmeres Klima in den Computermodellen auf komplexe Art und Weise eine Steigerung der Sturmtätigkeit in mittleren Breiten hervorruft. Ein durchaus legitimer Ansatz könnte man meinen, warum auch nicht. Bevor man nun jedoch sehr viel Arbeitszeit und riesige Forschungsgelder in die Ausarbeitung dieser Arbeitshypothese steckt, sollte man zuvor noch einen wichtigen Plausibilitäts-Check durchführen. 

Und der liegt eigentlich auf der Hand: Wenn warme Temperaturen mehr Stürme in unserer Region produzieren, dann müsste es zu kälteren Zeiten doch entsprechend windstiller gewesen sein. Dabei mangelt es nicht an geeignetem Fallbeispiel-Material für diese Überprüfung: Während der Kleinen Eiszeit, die von 1400 bis 1850 andauerte, lag die Temperatur um etwa ein Grad unter dem heutigen Niveau. Also eigentlich doch kein Problem. Man nehme ein paar Studien über die Sturmhistorie der letzten 400 Jahre und los geht’s. Man möchte meinen, dass die diversen Sturmintensivierungs-Vertreter diesen simplen Plausibilitäts-Check doch sicher durchgeführt haben. Oder etwa nicht? 

Die traurige Wahrheit: Gerade diesen Arbeitsschritt hat man offenbar ausgelassen. Wir wollen uns daher nützlich machen, und den Check hier nachholen. 

Im Juli 2012 berichteten wir an dieser Stelle über die stürmische Vergangenheit der französischen Mittelmeerküste. Ein französisches Forscherteam um den Geologen Pierre Sabatier hatte untersucht, wie sich Stürme und Erderwärmung in der Region historisch zueinander verhalten haben. Das überraschende Resultat der Studie: Die Stürme traten bevorzugt in Kälteperioden auf. Die Sonnenaktivität spielte dabei eine wichtige Rolle: Immer wenn die Sonne schwächelte, wurde es kalt und stürmisch. Wenn die Sonne wieder aufdrehte, stiegen die Temperaturen und der Wind flaute wieder ab (siehe unseren Blogartikel „Wann gab es die schlimmsten Stürme an der französischen Mittelmeerküste? Immer wenn die Sonne schwächelte und die Temperaturen fielen!“). Hierzu passt eine Studie des Science & Public Policy Institutes (SPPI), das zusammen mit CO2Science Frankreichs Sturmentwicklung während der letzten Jahrhunderte analysierte. Unter anderem nahmen sie dabei auch den Golf von Aigues-Mortes an der Mittelmeerküste unter die Lupe. Die beiden sturmreichsten Phasen ereigneten sich hier 455 n. Chr. sowie 1700-1900 n. Chr., also während der Kälteperioden der Völkerwanderungszeit sowie der Kleinen Eiszeit.

Ganz offensichtlich suggerieren hier die theoretischen Modellierungsbemühungen etwas, was es in der Realität gar nicht gegeben hat. Die Sturmreichen Phasen Europas fielen nämlich die Kältephasen, wohingegen die Stürme in den warmen Zeiten abebbten. 

Eine ähnliche Situation finden wir in den Niederlanden. Auch hier war die Kleine Eiszeit sehr viel sturmreicher als die nachfolgende Wärmephase (siehe unser Blogartikel „Die kräftigsten Stürme gab es in Holland während der Kleinen Eiszeit“). Hiermit kompatibel ist eine neue Studie von Stephen Cusack von Risk Management Solutions, die im Juni 2012 im Fachmagazin Climate Change erschien. Cusack konnte zeigen, dass die Stürme in den Niederlanden einem etwa 50-Jährigen Zyklus folgen und derzeit in einer Rekordflaute stecken, die es in den letzten 100 Jahren in dieser Art noch nicht gegeben hat. Die Studie wurde u.a. auf Spiegel Online und notrickszone besprochen. 

Auch für Großbritannien gibt es einen Überblick zur historischen Sturmentwicklung. Eine entsprechende Studie wurde im Mai 2012 von SPPI und CO2Science veröffentlicht. Während des 20. Jahrhunderts traten in dieser Region zwei besonders sturmreiche Phasen auf, nämlich in den 1920er und 1990er Jahren. Da diese Sturm-Maxima zu ganz unterschiedlichen Temperaturniveaus entstanden, kann die Klimaerwärmung hier offensichtlich keinen Einfluss genommen haben. Schaut man zudem in Großbritannien in Richtung Kleine Eiszeit, so wüteten auch hier die allerschlimmsten Stürme während dieser natürlichen Kältephase. 

 
 

Abbildung 1: Entwicklung von sehr starken Stürmen auf den Britischen Inseln im 20. Jahrhundert. Quelle: SPPI nach Allan et al. (2009) 

Keine Zunahme von Stürmen in Europa 

Aber die Modellierer sind nicht nur in die Warm-Kalt-Falle getappt. Wenn man schlimme Stürme für die Zukunft vorhersagt, müsste man doch auch in den letzten 40 Jahren diesen Trend bereits bemerkt haben, denn dies soll ja die Zeit gewesen sein, wo Treibhausgase angeblich die Temperatur fast im Alleingang ein halbes Grad nach oben gedrückt haben. 

Klaus-Eckart Puls hat sich durch Pressemitteilungen und Medienartikel gewühlt, um herauszufinden, ob die verschiedenen wissenschaftlichen Stellen in Deutschland schon einen solchen Anstieg der Sturmtätigkeit bei uns registriert haben (siehe Berichte auf EIKE und Schmanck). Das Ergebnis fällt deutlich aus: Nein, einen Trend zu stürmischeren Zeiten ist derzeit weit und breit nicht in Sicht. 

Olaf Stampf schrieb im Spiegel 2007 in seinem Artikel „Abschied vom Weltuntergang“:

Unbegründet ist wohl auch die weitverbreitete Befürchtung, dass im Treibhausklima Superstürme mit nie dagewesener Wucht die Dörfer und Häuser verwüsten werden. Aus den gegenwärtigen Langzeitsimulationen lässt sich ein solcher Trend jedenfalls keinesfalls ableiten. “In unserem Computermodell brauen sich weder mehr Stürme noch stärkere Stürme über uns zusammen”, versichert Jochem Marotzke, Direktor des Hamburger Max-Planck-Instituts für Meteorologie, eines weltweit führenden Zentrums der Klimaforschung. “Nur die Zugbahnen der Tiefdruckgebiete ändern sich geringfügig – in Skandinavien wird es stürmischer, am Mittelmeer etwas ruhiger.” 

Auf der Webseite der Wirtschaftswoche lesen wir: 

Dass beispielsweise Stürme weltweit zugenommen hätten, kann Hans von Storch vom Meteorologischen Institut der Universität Hamburg und selbst Autor für den Weltklimarat, nicht bestätigen. „Bei der Anzahl von Taifunen in Asien, Polarstürmen und Starkwinden über der Nord- und Ostsee hat unser Team für die vergangenen Jahre keine Zunahme festgestellt“, sagt von Storch. Auch in den nächsten 20 Jahren werde der Anstieg so gering sein, dass er nicht einmal messbar sei. 

Der Deutsche Wetterdienst (DWD) berichtete am 21.12.2009 in einer Pressemitteilung: Insgesamt ist laut DWD im vergangenen Jahrzehnt [2000-2009] aber keine Zunahme der großräumigen Stürme festzustellen. Zwei Jahre zuvor hatte die Organisation am 22.1.2007 in einer Pressemitteilung bereits erklärt: “Betrachtet man die Stürme und Orkane der letzten 30 Jahre, so hat bislang weder deren Häufigkeit noch deren Intensität zugenommen“. 

Zum gleichen Ergebnis kommt eine Untersuchung von Helmut Kraus und Ulrich Ebel: In den letzten 200 Jahren hat es über dem Nordatlantik ein ständiges Auf-und-Ab der Sturm-Aktivitäten gegeben. Selbst die extreme Orkan-Häufigkeit um 1990 wurde schon deutlich früher um 1890 sowie um 1915 übertroffen. Ein Klima-CO2-Signal ist dabei bis heute nicht erkennbar: “…daß die Intensität der Stürme in der Deutschen Bucht einer natürlichen Multidekadenschwankung unterliegt, aber in den letzten 120 Jahren keinerlei mit einer Klimaänderung zusammenhängenden Trend zeigt“. 

Auch das Helmholtz-Zentrum Geesthacht hat Interessantes herausgefunden, wie das Institut in einer Pressemitteilung vom 16.9.2012 verbreitete: 

Wissenschaftler am GKSS-Forschungszentrum Geesthacht haben gezeigt, daß die Häufigkeit von polaren Wirbelstürmen im Nord-Atlantik, so genannten Polartiefs, im Zuge der globalen Erwärmung abnehmen kann. 

Eine Frage an alle Versicherungsmitarbeiter, Extremwetterforscher und Medienschaffende, die weiterhin eine Zunahme der Stürme in Deutschland und dem Rest Europas favorisieren: Wie redlich ist es eigentlich, die in diesem Beitrag angeführten Gegenargumente einfach so zu ignorieren? Wäre es nicht endlich an der Zeit, sich ernsthaft mit den Einwänden zu beschäftigen? 

Mit Dank an Klaus-Eckart Puls für Materialbereitstellung. 

Weitere Papers zur Sturmdiskussion gibt es auf Popular Technology.net

Dr. Sebastian Lüning; zuerst erschienen bei Die Kalte Sonne




Je mehr Sonne, umso teurer der Strom!

Strahlende Sonne, blauer Himmel – das ideale Wetter für die Sommerferien oder auch den Urlaub zu anderer Jahreszeit. Also großes Schwelgen, Bombenstimmung, Erholung pur. Aber wissen Sie auch, dass soviel schöne Sonne zu einer hässlichen Stromrechnung führt? Solarstrom nämlich ist der teuerste Strom überhaupt. Und der wird uns allen zwangsweise geliefert und mit dem allgemeinen Strompreis persönlich in Rechnung gestellt. Ausgerechnet die Kapazität zur Erzeugung dieses teuersten Stroms wird Ende 2012 (mehr als 32 Gigawatt) die von Strom aus Windkraft (voraussichtlich 31 Gigawatt) überflügelt haben. So geht es aus Zahlen der Bundesnetzagentur vom 20. Juli hervor. Sie übersteigt dann auch die Erzeugungskapazität von herkömmlichem Strom aus Steinkohle, Braunkohle, Uran oder Gas.

Der Jubel der Subventionsgewinnler über das Traumwetter im Mai

Wohl noch gut in Erinnerung sind die zehn Tage Traumwetter am Stück im Mai dieses Jahres: wolkenloser Himmel über ganz Deutschland und eine Sonne, die sämtliche Fotovoltaik-Anlagen (und ihre Betreiber) so verwöhnte, wie es diese noch nicht erlebt hatten. Die subventionsgemästete Branche bejubelte besonders den 25. Mai: Erstmals hätten die Solaranlagen zwischen Flensburg und Berchtesgaden mittags eine Gesamtleistung von mehr als 20.000 Megawatt geliefert. Aus dem   Internationalen Wirtschaftsforum Regenerative Energien (IWR) in Münster* verlautete: „Das ist ein Rekord.Es gibt kein anderes Land auf der Erde, in dem Solaranlagen mit einer Leistung von 20 000 Megawatt Strom produzieren.“[KPK2]  Gemeinerweise tun sie das aber nur sehr, sehr gelegentlich. Den ständig nötigen Strom-Grundbedarf kann man mit solchem unzuverlässigen Strom nicht decken, also die sogenannte Grundlast nicht sicherstellen.

Wind und Sonne liefern nur einen Ab-und-zu-Strom

Für die Grundlast taugen auch Windstromanlagen nicht, dafür braucht man Kohle- und Kernkraftwerke. Nur die konventionellen Kraftwerke sind in der Lage, für einen stabilen Netzbetrieb zu sorgen. Wind und Sonne liefern nur einen Ab-und-zu-Strom. Ein Kohle- und Kernkraftwerk gibt die installierte Leistung ganzjährig ab, eine Windstromanlage liefert nur Strom, wenn auch Wind weht, eine Fotovoltaikanlage nur, wenn die Sonne scheint. Nennleistung und tatsächliche Leistung klaffen weit auseinander. Aber ein Industriestaat und eine Wohlstandsgesellschaft braucht nicht nur ab und zu Strom, sondern ständig, ohne Unterbrechung.

Nur herkömmliche Kraftwerke sichern die Stromversorgung

Da aber die  CO2-freien Kernkraftwerke  in Deutschland verschwinden sollen („Energiewende“), müssen stattdessen vor allem mehr Kohle- und Erdgaskraftwerke gebaut werden. Die jedoch stoßen das (nach Lesart der Öko-Bewegten und der Scharlatane in Politik und Wirtschaft abscheuliche) Klimakiller-Gas CO2 aus. Aber den Ausstoß dieses Schreckensgases zu verhindern, ist immerhin die Hauptbegründung für die massive Subventionierung von Strom mittels Wind und Sonne durch das Erneuerbare-Energien-Gesetz EEG. Also müssten doch gerade Kohle- und Erdgaskraftwerke verschwinden und ersetzt werden – ersetzt werden durch Kernkraftwerke. Über diese zwingende Logik gehen die Scharlatane dann gerne hinweg. Doch richten sie mit dieser ihrer Widersprüchlichkeit wenigstens nicht noch mehr Schaden an, sondern tun sogar recht daran, denn nur die herkömmlichen Kraftwerke können die stetige Versorgung mit Strom sicherstellen. Der CO2-Ausstoß ist dabei ohne Belang, denn die Behauptung, CO2 heize das globale Klima auf, ist nicht nur eine Mär, sondern, wie schon oft erläutert, ein groß angelegter Betrug.

Ohne Grundlast-Kraftwerke funktioniert es nicht

So bedeutet also die "Energiewende", dass die (ebenfalls grundlastfähigen) Kernkraftwerke  durch Kraftwerke mit fossilen Brennstoffen ersetzt werden, weil ohne diese Grundlastkraftwerke die Stromversorgung durch Wind und Sonne nicht funktioniert. Grundlastkraftwerke sind solche Stromerzeuger, die möglichst ohne Unterbrechung und möglichst nahe an ihrer vollen Kapazität (also unter „Volllast“) betrieben werden. Dafür prädestiniert sind Kernkraftwerke und Braunkohlekraftwerke, denn  ihre Fixkosten sind hoch und ihre Stromgestehungskosten vergleichsweise niedrig. Zur näheren Erläuterung von Grundlast, Mittellast, Spitzenlast bzw. Volllast habe ich dies gefunden:

Was die Grundlast bedeutet

„Ähnlich wie beim Verkehr gibt es auch beim Verbrauch von Strom Stoßzeiten und Flauten. Morgens, mittags und abends erreicht der Stromverbrauch Spitzenwerte. Nach Mitternacht ist er dagegen besonders niedrig. Unterschiedliche Kraftwerkstypen decken diese Schwankungen ab. Sieht man sich beispielsweise die Kurve der Stromnachfrage eines Tages an, wird schnell deutlich, dass unterhalb des Minimalwertes eine bestimmte Leistung rund um die Uhr nachgefragt wird. Diese Leistung bezeichnet man als Grundlast. Die dafür eingesetzten Kraftwerke, die so genannten Grundlastkraftwerke, sind ständig in Betrieb. Zu diesen Dauerläufern gehören vor allem die Braunkohle- und Kernkraftwerke, aber auch Laufwasserkraftwerke. Aufgrund der „relativ geringen Brennstoffkosten“ sind sie besonders für den Grundlastbereich geeignet. Unter diesen Bedingungen kann aber nur kostengünstig Strom produziert werden, wenn die Anlagen fast ohne Unterbrechung mit voller Leistung betrieben werden.“

Wer die Spitzenlast sichert

„Das Diagramm der Tagesbelastung zeigt, beispielsweise zur Mittagszeit oder am frühen Abend, auch Phasen besonders hoher Netzbelastung, die meist nur kurz andauern. Zur Deckung dieser Spitzenlast werden Kraftwerke eingesetzt, die bei plötzlichem Bedarf in wenigen Minuten ihre volle Leistung bringen. Diese Sprinter unter den Stromerzeugern sind allerdings nicht nur schnell, ihr Strom ist auch besonders teuer. Der Grund: Sie arbeiten immer nur für kurze Zeit, die übrige Zeit stehen sie still und verdienen kein Geld. Zu den Spitzenlasterzeugern zählen zum Beispiel die Pumpspeicherkraftwerke und Gasturbinenkraftwerke.“

Wofür die Mittellast gebraucht wird

„Zwischen der kurzfristig auftretenden Spitzenlast und der andauernden Grundlast liegt im Tagesbelastungsdiagramm der Bereich der Mittellast. Die dafür arbeitenden Mittelleistungskraftwerke werden in Zeiten besonders geringer Belastung, also in der Regel nachts, abgeschaltet oder zumindest auf eine deutlich geringere Leistungsabgabe heruntergefahren. Die stundenweise Belastung des Stromnetzes ist vorhersehbar und wird vor allem von Steinkohle-Kraftwerken abgedeckt. Doch nicht nur im Tagesverlauf ändert sich der Strombedarf. Im Wochenverlauf dominieren die Werktage, und im Winter können niedrige Temperaturen und die langen und dunklen Nächte genauso für eine höhere Stromnachfrage sorgen wie die immer mehr verbreiteten Klimaanlagen an heißen Sommertagen. Die Verbrauchskurve sieht im Jahresverlauf also ganz unterschiedlich aus.“  (Quelle: http://amprion.net/grundlast-mittellast-spitzenlast

Wind- und Sonnenstrom nötigen zum Aufbau einer Doppelkapazität

Die Volllaststunden, die für Windkraft- und Fotovoltaik-Anlagen erreichbar sind, sind sehr gering. Und weil Wind- und Sonnenstrom die stets benötigte Grundlast nicht zu liefern vermögen, aber gesetzlichen Vorrang genießen und vom marktwirtschaftlichen Wettbewerb befreit sind, müssen für zusätzliche Windkraftwerke und Fotovoltaikanlagen stets auch zusätzliche Kraftwerke bereitgehalten werden, die in der Lage sind, die Grund-, Mittel- und Spitzenlast zu tragen, wenn Wind- und Solarkraftwerke das nicht schaffen. Wind und Sonne können also kein herkömmliches Kraftwerk ersetzen. Das bedeutet nichts anderes, als dass Deutschland glaubt, es sich leisten zu können, einen doppelt so großen Stromerzeugungsapparat aufzubauen, als wirklich benötigt wird. Ziemlich töricht, nicht wahr?

Ohne herkömmliche Kraftwerke gäbe es Stromausfälle

Rainer Brüderle, der Vorsitzende der FDP-Bundestagsfraktion, weiß das durchaus. Er nannte es im Mai  „ein überaus ehrgeiziges Ziel“, bis zum völligen Abschalten der Kernkraftwerke 2022 den Anteil der erneuerbaren Energien an der Stromversorgung auf 40 Prozent zu steigern, und fügte hinzu: „Wir werden eine Reihe von Gas- und Kohlekraftwerken bauen müssen – möglicherweise mehr, als wir zunächst dachten.“[KPK3]   Aber im Jahr 2050 soll fast die gesamte Stromversorgung in Deutschland durch „erneuerbare“ Energien bewerkstelligt werden. Dann werden noch mehr Gas- und Kohlekraftwerke gebaut werden müssen, um eine kontinuierliche Stromversorgung aufrechtzuerhalten. Wenn nicht, geht das Licht aus, auch der Kühlschrank, das Fernsehgerät. Und vieles andere mehr.

Dr. Klaus-Peter Krause, zuerst erschienen in "Freie Welt"




Versetzt dem Hype um die globale Erwärmung den Todesstoß: kritisches Denken

Nichts zerschmettert ein Argument schneller als eine Frage, die ein klaffendes Loch in der zugrunde liegenden Voraussetzung für dieses Argument enthüllt. Man beachte die überaus offensichtliche Entgleisung in diesem Beispiel:

„Wir müssen etwas gegen die Ausbreitung von Geistern tun, die in letzter Zeit zu einer noch nie da gewesenen Anzahl von Menschen mit Alpträumen führt. Dieses Problem führt zu weit verbreiteter Schlaflosigkeit, was wiederum zu einem Nachlassen der Arbeitsproduktivität und zu alles in allem wirtschaftlichen Härten führt; und Sie sind ein kaltherziges kapitalistisches Schwein, wenn Sie die Notwendigkeit leugnen, dass die Arbeiter gesund sein müssen“.

Jeder kritische Denker wird schreien: „Was?! Beweisen Sie erst mal, dass Geister überhaupt existieren, bevor Sie mich mit Ausdrücken belegen!“

Die so genannte Krise der globalen Erwärmung ist mit einer gleichermaßen grotesken Voraussetzung davon gekommen – seit nunmehr fast zwei Jahrzehnten, weil diese Voraussetzung zumindest logisch klingt. Schließlich schädigen Menschen tatsächlich die Umwelt in vielfältiger Weise bis zu einem gewissen Ausmaß, und das Wetter scheint ein wenig merkwürdig zu sein in letzter Zeit, also ist es vielleicht möglich, dass unsere Treibhausgasemissionen eine nachteilige Auswirkung haben. Außerdem erzählen uns die Reporter immer wieder, dass Wissenschaftler dies so sagen.

Von Vielen übersehen ist das Nächstliegende, das diese Angelegenheit die ganze Zeit am Leben gehalten hat. Nicht anders als in einem Schneeballsystem darf die Öffentlichkeit niemals das Vertrauen in den Gedanken verlieren, dass diese Angelegenheit einer Lösung bedarf. In dem Moment, in dem eine Mehrheit von Menschen kritische Fragen über skeptische Wissenschaftler stellt, die legitim gegensätzliche Ansichten vertreten, gelangt das Ganze in eine fatale Abwärtsspirale, die all jene hinab zieht, die den Gedanken ohne Gegenfrage verteidigen.

Denken Sie an all die Behauptungen und Beteuerungen, die wir gehört haben, und was passiert, wenn wir kritische Fragen stellen unter Hinweis auf einfacher als je zuvor auffindbare Informationen aus dem Internet.

Selbst zum Höhepunkt des Winters auf der Nordhalbkugel wurde uns gesagt, dass die Arktische Eiskappe schmilzt und dass Eisbären ertrinken, wenn sie zu lange durch offenes Wasser schwimmen müssen. Und doch nimmt die Eisbärpopulation zu, Arktische Wetterstationen in nächster Nähe zur Eiskappe zeigen Temperaturen unter dem Gefrierpunkt außer in der wärmsten Zeit des Sommers, und gerade während des vergangenen Winters im Besonderen näherte sich die Eisausdehnung der Arktis wieder dem Mittel der Jahre 1979 bis 2000.

Die Medien machen uns weis, dass Extremwetter immer häufiger vorkommt, obwohl leicht zu findende schreiende Schlagzeilen von vor langer Zeit darauf hindeuten, dass es damals ähnlich extremes Wetter, wenn nicht noch schlimmer, gegeben hatte.

Uns wurde gesagt, dass der trockene, milde Winter in den USA diesmal ein Indiz für die globale Erwärmung ist, und doch werden entsetzlich kalte Temperaturen in diesem gleichen Winter in Europa nicht als gleichartiges Indiz genannt.

Viele äußern ihre Befürchtungen über die Versauerung der Ozeane, obwohl diese gleichen Leute niemals die unbestreitbare Tatsache erwähnen, dass Ozeane basisch sind und dass es folglich einer herkulischen Anstrengung bedarf, sie nur in ein neutrales pH-Gleichgewicht zu bringen, lange bevor sie auch nur leicht sauer werden.

Von prominenten Mitarbeitern der NASA, die die alarmistischen Verlautbarungen der NASA zur globalen Erwärmung in einem kürzlichen Brief im WSJ [Wall Street Journal] kritisiert hatten, wird gesagt, dass sie politisch getrieben seien, obwohl der NASA-Klimawissenschaftler James Hansen regelmäßig wegen zivilen Ungehorsams auf Veranstaltungen gegen die globale Erwärmung durch linksaußen stehende Umweltaktivisten verhaftet wird.

Der Vorsitzende des IPCC hat gesagt, dass „alles, was wir uns ansehen und was in unsere Zustandsberichte Eingang findet, seine Glaubwürdigkeit aus wissenschaftlich begutachteten Veröffentlichungen bezieht; wir machen es für nichts weniger“. Und doch finden Leute, die sich akribisch genau durch die IPCC-Berichte wühlen, dass allein im Bericht aus dem Jahr 2007 über 5,500 solcher Publikationen nicht begutachtet worden waren.

Und so weiter, und so weiter. Kritisches Denken ist möglicherweise tödlich für den Gedanken der vom Menschen verursachten globalen Erwärmung. Es wäre ein Tod der tausend Schnitte.

Aber es gibt noch ein besonders ungeheuerliches Loch im kritischen Denken hier – nicht hinsichtlich der Wissenschaft, sondern stattdessen vis-à-vis was man die Öffentlichkeit über skeptische Wissenschaftler glauben lässt.

Man hat uns gesagt, dass skeptische Wissenschaftler über den „Tod durch tausend Schnitte“-Beweis lügen. Man hat uns gesagt, dass sie für „Big Oil and Coal“ arbeiten – ganz ähnlich den so genannten Lockvogel-Experten, die dafür bezahlt worden sind, um „Zweifel zu säen“ über die Gefahren des Rauchens.

Und doch hat kein Reporter, der diese Nachrichten verbreitet, sich die Mühe gemacht zu zeigen, welcher in einem begutachteten Wissenschaftsjournal veröffentlichte skeptische Artikel für Geld von der Treibstoffindustrie geschrieben worden ist. Kein Reporter macht sich die Mühe zu zeigen, wie Myriaden von Beispielen kritischen Denkens bereits existierende – und nicht fabrizierte – Zweifel über die Behauptungen von Beweisen für die globale Erwärmung enthüllen. Und bis auf den heutigen Tag hat kein Reporter je versucht, erst einmal zu widerlegen, dass die fadenscheinigen Unterstützungen, die Skeptiker von der Industrie fossiler Treibstoffe erhalten haben sollen, wirklich nur deswegen gezahlt worden sind, weil jene Leute mit dem übereinstimmen, was die Skeptiker sagen.

Der Vorwurf, dass skeptische Wissenschaftler korrupt sind, entbehrt jedes kritischen Denkens. Jeder würde diese Probleme nach einer sorgsamen Untersuchung der Fakten erkennen:

Al Gore sagt, dass der Buchautor und Reporter Ross Gelbspan im Jahr 1991 durchgesickerte Notizen der Kohleindustrie als Beweis dafür entdeckt hat, dass Skeptiker korrupt sind, und doch haben andere Buchautoren und Reporter aus den Notizen vor Gelbspan zitiert, einschließlich Gore selbst.

Unzählig viele Leute zitieren aus jenen Notizen, um zu beweisen, dass Skeptiker korrupt sind, und doch zeigt niemand jemals den gesamten Zusammenhang dieser Notizen.

Im Spätsommer 1997 hat Gelbspan in einem NPR-Radiointerview unter Verwendung der am meisten zitierten fragmentarischen Sätze aus den Notizen behauptet, dass „böse“ Bemühungen unternommen werden, die Öffentlichkeit hinsichtlich der globalen Erwärmung zu verwirren – und doch, wenn man den gesamten Text der Notizen auf den Greenpeace archive scan web pages liest (wo nur ein gewiefter Forscher sie finden würde; mit Hilfe einer normalen Internetsuche kann man sie nicht finden), wird es überaus offensichtlich, dass die Notizen lediglich für die PR-Kampagne für ein sehr kleines Pilotprojekt verfasst worden sind, und Gelbspan hat die fragmentarischen Sequenzen vollständig aus dem Zusammenhang gerissen.

Gelbspan wurde lange Zeit als Gewinner des Pulitzer-Preises gehandelt, was sogar als Titelbild seines 2004 erschienenen Hardcover-Buches Boiling Point gezeigt wurde – und doch hat die Pulitzer-Organisation Gelbspan niemals als einen Preisgewinner in Erwägung gezogen.

Et cetera, et cetera pp, es gibt ein Meer roter Flaggen sowohl in den Vorwürfen selbst als auch bei allen Leuten darum herum.

Stellt man eine Verbindung her zwischen den immer weiter zunehmenden wissenschaftlichen Problemen bzgl. der globalen Erwärmung und den Enthüllungen darüber, wie buchstäblich unerträgliche Vorwürfe an der Grenze zu Beleidigungen und Rufmord gegen die wissenschaftlichen Kritiker angerührt worden sind, würde die ganze Welt erkennen, dass die gesamte Hysterie nichts weiter als ein „Informations“-Schneeballsystem war und ist, die auf konstanten Einwürfen von Desinformation basiert, die als solche bereits vor Jahren enthüllt worden sein könnten. Ein Tod der tausend Schnitte wird zu einem Pfahl durch das Herz.

Russell Cook

Russell Cook’s collection of writings on this issue can be seen at „The ’96-to-present smear of skeptic scientists.“  Follow him at Twitter via @questionAGW.

Read more: http://www.americanthinker.com/2012/06/global_warmings_killer_critical_thinking.html#ixzz1yY1sDTmw

Link: http://www.americanthinker.com/2012/06/global_warmings_killer_critical_thinking.html

Übersetzt von Chris Frey EIKE




Moncktons Erwiderung auf Eos-Vorwürfe zur Klimalüge

*AGU = American Geophysical Union

Recht auf Antwort

Ich bin den Herausgebern von Eos dankbar für dieses Recht auf eine Antwort an Corbin und Katz (Effective Strategies to Counter Campus Presentations on Climate Denial, Eos, 3. Juni 2012) [etwa: Strategien, um Präsentationen der Klimaleugnung auf dem Campus zu begegnen], einer ungerechtfertigten, 1200 Wörter starken Attacke auf Dr. Giaever und mich. … [mangels Ideen zur Übersetzung lautet die fehlende Passage im Original: „…by way of a mélange or smørgasbord of the shop-worn logical fallacies of argument ad populum, ad verecundiam, and, above all, ad hominem.” Diese „logical Fallacies” von Monckton sind in einem anderen Zusammenhang am 7. Mai 2012 schon bei EIKE hier erschienen. A. d. Übers.]

Die Autoren, die ausschließlich mit dem Konsens (ad populum) unter wissenschaftlichen Experten (ad verecundiam) argumentieren, sagen, dass Sprecher wie wir „das Ziel verfolgen, die Gewässer hinsichtlich der Klimawissenschaft zu verschmutzen“ (ad hominem); sie beziehen sich allen Ernstes auf politisierte Websites und tendenziöse, nicht wissenschaftlich begutachtete Präsentationen von Nicht-Klima-Wissenschaftlern, um gegen uns vorzugehen und tun so, als ob sie das Sagen hätten (ad verecundiam), während sie sich der Erwähnung von Zurückweisungen dieser dubiosen Quellen widersetzen (ad hominem); sie klagen uns der falschen Präsentation, Verzerrung und manipulierter Analysen an, ohne ein einziges Beispiel zu nennen (ad hominem); und sie brandmarken uns vier mal als „Klimawandelleugner“ (ad hominem) – einem Hasswort, das implizit der Vergleich mit dem Holocaust enthält. Diese Anschuldigungen sind ernst und erfordern eine Erwiderung.

Die Autoren sagen auch, dass wir versuchen, ihre Forschungen zu diskreditieren, obwohl – wie Wissenschaftsphilosophen von Haytham via Huxley bis zu Popper (1934) klar sagen – die Eliminierung von Fehlern durch Hinterfragen der Hypothesen ein grundlegender Bestandteil der wissenschaftlichen Methode ist. Sie beschreiben „Strategien“, um uns gegenüber zu treten – einschließlich „öffentlicher zur-Schau-Stellung“ und „sozialer Mittel“ – welche sicherlich in die Umgebung politischer Propaganda, aber nicht in die wissenschaftliche Diskussion passen.

Unser Argument gegen die offizielle Linie, die sie so unkritisch vor sich her tragen, lautet, dass eine katastrophale, vom Menschen verursachte globale Erwärmung bisher nicht einmal annähernd die vorhergesagte Größenordnung erreicht hat; dass es keinen ausgeprägten wissenschaftlichen Grund gibt, dass das noch passieren wird; und dass, selbst wenn, eine Anpassung in der Zukunft mindestens eine Größenordnung kostengünstiger sein dürfte als die heutigen gigantischen Ausgaben für eine versuchte Abschwächung.

Vorhersagen des Untergangs sind  gescheitert. Die Daten des Satelliten Envisat zeigen, dass der Anstieg des Meeresspiegels von 2004 bis 2012 mit einer Rate äquivalent zu 3 cm/Jahrhundert erfolgt ist. Das Wachstum der Ausdehnung des Meereises in der Antarktis hat den Rückgang in der Arktis während der letzten 30 Jahre nahezu ausgeglichen. Das grönländische Inlandeis hat von 1993 bis 2008 um 0,5 m an Dicke zugenommen. In der Antarktis ist es 30 Jahre lang kälter geworden, und die Inlandseismasse hat zugenommen. Im Winter 2010/2011 erreichte die Schneebedeckung der Nordhemisphäre ein 30-Jahres-Maximum. Die Aktivität tropischer Zyklone befand sich während der letzten beiden Jahre in einem 30-Jahres-Minimum.

Alles in allem ist die beobachtete Erwärmungsrate seit 1990 weit hinter der geringsten projizierten Erwärmung des IPCC zurückgeblieben. Die Modelle stimmten alle überein, aber die Wirklichkeit hat diesen Konsens als falsch überführt. Trotz der rapide zunehmenden CO2-Konzentration gab es keine statistisch signifikante Erwärmung seit eineinhalb Jahrzehnten. Die Erwärmungsrate nach 1950 in Gestalt des Trends kleinster Quadrate der Hadley/CRU-Temperaturreihe (HadCRUt3, 2011) beträgt lediglich 1,2 K pro Jahrhundert. Und doch sagt das IPCC als das Mittel aller sechs Emissions-Szenarien implizit vorher (2007, Tabelle SPM3 mit Abb. 10.26), dass der Einfluss des Menschen einschließlich einer Zunahme der CO2-Konzentration von 368 ppmv im Jahr 2000 bis 713 ppmv im Jahr 2100 bis zum Jahr 2100 zu einer Erwärmung um 2,8 K führen wird – 0,6 K previously committed*, 1,5 K durch die Emission von CO2 in diesem Jahrhundert und 0,7 K durch andere Treibhausgase. Diese vorhergesagte (obwohl nicht alarmierende) Verdoppelung der Erwärmungsrate nach 1950 hängt von mindestens drei nicht plausiblen Hypothesen ab: Andere Gase erhöhen den Beitrag von CO2 zur Erwärmung um bis zu 43%; bis zur Hälfte der Erwärmung durch unsere Sünden in der Vergangenheit ist bisher noch gar nicht durch die Pipeline gekommen; und, alles in allem, ungemessene und unmessbare Temperatur-Rückkopplungen werden die geringe direkte Erwärmung durch Treibhausgase fast verdreifachen: daraus folgt, dass zwei Drittel des vorhergesagten Konsens’ zur Erwärmung auf raten beruhen.

*Die Wörter sind natürlich bekannt, aber ich finde keine sinnvolle Bedeutung derselben. A. d. Übers.

Der ersten Hypothese fehlt die Glaubwürdigkeit, hat sich doch das Methan, das wichtigste Treibhausgas neben dem CO2, das wir emittieren, stabilisiert: dessen Konzentration hat während des letzten Jahrzehnts nur um 20 parts per Milliarde zugenommen. Die zweite und dritte Hypothese implizieren eine Schwankungsbreite der Temperatur, der die paläoklimatischen Aufzeichnungen widersprechen. Sie deuten darauf hin – wenn auch mit großen Unsicherheiten – dass die absolute Temperatur nicht um mehr als 3% oder 8 K um den Mittelwert der letzten 64 Millionen Jahre geschwankt hat (Scotese 1999, Zachos et al. 2001). Das reicht, um während einer Epoche eine Eiszeit, während einer anderen Epoche eine Warmzeit auszulösen: aber sie ist zu klein, um geschlossene Rückkopplungen [closed-loop feedback gains] bis zu 0,64 (0,42; 0,74) zuzulassen, die implizit in der projizierten Erwärmung von 3,26 (2; 4,5) K pro Verdoppelung des CO2-Gehaltes enthalten sind (IPCC 2007, S. 798, Tafel 10.2). In der Verfahrenstechnik, in der die von der Klimawissenschaft übernommene Rückkopplungs-Mathematik ihre Wurzeln hat (Bode 1945, Roe 2009), wurden elektronische Schaltkreise entwickelt, die stabil genug sein sollten, einen close-loop gain nicht größer als 0,1 zuzulassen. Denn jenseits dieser Singularität, bei einem loop-gain von 1, werden stark positive Rückkopplungen genauso stark negativ: und doch zeigen die Paläo-Temperaturaufzeichnungen keine solche gewaltige Oszillation. Empirische Beweise (z. B. von Lindzen und Choi 2009 und 2011, Spencer und Braswell, 2010 und 2011) legen tatsächlich nahe, was die Theorie der Verfahrenstechnik erwarten lässt: dass nämlich Rückkopplungen in einem temperaturstabilen Klimasystem wie in einem gut konstruierten Kreislauf höchstens geringfügig positiv und wahrscheinlicher in irgendeiner Form negativ sind, obwohl dies hitzig bestritten wird (z. B. Trenberth et al. 2010, Dessler et al. 2010 und 2011) – konsistent mit einer harmlosen Fortsetzung der beobachteten Erwärmungsrate der letzten 60 Jahre, aber inkonsistent mit der substantiell größeren (aber nicht notwendigerweise schlimmen) vom IPCC vorhergesagten Erwärmungsrate.

Selbst wenn wir ad argumentum (und per impossibile) annehmen, dass unsere unverminderten Emissionen die beobachtete Erwärmungsrate erheblich beschleunigen würden, übersteigen die horrenden Kosten der Maßnahmen zur Abschwächung der CO2-Emissionen bei Weitem die wahrscheinlichen Kosten von klimabezogenen Schäden, die aus unserem Nicht-Handeln heute resultieren. Um ein einziges thematisches und typisches Beispiel herauszugreifen: der Kohlenstoffhandel in Australien wird 10,1 Milliarden Dollar pro Jahr betragen, plus 1,6 Milliarden Dollar pro Jahr für die Administration (Wong 2010, S. 5) plus 1,2 Milliarden pro Jahr für Erneuerbare und andere Kosten, insgesamt 13 Milliarden Dollar pro Jahr mit einer Steigerung um 5% pro Jahr oder auf 130 Milliarden Dollar bis zum Jahr 2020 n.p.v. [Net Present Value, Kapitalwert eines Unternehmens]. Dies alles, um eine Abschwächung der gegenwärtigen Emissionen um 5% zu erreichen, die 1,2% der Weltemissionen ausmachen (abgeleitet von Boden et al. 2010ab). Folglich würden die australischen Maßnahmen, wenn sie so erfolgreich sein sollten wie die Befürworter planen, zu einer Abschwächung der globalen Emissionen um nicht mehr als 0,06% innerhalb des veranschlagten Zeitraumes von zehn Jahren führen. Die CO2-Konzentration würde von 410 ppmv bei „Business as usual“ auf einen Wert von 409,988 ppmv bis zum Ende des Zeitraumes der Maßnahmen zurückgehen. Die Abschwächung des Antriebs beträgt 0,0002 W/m², die daraus folgende Abschwächung der Erwärmung beträgt 0,0006 K; die Abschwächung der Kosteneffektivität, also die Kosten dafür, 1 K globale Erwärmung zu vermeiden, belaufen sich auf 2000 Trillionen Dollar/K. Auf der gleichen Basis belaufen sich die Kosten der Vermeidung der gesamten Erwärmung während der Laufzeit von zehn Jahren auf 300 Trillionen Dollar, oder 44000 Dollar pro Kopf oder 58% des globalen BSP während dieses Zeitraums. Die Kosten der Abschwächung durch derartige Maßnahmen würden die Kosten von klimabezogenen Schäden bei der Nicht-Durchführung von Maßnahmen um etwa den Faktor 50 übersteigen.

Die sehr hohen Kosten der Politik zur CO2-Abschwächung und die unmessbare Abschwächung der Erwärmung dadurch implizieren, dass die Konzentration auf Maßnahmen gegen die Konsequenzen einer solchen Erwärmung viel kosteneffektiver ist als die heute versuchte Abschwächung. Bezahlbare Strategien zur Abschwächung von CO2-Emissionen sind ineffektiv; effektive Maßnahmen sind unbezahlbar. Es erhebt sich die Frage, ob man überhaupt noch weiter versuchen soll, die CO2-Emissionen abzuschwächen.

Eos-Leser können jetzt selbst entscheiden, bis zu welchem Ausmaß die unprovozierte Attacke auf unseren Ruf von Corbin und Katz gerechtfertigt war. Wirkliche Wissenschaft gründet sich nicht auf Beschimpfungen und Unlogik, sondern auf Begründungen. Verliert man dies aus den Augen, verliert man alles!

References

Bode, H.W. (1945), Network analysis and feedback amplifier design, Van Nostrand, New York, USA, 551 pp.

Boden and Marland (2010a), Global CO2 Emissions from Fossil-Fuel Burning, Cement Manufacture, and Gas Flaring, 1751-2007, Carbon Dioxide Information and Analysis Center, Oak Ridge, Tennessee, USA.

Boden et al. (2010b), Ranking of the world’s countries by 2007 total CO2 emissions from fossil-fuel burning, cement production, and gas flaring, Carbon Dioxide Information and Analysis Center, Oak Ridge, Tennessee, USA.

Dessler, A.E. (2010), A determination of the cloud feedback from climate variations over the past decade, Science 220, 1523-1527.

Dessler, A.E. (2011), Cloud Variations and the Earth’s energy budget, Geophys. Res. Lett.

HadCRUt3 (2011), Monthly global mean surface temperature anomalies, 1850-2011, http://www.cru.uea.ac.uk/cru/data/temperature/hadcrut3gl.txt.

IPCC (1990), Climate Change: The IPCC Scientific Assessment (1990): Report prepared for Intergovernmental Panel on Climate Change by Working Group I, J. T. Houghton, G.J. Jenkins and J.J. Ephraums (eds.), Cambridge University Press, Cambridge, UK, New York, NY, USA, and Melbourne, Australia.

IPCC (2007), Climate Change 2007: the Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change, 2007 [Solomon, S., D. Qin, M. Manning, Z. Chen, M. Marquis, K.B. Avery, M. Tignor and H.L. Miller (eds.)], Cambridge University Press, Cambridge, United Kingdom, and New York, NY, USA.

Lindzen, R.S., and Y.-S. Choi (2009), On the determination of feedbacks from ERBE data, Geophys. Res. Lett., 36, L16705.

Lindzen, R.S., and Y.-S. Choi (2011), On the observational determination of climate sensitivity and its implications, Asia-Pacific J. Atmos. Sci., 47(4), 377-390, doi:10.1007/s13143-011-0023-x.

Monckton of Brenchley, C.W. (2010), Response to John Abraham, SPPI Reprint Series, Science and Public Policy Institute, Washington DC, USA, July 12, http://scienceandpublicpolicy.org/images/stories/papers/reprint/response_to_john_abraham.pdf.

Popper, K (1934), Logik der Forschung, rewritten by the author in English as The Logic of Scientific Discovery, Hutchinson, London, 1959.

Roe, G. ( 2009), Feedbacks, Timescales, and Seeing Red, Ann. Rev. Earth & Planet. Sci. 37, 93-115.

Scotese, C.R., A.J. Boucot, and W.S. McKerrow (1999), Gondwanan paleogeography and paleoclimatology, J. Afr. Earth Sci. 28(1), 99-114.

Spencer, R.W., and W.D. Braswell (2010), On the diagnosis of radiative feedback in the presence of unknown radiative forcing, J. Geophys. Res, 115, D16109.

Spencer, R.W., and W.D. Braswell (2011), On the misdiagnosis of surface temperature feedbacks from variations in Earth’s radiant-energy balance, Remote Sensing 3, 1603-1613, doi:10.3390/rs3081603.

Trenberth, K.E., J.T. Fasullo, C. O’Dell, and T. Wong (2010), Relationships between tropical sea-surface temperature and top-of-atmosphere radiation, Geophys. Res. Lett, 37, L03702.

Wong, P. (2010), Portfolio Budget Statements 2010-11: Budget-Related Paper No. 1.4. Climate Change and Energy Efficiency Portfolio, Commonwealth of Australia, Canberra, Australia.

Zachos, J., M. Pagani, L. Sloan, E. Thomas, and K. Billups (2001), Trends, Rhythms and Aberrations in Global Climate 65 Ma to Present, Science 292, 686-693.

─ CHRISTOPHER MONCKTON OF BRENCHLEY, Chief Policy Advisor, Science and Public Policy Institute, Washington, DC, USA; monckton@mail.com.

Link: http://wattsupwiththat.com/2012/07/12/moncktons-reply-to-eos-on-climate-denial/

Übersetzt von Chris Frey EIKE




Der Wärmeinseleffekt als maßgeblicher Treiber der gemessenen Temperaturen

Bezugnehmend auf unseren Artikel, sah sich der DWD gezwungen, EIKE eine Gegendarstellung zukommen zu lassen, die wir beantworteten und darin belegen konnten, dass unsere Artikel nichts an Richtigkeit und damit Brisanz verloren hatten. Einer wissenschaftlichen Diskussion stellte sich der DWD indes nicht. In der jüngst erschienenen Arbeiten von Anthony Watts über die Wirkung dieses Effektes in der er  belegen konnte, dass auch in den USA die ausgewiesene Erwärmung doppelt so hoch angegeben wird, als wie in der Realität gemessen und damit nicht nur – wie wir damals zeigten- in Deutschland. Dieser Beitrag wird nun zeigen, dass der der Studie von Watts et al vorschnell entgegen gehaltene Argument, sie hätte den sog. TOBs (Time of Observation Errors) nicht berücksichtig, abwegig ist und am Ergebnis nichts ändern würde, wenn es so wäre.

Trotz der immer bescheideneren Sommer, der immer kälteren Winter, wird uns von Seiten diverser Institute und meteorologischer Behörden erzählt, die Temperaturen würden immer weiter ansteigen. Wir möchten diesen Behörden nicht vorhalten, sie würden falsche Zahlenwerte verbreiten, aber was werden dort für Temperaturen gemessen, die als Vergleich mit früheren Messwerten herangezogen werden? Sind sie geeignet, um Aussagen über eine vermeintliche Erwärmung und vor allem, deren Höhte, treffen zu können? Einer von uns (Leistenschneider) hat eine eigene Methodik entwickelt, mit der der WI aus einer vorhandenen Messreihe herausgerechnet werden kann. Ähnliche Verfahren werden zwar auch von anderen Autoren benutzt. (A. Watts, Tom Karl (1), Frank Lansner etc.).

Abbildung 1, (Quelle hier ) zeigt einen Querschnitt durch Regionen in den USA, die Lansner untersuchte. Er weist zu Recht darauf hin, das die Stationslage in Bezug auf ihre Umgebung (z.B. Küste, Küstennah; Gebirge, Ebene) einen wesentlichen Einfluss auf die gemessene Temperatur hat. Wobei es nicht ausreicht, wenn nur „UHI-freie“ Stationen mit „UHI Behafteten“ im Umkreis zur Homogenisierung verglichen werden. Dadurch entstehen nur neue Fehler.

Die von uns verwendete Methodik vergleicht dazu jedoch auf eine andere Weise eine Referenzstation mit der zu untersuchenden Messreihe. Die Theorie für diese Methodik basiert auf zwei fundamentalen Gesetzen der Physik:

  • • Dem Strahlungsgesetz nach Planck und dem
  • • Abkühlungsgesetz nach Newton

Das Strahlungsgesetz nach Planck gesagt, dass ein Körper umso mehr Energie pro Zeit abstrahlt, umso wärmer er ist. Das Abkühlungsgesetz nach Newton gibt an, dass eine Masse, umso mehr Energie pro Zeiteinheit verliert (kälter wird), je wärmer er ist. Dies heißt in der Praxis nichts anderes, dass mehr Energie notwendig ist, einen 300 Kelvin warmen Körper um 10 Kelvin zu erhöhen, als einen 250 Kelvin warmen Körper um den gleichen Betrag. In einer Erwärmungsphase muss es also zu einer Angleichung zwischen einer wärmeren und einer kälteren Station kommen. Mit seiner Aussage, dass sich arktische Gebiete schneller erwärmen würden als wärmere, sagt das IPCC im Prinzip nichts anderes, wenn auch die dort genannten Erwärmungswerte von 3 Kelvin und mehr, auf einer falschen Datenlage beruhen, da z.B. das GISS im betroffenen arktischen Gebiet gar keine Messstation hat (WUWT und EIKE berichteten ausführlich darüber).

Für ein Betrachtungsland (z.B.: Deutschland) ist die von der Sonne zur Verfügung gestellte Energie und für die Referenzstation gleich, sowie der CO2-Backgroundlevel (für die Anhänger des AGW). Als Referenzstation, ohne nennenswerten*2) WI, haben die Autoren die meteorologische Station auf dem Hohen Peißenberg (HPB) gewählt, die nach eigenen Angaben des DWD als Referenzstation gilt und von der seit dem Ende des 18. Jahrhunderts verlässliche Temperaturdaten vorliegen (Abbildung 2).

Abbildung 2 * zeigt die Temperaturentwicklung am HPB von 1786 – 2006. Deutlich ist ein natürliches Schwingverhalten zu sehen, deren Periode bei ca. 206 Jahren liegt (Maxima der 5 und 10-Jahrestrends). Darin spiegelt sich der Hauptsonnenzyklus, der im Mittel 208-jährige de Vries/Suess-Zyklus, der in 2003, als Europa unter einem Hitzesommer3 litt, sein Maximum hatte. Seitdem fällt die solare Aktivität. Hauptsonnenzyklus deshalb, weil die Fourieranalyse der Wolfzahl (Sonnenflecken) dort die stärkste Periode ergibt. Dr. Axel Mörner2 hat in seiner Arbeit “Keine Gefahr eines globalen Meeresspiegelanstiegs“ transparent gezeigt, wie der Hauptsonnenzyklus die arktische Meereisbedeckung bestimmt (Abbildung 3).

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt Abbildung 3, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde vom Autor um den de Vries/Suess-Sonnenzyklus (Zeiten) ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus. Bei Sonnenminima erleben Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen. Die Abbildung zeigt weiter, dass für die nächsten 30 – 40 Jahre eine arktische Eisausdehnung und keine Eisschmelze zu erwarten ist. Weiter zeigt die NASA, dass die Sonne zum ausgehenden 20. Jahrhundert immer aktiver wurde.

Abbildung 4 links (Quelle: hier ) zeigt die gesamte Strahlungsleistung der Korona von 1938 – 1995 in W/sr, mit r = 2.800 MHz Radio flux. Deutlich ist zu sehen, dass parallel zum (leichten) Temperaturanstieg die Strahlungsleistung der Korona stark (25%) ansteigt. Hierbei handelt es sich um die tatsächliche Strahlungsleistung und nicht, wie beim TSI, um die Strahlungsleistung eines kleinen Wellenlängenbereiches (Leistenschneider ging in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ in 08/11 ausführlich darauf ein). Die NASA beweist damit, dass die Sonne bis zum ausgehenden 20. Jahrhundert immer aktiver wurde. Die rechte Abbildung zeigt die globale Temperaturentwicklung nach Jones.

Aufgrund seiner natürlichen Schwingung, die dem Hauptsonnenzyklus entspricht, gehen wir davon aus, dass HPB weitgehend WI-frei* ist und damit grundsätzlich als Referenzstation geeignet ist. Zur Berechnung des WI werden beide Datenreihen (Deutschland und HPB) in Relation zueinander gesetzt.

Abbildung 5 zeigt die Datenreihe D/HPB im Zeitraum 1881 – 2009. Für Deutschland liegen erst ab 1881 Daten vor, daher kann die Datenreihe erst 1881 beginnen. Die Datenreihe zeigt, dass sich die Werte von HPB und Deutschland mehr und mehr angleichen (Trend ist negativ). D.h., auf HPB wird es vergleichsweise (in %) mehr warm. Dies liegt daran, dass sich kalte Gebiete, fernab von Zivilisations- also WI-Einflüssen, relativ schneller erwärmen. Drei Bereiche sind erkennbar, in denen die Werte jeweils um einen gemeinsamen Mittelwert pendeln. Nach Planck und Newton muss die Annäherung beider Stationen in einer Erwärmungsphase gleichmäßig verlaufen. D.h., die gemessenen Streuwerte der Temperatur müssten sich statistisch gleichmäßig um die Ausgleichsgerade verteilen (kleine Abbildung, idealisiert dargestellt). Das tun sie aber nicht, wie der tatsächliche Verlauf zeigt. In drei Bereichen verlaufen sie waagerecht, d.h., zusätzliche Energie ist notwendig, um die Angleichung zu verhindern. Diese kann nur vom WI kommen, da die Sonne für beide gleichermaßen strahlt.

In der Relationskurve (Abbildung 5) ist demnach der WI „verborgen“. Der WI ist in der Dämpfung (oder Spreizung, je nach Betrachtung) des DWD-Temperaturverlaufs zu HPB enthalten, weil die DWD-Deutschland-Daten relativ weniger steigen und in der statistischen Verteilung der Temperaturstreuwerte (farbige Bereiche). Die durch den WI höheren Temperaturen, dämpfen den Erwärmungstrend, bzw. erzwingen eine andere Verteilung. Um den WI in den zu sehenden Zeiträumen zu ermitteln (für die Zeiträume 2 und 3 berechnet), wird folgendermaßen vorgegangen:

  • • Ermittlung der jeweiligen Mittelwerte für D und HPB in den o.g. drei Zeiträumen (1881 – 1952, 1953 – 1982 und 1983 – 2009). Ergibt 6 Mittelwerte.
  • • Differenzbetrachtung der Mittelwerte von Epoche Xn+1 zu Xn. Getrennt für HPB und D (ergibt 4 Differenzmittelwerte, da Epoche 0 – vor 1881 – nicht bekannt ist, bzw. nicht in die Bewertung einfloss, da diese Werte nach dem DWD, für Deutschland zu ungenau sind).
  • • Betrachtung der jeweiligen Epochendifferenzwerte zueinander, d.h. Wert für D2 (2 steht für Epoche 2) wird mit Wert HPB2 verglichen und die Differenz bestimmt.
  • • Mit dieser Differenz wird der jeweilige WI im 2. und 3. Zeitraum berechnet.
  • • WI im 1. Zeitraum wurde mit 0,2°C konservativ geschätzt. Grund des WI: Andere Verteilung der Stationen, andere Messsysteme, andere Flächen – Deutschland wurde kleiner (um die Hälfte) und große Landschaftsflächen fielen weg, Beginn der industriellen Landschafts-veränderung, …
  • • WI HPB von 1881 – 2009 mit 0,2°C anhand der Bebauungsveränderungen abgeschätzt.

Dass auch HPB nicht WI-los sein kann, liegt daran, dass die Messstation bis 1940 im dortigen Kloster untergebracht war und anschließend in die meteorologische Station verlegt wurde. Im Kloster war nur ein Raum, nämlich der Gemeinschaftsraum, beheizt, in der jetzigen Station aber alle Gebäude die zum Komplex gehören. Der damalige Leiter hatte gefordert, in der Übergangszeit Parallelmessungen durchzuführen, was jedoch nicht geschah. Die alte Wetterstation wurde dann den Mönchen weggenommen und bekam ein eigenes Gebäude beim Friedhof, das seinerseits ständig erweitert und beheizt wurde. Heute stehen dort umfangreiche Gebäudekomplexe. Außerdem wurde allmählich ein stetig sich vergrößernder Parkplatz angelegt, der zugleich auch als Parkplatz für den Friedhof in der Nachbarschaft dient. Fassungsvermögen geschätzt, etwa 100 Autos.

Daraus folgt zwingend: Bis 1940 hatte der HPB keinen WI. Dann hat er einen geringen, wegen zunehmender Bebauung entwickelt. Wie eingangs geschildert, ist die Station nicht (mehr) vollständig WI-frei, wie sie allgemein in der Literatur und vom DWD dargestellt wird. Für die drei Zeiträume ergibt sich für Deutschland ein dynamischer WI:

Zeitraum 1: 1881 – 1952 = +0,2°C

Zeitraum 2: 1953 – 1982 = +0,3°C

Zeitraum 3: 1983 – 2009 = +0,6°C

Der Gesamt-WI ist die Steigung über alle drei Zeiträume.

WI-Deutschland über alle drei betrachteten Zeiträume von 1881 – 2009 = +1,1°C.

Abbildung 6 zeigt den unmittelbaren Vergleich der Deutschlandtemperaturen DWD und der WI-bereinigten von 1891 – 2011. Die blau gestrichelte Linie zeigt den Temperaturmittelwert im Betrachtungszeitraum. Die Temperaturen in Deutschland durchbrechen die Mittellinie nach unten, was bedeutet, dass die heutigen Temperaturen im 120-Jahresvergleich zu kalt sind. Zum berechneten WI wurde, wie dies auch beim IPCC üblich ist, der Fehlertoleranzbereich angegeben (gelb). Der Fehlertoleranzbereich trägt folgenden Punkten Rechnung:

Der WI-Wert der 1. Epoche musste abgeschätzt werden, da die davor liegende Vergleichsperiode zur Berechnung nicht zur Verfügung steht. Dabei wurde konservativ vorgegangen und der WI mit +0,2°C nach folgenden Kriterien festgelegt:

  • • Große ländliche Gebiete fielen 1945 im Osten weg.
  • • Die um die Jahrhundertwende beginnende Industriealisierung Deutschlands, die besonders in den 1930-Jahren forciert wurde.
  • • Die Umwandlung großer Naturflächen in Agrargebiete, mit der damit verbundenen Entwässerung der Landschaft – Verdunstungswärme, die kühlend wirkt, entfiel.

Sowie, dass HPB durch die Bebauungsmaßnahmen nicht mehr vollständig WI-los ist.

Unsere Untersuchung zeigt, dass mehr als die Hälfte der ausgewiesenen, gemessenen Erwärmung, auf den WI entfällt und von den +1,9°C, die der DWD für den Betrachtungszeitraum4 angibt, nur +0,8°C tatsächliche Erwärmung übrig bleiben. Somit exakt dieselben Werte, die auch Anthony Watts in seiner jüngst erschienenen Arbeit veröffentlichte. Der Vergleich unseres Ergebnisses mit der breitengradabhängigen Erwärmung für den 49-Breitengrad (geographisches Mittel für Deutschland) erhärtet unser Ergebnis.

TOB Time of Observation Error (Bias)

Was hat nun unsere Arbeit als Beleg für die Untersuchung von Anthony Watts zu tun? Sehr viel, da ihm vorgehalten wird, er hätte den TOB (Time of Observation Error) nicht berücksichtigt. Der ist jedoch nur relevant bei Mittelwerten, die aus Min/Max-Werten, wie in den USA gebildet werden, nicht aber bei Mittelwerten aus täglichen Mehrfachmessungen zu festen Zeiten, wie sie von Anfang an in Deutschland zur Anwendung kommen. Bis zum April 2001 wurden in Deutschland nach dem Mannheimer Verfahren die Mittelwerte gebildet. Gemessen wurde um 7:00, 14:00 und 21:00 Uhr, wobei der letzte Wert doppelt gezählt wurde. Seit April 2001 wurde stündlich gemessen (allein diese Umstellung brachte auf Grund der Asymmetrie des Temperaturtagesgangs eine scheinbare Temperaturerhöhung von +0,1°C, wie Leistenschneider anhand der Station Berlin-Dahlem nachweisen konnte) und seit 2009 sogar halbstündlich. Dennoch zeigt unsere Untersuchung, die exakt gleichen Relations wie Anthony Watts – d.h. die gemessenen Temperaturen liegen gut doppelt so hoch, wie die tatsächlichen Vergleichstemperaturen. Der Grund dafür braucht nicht lange gesucht zu werden. Er liegt in der Konzentration der ausgesuchten Messstationen in Städten und auf Flughäfen. So liegen mehr als 52% aller GHCN-Messstationen auf Flughäfen. Was es damit auf sich hat, zeigte bereits vor mehr als 2 Jahren WUWT (Abbildung 6).

 

Abbildung 7 zeigt die Temperaturmessstation auf dem Flughafen von Rom und dessen Lage zum Rollfeld. Dass dies kein Einzelfall ist, konnten die Autoren in ihrem Beitrag (hier) belegen, wie z.B. Abbildung 7 zeigt.

 

Abbildung 8, Quelle: (hier) zeigt die Wetterstation auf dem Frankfurter Flughafen. Sie liegt nicht nur sehr nah am Rollfeld (ca. 70m), sondern in direkter Richtung zu den Abgasstrahlen der Jets, wie in der rechten Abbildung zu sehen. Das Bild erinnert frappierend an die Zustände auf dem Flughafen von Rom, wie von A. Watts gezeigt.

 

Abbildung 9 zeigt die Lage der DWD-Wetterstation auf dem Flughafengelände (roter Pfeil).

Die Messstation liegt exakt zwischen beiden Start- und Landebahnen und ist dem gesamten Verkehrsaufkommen (außer Startbahn West) unmittelbar ausgesetzt, d.h. wird von allen Abgasstrahlen der Verkehrsflugzeuge unmittelbar beeinflusst. Dabei lässt sich folgende Korrelation ableiten: Je höher das Flugaufkommen, umso höher die gemessenen Temperaturen der Wetterstation! Wieso dass? Ganz einfach, die erwärmten Luftschichten werden nicht zwischen Starts oder Landungen ausgetauscht und die Erwärmung beginnt von neuem, sondern bei 120 Flugbewegungen/Stunde und der in Deutschland vorherrschenden geringen Luftbewegungen (gemittelt über das Jahr, siehe als Anhaltspunkt die geringe Auslastung der Windanlagen in Deutschland von nur ca. 16%), bleibt ein Anteil an eingebrachten Erwärmung, weil die Luft nicht schnell genug ausgetauscht wird.

Selbst bei angenommener homogener Verteilung der Abgaswärme über das Flughafenareal (Raumvolumen), ergibt sich ein WI von +0,6°C, wie bei EIKE (Herr Prof. Lüdecke) ermittelt wurde. Für die Überschlagsbetrachtung dienten folgende Daten:

Arealfläche 1940 ha

Flugbewegungen 120/h

dabei je Anzahl der Triebwerke (gemittelt: 2,5 – 3)

Mantelstromtriebwerk Rolls-Royce Trent xxx (Rolls Royce-Trend-Familie)

Schub: zertifiziert bis zu 250 – 360 kN (80.000 lbf)

Einlass-Massenstrom: 800 – 1200 kg/s

Durchmesser Auslass: ca. 2 m

Austrittstemperatur ca. 300 – 700°C (je Last, 600°C typisch im Flugverkehr)

Eine Überschlagsrechnung ergibt :

Flugplatzfläche = 5 qkm = 5 .106 m2

Angenommene max. Starthöhe beim Verlassen des Volumens: 200 m

Startzeit: 100 s

Eintrag an erhitzter Luft

durch die Turbinen:  1.000 kg/s . 100 s = 105 kg = 105 m3 Luft auf 600 °C.

Durch (stationäre) Vermischung gilt die einfache Beziehung für die Mischtemperatur T mit einer Lufttemperatur von angenommenen 20 °C:

(108 – 105) . 20 + 105 . 600 = 108  . T,  woraus T = 20,6 °C folgt.

Die  Verteilung der heißen Abgasstrahlen ist jedoch nicht homogen, sondern die Messstationen liegen, wie an Rom und Frankfurt gezeigt, in unmittelbarer Richtung der heißen Abgasstrahlen und es ist nicht so, dass diese nur im Moment der Beaufschlagung wirken, sondern noch Stunden nach dem Start, die Temperaturen erhöht halten. Aufklärungssatelliten der USA machen sich diesen Effekt zu Nutze und können noch Stunden, nachdem ein Jetflugzeug auf einer Rollbahn startete/landete, dies anhand der Erwärmung nachweisen.

In erster Linie werden die heißen Abgasstrahlen durch den sog. Wirbelschleppeneffekt über das ganze Flughafenareal verteilt, ganz gleich, wo die Messstation sich befindet.

Wirbelschleppen bestehen aus entgegengesetzt rotierenden Luftmassen. Sie dehnen sich rückwärts und nach unten(!) aus. Wirbelschleppen können für nachfolgende Luftfahrzeuge sehr gefährlich sein, da sie die sonst laminare Strömung extrem stören, wodurch ein Strömungsabriss entstehen kann. Aus diesem Grund müssen nachfolgende Flugzeuge einen Abstand zum voraus fliegenden Flugzeug auf gleicher Höhe von 5 – 12 km halten. Am Beispiel des neuesten Flugzeugs der Airbus-Familie, dem A 380, gelten die folgenden Bestimmungen:

  • • A380 gefolgt von Flugzeug der Gewichtsklasse „schwer“ = +2 nm zusätzlich zum geltenden ICAO Abstand (6 nm gesamte Distanz)
  • • A380 gefolgt von Flugzeug der Gewichtsklasse „mittel“ = +3 nm zusätzlich zum geltenden ICAO Abstand (8 nm gesamte Distanz)
  • • A380 gefolgt von Flugzeug der Gewichtsklasse „leicht“ = +4 nm zusätzlich zum geltenden ICAO Abstand (10 nm gesamte Distanz)

nm = nautische Meile

 

Abbildung 10 links, Quelle: NASA, zeigt am Beispiel eines Kleinflugzeugs recht anschaulich, wie solche Wirbelschleppen die Luftschichten hinter sich regelrecht durchquirlen. Abbildung rechts zeigt die Luftverwirbelung und deren Ausbreitung bei einer anfliegenden Boeing 777.

Die Autoren konnten zeigen, dass die gemessenen Temperaturen am Flughafen Frankfurt um +2,5°C zu hoch waren. Der WI für den Flughafen Frankfurt demnach bei +2,5°C liegt. Für den Flughafen London Heathrow scheint der WI ebenfalls in dieser Größenordnung zu liegen. Der Jahresmittelwert betrug 2009 bei der Wetterstation am Flugplatz Heathrow bei London 11,9°C. Laut Met Office (http://www.metoffice.gov.uk/climate/uk/datasets/Tmean/ranked/UK.txt) lag die Mitteltemperatur 2009 in Großbritannien bei 9,17°C. Gut 2,7°C Temperaturdifferenz zu London Heathrow. Anzumerken ist noch, dass Flughafenstationen als ländliche Stationen gelten und somit bei einer üblichen WI-Betrachtung gar nicht berücksichtigt werden.

Fazit

Somit festzustellen, dass die Temperaturmessstationen auf Flughäfen für die Aufzeichnung von Temperaturzeitreihen oder sonstiger Vergleichsaussagen gänzlich ungeeignet sind. Anhand der dortigen Daten lässt sich nur herausfinden, dass sich das Flugaufkommen in den letzten Jahren erhöht hat, was grundsätzlich auch richtig ist. Ob für diese Feststellung jedoch eine teure Messstation notwendig ist, darf bezweifelt werden. Wird der Tatsache Rechnung getragen, dass sich ca. 52% aller GHCN-Temperaturstationen auf Flughäfen befinden, so zeigt dies, dass die ausgewiesene Erwärmung auf dem WI beruht oder, überspitzt formuliert, auf dem steigenden Flugaufkommen.

Die Arbeiten von Anthony Watts, ebenso wie unsere zeigen, dass der Hauptanteil der ausgewiesenen, gemessenen Erwärmung in der Tat auf menschliche Ursachen zurück zu führen sind, jedoch nicht auf Treibhausgase, wie dem CO2, sondern auf dem WI, der somit als Haupttreiber der gemessenen Temperaturen gilt. Zu beiden Seiten des Atlantiks schlägt der WI mit gleichen Werten zu Buche. Hinzu kommt, dass zunehmend die Solarforscher die Klima-Debatte dominieren, weil sie sowohl die langfristigen wie auch die kurzfristige Klimaschwankungen vollständig erklären können, was Leistenschneider in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ zeigte. Für „CO2+Co.“ bleibt nichts mehr übrig.

In Anbetracht der Tatsache, dass mit der vermeintlichen Erwärmung immer noch Politik betrieben und ganze Volkswirtschaften einer verfehlten Energie- und Umweltpolitik ausgesetzt sind, ist es an der Zeit, dass sich Behörden wie der DWD einer wissenschaftlichen Diskussion stellen und die Politik endlich den Tatsachen Rechnung trägt, dass es nicht mehr wärmer, sondern kälter wird und Klimawandel keine Ausnahmeerscheinung unserer Tage ist, sondern ein stetiger und natürlicher Vorgang.

*) Eine 100%-WI-freie Station für die letzten 130 Jahre konnten wir in Deutschland nicht finden, da insbesondere, die in Städten oder stadtnahen Gebieten befindlichen Stationen, die einen kontinuierlich langen Messzeitraum abbilden, wesentlich WI-behaftet sind. Auf Grund dessen haben wir unser Ergebnis (Abbildung 6) mit einem Fehlertoleranzbereich versehen, der diesem Punkt, dass HPB nicht zu 100% WI-los ist, Rechnung trägt.

Literaturverzeichnis (falls nicht im Text bereits erwähnt)

1 Karl, T.R., C.N. Williams, Jr., F.T. Quinlan, and T.A. Boden, 1990: United States Historical Climatology Network (HCN) Serial Temperature and Precipitation Data, Environmental Science Division, Publication No. 3404, Carbon Dioxide Information and Analysis Center, Oak Ridge National Laboratory, Oak Ridge, TN, 389 pp.

2 Dr. Niels Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“, http://www.solidaritaet.com/fusion/2008/1/fus0801-klima.pdf  Original: Quaternary Studies, Journal der Portugiesischen Vereinigung für Quartär-Forschung (APEQ), Nr. 5, 2007,

3 Met Office Hadley Centre, ”Climate change and the greenhouse effect” Dezember 2005, Seite 30

4 DWD, Lufttemperatur (Jahresmittelwerte) Deutschland 1891 – 2009

Raimund Leistenschneider – EIKE ; Josef Kowatsch – Hüttlingen