Der Mathe-Student, der nie rechnen konnte – Die surreale Welt des Boris Palmer

Aber lassen wir ihn doch einmal selbst zu Wort kommen:

„Im Mathematikstudium (Anmerkung des Autors: auf Lehramt, eine Abschlussnote habe ich nirgendwo gefunden) habe ich mir angewöhnt, immer den exakten Beweis zu führen. Wenn der gefunden wurde, habe ich keinen Widerspruch mehr zugelassen. Das ist in der Mathematik der einzige Weg zur Erkenntnis. Aber in der Politik führt er nicht zum Ziel. Denn da geht es auch um die Frage, wie ich mein Argument so erkläre, dass mein Gegenüber es annehmen kann. Darüber habe ich mir viele Jahre zu wenig Gedanken gemacht.“[1]

Bild rechts: Boris Palmer, Bündnis 90/Die Grünen in 2006 auf einem Grünen Parteitag in Köln; Lizenz über Wikipedia Hochgeladen von Flickr upload bot Link hier 

Zwei Punkte wollen wir festhalten. Erstens, wenn ein Beweis vorliegt, dann gilt dieser widerspruchslos. Zweitens, Argumente (dies sind keine Beweise) muss man so erklären, dass sie der Gegenüber annehmen kann.
Am 13.8.14 (der Tag des Mauerbaus) veröffentlichte Boris P. in der Welt einen Artikel mit dem Titel Wir kommen an Windrädern nicht mehr vorbei“.

Das Credo des Artikels lautet:

„Es ist nicht statthaft, zweifelhafte und wandelbare ästhetische Gegenwartsbedürfnisse über die Lebensbedürfnisse künftiger Generationen zu stellen. Wer heute nicht auf Strom und Wärme verzichten will, muss den Anblick von Wärmedämmungen und Windrädern ertragen.“

In was für einer Welt leben wir, wenn außer in Deutschland die Lebensbedürfnisse zukünftiger Generationen missachtet werden. Es tröstet etwas, dass dafür die meisten Menschen in Europa im Kalten und im Dunklen sitzen müssen, da sie auf den Anblick von Dämmplatten und Windmühlen verzichten. Aber wie sagte Siegmar Gabriel so treffend:
“Für die meisten anderen Länder in Europa sind wir sowieso Bekloppte”.  Vielleicht sind wir aber nicht nur bekloppt, sondern sogar wahnsinnig. Zumindest Boris P. nannte sich selbst auf einer Konferenz in Düsseldorf 2010, auf der es um das „Einpacken“ von Häusern und ganzen Städten, um Sinn und Unsinn des „Dämmwahns“ ging, einen „Dämmwahnsinnigen“. Er weiß vermutlich gar nicht wie recht er damit hat.
Während Gabriel in einem kurzen Augenblick der Erkenntnis gesteht:

Die Wahrheit ist, dass die Energiewende kurz vor dem Scheitern steht”, aber dies nicht konsequent zu Ende denkt, kommt der OB zu einer ganz anderen Schlussfolgerung:

Die Energiewende kann nur funktionieren, wenn wir auch schöne Landschaften mit Windrädern verändern. Die Auswirkungen von Windparks auf die Natur sind jedoch von wenigen Vogelarten abgesehen nahezu null. Jeder Kilometer Autobahn richtet mehr Schaden an der Umwelt an als ein Windpark. Die einzige relevante Beeinträchtigung der Windkraft bleibt die optische.“ „Die Zahl von derzeit rund 25.000 (onshore)-Windkraftstandorten in Deutschland müssen wir verdoppeln, um Deutschland erneuerbar zu versorgen.“

Etwaige Andersdenkende werden von ihm mit seiner Feststellung abgekanzelt:

„Wer sich intensiver mit den Initiativen auseinandersetzt, die im Namen des Naturschutzes gegen Windräder mobilisieren, stellt fest, dass dies häufig gerade die Menschen sind, die Bioprodukte für Firlefanz halten, große Autos in der Garage haben, nie Grün wählen würden und Umgehungsstraßen in freier Landschaft für einen Segen halten, kurz die Ökologie erst dann entdecken, wenn ihnen ein Windrad ins Blickfeld gerät.“

Lassen wir einen der Andersdenkenden zu Wort kommen. Enoch von Guttenberg, der vor 37 Jahren den BUND mitgegründet hat, diesen aber kürzlich aus Protest gegen die derzeitige Führung, die er wegen ihrer Zusammenarbeit mit der Windlobby als verantwortungslose und korrumpierte Technokraten bezeichnet, wieder verließ, sagt über die Windkraftanlagen:

„Windkraftanlagen sind nicht nur Geländefresser. Sie erfordern nicht nur die Erschließung, also die Entwaldung ganzer Höhenzüge. Sie sind zudem hocheffiziente Geräte zur Vernichtung von Vögeln und Fledermäusen. Die „Hinweise zur Planung und Genehmigung von Windkraftanlagen“ der Bayerischen Staatsregierung vom 20. Dezember 2011 benennen als besonders gefährdet unter anderen den Schwarzstorch, den Weißstorch, die Wiesen- und die Rohrweihe, den Schwarz- und den Rotmilan, den Baum- und den Wanderfalken, den Wespenbussard, den Uhu, den Graureiher – all dies ohnehin bedrohte Vogelarten, die vom Sog der Windräder eingezogen und buchstäblich zerhäckselt werden. Den Fledermäusen lässt bereits der Druckunterschied im Umkreis der Rotoren ihre Lungen platzen.“

Quantifiziert und dokumentiert wurde dies von Clive Hambler von der Oxford Universität. Demnach „werden in jedem Jahr zwischen 6 und 18 Millionen Vögel und Fledermäuse in Spanien allein durch Windräder getötet, einschließlich seltener Gänsegeier, von denen in einem Jahr 400 Exemplare getötet worden sind, ….. In Tasmanien sind die Keilschwanzadler wegen der Windturbinen vom Aussterben bedroht. Norwegische Windparks töten jedes Jahr zehn Seeadler. Deutsche Windturbinen töten 200 000 Fledermäuse pro Jahr“.[2]
Mehrere Millionen Opfer pro Jahr sind also für den ökologischen OB „nahezu null“. Irgendwie muss der Mathematiker bei der Zahlentheorie geschlafen haben.
Mit den Zahlen scheint er eh ein Problem zu haben, denn was soll es bringen noch einmal 25 000 Windanlagen aufzustellen, wenn „gut 70 % aller deutschen Windräder unwirtschaftlich sind und die meisten investierenden Bürger kaltblütig betrogen und über die Tische gezogen werden.“ Im Übrigen konnten diese Zahlen von den Windrad-Bauern und -Betreibern bis jetzt nicht dementiert werden, da dies das Zahlenmaterial des eigenen Dachverbandes ist und ungewollt an die Öffentlichkeit gelangte.“ [3]
In Deutschland werden an einem „normalen Tag“ 65 GW Leistung benötigt. An einem Spitzenlasttag im Winter können es für wenige Stunden auch rd. 82 GW sein. Derzeit sind rd. je 32 GW Windleistung und 34 GW Photovoltaikleistung installiert. Wenn wir also nach Boris P. die Windenergie verdoppeln, dann sind wir bei knapp 100GW angelangt, was wohl immer ausreichen sollte. Dies impliziert zumindest sein Gedanke, wenn da nicht die vertrackte Natur wäre. Die folgende Graphik zeigt einen typischen Verlauf der real eingespeisten Energie.

Bei einer verdoppelten Windenergie kommen wir im Mittel auf knapp 11.5GW, was weniger als 18% der benötigten Leistung ist, aber im Minimum sind es nur rund 0,5%!
Dies ist ein klarer empirischer Beweis über den Unsinn von 100% „erneuerbarer“ Energie. Nehmen Sie sich beim Wort Herr Palmer, machen Sie eine 180° Wende und dulden Sie dann keinen Widerspruch.
In der Mathematik genügt ein Beweis um eine These zu falsifizieren. Aber vielleicht brauchen Sie noch einen? 
Und trotzdem geht es, wie Prof. Endres von der TU Clausthal gezeigt hat.
„Man muss die „erneuerbare“ Erzeugungskapazität bei einem Flächenverbrauch von ca. 20 % „nur“ auf ca. 500 – 600 GW erweitern und für die Speicherung von 40 TWh Strom (mehrwöchige Flaute) ein paar Milliarden Batterien installieren. Gehe ich von einem Preis von 100 EUR/kWh aus (sehr sehr sportlich), kostet der Spaß wohl rund 4 Billionen Euro nur für die Batterien, und das bitte alle spätestens 6 Jahre noch mal. Dazu kommt dann noch die Ladeelektronik usw.. Kurz und gut, der ganze Spaß würde Installationskosten von ca. 10 Billionen EUR erfordern, mit wiederkehrenden Kosten von ca. 5 Billionen EUR alle 6 Jahre und ca. 1 Billion EUR alle 10 – 15 Jahre für die WKA´s – ja, wenn das keine Perspektive ist.“
Zum Vergleich, der Bundeshaushalt von 2014 betrug knapp 0.3 Billionen Euro, Selbst wenn eine heilige Fee die Installationskosten übernehmen würde, überstiegen die jährlichen Wartungskosten den kompletten Haushalt.
Dies wird schwierig zu erwirtschaften sein, da die Windanlagen selber einen jährlichen Verlust zwischen 300- bis 500-tausend Euro verursachen. Konkret für den Windpark Münsterwald mit 7 WKA’s beträgt der Wert rund 3.2 Millionen Euro pro Jahr. Die Rechnung hierzu findet man im Anhang als pdf. Hochgerechnet auf die Wunschzahl des OB aus Tübingen ergibt dies weitere 20 Milliarden Kosten pro Jahr.
Sie können die Zahlen drehen, wie Sie wollen. Es ist nicht machbar. Beweis Nr. 2.
Langsam schwant mir, warum ich keine Abschlussnote gefunden habe.
Soviel zu den Beweisen. Kommen wir zu den Argumenten. Wie erklären Sie, dass der Pfälzerwald, der für die Grünen vor drei Jahren oberste Priorität als zusammenhängendes Waldgebiet hatte, nun den Windkraftanlagen geopfert werden soll? Ist Waldschutz der Firlefanz von gestern?
Sie bejahen auf der einen Seite die Vermaisung der Landschaft und fordern auf der anderen den Vorrang der Ökologie ein. Die größte Biogasanlage im Land benötigt 1000 Tonnen Mais pro Tag. 7000 Anla­gen stehen bereits, pro Jahr kommen im Durchschnitt etwa 1000 hinzu. Um diesen Widerspruch zu erklären muss man schon tief in die Kiste des dialektischen Materialismus greifen. Kampf und Einheit der Widersprüche wäre da das Stichwort. Der Segen dieser Philosophie ging, wenn auch vermutlich nur temporär, vor 25 Jahren unter.

Zwischenzeitlich hat man sich aber für eine neue Ideologie entschieden –
den Klimaschutz.

Als Experte dient Al Gore. Schon Al Gore hat in seiner „unbequemen Wahrheit“ darauf hingewiesen, dass in 99 Prozent aller wissenschaftlichen Publikationen die Erderwärmung als menschengemachte Tatsache akzeptiert ist.“
Al Gore, der Experte, der auf die Frage nach der Temperatur in zwei Kilometer Tiefe von ein paar Millionen Grad faselte, wobei es um die Erde(!) ging, Diese Temperatur gibt es nicht einmal in dieser Tiefe auf der Sonne. Al Gore der Ursache und Wirkung tauscht, damit die Ideologie stimmt.

Das obige Bild präsentiert er in dem Film „An inconvenient truth“. Und so sieht die Wahrheit aus, erst steigt die Temperatur und dann das CO2. Dies ist eine Folge der Temperaturabhängigkeit der Löslichkeit von CO2 in Wasser (Henry Gesetz). Aber was stören Naturgesetze den Experten.

So unglaubwürdig Al Gores „wissenschaftliche“ Aussagen sind, so unglaubwürdig sind auch die 99%. Die neueste und größte Studie besagt folgendes:

„We analyze the evolution of the scientific consensus on anthropogenic global warming (AGW) in the peer-reviewed scientific literature, examining 11 944 climate abstracts from 1991–2011 matching the topics ‘global climate change’ or ‘global warming’. We find that 66.4% of abstracts expressed no position on AGW, 32.6% endorsed AGW, 0.7% rejected AGW and 0.3% were uncertain about the cause of global warming.”[4] 

Womit die 99% auf ein Drittel geschrumpft sind. Bedenkt man noch, dass es viel schwieriger ist so genannte skeptische Artikel zu publizieren, wie climategate gezeigt hat, dann schrumpft die Konsensuszahl weiter.

[Climategate: From: Phil Jones <p.jones@xxxx>
To: "Michael E. Mann" <mann@xxxx> Der Erfinder der Hockeyschlägerkurve.
Subject: HIGHLY CONFIDENTIAL
Date: Thu Jul  8 16:30:16 2004
The other paper by MM (McIntyre und McKitrick, die den Erfinder überführten) is just garbage - as you knew. Pielke is also losing all credibility.
I can't see either of these papers being in the next IPCC report. Kevin and I will keep them out somehow - even if we have to redefine what the peer-review literature is!]

Dies ficht aber Boris P. nicht an. Er behauptet und nennt dies Argumentieren:
Klimaskeptiker sind Leute, die an die Stelle dieser Erkenntnis obskure Alternativerklärungen setzen, um die menschliche Sucht nach fossiler Energie zu rechtfertigen.“ 
Wo sind Ihre Argumente, die die Windkraftgegner annehmen können? Leider habe ich keine gefunden. Dafür gibt es Plattitüden, wie „große Autos in der Garage“ und das wohl Schlimmste in Ihrer Vorstellung „Menschen die nie Grün wählen“. Bitten Sie doch Herrn Kretschmann, dass per Gesetz nur noch Grün gewählt werden darf.


[1] Welt 26.10.14
[2] http://www.spectator.co.uk/features/8807761/wind-farms-vs-wildlife/
[3]http://www.deutscherarbeitgeberverband.de/aktuelles/2014_11_16_dav_aktuelles_BUND_Technokraten.html
[4] Cook et al. – Environ. Res. Lett. 8 (2013) 024024 (7pp)




2014- nur nach den offiziellen Messwerten ein neues Rekordjahr – Kein Beweis für eine sich fortsetzende Klimaerwärmung

Bild rechts: Kein gutes Weinjahr 2014 in Thüringen: Spätfröste und ein verregneter Spätsommer verdarben die Trauben. Foto: Stefan Kämpfe
Eine Schwalbe macht noch keinen Sommer oder das Rekordjahr beweist noch keine sich verstärkende Erwärmung.
Genauso wie bei der Volksweisheit verhält es auch mit dem Erwärmungsmärchen, der sich in den letzten Jahren angeblich verstärkenden Klimaerwärmung. Trotz dieses warmen Jahres, auf die Gründe gehen wir im nächsten Kapitel ein, ist in diesem neuen Jahrtausend kein sich verstärkender Erwärmungseffekt erkennbar, schon gar nicht in den letzten Jahren. Die Trendlinie zeigt in diesem neuen Jahrtausend immer noch leicht nach unten, was nichts anderes bedeutet, als dass es in den letzten 17 Jahren überhaupt keine weitere Erwärmung gab. Das Wärmejahr 2014 gleicht lediglich das Kältejahr 2010 aus, die Stagnation der Temperaturen bleibt bestehen. Die noch im letzten Jahr fallende Trendlinie ging lediglich in eine unmerkliche fallende Trendlinie der letzten 17 Jahre über. Fazit: Trotz des neuen Rekordjahres fallen die Temperaturen in Deutschland immer noch leicht. Die Medienmeldungen von einer sich verstärkenden Klimaerwärmung, insbesondere der letzten Jahre, entsprechen keinesfalls der Realität.

Die modernen Klima-Kreuzritter werden in den Medien nun verstärkt zum Kampf gegen die Klimaerwärmung aufrufen! Welche Erwärmung soll überhaupt bekämpft werden? Antwort: Genau die, die man selbst erfindet und dann als Unwahrheit den Menschen indoktriniert, so z.B. hier im Schweizer Fernsehen:  http://youtu.be/KHsQReMS7r8 .
In dem 2-Minuten Beitrag lügt M. Jarraud, der Präsident der Weltorganisation Meteorologie, indem er mehrmals wiederholt: „ Die Tendenz der globalen Erwärmung hält weiter an" und "wir müssen die Erwärmung auf 2 Grad begrenzen. Richtig ist: Auch mit diesem warmen Jahr 2014 gibt es seit 1998 keinerlei Tendenz zu einer globalen Erwärmung. Die Trendlinie ist sogar leicht fallend, obwohl diese Trendlinie noch nicht Wärmeinsel-bereinigt ist. Das wäre die Wahrheit der Tagesschaumeldung des SF gewesen.
Das Jahr 2014 war nur in Mittel- und Westeuropa warm und hat in Deutschland den bisherigen Rekord von 2000 überboten. Weltweit jedoch war 2014 eher ein Durchschnittsjahr, siehe RSS-Satellitendaten der nächsten Grafik. Weltweit bleibt 1998 weiterhin das wärmste Jahr. (siehe nächste Grafik)
Nur eine Aussage der Erwärmungspanikmacher ist richtig: der Kohlendioxidgehalt der Erdatmosphäre steigt weiter, siehe kleines ins Diagramm der Abb.1 eingezeichnete Graphik. Die beiden Trendlinienverläufe beweisen in aller Deutlichkeit, dass die Trendlinien von C02 und Temperaturen gegenläufig sind, und damit nichts, aber auch gar nichts miteinander zu tun haben. Das zukünftige Wetter, Klima ist 30 Jahre Wetter, wird von vielen anderen Ursachen und Faktoren bestimmt, oftmals im Zusammenwirken mehrerer Elemente und auch noch mit wechselnden Korrelationen. Und ob es zukünftig wärmer oder kälter wird, das weiß niemand. Wer das Wetter nicht auf vier Wochen vorhersagen kann, der kann auch nicht 30 Jahre in die Zukunft blicken. Klimawandel gibt es immer, das ist eine Tatsache, die niemand von uns leugnet, und dieser ständige Wandel braucht nicht bekämpft zu werden. In Russland fürchtet man sich weitaus mehr vor einer zukünftigen Abkühlung als vor einer Erwärmung. (Googeln: Abkühlung durch C02 in Russland)

Die ständig hinausposaunte Botschaft, nur das menschliche C02 allein würde die Temperaturen bestimmen, eine Zunahme von CO2 würde automatisch auch zu einer Temperaturzunahme führen, ist wissenschaftlicher Blödsinn im Stile einer Pseudoreligion, die wir hier climatetology nennen, und sie schadet dem Ansehen der Wissenschaften, aber auch dem Ansehen des Natur- und Umweltschutzes. Auch bei dieser Grafik von RSS sieht man im Hintergrund die steigende C02-Kurve, während die Temperaturen seit über 18 Jahren weltweit stagnieren.
Kohlendioxid spielt für das Leben auf der Erde eine herausragende Rolle, die Pflanzen brauchen eher mehr und nicht weniger CO2. Mehr CO2 führt zum besseren Wachstum unserer Ernährungspflanzen und ist ein wichtiger Helfer gegen den Hunger in der Welt.
(Siehe jüngster Artikel von K.H. Puls: http://www.eike-klima-energie.eu/news-cache/kirche-im-klimawahn-nicht-mehr-als-ja-und-amen/)
Trotz dieses warmen Jahres 2014 in Mittel- und Westeuropa als Ausgleich auf das relativ kalte Jahr 2010 bleibt die Grundaussage bestehen: Im letzten Vierteljahrhundert hat sich neben der bekannten Abwechslung von wärmeren und kälteren Jahren nicht viel Außergewöhnliches ereignet.
Die vom DWD gemessenen Temperaturdaten zeigen mit 2014 eine leicht steigende Trendlinie seit 1989, ohne 2014 war sie noch ausgeglichen. Bereinigt man diese Daten jedoch um den Faktor des Wärmeinseleffektes (WI), der in Deutschland immer noch zunehmend ist, dann bleibt 2014 zwar das wärmste Jahr in diesem Zeitraum, aber die Trendlinie der bereinigten Temperaturwerte zeigt immer noch eine leichte Abkühlung für die letzten 26 Jahre. (siehe Abb. 3) Sollten wir jedoch –nehmen wir mal an- die nächsten Jahre nur noch Jahresmitteltemperaturen oberhalb von 10 Grad haben, dann erst könnte man von einer Fortsetzung eines Erwärmungstrends reden, der dann etwa ab 1985 eingesetzt hätte. Allerdings wäre damit nicht automatisch bewiesen, dass dieser mögliche Erwärmungstrend auf CO2 zurückzuführen wäre. Die Autoren würden dies in erster Linie als eine Fortsetzung des zunehmenden Wärmeinsel-Effektes deuten. Noch immer werden in Deutschland täglich etwa 110 ha überbaut und Messstationen in wärmere Gebiete verlegt, bzw. die Wärmeumgebung der Messstationen verändert sich schleichend.
Siehe: http://www.eike-klima-energie.eu/news-cache/der-waermeinseleffekt-wi-als-massgeblicher-treiber-der-temperaturen/

Fazit: Insgesamt war das letzte Vierteljahrhundert neben dem üblichen Auf und Ab sehr ausgeglichen. Das Wetter und das Klima der letzten 26 Jahre richtet sich eben nicht nach dem Geschrei der Pseudoreligion Klimaerwärmung und deren Anhängern, auch wenn das nun mit dem Rekordjahr 2014 ständig behauptet wird.
2014- die meteorologischen Hintergründe des Rekords: Noch nie seit Erfassung gab es so viel „Südwetter“
Die Lufttemperaturen werden durch zahlreiche überregionale Einflussfaktoren gesteuert, allerdings spielen auch regionale Bedingungen eine wichtige Rolle. Die erste Abbildung zeigt, dass die jährliche Sonnenscheindauer dem Verlauf der Jahresdurchschnittstemperaturen ähnelt (mehr Sonnenschein wirkt erwärmend), während die CO2- Konzentration einfach nur fast gleichförmig angestiegen ist:

Auswertbare CO2- Konzentrationen sind erst seit Ende der 1950er Jahre und die jährliche Sonnenscheindauer für Deutschland erst ab 1951 verfügbar. Deutlicher zeigt sich der Zusammenhang zwischen Sonnenscheindauer und Lufttemperaturen in Potsdam:

Die Sonnenscheindauer wirkt vor allem im Sommerhalbjahr erwärmend; sie kann daher das Verhalten der Jahresmitteltemperaturen nur teilweise erklären. Mindestens genauso wichtig ist die Häufigkeitsverteilung der in Deutschland überwiegend im Jahresmittel erwärmend wirkenden Großwetterlagen beziehungsweise Großwettertypen West (Winterhalbjahr), Süd (März bis November) sowie Südost- und Zentralhochlagen (März bis Oktober). Man erkennt eine deutliche Ähnlichkeit zwischen der Häufigkeit dieser Lagen und dem Deutschland- Mittel der Lufttemperatur (mit gewissen Abstrichen ließen sich die Daten bis 1871 ermitteln):

Im Rekordjahr 2014 gab es neben einer überdurchschnittlichen Sonnenscheindauer mit mindestens 126 Tagen (Stand: 30.11.) doppelt so viele Großwetterlagen mit südlichem Strömungsanteil, wie im Langjährigen Mittel! Das ist ebenfalls neuer Rekord. Hinzu kam eine leicht übernormale Anzahl von Westlagen in den Monaten Januar, Februar und Dezember, während Ostwetterlagen, welche besonders in den Wintermonaten stark kühlend wirken, in diesen zu selten auftraten. Weiterhin war im Frühling eine etwas überdurchschnittliche Anzahl der erwärmend wirkenden Zentralhochlagen zu verzeichnen.
Und der Großwettertyp Südwest, welcher im Oktober am stärksten erwärmend wirkt, wurde just in diesem Monat an 16 (!) Tagen beobachtet- fast sechsmal so häufig, wie im langjährigen Oktobermittel! Damit ist klar erwiesen, dass wir das Rekordjahr 2014 einer glücklichen, äußerst seltenen Kombination aus relativ hoher Sonnenscheindauer und einer äußerst günstigen zeitlichen und quantitativen Häufung bestimmter Wetterlagen verdanken- das Richtige stets zur richtigen Zeit!
Wer Näheres über die sehr interessanten Zusammenhänge von Großwetterlagen und Temperaturen und über mögliche Ursachen der Häufung südlicher bis südwestlicher Lagen wissen möchte, kann sich in dem dreiteiligen EIKE- Beitrag von Stefan Kämpfe „Im Takt der AMO und der NAO (1 bis 3): Das Häufigkeitsverhalten der Großwetterlagen und dessen Auswirkungen auf die Deutschland- Temperaturen“ unter http://www.eike-klima-energie.eu/news-cache/im-takt-der-amo-und-der-nao-1-das-haeufigkeitsverhalten-der-grosswetterlagenund-dessen-auswirkungen-auf-die-deutschland-temperaturen/
und http://www.eike-klima-energie.eu/news-cache/im-takt-der-amo-und-der-nao-2-das-haeufigkeitsverhalten-der-grosswetterlagenund-dessen-auswirkungen-auf-die-deutschland-temperaturen/
sowie http://www.eike-klima-energie.eu/news-cache/im-takt-der-amo-und-der-nao-3-das-haeufigkeitsverhalten-der-grosswetterlagen-und-dessen-auswirkungen-auf-die-deutschland-temperaturen/
informieren.
Ein weiterer, langfristig nicht zu unterschätzender Treiber der Temperaturen ist der Wärmeinsel-Effekt, der weltweit zunimmt, vor allem auch in Deutschland, da täglich 108 ha der Natur entzogen werden. Bestimmte, durch lokale Erwärmungseffekte wie Bebauung oder Abwärme stark beeinflusste Stationen fließen mit ihren Werten in die Berechnung des Deutschland-Mittels ein und überhöhen dieses.
Beispielsweise in Frankfurt/Main, das in weniger als 40 Jahren die ursprünglich wärmeren Stationen Karlsruhe und Mannheim eingeholt hat (massiver Flughafenausbau). Das Thermometer der Messstation misst die 600° C warmen Abgase des zunehmenden Flugverkehrs und der bebauten Flächen einfach mit. Dazu führt in unmittelbarer Nähe eine zehnspurige Autobahn vorbei. Ein von Menschenhand geschaffenes Band der Wärme durchzieht als Wirbelschleppe die Landschaft.

Der Leser möge bedenken, dass in den Trendlinien der beiden Städte Karlsruhe und Mannheim (Abbildung 7), auch bereits ein verborgener WI- Effekt die Trendlinie seit 1982 nach oben treibt. Aber der WI- Effekt des Frankfurter Flughafens, der beim DWD sogar als ländliche Station eingestuft ist, ist eben stärker, was anschaulich gezeigt wird.
Außerdem können auch Stationsverlagerungen zur Erwärmung beigetragen haben. So in Bocholt, wo die DWD- Station Bocholt- Liedern 2006 aufgegeben und ins wärmere, etwa 40km entfernte Ahaus- Wessum verlegt wurde, aber immer noch unter dem Namen Bocholt geführt wird. Die ursprünglich im Vergleich zum wärmeren Düsseldorf bestehende Differenz der Jahresmitteltemperaturen von 0,4 bis 1K verringerte sich mit der Stationsverlegung plötzlich auf 0,2 bis 0K ! Zwar sind für derartige Fälle eigentlich vor der Verlegung Parallelmessungen zur Kalibrierung vorgesehen, doch nicht immer wird das korrekt durchgeführt, und so hat sich die Station Bocholt mit dem Zeitpunkt der Verlagerung um fast 0,5K erwärmt, was die nächste Abbildung anschaulich zeigt:

Trotz des Rekordjahres 2014 mehren sich die Anzeichen für eine Abkühlungsphase. Das zeigt sich unter anderem an der neuerdings wieder zunehmenden Zahl der Tage mit Nebel in Potsdam (Nebel tritt vermehrt in kühleren Klimaperioden auf):

Man erkennt den gegenläufigen Verlauf von Jahresmitteltemperaturen (schwarz) und der Häufigkeit der Nebeltage pro Jahr (grau), wobei aber zu beachten ist, dass das Nebelverhalten im 20. Jahrhundert auch stark von der bis etwa 1980 wachsenden und danach rapide sinkenden Luftverschmutzung beeinflusst wurde; umso erstaunlicher ist der beginnende erneute Anstieg ab 2010. Das folgende Streudiagramm (letzte Abbildung) verdeutlicht nochmals, dass Nebel kühlend wirkt:

Stefan Kämpfe, unabhängiger Natur- und Klimaforscher
Josef Kowatsch, unabhängiger Natur- und Klimaforscher
Nachtrag zu diesem Artikel von Dipl.-Met. Hans-Dieter Schmidt:
Zunächst einmal vielen Dank den Autoren für diesen detaillierten Bericht! Dazu lassen sich aus synoptischer Sicht ein paar Bemerkungen machen.
Frage: „Ist dieser Winter durch den Klimawandel so mild?“
Antwort: „Blödsinn! Dieser Winter ist so mild, weil sehr häufig Südwestwind weht – also aus Richtung des subtropischen Atlantiks!“
Frage: „Werden die Winter jetzt allesamt so mild oder immer milder?“
Antwort: „Quatsch! Mild wird es immer bei West- und Südwestwind. Glauben Sie wirklich, dass wir im Winter ab sofort und für alle Zeiten nur noch Südwestwind haben?“
Das bringt m. E. auf den Punkt, worum es mir geht. Wetter und Witterung bei uns werden bestimmt durch die advehierten Luftmassen. Werden sehr häufig milde/warme Luftmassen herangeführt, ist es wärmer als normal (wobei es jetzt keine Rolle spielt, was hier ,normal‘ heißt). Das gilt sowohl tage-als auch monats- oder jahresweise. Der Vergleich bzgl. der Temperatur von Jahr zu Jahr ist also ein Vergleich von Äpfeln und Birnen (wenn nicht sogar von Äpfeln und Stachelbeeren): Es werden beim Vergleich zu warm/zu kalt warme mit kalten Luftmassen in einen Topf geworfen. Das ist wissenschaftlich und statistisch Unsinn, auch wenn es sehr attraktiv ist und immer wieder gemacht wird.
Insofern ist die Statistik der Autoren über alle ersten Jahre dieses Jahrhunderts viel aussagekräftiger. Je mehr Jahre man hat, desto eher sollte sich das Vorherrschen von milden/warmen und kühlen/kalten Luftmassen über die Jahre ausgleichen. Das macht man mit Hilfe der von den Autoren errechneten geglätteten Kurve. Sie zeigt eine leicht negative Tendenz. Daran dürfte das Jahr 2014 kaum etwas ändern. Und eine ähnliche Häufung von Südlagen im Jahr 2015 ist statistisch recht unwahrscheinlich.
Sinnvoll wäre ein Vergleich von warmen Luftmassen mit warmen Luftmassen oder von kalten Luftmassen mit kalten Luftmassen. Und auch das nicht am Boden, sondern im 850-hPa-Niveau oberhalb der bodennahen Reibungsschicht. Ich weiß aber von keiner solchen Arbeit, darum bleibt mir nur folgende Feststellung:
Die Autoren machen im Subheader völlig zu recht auf die außerordentliche Häufung von Süd- und Südostlagen in diesem Jahr 2014 aufmerksam. Dies ist auch mir als Synoptiker aufgefallen. Im bislang wärmsten Jahr 2000 gab es diese Häufung jedenfalls nicht. Wir halten also fest:

Trotz häufigerer Südlagen in diesem Jahr 2014 war dieses kaum wärmer als das Jahr 2000 mit deutlich weniger Südlagen!

Dipl.-Met. Hans-Dieter Schmidt




Ein Weihnachtsgeschenk von Bill Gray

Stopp der Erzeugung von Klimaangst! – CO2-Zunahme kann höchstens zu minimaler Erwärmung führen

William M. Gray

Professor Emeritus

Colorado State University

Zum Autor siehe hier
Abstract
Die exorbitant geförderte internationale Bewegung zur globalen Erwärmung hat die Bedrohung durch die Zunahme des CO2 in der Atmosphäre drastisch übertrieben. Diese Erwärmungsangst wurde angetrieben durch eine Verschwörung internationaler Politiker und Umweltgruppen, die irrige Erwärmungsvorhersagen von Klimamodellen dazu nutzten, eine uninformierte globale Öffentlichkeit einer Gehirnwäsche zu unterziehen. Ihr Ziel war es, die Öffentlichkeit dazu zu bringen, aus Angst eine globale Regierung zu akzeptieren ebenso wie Restriktionen ihrer Freiheit und ihres Lebensstils, um eine vermeintlich drohende Klimakatastrophe zu verhindern. Es war für sie völlig unwichtig, ob ihre Annahmen bzgl. CO2 richtig waren oder nicht. Das einzige, was zählte, war das Ausmaß, bis zu dem die Öffentlichkeit indoktriniert werden konnte, um an die Bedrohung zu glauben. Die vielen großen Projektionen zur globalen Erwärmung sind bislang nicht eingetreten und werden auch während der kommenden Jahre nicht eintreten. Die Wissenschaft hinter dieser CO2-induzierten globalen Erwärmung ist ein sehr schwerer Betrug an der Öffentlichkeit, über den diese informiert werden muss. Wir werden während der nächsten Jahrzehnte höchstens eine vernachlässigbare globale Erwärmung durch CO2 erleben. Die zukünftigen Temperaturänderungen, zu denen es kommen wird, werden natürlichen Ursprungs sein als Folge von Änderungen der globalen Zirkulation in der Tiefsee, deren hauptsächlicher Treiber Variationen der Salinität sind. Wir können und sollten nichts hinsichtlich der natürlichen Klimaänderung unternehmen, sondern uns daran anpassen.
Ökonomischer Fortschritt diktiert, dass die USA und die Welt damit fortfahren werden, fossile Treibstoffe zu verbrennen und dies auch noch auszuweiten. Jede signifikante Hinwendung zu den viel teureren Energieformen Wind und Solar sollten nicht weiter vorangetrieben werden. Eine solche Hinwendung würde den Lebensstandard in den USA und in der Welt erheblich vermindern und nichts zur globalen Klimaentwicklung beitragen. Diese Scharade der globalen Erwärmung kann nicht mehr lange weitergehen. Zeit und Wahrheit sind auf der Seite der Erwärmungs-Skeptiker [bleibt nur zu hoffen, dass die Schäden für uns alle nicht übermäßig werden, bis sich die Wahrheit durchsetzt! Anm. d. Übers.].
1. Gegenwärtige Bedingungen
Eine zunehmende Anreicherung von CO2 in der Atmosphäre während der letzten 18 Jahre hat keinerlei Zunahme der mittleren globalen Temperaturen bewirkt. Trotz umfangreicher Behauptungen des Gegenteils seitens der Medien und von Wissenschaftlern zeigen die globale Temperatur, die globale Eismenge, Extremwetter, Überschwemmungen, Dürren, Tropenstürme, Tornados usw. keine einzige der Änderungen, die von den Alarmisten der globalen Erwärmung und den vielen numerischen Modellsimulationen vorhergesagt worden sind und auf deren Grundlage die meisten dieser Erwärmungs-Behauptungen aufgestellt worden waren. Ich bin sicher, dass die kommenden Jahre mit Beobachtungen diese Hypothese der CO2-getriebenen globalen Erwärmung diskreditieren werden [sofern diese Beobachtungen nicht gefälscht werden! Anm. d. Übers.]
Ich fordere mit größtem Nachdruck, dass die Leser den Blog Real Science von Steven Goddard konsultieren, um umfangreiche weitere Dokumentationen des immer offensichtlicher werdenden Zusammenbruchs der globalen Erwärmungsprojektionen durch CO2 zu bekommen [dazu gibt es natürlich in D den Blog des EIKE! Anm. d. Übers.] Goddard zeigt auch zahlreiche Beispiele, wie unsere und andere Regierungs-Klima/Wetteragenturen künstlich ältere Temperaturmessungen nach unten korrigiert haben, um scheinbar größere Erwärmungen bis heute zu suggerieren, die es in Wirklichkeit gar nicht gegeben hat. Diese offensichtliche Datenfälscherei richtet sich gegen jedwede wissenschaftliche Methodik; sie muss durch eine externe unabhängige Untersuchung bloßgestellt und korrigiert werden.
Die allgemeine Öffentlichkeit ohne das Hintergrundwissen zur Beurteilung der wissenschaftlichen Zuverlässigkeit dieser vielen und weiter erfolgenden Verkündigungen der alarmistischen Erwärmung ist einer Gehirnwäsche unterzogen worden. Eine unheilige Allianz hat sich zwischen Regierungen und Klima-/Wetterwissenschaftlern gebildet. Das offensichtlich extrem brüchige wissenschaftliche Fundament der CO2-Erwärmungs-Hypothese wurde errichtet mittels regierungsamtlicher Finanzzuwendungen an jene Wissenschaftler, die willens waren, solche dubiosen, politisch motivierten Behauptungen zur globalen Erwärmung zu untermauern (und nicht, diese zu kritisieren).
Wir alle wollen unserer Regierung vertrauen und glauben, dass uns die Medien objektiv informieren. Aber angesichts der fortgesetzten alarmistischen Behauptungen unserer Regierung und in den Medien bzgl. einer gefährlichen zukünftigen globalen Erwärmung müssen wir alle skeptisch werden. Die Öffentlichkeit wurde betrogen, indem man ihr die andere Seite der Debatte um die globale Erwärmung vorenthalten hat. Die zahlreichen wissenschaftlichen Argumente gegen die Hypothese der vom Menschen verursachten globalen Erwärmung wurden absichtlich in den Medien nie erwähnt oder in der Regierung diskutiert. Kommen solche gegen die Erwärmung sprechenden Argumente doch einmal an das Tageslicht, werden sie sofort harsch kritisiert durch Umweltaktivisten, Prominente und Regierungsfunktionäre, die so gut wie gar nichts darüber wissen, wie das globale Klimasystem funktioniert. Ein offener und ehrlicher Dialog zum Thema globale Erwärmung steht immer noch aus. Die Feststellung, dass die Wissenschaft hinsichtlich einer gewaltigen globalen, CO2-induzierten Erwärmung bereits ,settled‘ ist, ist eine absolute Erfindung.
2. Die Crux betrügerischer Wissenschaft (Wasserdampf-Rückkopplung und oberflächennahe Abkühlung durch Verdunstung)
Es gibt viel Falsches in den globalen Klimamodellen. Aber der größte Fehler ist die Unfähigkeit der Modelle, realistisch mit den kleinen (und vom Modell nicht auflösbaren) Änderungen im horizontalen Maßstab durch die Tausende Cumulonimbus-Wolkenelemente (Cb; Abbildung 1) umzugehen. Eine Zunahme der Gesamtzahl dieser konvektiven Cb-Einheiten führt zur Austrocknung der oberen Troposphäre (Abbildung 2). Dies steht im Gegensatz zu den Hypothesen in den Simulationen Allgemeiner Klimamodelle (GCMs), die den hochtroposphärischen Wasserdampf zunehmen lassen als Folge verstärkter Regenfälle und Cb-Konvektion, die mit steigenden CO2-Niveaus assoziiert sind.

Abbildung 1: Illustration, wie die GCMs mit ihrem groben Gitterpunktsnetz individuelle konvektive Wolkenelemente und all die lokalen Auf- und Abwärtsbewegungen zwischen den Gitterpunkten nicht auflösen können. Diese Konvektion in kleinerem Maßstab als das Gitternetz kann zu verstärkten IR-Verlusten in den Weltraum und geringerer Erwärmung führen als die gröberen GCMs vorgeben.

Abbildung 2: Idealisiertes Porträt globaler Wolken- und Regengebiete bei hoch reichender Konvektion [deep convection]. Das linke Diagramm illustriert die absinkende Luft in der oberen Troposphäre aus der regnenden Cb-Wolke. Dieses Absinken sorgt für Austrocknung und Erwärmung der oberen Troposphäre. Das rechte Diagramm zeigt Wasserdampf und Wolkenpartikel, die aus den gleichen hoch reichenden Regengebieten advehiert werden. Beobachtungen zeigen, dass das austrocknende Absinken in der oberen Troposphäre größer ist als der Ersatz durch Wasserdampf und Wolkenwasser durch die ausströmende Feuchtigkeit und Verdunstung. Verstärkte Cb-Konvektion führt zu hochtroposphärischer Austrocknung und zusätzlicher IR-Abstrahlung in den Weltraum.
Die Modellsimulationen folgten den unrealistischen physikalischen Grundlagen, die die National Academy of Sciences (NAS) im Jahre 1979 ausgegeben hatte (der Charney-Report). In diesem Bericht wurde spekuliert, dass – da sich die Atmosphäre bei CO2-Zunahme erwärmt – dies (der Clausius-Clapeyron’schen Beziehung zwischen Temperatur und Feuchtigkeit folgend) durch eine Zunahme der Feuchtigkeit begleitet wird dergestalt, dass die Relative Feuchtigkeit (RH) der Luft nahezu konstant bleiben würde mit zunehmender Temperatur. Diese NAS-Hypothese der CO2-induzierten globalen Erwärmung enthielt implizit die Folgerung, dass die zunehmende Feuchtigkeit zusätzlich die IR-Strahlung in den Weltraum blockieren würde, und zwar noch über das Ausmaß hinaus, dass CO2 selbst blockieren würde. Die Gesamt-Blockierung der IR-Ausstrahlung in das Weltall durch zunehmendes CO2 würde also nicht nur durch das CO2 selbst, sondern auch noch durch den zusätzlichen Wasserdampf bewirkt, der gebraucht wird, um die RH bei steigender Temperatur nahezu konstant zu halten. Die Modelle zeigten, dass dieser zusätzliche Gewinn an Wasserdampf einen doppelt so großen Einfluss auf die Blockierung der IR-Ausstrahlung hat als die CO2-Zunahme selbst. Folglich würde die CO2-Zunahme, die eine Einheit IR-Abstrahlung blockiert, gleichzeitig zwei Einheiten IR-Ausstrahlung durch den zusätzlichen Wasserdampf blockieren. Diese mit zunehmender Feuchtigkeit verbundene Blockierung der IR-Ausstrahlung in das Weltall (assoziiert mit einer CO2-induzierten Erwärmung) wurde als ,positive Wasserdampf-Rückkopplung‘ bezeichnet. Alle CO2-Klimamodelle enthalten sehr starke positive Wasserdampf-Rückkopplungen.
Es ist dieser große und direkte Zusammenhang zwischen der Zunahme des Wasserdampfes gleichlaufend mit dem CO2-induzierten Temperaturanstieg, der der primäre physikalische Fehler in allen GCMs bei der Simulation einer Verdoppelung des CO2-Gehaltes ist. Aus diesem Grunde haben alle GCMs das Ausmaß der globalen Erwärmung so schwer übertrieben bei einer solchen Verdoppelung.
Beobachtungen zeigen, dass Erwärmung oder Abkühlung in der oberen Troposphäre nicht mit nahezu konstanter Relativer Feuchtigkeit ablaufen. Temperatur und RH tendieren dazu, sich gegenläufig zu ändern und nicht gleichlaufend, wie die Modelle annehmen. Meine viele Jahrzehnte langen Studien zur Cumulus-Konvektion und zur Bildung tropischer Zyklone haben mich gelehrt, dass die NAS-Hypothese aus dem Jahre 1979 (Charney-Report), dass nämlich steigende CO2-Gehalte mit einer Zunahme des Wasserdampfes einher gehen, keine realistische Zustandsbeschreibung ist, wie diese Parameter sich in der oberen Troposphäre ändern.
Die CO2-Simulationen der GCMs sind auch so konstruiert, als ob sie ihre Feuchtigkeits-Simulationen dergestalt durchführen, dass Änderungen des Wasserdampfes einheitlich sowohl in oberen als auch unteren Schichten der Troposphäre stattfinden. Im Gegensatz dazu zeigen Beobachtungen, dass diese Änderungen in verschiedenen Höhen der Troposphäre weitgehend unabhängig voneinander sind (Abbildung 3).

Abbildung 3: Korrelation von Feuchtigkeits-Änderungen in der oberen und der unteren Troposphäre. Die GCMs simulieren übereinstimmend die gleichen Feuchtigkeits-Änderungen sowohl in oberen als auch in unteren troposphärischen Schichten – also hohe Korrelation. Die Beobachtungen jedoch zeigen nur eine sehr geringe Korrelation solcher Änderungen, wenn überhaupt eine.
Unsere Analyse der Beobachtungen kommt zu dem Ergebnis, dass verstärkte Cb-Intensität und -Häufigkeit zu einer Abnahme des obertroposphärischen Wasserdampfes führt und nicht zu einem zusätzlichen Feuchteeintrag, wie ihn die Modelle zeigen.
Je höher oder intensiver die Cb-Wolken werden, umso höher ist ihre Effizienz hinsichtlich der Regenmenge. Cb-Wolken regnen den größten Teil ihrer Feuchtigkeit aus, wenn sie über ihre positive Auftriebsschicht nahe 300 hPa (~ 10 km) hinaus schießen und höher steigen in die stabilisierende obere Troposphäre, wo ihre Aufwärtsbewegung schwächer wird. Die sich abschwächende vertikale Bewegung in diesen hohen Schichten hinterlassen wenig Feuchtigkeit dort oben, wenn sich die Wolken auflösen. Ihre Hebung lagert ihre gesättigte, aber nur wenig Feuchtigkeit enthaltende Luft in hochtroposphärischen Cirrus-Wolken ab. Dies sind die Höhen, in der die vertikalen Gradienten der Feuchtesättigung prozentual gesehen sehr groß sind. Jedwedes Absinken dieser kalten hochtroposphärischen Luftpakete in niedrigere und wärmere Schichten verursacht eine besonders starke Abnahme der RH in der absinkenden Luft.
Beispiel: Ein gesättigtes Luftpaket [RH = 100%] in einer Höhe von 200 hPa (12 km) bei einer Temperatur von -53°C wird kaum Feuchtigkeit enthalten, obwohl es gesättigt ist. Falls dieses Luftpaket dann ohne Durchmischung auf 300 hPa (10 km) absinkt und die in dieser Schicht herrschende Temperatur annimmt, wird sich die RH von 100% auf nur 14% verringern (Abbildung 4). Solche Cb-induzierten Absinkbewegungen in niedrigere Schichten induzieren ein Austrocknen der oberen Schichten und damit eine verstärkte IR-Abstrahlung in den Weltraum. Den Kontrast zwischen diesen beiden Prozessen zeigt Abbildung 5. Die grundlegende Unfähigkeit der Modelle liegt darin, dass sie keine angemessene Auf- und Abwärts-Massenbilanz der vertikalen Luftbewegungen in der oberen Troposphäre abbilden, die der hohen Regenmengen-Effizienz der Cb-Wolken Rechnung trägt, die über 300 hPa hoch aufschießen, und das sehr austrocknende Absinken danach.

Abbildung 4: Illustration des extremen hochtroposphärischen Gradienten feuchtegesättigter Luft in den Tropen. Diese Tabelle zeigt die Stärke der RH-Abnahme, wenn gesättigte Luft um 100 hPa absinkt zwischen verschiedenen Druckniveaus und die Temperatur der tieferen Schicht annimmt. Die resultierende RH in der niedrigeren Schicht ist rechts aufgetragen. Beispiel: gesättigte Luft, die ohne Durchmischung und unter Beibehaltung ihrer absoluten Feuchtemenge von 200 hPa auf 300 hPa absinkt, hätte – nachdem sie die Temperatur der tieferen Schicht angenommen hat – nur noch eine RH von 14 Prozent (grüner Rahmen).

Abbildung 5: Zwei kontrastierende Ansichten der Effekte hoch reichender Cumulus-Konvektion. Das obere Diagramm betont die zusätzliche Austrocknung durch Absinken in Verbindung mit der hoch reichenden Konvektion. Zusätzlicher IR-Energiefluss entweicht in den Weltraum. Im Gegensatz dazu zeigt das untere Diagramm, wie die typischen GCMs den Massen-Ausfluss aus der Cb-Wolke als Hinzufügen von Wasserdampf zur oberen Troposphäre interpretieren und die zusätzliche IR-Abstrahlung blockieren. Das untere Diagramm ist hinsichtlich der Art und Weise, wie die Cb-Konvektion in der Atmosphäre abläuft, völlig unrealistisch.
Beispiel: Um den Einfluss einer Verdoppelung des CO2-Gehaltes allein durch Strahlung auszugleichen, wäre es erforderlich, dass die Temperatur des Globus‘ um 1°C steigt. Die Modelle nehmen dann an, dass diese CO2-induzierte Erwärmung um 1°C (jedenfalls den Hypothesen im Charney-Report zufolge) eine Feuchtezunahme auslösen, die die IR-Abstrahlung in den Weltraum noch weiter behindert. Darum kommt es zu einer weiteren hochtroposphärischen Erwärmung um 2°C zusätzlich zu der erforderlichen Erwärmung um 1°C durch das CO2 selbst. Die Kombination dieser beiden Prozesse soll der Hypothese zufolge eine Erwärmung der oberen Troposphäre über den Tropen um 3°C auslösen. Von diesen 3°C werden 2°C der Erwärmung durch positive Wasserdampf-Rückkopplung zugeordnet. Eine solcher erwarteter Vorgang ist sehr unrealistisch [und auch noch nie beobachtet worden, Anm. d. Übers.].
Viele Jahre der Analyse und Beobachtungen in unserem Satellite Cloud Climatology Project (ISCCP) bzgl. der IR-Verluste in den Weltraum in Verbindung mit verstärkter Cb-Konvektion und Regenfällen zeigen nicht eine verringerte IR-Abstrahlung in den Weltraum (wie es die Modelle gezeigt haben), sondern eher eine Verstärkung dieser IR-Abstrahlung. Unsere Daten belegen im Gegensatz zu den Modellen eine negative Wasserdampf-Rückkopplung – je größer die Rate der Regenmenge, umso niedriger der hochtroposphärische Wasserdampfgehalt und umso größer der IR-Verlust in das Weltall (Abbildung 6).

Abbildung 6: Änderungen der Temperatur im 300 hPa-Niveau, spezifische Feuchtigkeit (q – gm/kg) und Relative Feuchtigkeit RH nach Gebiet zwischen zwei unterschiedlichen Datensätzen zur Regenmenge in den Tropen. Die Unterschiede der Regenmenge betragen im Mittel 3,9 Prozent für die 10 höchsten minus der 10 niedrigsten monatlichen Differenzen und 1,9 Prozent für die Unterschiede in den Datensätzen 1995 bis 2004 bzw. 1984 bis 1994). Negative Werte sind rot dargestellt. Alle Feuchteparameter im 300-hPa-Niveau zeigten eine Abnahme sowohl des Wasserdampfes als auch der RH mit verstärktem Regen.
Die zu erwartende reale globale Erwärmung: Ohne hochtroposphärische Änderungen des Wasserdampfgehaltes und ohne verstärkte Abkühlung an der Erdoberfläche durch Verdunstung infolge verstärkter Regenfälle zeigt die reine Strahlungsreaktion auf eine Verdoppelung des CO2-Gehaltes eine globale Erwärmung um 1,0°C. Aber selbst ohne jede angenommene Änderung des Wasserdampfgehaltes ist diese 1°C-Erwärmung immer noch zwei bis drei mal größer als das, was vermutlich stattfinden wird. Grund hierfür ist, dass etwa 60 Prozent der IR-Blockierung von 3,7 W/m² durch eine CO2-Verdoppelung kompensiert wird durch eine Verstärkung der Verdunstung an der Erdoberfläche und eine Zunahme des globalen hydrologischen Kreislaufes um etwa 2½ Prozent. Eine Null-Wasserdampf-Rückkopplung würde also folglich lediglich eine Erwärmung um 0,4°C bei einer CO2-Verdoppelung ergeben.
Wir zeigen, dass es einen sehr geringen Grad negativer Wasserdampf-Rückkopplung von 0,1°C bis 0,2°C gibt. Hiermit sollten wir erwarten, dass die wirkliche Größenordnung der globalen Erwärmung aufgrund einer CO2-Verdoppelung höchstens 0,2°C bis 0,3°C betragen muss, das sind 5 bis 10 Prozent der Erwärmung, die von vielen globalen Modellen mit 2°C bis 4°C simuliert worden ist. Die AGW-Bedrohung und vor allem die katastrophale AGW (CAGW) kann keine realistische Abbildung dessen sein, wie das Klimasystem des Planeten funktioniert.
3. Weiteres ökonomisches Wachstum: Falls diese Evaluierung korrekt ist, sollte sich die Weltbevölkerung keine Sorgen hinsichtlich steigender CO2-Niveaus machen. Verstärkter Verbrauch fossiler Treibstoffe und ein steigendes Niveau wirtschaftlicher Fortschritte sollten weitergehen. Es ist für die Welt unabdingbar, von der hinaus posaunten Bedrohung durch die globale Erwärmung infolge CO2-Anreicherung völlig wegzukommen. Wir müssen uns auf die vielen legitimen und ernsten Probleme der Welt kümmern, die vor uns liegen.
Wir alle sollten dankbar sein für die enormen Fortschritte hinsichtlich Lebensstandard, Gesundheit und allgemeinem Wohlergehen, was der Verbrauch fossiler Treibstoffe erst möglich gemacht hat. Energie aus fossilen Treibstoffen war eine der größten Segnungen der Menschheit.
Höhere Niveaus des fossilen Energieverbrauchs werden zu noch größeren wirtschaftlichen und gesellschaftlichen Vorteilen führen. Ein zunehmender CO2-Gehalt wird auch das Vegetations-Wachstum anregen, zu einer geringen Erhöhung der Regenmenge und zu einem sehr leichten globalen Temperaturanstieg führen – das sind alles für die Menschheit positive Änderungen.
Viele Menschen, die glauben, dass die Menschen die Umwelt degradieren, verwechseln lokale Umweltprobleme mit einer CO2-induzierten globalen Erwärmung. Dabei sind das zwei völlig verschiedene Dinge. Wir alle müssen daran arbeiten, lokale Verschmutzung und Gesundheitsgefahren zu reduzieren oder zu eliminieren, anstatt den falschen Moralpredigten zu folgen, die eine Rettung der Welt vor der hinausposaunten, aber imaginären CO2-induzierten Gefahr propagieren.
Das weiseste Maßnahmenpaket für unser Land und die ganze Welt sollte derzeit sein, die Voraussicht und den Mut zu haben, ,nichts zu tun‘ hinsichtlich des steigenden CO2-Gehaltes und anderer Treibhausgase. Die kommenden Generationen werden in einer besseren Lage sein zu entscheiden, ob irgendeine menschliche Reaktion auf den steigenden CO2-Gehalt gerechtfertigt war.
4. Hintergrund des Autors: Der Autor hat einen MS in Meteorologie und einen Ph.D. in geophysikalischen Wissenschaften von der University of Chicago. Er war 60 Jahre lang Wetter-Klima-Prognostiker, Forscher und graduierter Hochschulprofessor. Er hat 70 MS und PhD.-Studenten begleitet. Er war die letzten 31 Jahre mit der saisonalen Hurrikan-Vorhersage im Atlantik befasst.
Gray hat niemals irgendwelche Forschungszuwendungen von irgendwelchen fossile Energie erzeugenden Quellen erhalten. Seine Haltung zum Thema globale Erwärmung hat während der letzten Jahrzehnte zum Verlust jedweder öffentlicher Förderung geführt. Seine Forschungen zu diesem Thema finanziert er ausschließlich selbst. Gray und seine Kollegen beim Forschungsprojekt an der Colorado State University haben viele Jahre lang viele Studien veröffentlicht und viele Projektberichte geschrieben zu Cumulus-Konvektion und atmosphärischen Feuchtigkeits-Prozessen. Aus diesen Berichten geht hervor, wie sehr den Klimamodellen Realismus fehlt und was der primäre Grund für ihre erheblich unrealistischen Erwärmungs-Projektionen ist. Diese Studien und Berichte können hier eingesehen werden: (http://tropical.atmos.colostate.edu/).
Link: http://stevengoddard.wordpress.com/2014/12/24/a-christmas-gift-from-dr-bill-gray/
Übersetzt von Chris Frey EIKE




Wind und Solar – nichts als Vergeudung von Energie und Ressourcen

In der Biologie gibt es schon lange den Begriff „Energieerntefaktor“. Damit beschrieb der amerikanische Forscher Charles Hall das Verhältnis zwischen dem energetischen Aufwand, den ein Raubtier treiben muss, um seine Beute zu fangen und zu töten, und dem Nutzen in Form von Energie, die es aus dem Verzehr dieser Beute ziehen kann. Ist die Beute zu klein oder der Jagdaufwand zu groß, dann wird dieser Erntefaktor negativ, d.h. der Räuber muss bei dieser Aktion einen Teil seiner im Körper gespeicherten Energiereserven zuschießen und erleidet einen entsprechenden Substanzverlust. Bei einem oder zwei Jagdversuchen mag das noch gut gehen, doch wenn es nicht gelingt, im Durchschnitt aller Jagden mehr Energie zu „erbeuten“ als verbraucht wurde, dann gehen die Reserven über kurz oder lang zu Ende und das Tier wird sterben. Für den Erntefaktor wird häufig auch der englische Fachbegriff EROEI (Energy Returned On Energy Invested) verwendet.
Nachdem Hall dieses Konzept erstmals auch für die Beurteilung von Kraftwerken verwendete, wird es inzwischen umfassend zur Charakterisierung der unterschiedlichsten Kraftwerkstypen angewandt [FEST, MERK]. Man bilanziert damit faktisch die in Bau, Betrieb und Rückbau sowie in die Beschaffung des Brennstoffs investierte Energiemenge einerseits und die in Form von Strom zur Verfügung gestellte Energiemenge andererseits, Bild 1.

Bild 1. Der Erntefaktor eines Kraftwerks. Die Brennstoffbereitstellung (Förderung, Aufbereitung, usw.) findet normalerweise außerhalb des eigentlichen Kraftwerks statt, wird aber fairerweise zur investierten Energie hinzugerechnet (Grafik: [FEST])

Konventionelle Kraftwerke im Plus

Die hier aus einer Publikation des Instituts für Festkörper-Kernphysik in Berlin übernommenen Daten basieren auf einer begutachteten internationalen Publikation von Weissbach et al. im Fachmagazin Energy (Band 52, April 2013, Seite 210-221) [WEISS]. Die Autoren fanden sowohl für fossile Kraftwerke als auch für Kernkraftwerke hohe positive Erntefaktoren zwischen 28 und 107, Bild 2. Die einzige Ausnahme betrifft den Einsatz von Biogas zum Betrieb eines Gas-und-Dampf-Kombikraftwerks. Hier wird aufgrund der hohen Aufwendungen zur Bereitstellung des Brennstoffs lediglich ein Erntefaktor von 3,9 erreicht. Obwohl dies vordergründig positiv erscheint, ist es dennoch bei weitem nicht ausreichend. Die Begründung hierfür folgt weiter unten.

Bild 2. Vergleich der Energieerntefaktoren verschiedener konventioneller Kraftwerke (Daten: [FEST])

Kraftwerke mit Speicherbedarf

Kraftwerke, deren Leistungsabgabe nicht exakt dem jeweiligen Bedarf angepasst werden kann, gehören in eine gesonderte Gruppe, da ihre momentan nicht benötigte Produktion in irgendeiner Form gespeichert werden muss. Neben den „klassischen“ EE-Kraftwerkstechnologien wie Wind- und Solarkraftwerke zählen hierzu auch Laufwasserkraftwerke, deren Produktion vom aktuellen Wasserangebot im Fluss abhängt und entsprechenden Schwankungen unterliegt. In jedem Fall müssen bei der Betrachtung des Erntefaktors der Aufwand für die Errichtung und den Betrieb der Speichereinrichtungen sowie die bei der Speicherung auftretenden Verluste mit berücksichtigt werden. Eine Aufstellung der Erntefaktoren bei Kraftwerkstypen, die Speicherung erfordern, zeigt Bild 3.

Bild 3. Erntefaktoren verschiedener wetterabhängiger Kraftwerkstechnologien sowie die Auswirkungen einer Speicherung (Daten: [FEST])
Bezüglich der durch die Speicherung zu überbrückenden Zeiträume unterscheidet man zwischen Speicherung über kurze Zeiträume – typischerweise im Tagesrhythmus wie beispielsweise bei Solarkraftwerken, die nachts keinen Strom liefern – und längerfristigem Speicherbedarf, wenn saisonale Schwankungen beispielsweise aufgrund unterschiedlicher Wasserzuflüsse z.B. im Hochgebirge berücksichtigt werden müssen. Letzteres geht fast nur beim Betrieb von Talsperren, deren großes Volumen als Speicher genutzt werden kann. Dieser Aufwand ist bereits in den Baukosten berücksichtigt. Eine saisonale Speicherung z.B. von Solarenergie über Monate hinweg ist aufgrund des schwachen Aufkommens im Winter weder technisch noch ökonomisch realisierbar, nicht zuletzt auch deshalb, weil es weder in Deutschland noch in den unmittelbaren Nachbarländern die topologischen Voraussetzungen für die Errichtung solch riesiger Speichervolumen gibt. Für alle anderen von EE-Befürwortern häufig vorgeschlagenen Speichertechnologien wie Druckluftspeicherung, Wasserstoffproduktion bzw. Methangassynthese („Windgas“) oder Batteriespeicherung gilt, dass sie aufgrund hoher Anlagenkosten sowie geringer Wirkungsgrade den Erntefaktor nochmals erheblich reduzieren.

Erntefaktor 1: Dahinvegetieren am Existenzminimum

Bei der Betrachtung der hier ermittelten Zahlen für die verschiedenen Arten der Gewinnung „erneuerbarer“ Energien könnte vordergründig der Eindruck entstehen, dass die Ergebnisse zwar nicht berauschend, aber dennoch positiv sind und es demnach nur eine Frage der Installation genügend großer Kapazitäten ist, um letztlich den Energiebedarf unserer Gesellschaft mithilfe von z.B. Sonne- und Windkraftwerken zu decken. Dies ist jedoch ein Trugschluss, denn für einen tatsächlich positiven Beitrag zur Energiebilanz bedarf es in unserer modernen Gesellschaft eines sehr viel höheren Erntefaktors als 1. Warum das so ist, kann man leicht anhand des Raubtier-Beispiels nachvollziehen. Ein Erntefaktor von 1 würde bedeuten, dass dieses Tier ständig am Rande des Hungertodes entlang vegetiert und keine Möglichkeit hat, seine Reserven für Notzeiten aufzustocken. Für Tiere, die beispielsweise Winterschlaf halten müssen, wäre dies das Todesurteil. Ein wesentlich höherer Erntefaktor als 1 wird auch benötigt, um Junge zeugen und aufziehen zu können. Ohne dies wäre die Art innerhalb kürzester Zeit zum Aussterben verurteilt.

Unsere Zivilisation erfordert Erntefaktoren von mindestens 14

Beim Menschen mit seiner komplexen und energieintensiven technischen Zivilisation sowie der außerordentlich hohen Aufwendungen, die wir beispielsweise in die Ausbildung unseres Nachwuchses investieren, sind entsprechend höhere Erntefaktoren zu berücksichtigen [MERK]. Deshalb muss ein Energiesystem einen Überschuss erzeugen, der groß genug ist, um damit Nahrung sowie alle Dinge des täglichen Bedarfs produzieren zu können. Darüber hinaus müssen auch die Ressourcen für die Errichtung von Gebäuden und Infrastruktur sowie den Betrieb von Spitälern und Universitäten bereitgestellt werden, und letztlich ist auch noch der Aufwand für die kulturellen Bedürfnisse der Bevölkerung zu decken. Technologisch hochstehende Zivilisationen wie die in Europa, Japan, China oder in den USA erfordern einen minimalen Erntefaktor von 14, Bild 4 und Tabelle 1.

Bild 4. Je komplexer und technologisch hochstehender eine Gesellschaft ist, desto höher muss der Erntefaktor EROEI der zur Energiegewinnung eingesetzten Technologien sein. Blaue Werte sind veröffentlicht, gelbe sind zunehmend spekulativ (Grafik: [MERK])
Tabelle 1. Minimal erforderliche Erntefaktoren EROEI bei der Gewinnung von konventionellem „süßem“ Rohöl zur Aufrechterhaltung bestimmter Zivilisationsstufen (Daten: [MERK])
Aktivität                                                                Minimaler EROEI
Förderung des Öls                                                 1,1/1
Raffineriebetrieb                                                    1,2/1
Transport                                                                  3/1
Nahrungsmittelproduktion                                      5/1
Unterhalt von Familien der Mitarbeiter                7-8/1
Ausbildung                                                         9-10/1
Gesundheitswesen                                                 12/1
Kulturangebot                                                        14/1
Die heute verfügbaren Wind- und Solarenergieanlagen sind demnach energetische „schwarze Löcher“, in denen vorhandene fossile Ressourcen sinnlos vergeudet werden. Je mehr man davon errichtet, desto grösser der Schaden.
 
Quellen
[FEST] http://festkoerper-kernphysik.de/erntefaktor
[MERK] http://www.windland.ch/wordpress/
[WEISS] http://dx.doi.org/10.1016/j.energy.2013.01.029




Keine Spur vom angeblichen Hitzejahr 2014 in den globalen Satellitendaten

Es gab Zeiten, da hat man solche Spitzenwerte etwas kühler aufgenommen, weil noch jedes zweite Jahr einen spektakulären Wärmerekord mit sich brachte und man sich an den Anstieg gewöhnt hatte. Seit 2007 jedoch wurden keine neuen Höchstmarken mehr aufgestellt. Der letzte Spitzenwert für einen Oktober stammt sogar aus dem Jahr 2001 – noch vor dem diesjährigen. Die Tendenz zur Erwärmung in Deutschland hat – wie im globalen Durchschnitt – seit Beginn des Jahrtausends an Fahrt verloren. Wie es in den nächsten Jahren weitergehen wird, kann niemand vorhersehen. Allerdings: Trotz ausbleibenden Anstiegs sind die Temperaturen auch in den letzten 15 Jahren durchaus auf einem hohen Plateau verblieben. Und so war es beim Auf und Ab der Jahreskurven nur eine Frage der Zeit, wann wieder ein etwas deutlicherer Ausschlag nach oben erfolgen würde.
Weiterlesen auf welt.de.
Auch beim Deutschen Klimakonsortium (DKK) ist man vorsichtiger geworden und gibt zu bedenken, dass Regionalrekorde wie in Deutschland wenig über den globalen Klimawandel aussagen. Am 18. Dezember 2014 hieß es in einer “Stellungnahme des Deutschen Klima-Konsortiums zum Temperaturrekord 2014“:
Allerdings ist nur die globale Mitteltemperatur ein zuverlässigerer Indikator für die Erderwärmung. Nimmt man für diese die vorläufigen Daten für die Monate Januar bis November 2014 als Anhaltspunkt, dann fallen jetzt vierzehn der insgesamt fünfzehn wärmsten Jahre seit Beginn der systematischen Aufzeichnungen in das 21. Jahrhundert.
Dennoch ist es zu früh, bereits sicher von dem Ende der seit etwa 15 Jahren anhaltenden „Erwärmungspause“ und einer beschleunigten Erwärmung während der kommenden Jahre auszugehen. Denn die globale Erdoberflächentemperatur unterliegt Schwankungen von Jahr zu Jahr und von Jahrzehnt von Jahrzehnt. Erst mit den Folgejahren wird sich beurteilen lassen, in wieweit die globale Erwärmung der Erdoberfläche wieder Fahrt aufgenommen hat.
Neben Sonneneinstrahlung und Vulkanaktivität sind die Ozeane ein wesentlicher Klimafaktor. Aktuellen Forschungsergebnissen zufolge haben die Weltmeere während der letzten 40 Jahre gut 90 Prozent der Energie gespeichert, die aufgrund der erhöhten Treibhausgaskonzentrationen zusätzlich im Klimasystem verblieben ist. Phasen vermehrter ozeanischer Wärmeaufnahme wechseln sich dabei mit Phasen schwächerer Aufnahme ab. Damit verbunden kommt es auch zu Schwankungen der Meeresoberflächentemperaturen. Prominentes Beispiel ist das Klimaphänomen El Niño im tropischen Pazifik mit einer mittleren Periode von etwa vier Jahren. Während eines El Niño-Ereignisses erwärmt sich das Oberflächenwasser in weiten Teilen des tropischen Pazifiks, was auch die über den Globus gemittelte Erdoberflächentemperatur mitbestimmt.
Das Wechselspiel zwischen dem Ozean und der Atmosphäre ist ein wichtiger Grund für den etwa seit der Jahrtausendwende verlangsamten Anstieg der globalen Erdoberflächentemperatur. Obwohl sich 2014 bisher noch kein vollständig ausgeprägtes El Niño-Ereignis entwickelt hat, lagen die globalen Oberflächentemperaturen laut der Weltorganisation für Meteorologie (WMO) im Zeitraum Januar bis Oktober 2014 knapp 0,6°C über dem Durchschnitt der Jahre 1961-1990 und damit sogar oberhalb des Wertes von 2010, dem global bislang wärmsten Jahr. El Niño-Ereignisse zeigen sich in der globalen Erdoberflächentemperatur in der Regel erst ein Jahr später. So war die Rekordtemperatur des Jahres 2010 vom El Niño der Jahre 2009/2010 beeinflusst. Sollte sich in den nächsten Wochen das bislang noch schwach ausgeprägte El Niño-Ereignis verstärken, wird dieser Effekt voraussichtlich erst 2015 vollständig zu sehen sein.
Es ist ermutigend zu sehen, dass das Klimakonsortium nun endlich auch offiziell die systematische Beteiligung der Ozeanzyklen und Sonnenaktivitätsschwankungen am Klimageschehen einräumt. Das DKK erklärt die Erwärmungspause mit einem kühlenden Ozeanzyklus. Nichts anderes haben wir in unserem Buch “Die kalte Sonne” getan, das das DKK am 6. Februar 2012 in einer anderen Stellungnahme voreilig verdammt hatte. Damals hatte das DKK und der Autor der Stellungnahme, Jochem Marotzke, offensichtlich noch die Wirkung der Ozeanzyklen unterschätzt. In der DKK-Stellungnahme zum Buch hieß es damals:
Rein natürliche Schwankungen ­- wie etwa Änderungen der Sonnenaktivität – können hingegen nicht hauptsächlich für die globale Erwärmung in den letzten Jahrzehnten verantwortlich sein, auch wenn das kürzlich erschienene Buch von Vahrenholt und Lüning dies behauptet. Für ihre Behauptung liefern die Autoren keinen wissenschaftlich belegten Nachweis.
Pierre Gosselin dokumentierte den Sinneswandel des DKK am 19. Dezember 2014 in seinem Blog Notrickszone.com und wundert sich, dass sich das Klimakonsortium noch immer nicht den Mut besaß, seine damals verbreitete Einschätzug zum Buch zu revidieren. Gosselin schreibt:
Does anyone think they will do the honorable thing and admit that Die kalte Sonne authors Prof. Vahrenholt and Sebastian Lüning claims had merit after all? Professional and honorable scientists would certainly do so. 
Bei dem ganzen Gerede über neue mögliche globale oder regionale Temperaturrekorde 2014 sollte man den Blick in die harten Daten nicht ganz vergessen. Zunächst schauen wir uns zwei globale Satelliten-Temperaturdatensätze an, nämlich den von RSS (Abbildung 1) und UAH (Abbildung 2). Die Charts wurden am 21. Dezember 2014 auf woodfortrees.org generiert. Die Überraschung ist groß: Das Jahr 2014 gehört laut den vorläufigen Daten eher zu den durchschnittlichen Jahren des seit 1998 anhaltenden Temperaturplateaus, wenig rekordverdächtig.

Abbildung 1: Temperaturentwicklung von 1979 bis Mitte Dezember 2014 gemäß Satellitendatensatz RSS.

Abbildung 2: Temperaturentwicklung von 1979 bis Mitte Dezember 2014 gemäß Satellitendatensatz UAH.
Der in den Medien behauptete Rekord bezieht sich auf einzelne Oberflächentemperaturdaten, die im großen Maßstab nach undurchsichtigen Methoden “korrigiert” werden. Christopher Booker erläuterte am 6. Dezember 2014 in The Telegraph:
It is true that the temperature records compiled by the avid warmists of the Met Office and the Goddard Institute for Space Studies (the one formerly run by climate activist James Hansen) have managed to show this year squeaking just ahead of 2010 as “the hottest year since records began”. But the much more comprehensive and reliable satellite records agree that 2014 is way down the list, with six of the past 16 years ahead of it.
Matt Ridley fragte sich am 8. Dezember 2014 in The Times, weshalb die WMO bereits deutlich vor Jahresende mit einer Pressemitteilung über einen angeblich bevorstehenden Temperaturrekord an die Öffentlichkeit trat. Es handelt sich um eine leicht durchschaubare Strategie: Man wollte die Klimatagung in Lima mit schaurigen Nachrichten unterfüttern. Zudem geht es bei dem Rekord um Steigerungsbeträge von wenigen hundertstel Grad im Vergleich zu warmen Vorjahren. Ridley schreibt:
last week, the World Meteorological Organization (WMO), a supposedly scientific body, issued a press release stating that this is likely to be the warmest year in a century or more, based on surface temperatures. Yet this predicted record would be only one hundredth of a degree above 2010 and two hundredths of a degree above 2005 — with an error range of one tenth of a degree. True scientists would have said: this year is unlikely to be significantly warmer than 2010 or 2005 and left it at that.
Judith Curry schlug daher in ihrem Blog am 9. Dezember 2014 eine sehr viel pragmatischere Sichtweise vor:
We won’t really have a good assessment on the temperatures for 2014 until about March 2015, when all of the observations have been assembled and quality controlled. The different temperature datasets and analyses give different results, which reflects the uncertainties in the data and analysis methods. Even if one or several data sets do find 2014 to be the hottest year, given the uncertainties one can only conclude that this is one of the top 5 or so warmest years. The real issue that is of concern to me is the growing divergence between the the observed global temperature anomalies and what was predicted by climate models. Even if 2014 is somehow unambiguously the warmest year on record, this won’t do much to alleviate the growing discrepancy between climate model predictions and the observations.
Dem Deutschlandfunk (DLF) sind solch komplizierte Differenzierungen lästig. Hier wird vielmehr mit der unwissenschaftlichen Holzhammermethode gearbeitet. Das Triumphgeheul des DLF zum Pseudo-Rekord wurde am 3. Dezember 2014 weltweit über den Äther geschickt. Nun, gönnen wir ihnen ihre kindliche Freude und Begeisterungsfähigkeit, bevor die sibirische Kälte demnächst vielleicht wieder nach Europa schwappt und für eine gewisse Ernüchterung sorgen könnte. Interessant sind aber diese zwei Zitate aus der genannten DLF-Berichterstattung:
Nord-Meere im Sommer unerklärlich warm
2014 hielt dabei eine Überraschung bereit: Zwischen Juni und Oktober waren Nordatlantik und Nordpazifik ungewöhnlich warm, ja sogar unerklärlich warm: “Das ist auch der Grund dafür, dass der Ozean in diesem Jahr insgesamt besonders warm ist. Warum die Meerestemperaturen auf der Nordhalbkugel derzeit so hoch sind – diese Frage versuchen Forscher jetzt zu beantworten. Im Moment wissen wir es noch nicht.”
und
Antarktis-Eis gibt Rätsel auf
Ein Rätsel für Klimaforscher wie Baddour ist auch 2014 geblieben: Warum nimmt die Meereisbedeckung in der Antarktis tief im Süden nicht ab, sondern weiter zu? “Das ist eine sehr wichtige Frage! Und wir stellen sie uns schon seit drei Jahren. Es gibt Belege dafür, dass die Winde stärker geworden sind, die um die Antarktis herum wehen. Dadurch wird es kälter, und Wasser kann leichter zu Eis gefrieren. Aber ob es wirklich daran liegt, steht noch nicht fest.”
Da soll noch einer behaupten “The science is settled”…
Der Beitrag erschien zuerst auf Die Kalte Sonne.de