Weltpremiere eines Dokumentarfilms über Landnutzungswandel, Energiepolitik und Klimawandel

Am 9. Februar 2017 feiert ein Dokumentarfilm zu einem hochaktuellen und brisanten Thema seine Weltpremiere in Berlin: The Uncertainty Has Settled von Marijn Poels, ein Film über Landnutzungswandel, Energiepolitik und Klimawandel eröffnet als Langfilm, das Berlin Independent Filmfestival. In einer Mischung aus Doku und Fiction wird Poels durch eine Auszeit in den Bergen Österreichs zunächst auf die gegenwärtige Situation der europäischen Landwirtschaft aufmerksam. Eine Reise beginnt, die immer größer werdende Fragen aufwirft. Der Klimawandel ist in den Medien und der Politik beinahe täglich präsent. In Form der Energiewende bestimmt es mittlerweile unser aller Leben. Letztlich ein Milliardenprojekt. Die Bauern sind aufgrund der gut subventionierten Energiepolitik zum Teil zum Energieanbieter geworden. Monokulturen verbreiten sich und einige wertvolle Nahrungsmitteln sind praktisch ausgestorben. Poels wird in seinem 90 Minuten Film gezwungen seine eigene linke Ideologie zu hinterfragen: Machen wir das Richtige?
Die Wissenschaft hingegen verkündet: The science has settled. Doch was ist von den skeptischen Wissenschaftlern zu halten, die die Notwendigkeit dieser rasanten Umwälzung anzweifeln? Darunter hoch angesehene Wissenschaftler, wie der Physik-Nobelpreisträger Ivar Giaever oder der 93 jährige Professor Freeman Dyson der Princeton University den Poels nahe New York aufsucht. Poels versucht nicht, dem Zuschauer eine neue Wahrheit zu präsentieren, er stellt Fragen und überlässt es dem Zuschauer, sich seine eigene Meinung zu bilden.
Die Filmpremiere findet am 9. Februar 2017 um 22.00 Uhr im Kino Babylon in Berlin Mitte statt. Mehr infos: http://www.berlinfest.com, http://www.theuncertaintyhassettled.de




Neue Website bietet die Realität bzgl. Anstieg des Meeres­spiegels bzw. der Rate desselben

[*Falls jemand eine treffende Übersetzung für das Multifunktionswort „Tools“ hat, bitte ich um Vorschläge. Mir selbst fällt keine ein. Anm. d. Übers.]
Zunächst aber ein paar Anmerkungen:

Anmerkung 1: Diese Arbeit ist noch nicht abgeschlossen. Ich habe zwar bereits eine abzuarbeitende Liste („to-do list“), aber Vorschläge und Korrekturen sind nichtsdestotrotz willkommen.

Anmerkung 2: Diese Tools stelle ich der Gemeinschaft frei zur Verfügung. Es werden keine Gebühren wegen deren Nutzung erhoben.

Anmerkung 3: Diese Tools sind ideologisch neutral.

Einer der Anlässe zur Einrichtung dieser Site war der berühmte Blog WoodForTrees von Paul Clark, welcher einige ähnliche Tools für Temperaturdaten bietet. Paul ist lebenslang ein „grüner“ Aktivist, aber zu seinen Gunsten muss man sagen, dass die Brauchbarkeit seiner Site unabhängig ist von seiner Ideologie.

Die Daten zeigen, was die Daten zeigen, unabhängig von meiner Meinung, von Pauls oder irgendjemandes anderen Meinung. Ich hoffe, dass diese Tools nützlich sind für jeden, der bzgl. des Meeresspiegels forscht, unabhängig von deren Ansichten zu Klimathemen.

Nichtsdestotrotz betrachte ich selbst mich der Vollständigkeit halber als ein „lukewarmer“. Ich bin Unterzeichner der Global Warming Petition. Meiner Ansicht nach zeigt die Wichtung der Beweise, dass anthropogene globale Erwärmung real, moderat und gutartig ist, und dass anthropogene CO2-Emissionen vorteilhaft sowohl für die Landwirtschaft als auch natürliche Ökosysteme sind.

Übersicht über die Site

Wenn man die Website SeaLevel.info aufruft, wird man mit einem Bild von Kitesurfern auf Maui und ein Menü links begrüßt [siehe Bild oben!]

1. Auf der „Homepage” kann man nach unten scrollen, um die jüngsten Verlautbarungen zu lesen, zumeist über die Site selbst. Es gibt auch Links zu den üblichen „About“- und „Contact“-Seiten

2. Die Seite „Resources” ist eine große Zusammenstellung klimabezogener Ressourcen mit Betonung auf Meeresspiegel. Darunter sind Suchmaschinen, Glossare, ein Spickzettel mit Klima-Konversions-Faktoren sowie Links zu anderen Websites (z. B. WoodForTrees). Es gibt (natürlich) sehr viele den Meeresspiegel betreffende Informationen, aber auch über Meereis, Überschwemmungen, Klimaberichte, Klimazyklen, Temperaturen, Treibhausgase, Energie und weiteres.

3. Die Seite „Blogs etc.” ist eine Liste mit Top-Klimablogs plus einigen anderen nützlichen Klimasites sowie ein wenig auch so eine Art Knittelvers. Ich habe Blogs von beiden Seiten der Klimadebatte gelistet, jedoch unter Ausschluss einiger prominenter, die so stark zensiert sind, um Abweichlertum zu vermeiden, dass ich sie als nutzlos beurteile (oder schlimmer).

4. Die Seite „Papers” [Studien] listet etwa 120 Studien und Beiträge, unterteilt in vier Kategorien: Beschleunigung des Meeresspiegel-Anstiegs, wie lang eine Aufzeichnungsreihe sein sollte, bevor eine langzeitliche Trendanalyse möglich ist, „Wissenschaft (ist ein Durcheinander)“ und „Andere“.

5. Die Seite über „Feedbacks” [Rückkopplungen] enthält Informationen über Rückkopplungs-Systeme allgemein und Klima-Rückkopplungen im Besonderen. Damit ist beabsichtigt, eine vollständige Liste aller bedeutenden klimabezogenen Rückkopplungs-Mechanismen zu erstellen, seien sie nun bekannt oder hypothetisch. Ich habe einen Grad in Systemwissenschaft von vor langer Zeit. Diese Disziplin untersucht derartige Dinge, und ich kann mich immer noch an Einiges erinnern.

6. Die Seite „Data” ist Thema des restlichen Teils dieses Artikels.

Die Data-Seite

Bei SeaLevel.info gibt es Messungen des Mittleren Meeresspiegels (MSL) von über 1200 Messpunkten. (Gegenwärtig stammen alle Daten von PSMSL und NOAA). Auf der Daten-Seite kann man:

1. Nach einer Tiden-Messstation suchen

2. Mit Excel kompatible Tabellen ansehen oder herunterladen.

3. Übersichts-Seiten anschauen, die mit den Tabellen korrespondieren.

Alles fängt an mit ein paar Links:

1.Suche. Nach einem Tiden-Messpunkt kann man suchen mittels der PSMSL-Stationsnummer, der NOAA-Stationsnummer oder mittels des Standortes (z. B. „Honolulu“). Gegenwärtig wird nur ein Messpunkt gefunden; ich plane, die Fähigkeit hinzuzufügen, eine Liste mit allen Stationen zu finden (z. B. die Suche nach „NC, USA“ und die darauf folgende Auflistung aller Messpunkte in North Carolina).

2(a). Tabellen Falls man auf „Spreadsheets & thumbnails” klickt (oder ein wenig herunterscrollt), kommt man in den Bereich, wo man eine Tabelle mit Messdaten des Meeresspiegels von verschiedenen Messpunkten findet, die mit Microsoft Excel kompatibel ist, oder eine „thumbnail“-Seite mit kleinen Versionen der MSL-Graphiken für die zugehörigen Messpunkte:

Obwohl alle Tabellenblätter normale Websites sind, gibt es eingebettet Informationen, und zwar im excel-kompatiblen HTML-Format einschließlich Formularen zum Berechnen von Mittelwerten o. Ä. sowie ungerundete Zahlen. Die Tabellenblätter sind kompatibel mit Excel 2003 und höher.

Der einfachste Weg, ein Tabellenblatt herunterzuladen und es mit Excel zu bearbeiten ist es, in das Feld „Open“ die URL des Tabellenblattes anstelle des Filenamens setzen. Hier folgt ein Screenshot von einem der Tabellenblätter, wie es im Internet (nicht in Excel) erscheint. Diese Tabellenblätter sind ziemlich groß, deshalb ist dieser Screenshot stark gestutzt, sowohl der Länge als auch der Breite nach:


Dieser Auszug zeigt die ersten 11 Spalten des Tabellenblattes mit Werten von 13 Tidenmesspunkten in Nordeuropa (Gesamtzahl der Messpunkte in diesem einen Blatt 375).
Man muss zum Ende jedes Blattes scrollen, um zusammenfassende Informationen zu erhalten (Mittelwerte und Mediane).

Klickt man auf die Überschrift der Spalte, erscheint nur diese. Klickt man auf einen Link in der Spalte „Location“, wird man zur Analyse-Seite von sealevel.info von jenem Messpunkt geführt. Klickt man auf einen Link in der Spalte „NOAA stn“, kommt man zur NOAA-Seite für jenen Messpunkt. Der Klick auf einen Link in der Spalte PSMSL stn“, führt einen zur PSMSL-Seite jenes Messpunktes.

In den Spalten „Trend“ und „±95% CI (trend)” sieht man das Ergebnis einer linearen Regression (d. h. Anpassung einer Linie an die Daten) für diese 13 Messpunkte. An vier dieser Messpunkte sinkt der Meeresspiegel, an sieben Punkten steigt er, und an den anderen beiden zeigt sich kein signifikanter Trend (d. h. das 95%-Vertrauensintervall ist größer als der lineare Trend).

In den Spalten „Accel“ und „±95% CI (accel)” sieht man das Ergebnis einer quadratischen Regression (womit man Beschleunigung oder Verlangsamung erkennen kann) An zwei dieser 11 Messpunkte hat sich der Anstieg des Meeresspiegels geringfügig beschleunigt, an einem weiteren geringfügig verlangsamt. An den anderen 10 Messpunkten zeigte sich keine statistisch signifikante Beschleunigung oder Verlangsamung.

Unten auf dem Tabellenblatt sind die berechneten Mittelwerte und Mediane für das gesamte Blatt gelistet.

Lädt man das Tabellenblatt herunter, kann man mit Excel interessante Tests durchführen. Man könnte zum Beispiel Messpunkte löschen, die Daten aus weniger als 50 Jahren enthalten (wird doch in der Literatur erwähnt, dass mindestens 50 bis 60 Jahre mit Daten erforderlich sind, um einen handfesten Meeresspiegel-Trend an einem einzelnen Messpunkt zu erhalten). Die Zellen mit Mittelwerten und Medianen werden durch Excel-Formeln bestimmt, so dass sie automatisch angepasst werden, wenn man solche Änderungen vornimmt.

2(b): Thumbnails: Korrespondierend mit den Tabellenblättern gibt es Seiten mit „Miniaturbildern“ mit kleinen Versionen der Graphiken für alle in der Tabelle gelisteten Tidenmesspunkte. Beispiel:

In diesem Screenshot erkennt man, dass der Cursor auf das ersten Miniaturbild springt mit Angabe der Stationsnummer und dem Namen des Messpunktes. Klickt man auf eines der Miniaturbilder, kommt man zur Analyse-Seite für jenen Messpunkt.

Die Analyse-Seiten der jeweiligen individuellen Messpunkte

Für jeden Messpunkt, den man auf die eine oder andere oben beschriebene Weise anklickt, kommt man zur Analyse-Seite für eben jenen Messpunkt. Hier folgt als Beispiel Honolulu, dargestellt mit Standardoptionen:


Es gibt viele verfügbare Optionen. Man kann:

a) eine Graphik der Messungen des Meeresspiegels an jener Stelle erstellen (natürlich). Das ist die blaue Kurve.

b) Den Links zu den NOAA- bzw. PSMSL-Seiten für jenen Messpunkt folgen.

c) Den Links zu folgen zum „nächsten“ oder „vorherigen“ Messpunkt.

d) Lineare und quadratische Regressionen berechnen.

e) Graphische Präsentationen der linearen und/oder quadratischen Regressionen betrachten.

f) Vertrauens- und/oder Vorhersage-Intervalle für die Regressionen betrachten.

g) Einen überlagerten Graphen der CO2-Messungen ein- oder ausblenden, um zu sehen, welche Auswirkungen CO2 auf Steigen oder Fallen des Meeresspiegels an jener Stelle hat.

h) Glättungen an den Graphen des Meeresspiegels vornehmen.

i) Das Aussehen der Graphik adjustieren (Farbwahl, Liniendicke usw.)

j) Die Daten-Bandbreite adjustieren, die in den Regressions-Berechnungen verwendet wurden.

k) Die Datenquelle wählen (PSMSL und/oder NOAA)

l) Die verwendete Graphik kennzeichnen.

Man beachte die Ergebnisse der Regression (d):

Wie man sieht, werden Neigung und Beschleunigung berechnet zu:

Neigung = 1,434 ±0,211 mm pro Jahr

Beschleunigung = -0,01004 ±0,01454 mm pro Jahr².

Aus der Neigung kann man ablesen, dass der Meeresspiegel über die 110 Jahre lange Historie jenes Messpunktes mit einer mittleren Rate von 1,434 ±0,211 mm pro Jahr gestiegen ist (was übrigens ein sehr normaler Wert ist).

Das Minus-Zeichen vor der „Beschleunigung“ zeigt, dass sich die Rate des Meeresspiegel-Anstiegs auf Honolulu verlangsamt hat, aber 0,01 mm pro Jahr² ist eine sehr kleine Zahl (welche, falls sie über das Jahrhundert erhalten bleibt, zu einer Rate des Anstiegs um nur 1 mm pro Jahr führen würde), und dass das Vertrauensintervall größer ist als die Rate der Verlangsamung. Darum sollte man von jenem Messpunkt korrekt als „keine statistisch signifikante Beschleunigung oder Verlangsamung aufweisend“ berichten (was ebenfalls typisch ist).

Die verschiedenen Optionen, die man auswählt, werden alle Teil der URL für die Website. Zum Beispiel, falls man die Option „Liniendicke“ wählt, wird dies der URL hinzugefügt. Daher ist dies der Link zum gleichen Graphen, aber mit dickeren Linien:

http://www.sealevel.info/MSL_graph.php?id=1612340&thick

Hier folgt der Graph ohne den eingeblendeten CO2-Graphen (das „&co2=0” am Ende unterdrückt diesen):

http://www.sealevel.info/MSL_graph.php?id=1612340&thick&co2=0

Hier folgt er in Schwarz-Weiß mit dicken Linien (Viele andere Farbgebungen lassen sich auch anbringen):

http://www.sealevel.info/MSL_graph.php?id=1612340&thick&colors=2

Schwarz-Weiß ist nützlich, um die Graphen zum Ausdrucken auf Schwarz-Weiß-Druckern aufzubereiten. Das sieht so aus:


Hier folgt fast das Gleiche, aber mit einer 3-Monate-Glättung. Die Glättung beeinflusst nicht die Regressionsanalysen (außer bei den Vorhersage-Intervallen), aber der Graph sieht dann hübscher aus:
http://www.sealevel.info/MSL_graph.php?id=Honolulu&colors=2&thick&boxcar=1&boxwidth=3

Man beachte, dass wir in dieser URL den Stationsnamen („id = Honolulu“) anstelle der Stationsnummer (“id=1612340”) genannt haben. Man kann auch die PSMSL-Stationsnummer (“id=155”) oder den früheren Stationscode (“id=760-031”) eingeben. Alle erzeugen den gleichen Graphen:

Hier folgt er mit einer quadratischen anstatt einer linearen Regression. Außerdem habe ich den Graphen mit Daten erst ab dem Jahr 1930 erstellt und mit bis zum Jahr 2100 ausgedehnten Regressionskurven versehen, mit einem anderen Farbschema und mit minimaler Glättung:

http://www.sealevel.info/MSL_graph.php?id=Honolulu&quadratic=1&thick&co2=0&linear=0&lin_ci=0&quad_pi=0&quad_ci=1&colors=3&g_date=1900/1:2099/12&c_date=1930/1:2019/12&boxcar=1&boxwidth=2
Das sieht so aus:

Man beachte, dass ich in jenem Screenshot mit dem Cursor auf einen Punkt auf dem Graphen gegangen bin, um den genauen Wert zu erkennen (in diesem Falle das obere Ende des 95%-Vertrauens-Intervalls für 2100).

Man beachte weiter, dass der lineare Trend etwas unterschiedlich ist (weil wir Daten vor 1930 ausgeschlossen haben). Die aus den Berechnungen ausgeschlossenen Daten werden mit einer helleren blauen Schattierung dargestellt, und eine rote Fußnote wird der Seite hinzugefügt:

‡Hellblaue Daten sind in den Regressionsberechnungen nicht enthalten.

Diese Version ist fast die gleiche, aber mit hinzugefügtem CO2-Graphen in grün, und die Vertrauensintervalle wurden ersetzt durch Vorhersageintervalle (gepunktet orange):

http://www.sealevel.info/MSL_graph.php?id=Honolulu&quadratic=1&thick&linear=0&lin_ci=0&g_date=1900/1:2099/12&c_date=1930/1:2019/12&boxcar=1&boxwidth=2&quad_pi=1&quad_ci=0&colors=3

Anmerkung: auf der rechten Seite der Site befindet sich ein Link zu einem kurzen Video von Dr. Gerard Verschuuren, in welchem der Unterschied erklärt wird zwischen „Vertrauensintervall“ und Vorhersageintervall“.

Achtung:

Diese Tools können Regressionen und Graphen erzeugen für über 1200 Messpunkte, aber auf viele Einzelgraphen habe ich gar nicht geschaut. Die Durchführung von Regressionsberechnungen und die Erzeugung von Graphiken ohne händische „Nachprüfungen“ enthält Fallstricke.

Zum Beispiel wurden einige MSL-Daten an manchen Messpunkten von PSMSL und/oder NOAA als von fragwürdiger Genauigkeit identifiziert, und diese Tools tragen dem nicht Rechnung.

Auch Erdbeben können manchmal extreme Verzerrungen in den Trend bringen. Man betrachte das Beispiel von Seward, Alaska:

Am 27. März 1964 war es zum Großen Alaska-Erdbeben gekommen (Magnitude 9,2!). In Seward stieg der Meeresspiegel ruckartig um einen ganzen Meter. Wenn man also den MSL-Trend für Seward berechnet, sollte man mit den Daten nach diesem Ereignis beginnen, etwa so:

http://www.sealevel.info/MSL_graph.php?id=9455090&c_date=1964/5:2019/12&co2=0&thick:

Man beachte, dass die NOAA dies für ihre Website für Seward gemacht hat:

Wenn man also diese Tools für die Analyse von MSL-Daten heranzieht, rate ich, auch auf die Links zu NOAA und PSMSL zu klicken, um deren Seiten bzgl. der interessierenden Messpunkte zu betrachten. Vor allem rate ich, im besonderen auf Warnungen vor fragwürdigen Daten zu achten, auf offensichtliche Änderungen der Messzeitpunkte und auf Erdbeben.

Zukunft

Es gibt viele weitere Ecken und Kanten bei diesen Tools. Meine Liste notwendiger Vorarbeiten wird immer länger, und vielleicht tragen ja noch Leser zu dieser Liste bei.

Fakten sind unendlich stur: Welche Wünsche oder Neigungen man auch immer hat, oder welche Leidenschaften in uns stecken – all dies kann Fakten und Beweise nicht verändern, geschweige denn aus der Welt schaffen. – John Adams

Trugschlüsse hören nicht auf, Trugschlüsse zu sein, nur weil sie in Mode kommen. – G. K. Chesterton

Herr, errette mich von den Lügenmäulern, von den falschen Zungen! – Psalm 120, Vers 2 [direkt aus der Luther-Bibel. Keine Übersetzung!]

www.sealevel.info
Link: https://wattsupwiththat.com/2017/01/21/new-website-gives-you-the-real-deal-on-sea-level-rise-and-rates/
Übersetzt von Chris Frey EIKE




Eiskalt erwischt: Der Januar 2017 straft die Theorie der „Klima­erwärmung“ Lügen

1. Wird der Januar immer milder?
Ein einzelner, kalter Januar sagt freilich wenig über die langfristige Januar-Temperaturentwicklung. Seit der „Kleinen Eiszeit“ hat sich dieser zweifellos etwas erwärmt. Folgende Beispiele aus verschiedenen Regionen der Nordhalbkugel zeigen aber, dass diese Erwärmung schon seit mehreren Jahrzehnten einer Stagnation oder gar einer leichten Abkühlung gewichen ist:

Den geringen (nicht signifikanten) Temperaturanstieg erkennt man in Erfurt- Weimar kaum, wohl aber die enorme Streuung der Januar- Monatsmittel zwischen eisigen fast minus 8 Grad (1987) und frühlingshaften mehr als plus 4 Grad 1975 und 2007. Diese enorme Streuung (im Mittel 1973 bis 2017 fast 3 Grad) raubt dem Trend jegliche Signifikanz- im Großen und Ganzen blieb der Januar so kalt wie vor 4 Jahrzehnten. Zumindest im ersten Monat des Jahres fiel also der „CO2- bedingte Klimawandel“ bislang aus, denn die Erfurter Werte sind nicht wärmeinselbereinigt (am Flughafen Erfurt- Weimar nahmen Verkehr und bebaute Flächen seit den 1970er Jahren zu, was zumindest gering erwärmend wirkte). In Zentralengland erwärmte sich der Januar seit dem Höhepunkt der „Kleinen Eiszeit“ (um 1680), recht deutlich und auch noch bis in die Gegenwart. Aber seit mindestens 105 Jahren ist die dortige „Erwärmung“ unerheblich (nicht signifikant, enorm hohe Streuung). Und die wärmsten Januare liegen dort mit 1916 (+7,5 °C) und 1921 (+7,3°C) schon etwa ein Jahrhundert zurück. Die grünen Balken markieren den Korridor der einfachen Streuung. Man erkennt, dass sich die Trendlinie nur innerhalb dieses Korridors bewegt, der Trend also unerheblich ist:

Schon in dieser obigen Grafik zeigt sich bei genauerer Betrachtung eine Abkühlungsphase kurz nach der Mitte des 20. Jahrhunderts, obwohl doch schon zu dieser Zeit die CO2- Konzentrationen deutlich über dem vorindustriellen Niveau lagen. Dieses rhythmische Verhalten wird noch deutlicher, wenn man den Betrachtungszeitraum bis fast zur Mitte des 19. Jahrhunderts ausdehnt, dem frühesten Erfassungsjahr der AMO, und sich die 21ig-jährigen Gleitmittel der Januartemperaturen in England (CET), in Deutschland sowie der AMO anschaut:


Selbst am kältesten, dauerhaft bewohnten Ort der Welt, Oimjakon/Ostsibirien, stagnieren seit 40 Jahren die Januarmittelwerte:

2. Beginnende Abkühlungsphase – bald wieder mehr Nebel, Kälte und mehr Hochdrucklagen über Mitteleuropa im Januar?
Daten zur Anzahl der Nebeltage je Monat liegen über längere Zeiträume nur für ganz wenige Stationen vor. Bei Frost bleiben die winzigen Nebeltröpfchen selbst bei zweistelligen Minusgraden flüssig und lagern sich als „Raueis“ an Zweigen und Gegenständen ab – von Laien und von den „Qualitätsmedien“ oft fälschlich als „Raureif“ bezeichnet (Reif entsteht durch Sublimation). Raueis sieht aus wie Raureif, weil bei seiner Ablagerung viel Luft eingeschlossen wird, die es schneeweiß aussehen lässt:


3. Weniger Schnee im Januar? Mitnichten!

4. Besonderheiten der Januar- Witterung in Deutschland- nicht überall war es deutlich zu kalt

Es entstand ein Temperaturgefälle von zeitweise mehr als 15 Kelvin zwischen dem etwas zu milden Norddeutschland (grünliche Farbtöne) und dem eiskalten Süddeutschland (dunkelblau, violett):

Während der Januar 2017 in Süddeutschland zu den kältesten der letzten 30 Jahre zählt, war er an den deutschen Küsten fast temperaturnormal, stellenweise gar etwas zu mild.
5. Kalter Januar- milder Restwinter 2017?
TF(°C) = -61,478+0,136a-0,0255b+0,086c+2,028d
Dabei bedeutet TF die zu berechnende Februartemperatur (Mittelwert) in °C, -61,478 ist eine Konstante, a die mittlere, gemessene Lufttemperatur am jeweiligen 31.01. und 01.02. in Berlin (°C), b der Mittelwert des Luftdrucks (hPa) im abgelaufenen Januar auf 65° Nord und 20°W (Island), c der Mittelwert des Luftdrucks (hPa) im abgelaufenen Januar auf 40° Nord und 10°E (Sardinien), d die Abweichung der Wassertemperatur der Nordsee vor Dänemark vom Langjährigen Mittel in Kelvin am jeweiligen Monatswechsel Januar/Februar. Alle Größen sind um die Monatswende diesmal eher so beschaffen, dass eine normale bis deutlich übernormale Februartemperatur zwar nicht sicher vorhersagbar, aber doch zumindest im Norddeutschen Tiefland deutlich wahrscheinlicher wird, als eine unternormale.


Die Unsicherheit bleibt also groß, doch deutet sich wohl ein Februar an, der zumindest über Norddeutschland mehr oder weniger zu mild verlaufen könnte, so dass dann der gesamte meteorologische Winter trotz des kalten Januars insgesamt etwas zu mild ausfällt, was auch den bisher getroffenen Prognosen entspricht.
6. Januar kalt und weiß – Sommer heiß?

Zusammengestellt von Stefan Kämpfe, Diplomagraringenieur, unabhängiger Klimaforscher, am 23.01.2017




10. IKEK Dr. S. Lüning – Vulkane, die schwarzen Schwäne der Evolution?

Der Ko Autor des Klimabestsellers „Die kalte Sonne“ fängt damit an, dass er nun schon zum dritten Mal in Berlin zum Klimathema vorträgt.
Das erste Mal, bei der Vorstellung des Buches „Die kalte Sonne“, dessen Thesen vom überaus starken Einfluss der Sonne über die verschiedensten Prozesse – insbesondere denen der atlantischen wie pazifischen Strömungen- sich seit dieser Zeit immer stärker bestätigt, über die Verabschiedung eines verdienten Geologie-Professors an der TU in den Ruhestand, bei dem Lüning zusammen mit den damaligen Vizechef des PIK F.W. Gerstengarbe, ein Streitgespräch führen durfte bis zum heutigen Tage.

Zur Einstimmung in das Thema zitiert er aus Nicolas Talebs berühmten Buch „Der schwarze Schwan“, um zu erläutern, dass damit unvorhergesehene, aber nicht ganz unwahrscheinliche, jedoch sehr wirkmächtige Ereignisse gemeint sind, die sämtliche Wahrscheinlichkeitsberechnungen, die fast alle auf irgendeine Weise mittels Gleichverteilungen und/oder Trendfortschreibungen bestimmt werden, über den Haufen werfen. Vulkane bzw. deren Ausbrüche gehören zweifelsfrei zu solchen Ereignissen. Z.B. in dem sie dank ihres Ascheauswurfes evtl. eine neuen kleine Eiszeit auslösen können.
Diese Hypothese verfolgten einige Autoren, die auch in „Nature “ veröffentlichen durften. Ziel war die ganze kleine Eiszeit als nicht sonnenabhängig zu erklären. Sie mussten aber später einräumen, dass sie sich schlicht im Zeitmaßstab vermessen hatten. Über dieses Eingeständnis, eines durchaus normalen Fehlers, wurde jedoch später von den Medien nicht mehr berichtet. Null. Spätere papers zeigten hingegen das ganze Gegenteil. Die klimatischen Einflüsse der Vulkane sind vorhanden (Sigi et. al 2015) aber nur sehr kurzfristig -in Klima relevanten Zeitmaßstäben- abkühlend wirksam. Später im Vortrag zeigt Lüning auf, dass auch Alfred Wegener einen solchen schwarzen Schwan – nämlich die Kontinentalverschiebung – entdeckt hatte.
Die Sonnenaktivität hat, wie Lüning zeigt, einen ganz wesentlichen Anteil an der Erwärmung, weil bei jeder dieser massiven Erwärmungen, diese einen Höchststand hatte. Jedoch spielen sie im IPCC Bericht keinerlei Rolle.




Ein Physiker und „die“ Energiewende

Die Absorption und Wandlung der Energie eintreffender Solarstrahlung erzeugt und betreibt bekanntlich seit etwa 3,5 Milliarden Jahren Flora und Fauna der Erde. Ihre Erwärmung auf einen geeigneten Temperaturbereich ermöglicht es der Flora, mit einer Wandlung von Solarstrahlung Kohlendioxid zu spalten und als chemische Energie in Form von Kohle und Kohlenwasserstoffen (lebend und tot) zu speichern.
Diese fossilen Energiespeicher (und der Sauerstoff) betreiben wiederum die aufgesattelte Fauna der Erde mit der Spezies Mensch. Mit der Nutzung dieser fossilen Energiespeicher wurde für ihn nahezu die gesamte Oberfläche des Festlandes bewohnbar und ließ die Population des sog. „homo sapiens“ in etwas mehr als 100.000 Jahren (trotz der Nutzung der Kohle im Schießpulver) über 7,5 Milliarden hinaus anwachsen.
Seit einigen tausend Jahren ergänzt der Mensch die Nutzung fossiler Energie mit der Beimischung des zur kinetischen Energie von Wind und Wasser gewandelten Anteils der absorbieren Solarstrahlung für den Antrieb von Schiffen, Wind -, Wassermühlen und Pumpen. Noch heute machen solche Pumpen sogar Landflächen unterhalb des Meeresspiegels bewohnbar. – Einen sinnvollen Rückfall zur fossilen Energie besorgten im 19. Jahrhundert Dampfmaschine, Dampfturbine, Stromgenerator, Elektro- und Verbrennungsmotor. Die zusätzliche Nutzung der „kinetischen Solarenergie“ – ausgenommen die Wasserkraft – verschwand wieder im Museum der Geschichte.
Die Wandlung fossiler Energie in elektrischen Strom wurde unverzichtbar für die Existenz der menschlichen Gesellschaft. Elektrische Energie lässt sich nicht speichern, sondern lediglich mit Verlust in andere Energiearten rückwandeln. Daher muss ihre Erzeugung und Bereitstellung stets dem schwankenden Verbrauch sekundengenau folgen!
Ab Mitte des 20. Jahrhunderts wurde mit der Kernenergie erstmalig eine von der Sonne unabhängige Energiequelle für die Stromerzeugung verfügbar. Ihr Anteil an der Stromversorgung ist grundsätzlich frei wählbar. Die globale Ausbreitung der Nutzung von Kernenergie geht von den Industrieländern aus und schreitet fort.
Deutschland hatte sich zunächst in die Spitzengruppe der Kernenergienutzer eingereiht. Im Jahr 2000 wurden nicht fossil 35% des Stroms (Kernenergie 31%, Wasserkraft 4%) und fossil 65% erzeugt (Kohle 50%, Erdgas 10%, Sonstige 5%).
Regelbare Kraftwerke deckten zuverlässig den etwa zwischen 45 – 75 GW1 schwankenden Bedarf. Die Jahresmenge zwischen 600 – 650 TWh.2 Ist bis heute kaum gestiegen.
Plötzlich lassen Ende des 20. Jahrhunderts Politiker den bösen Geist eines vermeintlichen „anthropogenen Klimawandels“3 aus der Flasche sog. Klimaforscher mit der Parole:

„Die Nutzung fossiler Brennstoffe wird durch den Ausstoß von CO2 mittlere Temperaturen auf der Erde katastrophal um weit mehr als 2 °C, die Meeresspiegel um mehrere Meter ansteigen lassen!“

Der Physiker ist irritiert: An seinem Wohnort Berlin ist es leider um 6 °C kälter als in Rom, der Hauptstadt seines Urlaubslandes Italien. Auch ist ihm bekannt, dass Wetter nicht einmal für Wochen vorhersagbar ist, seine Statistik erst das Klima definiert und niemand eine Statistik prognostizieren kann! – Doch „das deutsche Primat der Politik“ will es besser wissen:
Bis zum Jahr 2016 werden 25.000 „Windkraftwerke“ und zigtausende Quadratmeter Solarzellen – koste es was es wolle – in der Landschaft verteilt. Ihre „Nennleistung“ überschreitet bereits 90 GW. Zwar kann keines der regelbaren Kraftwerke ersetzt werden, doch wird deren unverzichtbare Stromlieferung insgesamt unwirtschaftlich, weil kapp 20% ihres ursprünglichen Beitrages bei nahezu unveränderten Betriebskosten zwangsweise vom „Zappelstrom“ verdrängt werden.4

Video der Leistung von Wind & Solarstrom im Oktober 2015. Rechnerisch wurde dann die Windeinspeisung in einer Schritten bis um das 10 fache erhöht. Die Solareinspeisung bei 50 GW gedeckelt. Der Film zeigt nun klar auf: 1. Trotz rd. 10 facher Überdimensionierung (485 GW Installiert zu 50 GW mittlerer Bedarf) können diese Erzeuger den Bedarf nur an rd. 50 % der Tage decken, bzw. überdecken. Der überschießende Rest muss abgeregelt oder gespeichert werden. 2. An rd 50 % der Tage fehlen große Leistungen, obwohl 485 GW  installiert wurden. 3. Nie wurde auch nur ansatzweise die installierte Leistung abgegeben. Die Spitze lag bei rd. 150 GW (von 435 GW Wind). Kosten wurden nicht betrachtet. Daten EEX, Grafik Rolf Schuster
Der Physiker hoffte lange: Bald muss doch auch der Letzte merken, dass noch mehr „Erneuerbare“, noch mehr Stromleitungen und noch „smartere Netze“ nur weiter in die Sackgasse führen.
Doch es kam noch schlimmer:
Im Jahr 2011 zerstört in Japan ein Tsunami Kernkraftwerke. Die Gesundheit von Menschen dort wird nicht gefährdet, die für die Sicherheit in Deutschland zuständigen Fachleute prüfen den Vorfall und geben weiter grünes Licht für deutsche Kernkraftwerke. Das „deutsche Primat der Politik“ will es anders: Man „findet“ den Rat fachfremder sog. „Ethiker“, legt unverzüglich 8 der deutschen Kernkraftwerke still und will den Rest bald folgen lassen. – Auch die deutsche CO2 Freisetzung steigt weiter, die Temperaturen seit 20 Jahren leider nicht.
Stromversorgung am Kollaps, ein Bahnhof in Stuttgart, eine Philharmonie in Hamburg, ein Flughafen in Berlin! Der Physiker ist nicht mehr irritiert sondern hat endlich begriffen: In Schilda sind Realität und Fakten nur Störgrößen!
1 Für einen zuverlässigen Betrieb der deutschen Stromnetze muss die in Form regelbarer Kraftwerke verfügbare Gesamtleistung nach wie vor mindestens etwa 85 GW betragen.
2 Der Peis für Haushaltsstrom betrug etwa 12 Cent/kWh, die Strompreise für die Industrie lagen darunter.
3 http://de.scribd.com/doc/190496647/Angst-auf-Objektsuche-wahlt-Klimawandel-und- Energiewende
4 Der Preis für Haushaltsstrom steigt auf 30 Cent/kWh und der Strompreis für Industriestrom wird zum Erhalt von Arbeitsplätzen vom Steuerzahler subventioniert.