Die schwierige, nimmer endende Fehlerdiskussion! Oder wie gut sind historische meteorologische Temperaturdaten? Wie wurden sie ermittelt, wie zusammengestellt und wie verarbeitet? (Teil 2)

…siehe hierhier und hier.“ (Pat Frank 9.12.2019[1])

Teil 1 hier und Teil 3 hier

Zu 3 Messregime

Da es praktisch undurchführbar war die gemessene Temperatur in kurzen Zeitabständen abzulesen, wünschenswert wären bspw. alle 5 Minuten gewesen, definierte man entweder wenige feste Tageszeiten, an denen abgelesen (und notiert) wurde, dies wurde insbesondere in Zentraleuropa – aber zu verschiedenen Zeiten und auch unterschiedlich oft- so gemacht, oder man las nur die Max. und die Min-Werte von speziellen Thermometern ab, und war dadurch zeitlich nicht so gebunden. Man handelte sich aber damit die Unkenntnis ein, nicht genau zu wissen, wann am Tag der Max. bzw. Min. Wert aufgetreten war. Das führte zu einem speziellen, aber kräftigen Fehler bei der Auswertung, der sogar einen eigenen Namen bekam, der Time of Observation Error (TOBs). Vor allem die praktischen Briten und mit ihnen dann alle ihre Kolonien und Einflussgebiete benutzten bis zum Ende des vergangenen Jahrhunderts diese Methode.

Abbildung 5 Kleine Auswahl aus historisch vielfach verwendeten Mittelwertbildungsalgorithmen
Aus diesen punktuellen Messwerten wurden dann arithmetische Mittelwerte gebildet, das sog. Tagesmittel. Diese (verschiedenen) Tagesmittel erlaubten nun Monatsgänge der Tagestemperaturen zu bilden. Sie wurden und werden dann weiter zu arithmetischen Monatsmitteln zusammengefasst, die es wiederum erlaubten Jahresgänge zu bilden, welche den Verlauf der Jahreszeiten anhand der Mittel-Temperatur zeigten.  Diese können dann zu Zeitreihen für langjährige klimatologisch interessante Zeiten zusammengefasst werden, was auch geschieht.
Es geschieht aber noch etwas anderes mit diesen Daten, sie werden in „Anomalien“ umgerechnet, d.h. es werden Differenzen aus dem aktuellen Wert abzüglich eines Referenzwertes gebildet. Dies geschieht wegen der berechtigten Annahme, dass Anomalien die eigentlich gesuchten Veränderungen präziser und weiträumig vergleichbarer abbilden, als die der absoluten Temperaturen, die zusätzlich noch weiteren Einflüssen wie Höhenlagen, windhöffiger oder stiller Messort etc. ausgesetzt sind. Doch damit handelt man sich neue Fehlerquellen ein, von denen die wenigsten Klimaforscher etwas wissen, ja schlimmer noch, die wegen falscher, wenn auch plausibler Analogien, zu völlig falschen Ergebnissen führen müssen. Welche das im Einzelnen sind und was das bedeutet wird im Teil „Weiterverarbeitung“ ausführlich beleuchtet.

Zu 4. Die geografische und zeitliche Abdeckung

Sobald die so gewonnenen Daten etwas mehr zur Beobachtung und Deutung von großräumigem Wettergeschehen herangezogen werden sollen, was in der Natur der Sache liegt, denn Wettergeschehen ist großräumig, kommt es unmittelbar auf eine genügende räumliche wie zeitliche Abdeckung der in Frage kommende Gebiete an. Doch da setzen ebenso technische wie finanzielle Machbarkeit enge Grenzen. Errichtung und Betrieb von Wetterstationen ist nicht nur teuer, sondern verlangt neben der genügenden Verfügbarkeit der richtigen Messmittel, auch genügend personelle Kapazität, großes Know How  und Disziplin für ihren Betrieb. Und das permanent über lange, im politischen Maßstab sehr lange Zeiträume. All das war von Anfang an nicht selbstverständlich und musste erst langsam nach dem Entstehen reifen. So wundert es nicht, dass die Stationsdichte sich ausnahmslos in früh entwickelten Ländern konzentriert, während weite Teile der Welt bis Anfang der 50er Jahre praktisch ohne Messstationen blieben. Das gilt für Südamerika, Afrika und weite Teile Asiens, ebenso wie die mehr als doppelt so große Ozeanfläche dieser Welt.



Abbildung 6 Entwicklung der Zahl und Position der historischen Messstationen
darunter Aktueller Stand der im Global Historical Climate Networks GHCN der NOAA mit Monatsmittelwerten der  Temperatur  insgesamt zuliefernden 7.280 Stationen mit mindesten 10 Jahren  kontinuierlicher Datenreihen. Für Stationen mit Max/Min Erfassung gibt es ähnliche Grafiken. Quelle (http://www.ncdc.noaa.gov/oa/climate/ghcn-monthly/index.php fig. 1). Man beachte jedoch, dass von GISS und CRU davon nur ungefähr 1/7 ausgewertet werden.
Quelle https://climateaudit.org/2008/02/10/historical-station-distribution/

Abbildung 7 Darstellung der gemeldeten SST´s für die Woche vom 2. bis 8. Januar 2000. Sie zeigt die dünne messtechnische Abdeckung der Wasserfläche der Erde. Frühere Abdeckungen der Wasserfläche sind mit großer Wahrscheinlichkeit noch deutlich schlechter gewesen. Aus [REYNOLDS, R. W. & RAYNER,, 2002] Seite 1611
 

Zu 5. Die Weiterverarbeitung! Was geschieht mit den meteorologischen Messdaten?

Wie zuvor schon kurz angesprochen werden die Einzeldatensätze erst einer umfassenden Prüfung auf Konsistenz, Dauer, und Plausibilität, mit anschließender Weiterverarbeitung unterzogen. Zunächst bleibt es bei den einzelnen Stationen und ihren Daten. Je nach Verwendungszweck wird aus diesen erst Tagesmittel und daraus das Monatsmittel gebildet und von diesem eines als „Station Normal“ bezeichneten langjährigem (bspw. über 360 Monate also 30 Jahre) Mittel abgezogen. Die so entstehende Differenz wird als so gut wie fehlerfrei betrachtet, weil – so die Annahme – die lokalen systematischen Fehler ja auch im „Station Normal“ vorhanden seien, und, wenn man beide Werte voneinander abzöge, sich der Fehler kompensierte (stellvertretend dafür [Brohan et al. 2006])[2],[3]. Manchmal werden aber auch zunächst die Jahresmittel gebildet und diese vom „Station Normal“ abgezogen. Die Grundannahme aber, von der Fehlerselbstkorrektur bei Bildung von Anomalien, bleibt aber dieselbe.
Und daher behaupten so gut wie alle Klimaforscher, auch Stefan Rahmstorf vom PIK unwidersprochen[4], dass Anomalien viel genauer seien als die ihnen zugrunde liegenden Absolutwerte. Liest man seinen Text genauer, dann muss man feststellen, dass er sich mit der Materie nicht beschäftigt hat, sondern nur auf die Korrelation zwischen den Trends von absoluten Temperaturdaten verweist, wie sie schon von James Hansen für seine Schwarze Kunst verweist. Es bleibt ein bitterer Treppenwitz der Wissenschaftsgeschichte, dass Annahmen über Korrelationskoeffezienten herunter bis 0,33 (Hansens Grenzwerte) die Politik in ein nie dagewesenes Desaster treiben konnte.  Wer Näheres dazu wissen möchte sei auf diesen Beitrag verwiesen: Von Korrelationen, Trends bei Anomalien![5]
Doch diese Annahme ist – bei Zeitreihen von Anomalien – und das werde ich im Folgenden belegen, bis auf eine Ausnahme, immer falsch!

Anmerkung:

Der folgende Text ist einem Artikel entnommen, den ich am 7. Februar 2011 bei EIKE einstellte, und der am 23.11.2018 aktualisiert wurde.
In der Klimatologie werden zur Bestimmung des Referenzwertes, die errechneten Monatsmittel oder Jahresmittel der gemessenen Temperatur einer Station, über den Zeitraum von 1961 bis 1990 aufaddiert und durch die Anzahl aller Monats- oder Jahresmittel dieses Zeitraumes geteilt. Der so enthaltene Wert entspricht einer Geraden gleicher „Temperatur“ über den Referenz-Zeitraum von 1961 bis 1990. (Es kann im Prinzip aber auch jeder andere Zeitraum sein.) Der zugehörige Referenz-Wert wird oft das Stationsnormal genannt. Folgerichtig heißen die Abweichungen vom (Stations)-Normal Anomalien.
Nun bildet man die Differenz aus allen absoluten Jahresmitteln Tx der Zeitreihe und dem Stationsnormal Tref und ermittelt auf diese Weise eine neue Zeitreihe der Anomalien eben dieser Station.  Dabei geht man von der Annahme aus, dass diese, wenn sie einen Fehler C enthalten, dieser auch im Stationsnormal vorhanden ist. Ferner unterstellt man, dass C eine konstante Größe hat. Bspw. Brohan und Jones[6] formulieren diese Annahme (in Bezug auf die Fehler durch unterschiedliche Mittelwertbildung) so:
„..There will be a difference between the true mean monthly temperature (i.e. from 1 minuteaverages) and the average calculated by each station from measurements made less often; but this difference will also be present in the station normal and will cancel in the anomaly.
Berechnet man jetzt die Anomalie Ax = (Tx+C) –(Tref+ C), dann hebt sich C auf. Das ist schlichte Algebra. So weit so gut! Die große Frage ist nun, funktioniert das bei Zeitreihen auch so? Warum denn nicht, wird mancher vorschnell antworten. Die Algebra ist schließlich immer gleich! Oder?
Es zeigt sich sehr schnell, dass die Idee der Fehlerkompensation, die hinter dieser einfachen Methode steckt, ebenso plausibel wie falsch ist, bzw. sie stimmt nur innerhalb ganz enger Randbedingungen, die in der hier interessierenden Praxis nicht eintreten.
Ende Teil 2
[1] Zitate in deutscher Übersetzung von Pat Frank Quelle: https://www.eike-klima-energie.eu/2019/09/09/fehler-fortpflanzung-und-die-zuverlaessigkeit-von-projektionen-der-globalen-lufttemperatur/
[2] Brohan, PK,J. J. Harris, I., Tett S. F. B.; & Jones, P. D. (2006) Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. HadCRUT 3 HadCRUT 3:1 to 35.
[3] Brohan et. al geben auf Seite 6 den allgemeinen Glauben an die Fehlerfreiheit der Anomalien wider, in dem sie schreiben: „..There will be a dierence between the true mean monthly temperature (i.e. from 1 minute averages) and the average calculated by each station from measurements made less often; but this dierence will also be present in the station normal and will cancel in the anomaly. So this doesn’t contribute to the measurement error.“ Im Folgenden beschreiben die Autoren wie die Anforderungen an die Bildung der „station normals“ also der Referenzewerte (lt. WMO der Mittelwert jeder Station über die Jahre 1961-1990) aufgeweicht (relaxed) wurden. Die durchgeführte Re­duk­ti­on der An­for­de­run­gen zur Bildung des Referenzwertes (Station Normal) auf nur noch 15 Jah­re und da­raus 3 x 4 Jah­re in je­der De­ka­de, er­höht den Feh­ler, der schon in der Ver­wen­dung des Sta­ti­on Nor­mals steckt, wei­ter.
[4] Verwirrspiel um die absolute globale Mitteltemperatur Verwirrspiel um die absolute globale Mitteltemperatur
[5] https://www.eike-klima-energie.eu/2018/01/09/von-korrelationen-trends-bei-anomalien/
[6] Brohan, PK,J. J. Harris, I., Tett S. F. B.; & Jones, P. D. (2006) Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. HadCRUT 3 HadCRUT 3:1 to 35.
Für alle die diese Arbeit am Stück lesen wollen hier das pdf dazu Die schwierige nimmer endende Fehlerdiskussion




Freunde, ich bin verwirrt. Total und tutto kompletti durcheinander

Merkel bezeichnet die Pandemie als „eine demokratische Zumutung“. Die Maßnahmen, die zur Bekämpfung des Virus beschlossen wurden, hätten „kein historisches Vorbild“, an dem man sich orientieren könne.” Wie jetzt? Noch nie zuvor gab es eine weit verbreitete Seuche? Meint sie das ernst oder sagt sie das nur so in der Gegend herum, wie diese Scherzaussage, dass man Grenzen nicht schützen könne?
Es gibt kein historisches Vorbild für den Umgang mit Seuchen? Ganz Europa wurde mehrfach von der Pest heimgesucht, als Hamburgerin weiß ich, dass im 14. Jahrhundert die Pest dort die Hälfte der Bevölkerung dahinraffte mit einschneidenden Auswirkungen auf das tägliche Leben. Jetzt lebe ich in einem Ort vor den Toren Hamburgs, dort gibt es heute noch eine kleine Kapelle aus dem 15. Jahrhundert, die früher etwas außerhalb der Stadtmauern lag. Dort wurden die Lepra – und die Pestkranken untergebracht. Also so gesehen, historische Vorbilder für Isolation, Quarantäne und seuchenbedingte wirtschaftliche Probleme gibt es durchaus.
Aber das ist nur die eine Hälfte meiner Verwirrung, die andere ist der Umstand, dass neulich noch die Welt an ganz etwas anderem unterging, nämlich am Klima. Oder am CO2, so genau weiß ich es nicht. Das scheint neuerdings ein Gift zu sein, obgleich ich mal gehört habe, dass Pflanzen das irgendwie brauchen, Photosynthese oder so etwas.  Es muss jedoch neue Forschung geben, denn neuerdings ist CO2 ein Gift und das Klima wird nicht von verschiedenen Faktoren wechselwirkend beeinflusst, sondern vom Menschen gemacht, der das aber komplett vergeigt. Daher müsse man etwas tun, sonst ginge die Menschheit oder der ganze Planet wenn nicht sogar das Universum unter. Das Klima müsse also, komme was wolle und um jeden Preis gerettet werden, hat die Bundeskanzlerin gesagt.
Es sei eine nie da gewesene Herausforderung, eine „Existenzfrage“, es ginge ums Überleben. Daher müsse eine „Transformation von gigantischem historischem Ausmaß“ her, kleiner ginge es nicht. „Diese Transformation heißt im Grunde, die gesamte Art des Wirtschaftens und des Lebens, wie wir es uns im Industriezeitalter angewöhnt haben, in den nächsten 30 Jahren zu verlassen.“

Da bin ich aber nun baff

Netter Weise fügte die Kanzlerin an, es müsse einen Dialog geben zwischen denjenigen, die von einer höchsten Dringlichkeit ausgingen und den anderen, die eine klimagesteuerte Weltregierung nicht ganz so prall finden. Die Sprachlosigkeit müsse überwunden werden, sagte sie. Finde ich ja auch, Sprachlosigkeit geht gar nicht. Also ihr flugs diese Klimafragen mit Einschreiben geschickt– soll ja keiner sagen, die Kanzlerin wäre vergessen worden!  Geantwortet hat sie auch und zwar, dass sie keine fachliche Bewertung abgeben könne.
Ach was? Kann sie nicht? Da bin ich aber nun baff. Sie hat doch in Davos gesagt, es sei alles ganz, ganz schlimm und nun weiß sie nie nix? Hm, heißt das, sie will transformieren, da soll geklotzt und nicht gekleckert werden, sie hat aber ernsthaft keine Ahnung warum und wohin? Ohne quengelig erscheinen zu wollen, aber so ein kleines bisschen suboptimal ist das schon, gell? Immerhin, man muss ihr hoch anrechnen, dass sie erfrischend ehrlich zugibt, dass sie von der Sache keine Ahnung hat, das ist doch schon ein richtig guter Ansatz für ein Gespräch.
Zum Beispiel ich jetzt so: „Also wenn Sie keine Ahnung von den Klimafragen haben aber etwas transformieren wollen, warum dann nicht einfach mal das Wohnzimmer umräumen?“ Sie dann so: “Ähm, also das Wohnzimmer ist eigentlich schön, aber wie wäre es mit dem Kanzleramt?“ Ich dann so: „Ja prima, ist sowieso ein hässlicher Klotz, wie wäre es denn mit abreißen und neu bauen?“ Ich hätte auch super Vorschläge für den geplanten Wehrgraben vor dem Bundestag, den könnte man hübsch mit Zugbrücke und Türmchen als Erlebnispark aufpeppen, gerne auch mit Fanfaren, wenn die Kanzlerin erscheint. Schließlich sind viele Touristen da, denen muss man doch etwas bieten! Man sieht, gut, dass wir mal darüber geredet haben!
Immerhin hat sie uns die Adresse des Umweltministeriums mitgeteilt (Stresemannstraße 128-130, 10117 Berlin.), wo man sich die Antworten auf die Fragen abholen kann, was klar beweist, dass das Gerücht von wegen Servicewüste Deutschland erstunken und erlogen ist. Da die Bürger, die putzigen Kleinen, bestimmt noch nicht mit dem Internet umgehen können, hat sie ihnen ganz fürsorglich den Weg gewiesen. Danke, Mutti!

Kein Drache, sondern nur ein Gummibärchen

Zwei der diversen im Bundestag vertretenen Parteien, nämlich AfD und FDP haben unsere Klimafragenbeantwortet, die anderen (bisher) nicht. Man kann, muss aber nicht Rückschlüsse über das demokratische Verständnis der im Bundestag vertretenen Parteien ziehen.
Die Antworten der AfD gehen gar nicht. Einfache, klare Sätze mit deutlichem Inhalt – so geht doch Politik nicht! Da kann ja jeder kommen, das kann sogar jeder lesen und verstehen, wo kommen wir denn da hin? Von Merkel lernen heißt schwurbeln lernen, Sätze ohne Inhalt, aber dafür viel heiße Luft, so etwas hat noch jeden Ballon nach oben befördert. Und noch etwas: Man darf doch nicht inhaltlich antworten, z. B. dass der IPCC mangels langfristiger Daten gar nicht sagen kann, ob die Temperatur wirklich fällt oder steigt oder ob es nur zwischenzeitliche Wellenbewegungen sind (Börsianer wissen, wovon ich spreche), das fetzt einfach nicht. Bei Heldenepen muss es einen Helden geben, der gegen irgendetwas kämpft, wogegen ist ziemlich egal, Hauptsache es macht fix etwas her. Wenn man einfach so dahin geht und sagt, da ist aber gar kein Drache, sondern nur ein Gummibärchen, tja dann ist es doch kein Wunder, wenn die anderen einen nicht mögen. So etwas von Spielverderber!
Da macht es die FDP deutlich besser. Zunächst einmal schreibt sie viel. Da sieht man den Profi, als Jurist erkenne ich das natürlich sofort, denn ich weiß: Mangelnden Inhalt kann man am besten hinter vielen Worten verstecken. Kurz zusammen gefasst schreibt sie, dass sie allem sowohl als auch und absolut glaubt, weil alles zweifelsfrei und Wissenschaft sei, alles erwiesen usw..
Dabei ist die Frage 1 der Klimafragen mit dem Zitat, das keine belastbaren Prognosen möglich sind, ein gewisses Problem, denn wenn keine belastbare Prognose für die zukünftige klimatische Entwicklung unter dem Einfluss des anthropogenen CO2 erstellt werden kann, gibt es auch keine Berechtigung für eine Große Transformation einschließlich einer Energiewende, die eine gigantische Herausforderung für Deutschland und die gesamte Menschheit darstellt. Die FDP umschifft diese Problematik clever, indem sie sagt: „Wahrscheinlichkeit und statistische Unsicherheiten sind inhärente Merkmale jeder Forschung, die wissenschaftlichen Grundsätzen folgt.“ Und dass man nicht weiß, sei nicht nur gut, sondern ein Qualitätsmerkmal. Den genialen Einfall hätte ich früher bei einer Mathearbeit gut gebraucht. Aber Leute, wenn Nichtwissen ein Qualitätsmerkmal ist, dann bin ich so etwas von qualitativ hochwertig, das gibt es gar nicht! Ihr könnt mich glatt für jeden Spitzenposten nehmen!

Als politische Handlungsanweisung nicht ausreichend

Nun ist es aber so, dass die Ergebnisse des IPCC zwar hochinteressant sind, aber als politische Handlungsanweisung nicht ausreichend belastbar sind. Nur mal als Beispiel: Für die Modellierung des Klimas ist ein extrem kompliziertes System von partiellen nichtlinearen Differentialgleichungen mit stochastischem Anteil numerisch zu lösen. Um überhaupt rechnen zu können, benötigen die Computer Werte für Rand- und Anfangsbedingungen in diesem System – die Ergebnisse hängen entscheidend davon ab. Diese Bedingungen lassen sich zum großen Teil jedoch nur schätzen. Als Beispiel sei hier nur die Aufnahme und Abgabe von CO2  durch die Böden genannt; wozu die Untersuchungen erst in den Anfängen stecken. Bei Wikipedia kann man zur Einarbeitung der Randbedingungen lesen: „Vor allem die Prozesse in der Biosphäre werden im Augenblick noch als Größen und Parameter vorgegeben.“
Das fügt ein Element der Beliebigkeit in die Modellierungen ein, welches die Ergebnisse entscheidend beeinflussen kann. Denn: In den von ungeheuer komplizierten Wechselwirkungen geprägten Systemen kann sich eine kleine Abweichung von der Realität bei den Annahmen zu großen Fehlern im Ergebnis aufschaukeln. Ein solches Problem lässt sich auch nicht durch eine noch so erhebliche Steigerung der Rechenleistung beheben. Bereits dieser Fakt stellt die Prognosetauglichkeit der Modellrechnungen infrage.
Im Gegensatz zu einer Behauptung von Stefan Rahmstorf, dass „die Klimamodelle seit fünfzig Jahren die globale Erwärmung korrekt vorhergesagt haben “ (SPIEGEL vom 31.01.2020), gab es in der Geschichte der Modellierung bemerkenswerte Defizite. Tatsächlich konnte weder der Abfall der Globaltemperatur zwischen 1945 und 1975 (der übrigens damals führende Klimatologen zur Prophezeiung einer neuen Eiszeit veranlasste) noch die zehnjährige „Hiatuspause“ vorher rechnerisch dargestellt werden. Und im Bericht des IPCC von 2007 hieß es noch: „Die Gletscher im Himalaja sind mit hoher Wahrscheinlichkeit bis 2035 oder vielleicht schon früher verschwunden.“ Nach lebhafter Kritik an dieser Aussage brauchte der Weltklimarat drei Jahre, um sie zu revidieren.
Die zutreffende Beschreibung vergangener Klimaverläufe wäre eine notwendige Bedingung für die Fähigkeit von Modellen, zukünftige Entwicklungen zu prognostizieren – hinreichend ist eine solche Modelleigenschaft noch nicht. Wenn die Modellrechnungen Vertrauen verdienten, sollten deren Ergebnisse im Verlauf ihrer Entwicklung sich wenigstens einigermaßen asymptotisch den belastbaren Resultaten annähern. Stattdessen wurde 2018 eine Änderung der bis vom IPCC vertretenen Vorstellungen um mehr als 100 Prozent verkündet.

So unpräzise wie eh und je

Dies zeigt ein Interview des SPIEGEL vom 05. Oktober 2018 mit einem der Leitautoren des letzten Sachstandsberichtes des IPCC, dem Direktor des Max-Planck-Instituts für Meteorologie in Hamburg, Professor Jochem Marotzke. Er erklärt darin: „Unser verbleibendes CO₂-Budget für das 1,5-Grad-Ziel ist wohl mindestens doppelt so groß wie gedacht, fast tausend Gigatonnen. … Offenbar verbleibt ein kleinerer Teil der ausgestoßenen Treibhausgase in der Atmosphäre, weil Wälder und Ozeane mehr davon schlucken als gedacht.“ Gleichzeitig reduzierte das IPCC die tolerable Grenze der Temperaturerhöhung in diesem Jahrhundert von 2 auf 1,5 Grad. Prof. Marotzke stimmte der Klassifizierung dieses Wertes als „politischer Grenzwert“ in dem Interview zu.
Eine ungeschönte Darstellung der Probleme von Klimamodellierung aus berufenem Mund findet sich in der SPIEGEL – Ausgabe vom 22. März 2019: Prognosen zur Erderwärmung, Warum Wolken der Fluch aller Klimaforscher sind. Darin wird der seit 20 Jahren am Hamburger Max-Planck-Institut für Meteorologie auf dem Feld der Klimamodellierung forschende Bjorn Stevens vom SPIEGEL intewiewt. Er schildert die Schwierigkeiten einer Modellierung des Wolkenphänomens; wir geben hier einige seiner Aussagen wieder: „Die Rechenleistung der Computer ist auf das Vielmillionenfache gestiegen, aber die Vorhersage der globalen Erwärmung ist so unpräzise wie eh und je. …..Es ist nicht leicht, dieses Versagen der Öffentlichkeit zu vermitteln. ….Die Temperaturen in der Arktis zum Beispiel klaffen in den verschiedenen Modellen um teilweise mehr als zehn Grad auseinander. Das lässt jede Prognose der Eisbedeckung wie bloße Kaffeesatzleserei erscheinen.“
Die Behauptung der FDP, es sei unstrittig und wissenschaftlicher Konsens, dass ohne Minimierung der menschlichen Treibhausgasemissionen nicht verantwortbare Schäden entstünden, stehen im Widerspruch z. B. zu den Fakten aus dem Protokoll einer Anhörung von John R. Christy vor dem Ausschuss für Wissenschaft, Weltraum & Technologie der Vereinigten Staaten am 29. März 2017. John R. Christy ist Klimatologe des Staates Alabama und Professor für Atmosphärenwissenschaft sowie Direktor des Instituts für Wissenschaft des Erdsystems an der Alabama Universität in Huntsville, Leitautor und Peer-Reviewer von Veröffentlichungen des IPCC. Die von ihm präsentierten Ergebnisse von 32 Computermodellen des IPCC für Temperaturverläufe in den Tropen beweisen nicht nur, dass von „korrekter Vorhersage“ keine Rede sein kann, sondern zeigen auch die beste Übereinstimmung von berechneten mit gemessenen Werten, wenn der Treibhauseffekt unberücksichtigt bleibt.

Ein lustiges Grünen-Experiment

Immerhin kann sich die FDP freuen. Schließlich will sie ja nur eine Verlangsamung des Klimawandels, damit die Menschen sich besser anpassen können: „Der Klimawandel muss vor allem besser erforscht, begrenzt und in seiner Geschwindigkeit verlangsamt werden. Nur dann können sich unsere Gesellschaften auch erfolgreich anpassen.“
Null Problem, die Verlangsamung der Geschwindigkeit bekommen wir hin, denn wenn alles vom CO2 abhängt, dann haben wir reichlich Zeit gewonnen. Wir haben weltweit nicht nur seit Anfang des Jahres reichlich Zeit eingespart, sondern werden es auch noch ein Weilchen in der Zukunft tun, Corona lässt grüßen. Zugleich fahren wir ein lustiges Grünen – Experiment: Was passiert, wenn wir die Industrie herunterfahren? Wie prall ist es, wenn Reisen eingeschränkt ist? Auch das urbane Leben mit outgoing und socializing ist nicht wirklich klimaneutral, die Einschränkungen konnte man nun testen.
Das neue vegan ist jetzt das „stay home“. Und wie klug ist überhaupt die grüne Vision, zwar gegen Massentierhaltung zu sein, gleichzeitig aber die Massenmenschenhaltung mittels Urbanisierung zu betreiben, damit man richtig super anfällig ist für Viren oder sonstige Ereignisse (Stromausfälle?), die dann ganz einfach mit einem Streich alle Neune kegeln können? Der hochgelobte ÖPNV – die Virenschleuder schlechthin – und fällt es aus, dann sieht der Urbane alt aus. Kann aber passieren, schneller als man denkt.
Was ich aber besonders lustig finde: Kein Klimamodell hat eine Seuche eingepreist, dieser Fall war nicht bedacht. Damit zeigt sich das Problem mit den Vorhersagen der Zukunft bei komplexen Systemen. Es gibt da genau eine, absolut zuverlässige Regel, wonach es erstens anders kommt und zweitens als man denkt.
Anmerkung: Ich danke ausdrücklich und ganz herzlich Herrn Prof. Dr. Dr. Wulf Bennert für seine fachliche Zuarbeit.  
Frau Anette Heinisch ist Rechtsanwältin in Hamburg und Mitinitiatorin von Klimafragen.org
Der Beitrag erschien zuerst bei ACHGUT hier




Die schwierige, nimmer endende Fehlerdiskussion! Oder wie gut sind historische meteorologische Temperaturdaten? Wie wurden sie ermittelt, wie zusammengestellt und wie verarbeitet? (Teil 1)

Teil 2 hier und Teil 3 hier

Mein Beitrag über zwei kleine Anfragen der AfD (hier) zur ungelösten Problematik der absoluten globalen Mitteltemperatur in jüngerer historischer Zeit – die Pariser Klimaübereinkunft bezieht sich sogar auf „Werte vorindustrieller Zeit“ ohne diese auch nur ansatzweise zu beziffern- hat eine große, manchmal hitzige, Diskussion ausgelöst. Mit aktuell 127 Kommentaren und über 3000 Aufrufen (Stand 27.4.20 12:00 Uhr) gehört er sicher zur Klasse der Meistgelesenen. Soweit so gut.
Die z.T. hitzigen Kommentare zeigen m.E.n. aber auch, dass viele Leser mit der zugrunde liegenden, manchmal komplizierten, meteorologischen Messtechnik nicht so vertraut sind, wie sie der Artikel vielleicht voraussetzt. Das hat zur Folge, dass sie nicht auf Anhieb verstehen, warum der Artikel Versäumnisse – gar Falschinformationen-  der Bundesregierung – beanstandet.
Sie vertrauen dabei auf ihre eigenen, oft in wissenschaftlicher Arbeit gemachten Erfahrungen aus eigener Anwendung der Messtechnik und ihrer Behandlung von Messdaten. Diese stimmen aber – so meine eigene Erfahrung – wenig bis nicht mit den hier angewendeten Methoden und Verfahren, insbesondere bei der Erstellung und Bewertung von Zeitreihen, überein. Und sind deshalb in ihrer Schlichtheit selten auf diese Messdaten anzuwenden.
Dies voraus geschickt will ich die Leser jetzt ein wenig in die meteorologische Messtechnik von Temperaturdaten und deren Auswertung einführen. Dabei sollen die alten wissenschaftlichen Grundsätze gelten, klassifiziere erst und vergleiche dann, aber vergleiche immer nur Vergleichbares.
Zunächst schauen wir uns an, wie, wo, wann und wie oft die historischen Temperaturdaten gemessen und vorverarbeitet wurden.
Dann werden wir uns die Bildung von Anomalien aus diesen bereits vorverarbeiteten Daten und die sich daraus ergebenden Besonderheiten anschauen und zum Schluss die Bildung von Zeitreihen, und wie diese auf Fehlerkompensation bzw. Nichtkompensation Einfluss nehmen.

Was nicht behandelt wird.

Gänzlich außen vor lassen wir hier den magischen Trick der Klimaforscher, aus bekannten absoluten Unsicherheiten der Messwerte durch Bildung von Anomalien aus vielen Temperaturdaten statistische Wahrscheinlichkeiten werden zu lassen, die sich mit der bekannten Wahrscheinlichkeitsverteilung der Normalverteilung über ein oder zwei Sigma berechnen ließen. Darüber hat Kip Hansen eine sehr eindrückliche Kritik geschrieben. Sie finden Sie hier unter dem Titel„Der „Trick“ anomaler Temperatur-Anomalien
Weil es das Thema viel zu weit ausdehnen würde, lassen wir auch die merkwürdige Behauptung des Stammvaters aller Klimaängste, James Hansen außen vor, der in einem paper zusammen mit seinem Kollegen Lebedeff 1987[2] behauptet, es wäre möglich auch mit einer sehr geringen Zahl von ca. 80 Gitterzellen gleicher Fläche von 2500 x 2500 km  die Temperaturentwicklung der gesamten Erde zu bestimmen. Und dies obwohl in den meisten Zellen nur sehr wenige, in anderen überhaupt keine Messstationen vorhanden waren. Dieser Artikel war die Grundlage und ist es noch heute, für die Behauptung, dass die Anomalienbildung und deren Korrelation über große Flächen hinweg aussagefähig für die Temperaturentwicklung sehr große Flächen seien. Diese Idee, die jeder Korrelations- und Fehlerrechnung widerspricht, wird hier unter dem Titel Von Korrelationen, Trends bei Anomalien! besprochen
Und ebenfalls lassen wir die Erkenntnis von Dresdner Statistikern außen vor, die nachwiesen, dass selbst echt zufällige Fehler, sofern sie sich in Daten finden, die für autokorreliert sind und in entsprechenden Zeitreihen verwendet werden, systematische Komponenten in der Größe von einigen Zehntel Grad entwickelten. Details dazu finden Sie im Artikel mit dem Titel „Konfidenz-Intervalle* für zeitliche Mittelwerte bei langfristigen Korrelationen: eine Fallstudie zu Anomalien der Temperatur auf der Erde
Am Schluss der Vorbemerkung erlaube ich mir noch den Hinweis auf die Tatsache, dass mit der Bildung von raum- und zeitüberspannenden Durchschnittswerten, die darin enthaltenen Temperaturwerte ihre physikalische Bedeutung als Temperatur verlieren. Es entsteht stattdessen irgendeine Art von Index. Er ist für statistische Zwecke begrenzt brauchbar, wenn man die Randbedingungen beachtet, aber keine physikalische energetisch relevante Größe mehr. Wer dazu genaueres wissen möchte, der sei auf den schöne Beitrag von C. Essex und R. McKittrick von 2006 verwiesen mit dem schönen Titel „Does A Global Mean Temperature exist“[3]
 

Wie, wo und wann wurden die historischen meteorologischen Messdaten gewonnen?

  1. Thermometer

Am Anfang stand und steht das Thermometer. Dabei ist es zunächst egal, ob es ein mechanisches oder ein elektronisches ist, obwohl jede Art einen erheblichen Einfluss auf die (systematischen) Fehler hat, natürlich auch auf die erzielbare Genauigkeit.

  1. Messumgebung

Doch mindestens ebenso wichtig ist die Messumgebung. Diese wird bestimmt durch das Gehäuse (Messhütte), welches das Thermometer vor verfälschenden Umgebungseinflüssen, wie Strahlung, Wind oder Niederschlag aber auch Beschädigung schützen soll, aber auch in starkem Maße von der unmittelbaren Umgebung. Um vergleichbare Ergebnisse wenigstens annähernd zu erreichen, muss dies bestimmten überall vergleichbaren Standards genügen und sorgfältig gebaut und gepflegt werden.

  1. Messregime

Und auch das Messregime ist von entscheidender Bedeutung, nämlich wann und wie oft, von wem und wie das Thermometer abgelesen wird.

  1. Die geografische und zeitliche Abdeckung

Und da das Wetter- wie das Klimageschehen nicht an nationalen Grenzen haltmacht, muss die geografische Abdeckung mit Messstationen gesichert sein, und das sowohl nach Zahl als auch nach Ort und Zeit. Alle drei Anforderungen werden erst seit dem Aufkommen der Satelliten hinreichend erfüllt. Dabei tauscht man die Vorzüge der Satellitenmessung gegen einen enormen Nachteil ein, denn man musste einen unangenehmen Kompromiss akzeptieren. Es ist die sehr schlechte vertikalen Auflösung. Eine Satellitenmessung ist daher immer der Mittelwert von Temperaturänderung über eine Distanz von ca. 5000 m. (z.B. der lower troposphere)

  1. Was geschieht mit den meteorologischen Messdaten? Die Weiterverarbeitung!

Bis zur „Erfindung“ der Idee von der Notwendigkeit einer weltweiten Mitteltemperatur, gab es nur wenige Meteorologen, die die vorhandenen Messdaten nutzen wollten, um evtl. aus ihnen eine weltweite Mitteltemperatur zu extrahieren. Man begnügte sich damit – nachdem solche großartigen Wissenschaftler der Meteorologie wie Köppen die Definition von Klimazonen etabliert hatten- für diese Klimazonen oder Regionen Mitteltemperaturen und deren Jahresgänge zu berechnen. Normalerweise dienten die meteorologischen Messdaten aber vor allem der örtlichen Wettervorhersage und bez. ihrer Langzeit-Analyse auch dazu ggf. lokale Klimaänderungen im Nachhinein zu erkennen.
Anmerkung: Achten Sie mal auf die örtlichen Wetterberichte, dort wird man ihnen so gut wie nie die erwartetet Durchschnittstemperatur der nächsten Tage nennen, sondern ausschließlich deren Maxima und Minimawerte.
Dazu erstellte man Zeitreihen (hier Temperatur-Ganglinien) entweder aus absoluten Werten oder von Anomalien je nach Bedarf, deren erzielbare Genauigkeit für die gewünschten Zwecke völlig ausreichte.
 

Zu 1. Thermometer


Abbildung 1 zeigt eine klassische, deutsche Wetterhütte (erweiterter Stevenson Screen) und (rechts) ein darin befindliches modernes Thermometerensemble gezeigt,  wie es immer noch in vielfältiger Vewendung ist. Die senkrechten Thermometer sind (links) das Assmansche Aspirationthermometer zur Temperaturmessung, rechts daneben ein befeuchtetes und belüftetes Psychrometer zur Messung der Luftfeuchte. Quer darunter befinden sich zwei liegende Thermometer zur Messung von Max. und Min. Temperaturen. Die runde Plastiktrommel enthält den Federmotor mit Ventilator zur Erzeugung des Luftstromes mit Ø 2,5 m/s vor und während der Messung. Im März 2009 vom Autor im Metereologischen Institut der Freien Universität Berlin aufgenommen
Obwohl schon Galileo erste Versuche unternahm mit einem Thermometer meteorologische Messungen zu machen, und sich danach ein ziemlicher Wildwuchs an solchen Thermometer ausbreitete, weil viele Landesfürsten die aufkommende Meteorologie aus naheliegenden Gründen für äußerst wichtig hielten, kann man erst ab 1892 von einem Standardinstrument für meteorologische Zwecke sprechen. Es handelt sich dabei um das zwangsbelüftete Assmansche (Quecksilber gefüllte) Aspirationsthermometer (linkes, senkrechtes Thermometer). Die zuvor verwendeten tlw. mit Alkohol gefüllten Thermometer mit mehr als ± 1 Kelvin Gesamt-Unsicherheit wurden nach und nach weltweit ersetzt. In den angelsächsisch orientierten tlw. auch regierten Ländern setzte sich hingegen oft zusätzlich das Max-Min-Thermometer durch.
Doch allein die Wahl des Thermometers, sein jeweiliger Zustand, seine Montage, sein Betrieb und seine Ablesung sorgen für eine ganze Reihe von zufälligen wie systematischen Fehlern. Diese wurden vielfach sorgfältig untersucht, aber nur in geringer Anzahl auch quantitativ bestimmt und damit überhaupt erst theoretisch korrigierbar.
 

Zu 2. Messumgebung

Für die Messumgebung war von Anfang an klar, dass dieses zuallerst eine Art Schutzhütte sein sollte, von denen besonders im 19 Jahrhundert eine ganze Reihe von Konstruktionen erprobt wurden, wobei sich letztendlich die erweiterte englische Hütte als Standard durchsetzte. Doch bis dahin waren die (wenigen) Messergebnisse praktisch unvergleichbar, weil die Hütte auf ihre eigene Art die Messergebnisse beeinflusste.

Abbildung 2 Darstellung der zum Ende des 19. Jahrhunderts und bis heute verwendeten Hüttentypen bzw. Screens von links: französische Hütte, daneben (kaum erkennbar)  Mitarbeiter zum Größenvergleich, daneben (Original) Stevenson Hütte, dann Wildsche Hütte, dann mehrere erweiterte Stevenson Hütten und moderne runde kleine Screens. (Quellen. Linkes Bild [Sprung, 1890] rechtes Bild: KNMI Messfeld von van der Meulen  für die Zeit von  1989-1995)
Praktisch unkorrigiert, obwohl seit langem bekannt, ist der systematische Fehler, der allein durch die Wärmeträgheit der Hütte entsteht, und der ca + 1 bis 2 Kelvin zu jedem Ergebnis der eigentlich gesuchten Außentemperatur hinzuaddiert. Praktischerweise definieren jedoch die Meteorologen die Temperatur in der Hütte[4], als die gesuchte Außentemperatur. Woraus geschlossen werden muss, dass jede durch diese Messungen gewonnene absolute Temperatur im Mittel im 1 bis 1,5 Kelvin gegenüber der wahren Außentemperatur zu hoch sein muss.

Abbildung 3(links): Englische Hütte und moderne Messstation am Messort Detroit Lakes USA, kurz vorher aufgenommen und ins Netz gestellt am 25.07.07 von A. Watts; (rechts) Temperaturverlauf aus der GISS Datenbank zur Messstelle Detroit Lakes USA
Beispiel für den Zustand und Umgebung einer meteorologische US Messstation sowie deren Zeitreihe ihrer Jahresmittelwerte, die vom Projektteam untersucht wurde. Man beachte den Sprung ab etwa dem Jahr 2000 und die Entlüftungen der Klimaanlagen in unmittelbarer Nähe.
Nicht weniger Einfluss hat die unmittelbare Umgebung in der die Messhütte.
Zur Klärung dieses Sachverhaltes hat sich der Meteorologe und Betreiber des inzwischen weltweit erfolgreichsten Klimarealisten- Blogs Wattsupwiththat Antony Watts große Meriten erworben. Er rief 2007 das SurfaceStationorg. Netzwerk ins Leben, das 2009 erfolgreich mit einer Veröffentlichung [5]abgeschlossen wurde. Freiwillige im ganzen Land untersuchten über 850 der 1200 meteorologischen Messstationen, die von der US-Wetter- und Ozeanbehörde NOAA betrieben wurden.

Abbildung 4 Untersuchung von bisher (Ende Februar 2009) 854 von 1221 offiziell verwendeten Messstationen der unterschiedlichsten Art. Man beachte, dass nur 3 % aller Stationen dem Standard voll entsprechen,  weitere 8 % können evtl. noch als dem Standard genügend zugeordnet werden. Die restlichen 89 % zeigen jedoch potentielle Abweichungen nach den Vorgaben der CRN von mindestens 1 °C (20 %) über 2 °C ( 58% ) bis 5 °C (11%).
Auswertung der Überprüfung von 807 US Messstationen in Bezug auf die offizielle Einstufung ihrer Qualität und Umgebung (CRN).
Das Ergebnis war erschreckend. Der Zustand der Messstationen und damit die Messergebnisse waren miserabel. 89 % von ihnen lagen oberhalb der Fehlerklasse 2, was bedeutet, dass sie > 2 ° C bis > 5 °C fehlerhafte Ergebnisse zeigten. Nur 3 % lagen gleich oder unterhalb von 1 °C. Und noch schlimmer war, dass diese Stationen für die gesamte Welt sozusagen als Goldstandard in Punkto Qualität galten. D.h. die vom IPCC und ihren Zuarbeitern immer wieder herangezogenen Daten aus den anderen Kontinenten waren mit hoher Wahrscheinlichkeit noch schlechter.
Es würde hier zu weit gehen, die vielfältigen Fehlerquellen allein der landbasierten Messstationen aufzulisten, daher beschränke ich mich auf zwei kurze Ergänzungen.

  1. Selbst bei identischer Konstruktion von Hütte und Messinstrument, ergeben sich große Unterschiede allein durch das Material und seinen Anstrich, bzw. dessen Veränderung über der Zeit, z.B. durch Alterung
  2. Sind die landbasierten Messungen schon oft mit mehr (systematischen) Fehlern behaftet als ein Hund Flöhe hat, so ist das bei den seegestützten Messungen noch weit schlimmer. Und weil das Land nur 29 % der Erdoberfläche bedeckt, aber 71 % der Erde Ozeane sind, ist dieser Umstand eigentlich noch schlimmer. Denn dort sind die Messungen wirklich nur punktuell, d.h. äußerst selten sowohl in räumlicher als auch in zeitlicher Hinsicht. Ein wenig wird dieser Mangel gelindert durch die Tatsache, dass statt der eigentlich gesuchten Lufttemperatur, stattdessen, als Proxy, die Temperatur der Seewasser Oberfläche (SST Sea Water Surface Temperature) verwendet wird. Wegen der großen Wärmeträgheit und guten -Leitfähigkeit des Wassers deckt ein Messpunkt im Vergleich zum Land viel größere Gebiete ab.

Wer Interesse daran hat, diese Fehler etwas genauer behandelt zu sehen, der sei auf das Video „Wie glaubwürdig sind die Zeitreihen historischer Klimadaten“ (hier) verwiesen, dass einige der wichtigsten Aspekte zu diesen Fehlern aufzeigt.
Ende Teil 1
[1] https://www.wsj.com/articles/SB10001424052970204422404576594872796327348#printMode
[2] HANSEN, JAMES LEBEDEFF, SERGEJ (1987) Global Trends of Measured Surface Air Temperature. JOURNAL OF GEOPHYSICAL RESEARCH 92:13345 13372.
[3] Essex, C, Mc Kittrick, R. Andresen, B. (2006) Does A Global Temperature Exist? Non-Equilibrium Thermodynamics
[4] Weischet [Weischet, 1995] S115 – S 109 ff
[5]  Is the U.S. Surface Temperature Record Reliable?  By Antony Watts SurfaceStations.org ISBN 13: 978-1-934791-29-5
Für alle, die diese Information am Stück lesen wollen hier das Ganze als pdf Die schwierige nimmer endende Fehlerdiskussion




Der Schwindel von der vermeintlich grünen und erneuerbaren Energie

Hackschnitzel! Ich sage nur: Hackschnitzel werden die Welt retten. Das ist die Quintessenz der Rede von Mr. Bill McKibben. Der ist Umweltaktivist und Buchautor, schreibt Bücher über die globale Erwärmung, »End of Nature« und andere Katastrophen, ist also so etwas wie der amerikanische Franz Alt, nur noch viel lauter. Während Franz Alt einst Chinagras als Rettung der Welt propagierte und daran verdienen wollte, predigt McKibben bei der Einweihung eines holzbefeuerten Kraftwerks am Middlebury College in Vermont eben Hackschnitzel.
»Es ist unglaublich schön, sich den Hackschnitzelbunker anzusehen. Alles, was brennt, können wir dort hineinwerfen! Das zeigt, dass dies überall passieren könnte, überall passieren sollte und überall passieren muss!«
Zu sehen sind diese Szenen in dem neuesten Werk »Planet of the Humans« des amerikanischen Dokumentarfilmers Michael Moore, welches er gerade zum »Tag der Erde« auf Youtube gestellt hat.

Die Ikone der amerikanischen Grünen und Lefties schaut sich die Hinterlassenschaften der Green Energy Industrie an. Die erschrecken ihn – erstaunlicherweise.

Beispiel Daggett, California: Hier sieht er kilometerweit nur Schrott und Müll. Die Reste des einstigen Traums von ach so umweltfreundlichen Solarkraftwerken. Mit »SEGS« begann es, mit«Solar Electric Generating Systems«, neun thermischen Sonnenwärmekraftwerken. Wo? Natürlich im grünen Kalifornien.
Heute steht unter anderem in der Mojave-Wüste das Solarkraftwerk Ivanpah. Tausende von Spiegeln konzentrieren Sonnenlicht in einen Turm und erhitzen dort eine Salzlösung, die die Wärme zu einem Kraftwerk weiterleitet. Die Sprüche und Ankündigungen zu solchen »grünen« Projekten und weltbeglückenden Visionen sind immer lautstark. »Das wird die größte Solarfarm in der Welt«, zitiert Moore den damaligen Gouverneur von Kalifornien, Arnold Schwarzenegger. Normale Menschen würden in dieser Wüste nur eine tote Landschaft sehen, er aber sehe eine Goldgrube.
500 Jahre alte Yukka-Palmen mussten für die »Goldgrube« geschreddert werden. Hunderte alter Wüstenschildkröten kostete der Bau der Solarfarm das Leben. Denn Wüsten sind nicht tot.
Der Film zeigt sehr trocken die Lügen der angeblich so grünen und erneuerbaren Energie. Man sieht die Gaszuleitung zu dem Solarkraftwerk. Ohne Gas würde die gewaltige Industrieanlage nicht funktionieren. Für das Anfahren des Solarkraftwerkes muss viel Gas verbrannt werden, um die Salzlösung, die die Wärme transportieren soll, aufzuheizen.
Erstaunlicherweise hat das Kraftwerk in seiner Betriebsgenehmigung die Erlaubnis, Stickoxide auszustoßen. Dabei ist es doch scheinbar umweltfreundlich. Das Kraftwerk bezahlt sogar für sogenannte CO2 Zertifikate. Dabei wurde dies als geniale Energiequelle weltweit gepriesen, auch in Spanien, in den Pyrenäen und in Marokko entstanden mit vielen Steuermillionen geförderte Solarkraftwerke, die mit enormem technischen Aufwand das Sonnenlicht zu bündeln versuchten, um wenigstens einigermaßen brauchbare Temperaturen zu erreichen und daraus Strom zu fabrizieren. Zumindest während einiger Stunden am Tag, wenn die Sonne scheint und keine Wolken den Himmel verdecken.
»Ich musste lernen, dass auch Solarpanels nicht ewig halten«, sagt im Film ein Experte auf einer Messe für Energien. Die halten teilweise nur zehn Jahre. Das sei keine magische Energie. »Ich weiß also nicht, ob das die Lösung ist,« lacht er, »und hier helfe ich, die Materialien für Fotovoltaikanlagen zu verkaufen.«
Moore schaut hinter die Batterie-Gigafactory von Tesla inmitten der Wüste von Nevada. Gründer Elon Musk wird nicht müde zu betonen, dass die benötigte Energie ausschließlich von Wind und Sonne kommt. Hinter den Gebäuden allerdings sieht man das Umspannwerk und den Anschluss an das allgemeine Stromnetz.
Er entlarvt die Umweltpropaganda des Computergiganten Apple. »Wir hören nie auf, darüber nachzudenken, was das Beste für den Planeten ist – in allen unseren Fabriken weltweit.« Das ruft laut auf einer der legendären Apple-Konferenzen ausgerechnet Lisa Jackson in die begeistert applaudierende Menge. Jackson war übrigens die ehemalige Leiterin der amerikanischen Umweltbehörde EPA. Apple heuerte sie an.
Moore schneidet die Aussage eines Energieversorgers dagegen, der erzählt, wie Apple immer noch Strom aus ihrem Netz bezieht. Einen solchen Konzerngiganten kann man eben nicht mit Wind- und Sonnenstrom versorgen.
Moore zeigt auch die Profiteure der »Erneuerbaren«, im Fall des Solarkraftwerkes die Koch Brothers, die in ihrem Industrieimperium Guardian Glass Industry die Unmengen an Spiegel hergestellt haben sowie mit den Baustoffen Zement und Stahl kräftig verdient haben.
Man sieht den gewaltigen Materialverbrauch und die gigantischen Flächen, die für die Sonnen- und Windindustrieanlagen benötigt werden. 16 mal mehr Materialien wie Zement, Glas, Beton und Stahl verbrauchen solche Sonnenkollektoranlagen als Kernkraftwerke und erzeugen 300 mal mehr Abfall. Diese Materialien müssen abgebaut und mit hohem Energieaufwand geschmolzen und verarbeitet werden.
Im O-Ton hören wir: »Es wäre besser gewesen, fossile Brennstoffe einfach nur zu verbrennen, anstatt nur so zu tun, als ob. Wir werden im Grunde nur mit einer Lüge gefüttert«.
Moore vergisst jedoch zu sagen, dass dies prinzipbedingt ist. Die Leistungsdichten von Wind und Sonne sind zu gering, um damit nennenswerte Energien für ein Industrieland zu erzeugen. Das hat die Natur passend eingerichtet; würde die Sonne deutlich stärker auf uns herunterbrennen, könnten wir uns nicht mehr auf die Wiese legen, und schon bei einem starken Orkan hält es uns kaum noch auf den Füßen.
Eine weitere Folge des gigantischen Flächenverbrauches der »Erneuerbaren«: Brasilien muss exorbitant große Flächen zerstören und dort Zuckerrohr anbauen, um den sogenannten Biokraftstoff herzustellen. Ethanol aus Zuckerrohr benötigt ungefähr 400 mal mehr Fläche, um die gleiche Energiemenge wie Erdöl zu erzeugen.
McKibben preist im Film Deutschland, dass 80 Prozent seines Stroms aus Sonnenenergie erzeuge. Doch fehlt wieder der zweite Teil der Information, dass damit nur ein Drittel des Stromes erzeugt werde – und das nur dann, wenn der Wind weht und die Sonne scheint. Ohne Kohle und Kernkraftwerke und ohne zusätzliche Hilfslieferungen an Strom aus den Nachbarländern wäre bald Schicht im Schacht. Im Film wird sogar deutlich gesagt: Ohne Speichermöglichkeit kann man nicht auf Strom aus Wind und Sonne zählen. Die gibt es nicht – zumindest in absehbarer Zeit nicht.
Der Filmautor kommt folgerichtig auf die Frage, warum »wir« mit grüner Energie die Umwelt schädigen. Über das »Warum« sinniert und sinniert sehr langatmig: Was treibe Menschen, die sagen, die Umwelt retten zu wollen, sie zu zerstören? Das funktioniere also nicht. Kryptisch deutelt Moore, ob der Wunsch nach Nachhaltigkeit nicht in Wirklichkeit eine Art Wunsch nach Unsterblichkeit sei.
Die malthusianische Antwort, wir seien zu viele auf der Erde, ist zu kurz gesprungen. In der Erde stecken noch schier unerschöpfliche Mengen an Energie. Das Ende des Erdöls jeweils in 25 Jahren wird alle 25 Jahre aufs Neue wiederholt.
Entscheidend sind eher ganz handfeste Fragen, wie man sie in vor-ökologischen Zeiten gestellt hätte. Wie hoch ist die Leistungsdichte der jeweiligen Energie? Nicht umsonst löste Kohle einst die Holzverbrennung ab und rettete damit übrigens die Wälder. Öl und Gas verfügen über noch mehr Energie. In wichtigen Ländern wird die Kernkraft als die Energie mit der größten Leistungsdichte genutzt, nur in Deutschland nicht mehr.
Hierzulande gäbe es ebenfalls genügend Stoff für eine solche Dokumentation: 30.000 Windräder verunstalten Landschaften, die ersten zehntausend sind bereits schrottreif, doch keiner weiß, wohin mit den kritischen Rotorblättern. Auf Millionen von Dächern und auf den Äckern liegen hektarweise Fotozellen, die später als Sondermüll entsorgt werden müssen.
Das nächste Desaster deutet sich schon an. Der Euro 5 Diesel wurde einst steuerlich gefördert, schließlich emittierte er doch weniger CO2 als seine Vorgänger. Grund: Mit glänzend weiterentwickelter Technik nutzt er den Energiegehalt des Treibstoffes besser aus. Doch der wird gerade von den Umweltindustrietrupps unter einem ihrer Hauptakteure, dem derzeitigen Staatssekretär im Bundesumweltministerium, Jochen Flasbarth, zerstört.
Seit einiger Zeit werden Pelletheizungen propagiert und erheblich gefördert. Doch die belasten die Luft mit NO2 in immer stärkerem Masse, sind bereits jetzt – wie das unfreiwillige Corona-Experiment in den Städten gerade zeigt – für die NO2 Werte in den Städten verantwortlich. Wenn die NO2-Grenzwerte weiter abgesenkt werden soll, müssen als Nächstes Pelletheizungen verboten werden.
Da sage noch einer Hackschnitzel.
Der Beitrag erschien zuerst bei TE hier




Antwort – 3 –  auf den Artikel von Justus Lex „Dürfen die das ?“

In Zeiten, wo eine Frau Künast in 1. Instanz als „Stück Scheiße“ oder Frau Weidel als „Nazi-Schlampe“ gerichtlich abgesegnet wurden, nehme ich das mal als „Satire“ hin; stilvoll ist das in meinen Augen nicht.
Auch wie Frau Bahner von ihren Berufskollegen abqualifiziert wurde, war bemerkenswert. Ich persönlich gehe nicht davon aus, dass sie ihr Examen „im Lotto gewonnen“ hat.
Merkwürdig fand ich, dass die eigentliche Frage, nämlich der Schutz unserer Grundrechte, bei den Diskussionsbeiträgen eine nicht so große Rolle gespielt hat.
Laut Tagesschau.de gibt es inzwischen eine neue Entscheidung des sog. Bundesverfassungsgerichtes (siehe Art. 146 GG) zu der Frage, ob das in den diversen Verordnungen zur Corona-Krise enthaltene  Demonstrationsverbot zulässig sei. Zur Erinnerung Art 8 GG:

Grundgesetz für die Bundesrepublik Deutschland
Art 8 

(1) Alle Deutschen haben das Recht, sich ohne Anmeldung oder Erlaubnis friedlich und ohne Waffen zu versammeln.
(2) Für Versammlungen unter freiem Himmel kann dieses Recht durch Gesetz oder auf Grund eines Gesetzes beschränkt werden.

Beides ist ja nach den Corona-Verordnungen verboten. Nun gibt es aber eine neue aktuelle Entscheidung des BVerfG zu den Versammlungsverboten:
Im konkreten Fall hatte die Stadt Gießen zwei Versammlungen verboten, die unter dem Motto „Gesundheit stärken statt Grundrechte schwächen – Schutz vor Viren, nicht vor Menschen“ angemeldet worden waren. Sie sollten heute und morgen in der Innenstadt stattfinden. Der Veranstalter gab an, dass die Zahl der Teilnehmer auf etwa 30 Personen begrenzt werde. Ein ausreichender Abstand zwischen den Teilnehmern werde gewährleistet.
Die Stadt verbot die Demonstrationen. Begründung: Nach der hessischen Corona-Verordnung seien Versammlungen von mehr als zwei Personen, die nicht dem gleichen Hausstand angehören, generell verboten. Der Veranstalter legte Widerspruch ein. Dieser wurde vom hessischen Verwaltungsgerichtshof zurückgewiesen.
Das Bundesverfassungsgericht hob diese Entscheidung nun auf. Die hessische Verordnung enthalte kein generelles Verbot von Versammlungen von mehr als zwei Personen. Vor einem Verbot müssten alle Umstände des Einzelfalls und damit auch die zugesicherten Schutzmaßnahmen hinreichend geprüft werden. Dies sei nicht geschehen. Damit habe die Stadt Gießen den Antragsteller offensichtlich in seinem Grundrecht auf Versammlungsfreiheit verletzt.
Gießen reagierte ganz großherzig umgehend auf die Karlsruher Entscheidung: Die Versammlung sei jetzt zugelassen, sagte Bürgermeister Peter Neidel. Man habe die Kundgebung auf eine Stunde und die Teilnehmerzahl auf maximal 15 begrenzt. – Rache muss sein, kann man da nur feststellen. Wollen doch sehen, wer hier was zu bestimmen hat. Was soll man von solch einem Bürgermeister halten? Ich spare mir den Kommentar.
Ganz spannend ist m.E. ein Interview der Freien Welt mit Dr. Ulrich Vosgerau (https://www.freiewelt.net/interview/die-politik-war-ueberhaupt-nicht-vorbereitet-10080969/) Das ist der Jurist und Staatsrechtler, der trotz des Art. 5 GG quasi über Nacht den zugesagten Lehrstuhl in Münster verloren hat, weil er eine Meinung vertreten hat, die irgendjemanden nicht gefiel. Diese Meinung können Sie nachlesen in seinem Buch: „Die Herrschaft des Unrechts“. Googeln Sie mal den Art. 5. GG:
Jeder hat das Recht, seine Meinung in Wort, Schrift und Bild frei zu äußern…. Eine Zensur findet nicht statt.
Aber das kennen wir ja schon von Eva Herman und vielen anderen. Im Art. 5 steht leider nicht, dass man, wenn man seine Meinung frei äußert, u.U. ausgegrenzt wird. In der Schule habe ich mal gelernt, dass dies ein Zeichen von Faschismus sei. Was das erstaunliche ist, dass man dann nie so genau erfährt, wem diese Meinung nicht so gut gefallen hat usw. Und unsere Alt-Parteien beschimpfen ja immer die anderen als Populisten, Faschisten, rechts und bald nur noch rechtsextrem und merken dabei gar nicht, dass diese Aussagen auf sie selbst zurückfallen.
 

Zu dem Interview: 

Frage: Wie gut war oder ist Deutschland auf einen Katastrophenfall wie die Corona-Pandemie vorbereitet?
Ulrich Vosgerau: „Die Politik war überhaupt nicht vorbereitet, obwohl sie es hätte sein müssen.“
Bereits 2012 war die Corona-Epidemie in einer Art Planspiel durchgespielt worden unter Federführung des Robert-Koch-Instituts (RKI). Die Ergebnisse sind dem Deutschen Bundestag vorgelegt worden (Bundestags-Drucksache 17/12051).
Dort findet man die detaillierte Vorhergesage: Eine Variante des Sars-Virus wird Fieber, trockenen Husten und Atemnot auslösen und das Virus stammt von Wildtiermärkten in Südostasien her. Das Szenario von 2012 ging von einem sieben Millionen Toten in Deutschland aus. Seit 2012 wäre sehr viel Zeit gewesen, die Erkenntnisse der Großübung und der Studie zu nutzen, um Vorräte an Schutzkleidung, Atemmasken und Beatmungsgeräten anzulegen und Krankenhausbetten zu vermehren und nicht zu vermindern. Hat man aber nicht gemacht.
Frage: Die Regierungen von Bund und Ländern haben in kurzer Zeit viele bürgerliche Freiheitsrechte eingeschränkt. Das Recht auf Bewegungsfreiheit, Versammlungsfreiheit, wirtschaftliche Betätigung… Können Sie uns erklären, auf welcher verfassungsrechtlichen Grundlage das geschieht?
Ulrich Vosgerau:Das passiert auf gar keiner verfassungsrechtlichen Grundlage, und hier liegt ein wichtiges Problem.
Notstandsgesetze gelten nur für den Verteidigungsfall. Wir haben allenfalls eine „Naturkatastrophe“, und diese rechtfertigt den Einsatz der Bundeswehr im Innern, so wie bei der Hamburger Sturmflut von 1962, aber nicht die Einschränkung von Grundrechten. Denn das besondere Verwaltungsrecht ist kein allgemeines Notstandsrecht. „Das Infektionsschutzgesetz ermächtigt die Behörden, infizierte Personen, die also eine Gefahr für ihre Umwelt darstellen, notfalls auch gegen ihren Willen zeitweise zu internieren. Aber es ist sicher nicht dafür gedacht, lauter gesunde Personen, bei denen bislang keinerlei Indiz, keinerlei Anfangsverdacht auf eine Infektion besteht, auf unabsehbare Zeit aus dem Verkehr zu ziehen.
Einfaches Beispiel: Die Polizei ist ermächtigt, einen betrunkenen Mann, der irgendwo am Abend randaliert, in Gewahrsam zu nehmen, bis er sich wieder beruhigt hat. Man hielt es aber bislang nicht für gerechtfertigt, am Abend einfach allen Männern den Ausgang zu verbieten, damit sie sich gar nicht erst betrinken können.
Frage: Gibt es unter diesen Maßnahmen welche, von denen Sie als Staatsrechtler sagen würden, dass sie verfassungsrechtlich bedenklich sind? „
Die Anwendung des Polizei- und Ordnungsrechts ist kein allgemeines Notstandsrecht, sondern steht immer unter dem Vorbehalt der Verhältnismäßigkeit. D.h., es müsste für jede einzelne Maßnahme sorgfältig abgewogen werden, ob es nicht ein milderes Mittel gibt, also z.B. die Isolierung der Infizierten und die Abschottung der Alten- und Pflegeheime ohne eine generelle Stilllegung der gewerblichen Wirtschaft.  Jeder muss selbst entscheiden, ob er z.B. eine Buchhandlung aufsuchen will oder nicht.
Frage: Wie handlungsfähig ist die Gerichtsbarkeit und die Verfassungsgerichtsbarkeit in dieser Situation? Besteht aus ihrer Sicht noch eine ausreichende rechtliche Kontrolle der Politik? „
Ulrich Vosgerau: Die Rechtsprechung vielen, Anlass zur Sorge; sie wirkt wenig effizient. In den zahlreichen einstweiligen Rechtsschutzverfahren, die bisher schon angestrengt worden sind – gegen Ausweisungen aus norddeutschen Landkreisen bzw. dem Bundesland Mecklenburg-Vorpommern, gegen Ausgehverbote und Verbote von Gottesdiensten, gegen faktische Berufsverbote – haben die Kläger im einstweiligen Rechtsschutz alle verloren, also z.B. sogar in den Fällen, wo Bürger mit Zweitwohnsitz ausgewiesen wurden, was ich nicht für möglich gehalten hätte.
„Dass wir insofern in einem Tollhaus leben, sehen wir etwa am Fall von Monika Maron. Da lebt eine 78jährige Frau – voll und ganz Risikogruppe, sie sollte sich also möglichst in Sicherheit bringen! – auf einem Dorf allein in einem Haus, und die Behörde ordnet aus Infektionsschutzgründen an, dass sie ins überfüllte Berlin zurückkehren soll. Hier in Berlin ist es ja offensichtlich so: die ganzen Neuinfektionen werden wohl zu einem Großteil aus dem Öffentlichen Personennahverkehr kommen, den man nicht stilllegen will bzw. nicht stilllegen kann, und es nützt nichts, den ÖPNV nicht mehr zu benutzen, denn wenn man im Supermarkt ein Brot kaufen will, trifft man auf lauter Menschen, die gerade mit besten Infektionschancen aus der U-Bahn ausgestiegen sind. Das wäre in Mecklenburg anders.“
Ein Staat, der seit dreißig Jahren die ökonomische Globalisierung vorangetrieben hat und u.a. dadurch auch sagenhafte Steuereinnahmen hatte, hätte eben Vorsorge für die Nebenfolgen der Globalisierung treffen müssen – ob das nun die neue Völkerwanderung ist oder das neueste Fledermausvirus aus dem Reich der Mitte. 
Frage: „Derzeit stehen Euro-Bonds unter dem Namen „Corona-Bonds“ wieder auf der Agenda. Inwieweit ist diese Vergemeinschaftung der Schulden mit dem deutschen Grundgesetz und den europäischen Verträgen vereinbar?“
Ulrich Vosgerau: Gar nicht!
Er führt aus, dass wir die Euro-Bonds ja faktisch schon längst haben, nämlich in Gestalt der Anleihenkäufe durch die EZB. In Deutschland sei ja offenbar sogar die SPD gegen „Corona-Bonds“. Das Problem ist nur, dass sich gleichzeitig alle darauf geeinigt zu haben scheinen, dass die Corona-Krise in den überschuldeten Eurostaaten wie Italien aus dem ESM-Mechanismus bezahlt werden soll. Hätten die Italiener sich seit 1992 jemals an den Vertrag von Maastricht gehalten, hätten sie ja die Schulden nicht und könnten selber zu niedrigen Zinsen Geld aufnehmen. Dafür sei der aber auch nicht da!
Ich habe daher in der letzten Zeit einmal zu sondieren versucht, ob Kläger, die etwa schon im Zusammenhang mit der Errichtung des ESM und dann den Anleihekäufen durch die EZB aktiv waren, heute bereit wären, gegen die Zweckentfremdung des ESM-Mechanismus zu klagen, wenn man ihn schon nicht wegbekommt. Aber viele scheinen auch des Klagens müde, der EuGH ist parteiisch, das Bundesverfassungsgericht oft feige und politikhörig. Das hat manchen Kläger entnervt.“

Ergebnis: Es ist also anzunehmen, dass nun eine Klagewelle gegen die Anordnungen der Bundes- und Länderregierungen anrollt, den die vorsichtigen Änderungen dürften gegen eine Reihe von Grundsetzen des Grundgesetzes verstoßen, z.B. den Gleichheitsgrundsatz.