Dezember­rückblick 2016, Hochwinter­ausblick 2017

1. Die langfristige Entwicklung der Dezembertemperaturen und der „CO2- bedingte Klimawandel“

Der 2015er, frühlingshafte Dezember mit ersten Frühblühern wurde oft als Vorbote der „Klimaerwärmung“ gedeutet. Doch sehr milde Dezember gab es auch vor mehr als 40 Jahren schon, beispielsweise 1974. Betrachtet man den Temperaturverlauf seit jenem Dezember in Erfurt-Weimar (offizielle Station des Deutschen Wetterdienstes DWD), so erlebt man eine Überraschung:

Den geringen (nicht signifikanten) Temperaturanstieg erkennt man kaum, und das, obwohl der 2015er Dezember deutlich wärmer als der 1974er ausfiel. Zumindest im letzten Monat des Jahres fand also der „CO2- bedingte Klimawandel“ bislang nicht statt, denn die Erfurter Werte sind nicht wärmeinselbereinigt (am Flughafen Erfurt- Weimar nahmen Verkehr und bebaute Flächen seit den 1970er Jahren zu, was zumindest leicht erwärmend wirkte und vermutlich neben einer geringfügigen Zunahme der Tage mit Südwestlagen und einer erhöhten Sonnenscheindauer um etwa 17 Stunden seit 1974 die Ursache der Mini- Dezember- Erwärmung ist). Ein nahezu identisches Bild zeigt sich übrigens in Zentralengland, auch dort blieben die Dezembertemperaturen seit 1974 nahezu unverändert. Nun mögen Kritiker bemängeln, es habe sich aber seit 1881, dem Beginn vertrauenswürdiger Messungen in Deutschland, deutlich erwärmt. Das ist korrekt und soll keinesfalls verschwiegen werden, doch jenseits des Atlantiks finden sich Stationen, welche sich schon seit 1881 so gut wie gar nicht erwärmten; ein Beispiel von der US- Ostküste möge das belegen:

2. Besonderheiten der Dezemberwitterung 2016- Die Praxis widerlegt die Theorie der CO2- bedingten Erwärmung

Beim täglichen Blick auf das Barometer fiel der fast stets deutlich zu hohe Luftdruck auf. Wahrscheinlich gab es einen neuen Rekord des Dezember- Luftdruckmittelwertes, was aber erst nach Vorliegen aller Werte endgültig feststehen wird. In Potsdam wurde der bislang höchste Dezembermittelwert 1972 mit 1013,35 hPa (in Barometerhöhe, nicht auf NN reduziert) gemessen. Aber der hohe Luftdruck, der zwischen West-, Mittel- und Südosteuropa pendelte, ging mit fehlender Kaltluftzufuhr, meist schwachem Wind, gebietsweise viel Sonne und zu wenigen Niederschlagstagen einher; trotzdem gab es einige beachtlich kalte Nächte. Die Luftmasse, meist eine im Winter recht milde maritime Subpolarluft (mP), wandelte sich direkt über Mitteleuropa bodennah in gealterte Subpolarluft (xPs oder die trockenere cPs) um, während in der Höhe Warmluftadvektion herrschte, welche den Höhenkeil und das riesige Bodenhoch immer wieder aufbaute. In den klaren, windschwachen Nächten kühlte die Luft bodennah trotz der hohen CO2- Konzentration (im Mittel schon über 400 ppm) und der Höhen- Warmluft stark aus. Zeitweise entstand eine kräftige Inversion (Temperaturumkehr) zwischen dem Thüringer Becken oder dem Werratal (dort sammelte sich die schwere Kaltluft mit teilweise zweistelligen Minusgraden) und den Mittelgebirgsgipfeln mit Temperaturen um 0°C. Die folgende Abbildung zeigt die Wetterlage am Morgen des 05.12.2016:

Das umfangreiche, kräftige Hochdruckgebiet über Südosteuropa reichte bis nach Mitteleuropa. Das Luftdruckgefälle und folglich auch der Wind waren über Mitteleuropa nur sehr schwach (großer Abstand der Isobaren). Die nächste Abbildung mit wenigen Temperaturmeldungen in °C illustriert die enormen Temperaturunterschiede über Mitteldeutschland am Morgen des 5. Dezember, welche allein durch die starke nächtliche Ausstrahlung entstanden waren:

Am 20. Dezember entstand dann erneut ein umfangreiches, mit Nebel gefülltes Kaltluftreservoir im Thüringer Becken und dem südlichen Sachsen- Anhalt. In der Weimarer Mulde schien ab dem späten Vormittag bei +1°C zwar die Sonne, doch der Druck der am Ettersberg aufgestauten Kaltluft war so groß, dass Nebel noch nach 13 Uhr die nördlichen Ortsteile Weimar- Waldstadt und Schöndorf zeitweise einhüllte, sich beim Absinken mit nordöstlichem Wind Richtung Ilmtal auflösend (ganz schwacher Nordföhn). Aber kaum wurde die Sonne schwächer, überflutete der gefrierende Nebel (Zeichen ww49 nach WMO- Schlüssel) ab 14.45 Uhr den gesamten Großraum Erfurt/Weimar und verschwand erst in der zweiten Nachthälfte aus dem Ilmtal. Dieses Beispiel verdeutlicht, wie dominant Sonnenscheindauer, Bewölkungs- und Windverhältnisse die Temperaturen beeinflussen. Weil mehrfach Vorstöße milderer Luft aus SW bis NW, darunter das berüchtigte „Weihnachtstauwetter“, diese markanten Abkühlungsphasen unterbrachen, wenngleich viel schwächer als 2015, fiel der Dezember 2016 insgesamt etwas zu mild aus.

3. Allen Unkenrufen zum Trotz- das arktische Meereis wuchs im Dezember zeitweise stark

Im Spätherbst (Oktober/November) nahm das arktische Meereis die bislang geringste Fläche seit der Einführung der satellitengestützten Überwachung im Jahre 1979 ein. Das rief sogleich die Alarmisten und Katastrophisten auf den Plan. So schrieb das links- grüne Kampfblatt „DIE ZEIT“ am 8. Dezember unter der Rubrik Wissen: „Das Eis schwindet. Das ist kein ästhetisches, sondern ein existenzielles Problem.“ Leider übersahen die ZEIT- Redakteure einige Fakten. Erstens ist der Zeitraum seit 1979 sehr gering; sein Beginn fällt mit der Abkühlungsphase der 1970er zusammen. Auch in früheren Zeiten, für die aber nur sehr ungenaue Daten vorliegen, wich das Eis stark zurück, so in den 1930er Jahren. Und seit Mitte November dehnte sich die Eisfläche zeitweise stark aus, was auch die folgende Abbildung verdeutlicht (Quelle http://nsidc.org/arcticseaicenews/ ):

Die Eisbedeckung wies in der letzten Dezemberdekade einige Besonderheiten auf. Während eine ungewöhnlich große eisfreie „Kerbe“ bis weit in das Seegebiet nördlich von Westsibirien reichte, war die Eisbedeckung in allen anderen Gebieten fast normal. Dieser Umstand ist vermutlich den in diesem Spätherbst/Frühwinter rekordverdächtig hohen AMO- Werten geschuldet. Über die letzten Golfstrom- Ausläufer gelangt das (noch!) zu warme Atlantikwasser weit nach Nordosten. Von einem „katastrophalen“ Eisschwund kann keine Rede sein. Diese frühwinterliche Ausdehnung des Meereises ist eine mögliche Ursache für die Häufung der Westlagen in dieser Jahreszeit; sicher hat sie auch diesmal das Auftreten des schon immer sehr häufigen „Weihnachtstauwetters“ begünstigt. Auffällig umfangreich war auch die Schneedecke Eurasiens schon Ende November; sie hatte mit 24,03 Millionen Km² den bisherigen 1993er Novemberrekord (24,13 Mio. Km²) nur knapp verfehlt; für Dezember liegen noch keine Werte vor.

4. Ausblick in den Januar- was die mittelfristigen Modelle vorhersehen

Die Ensemble- Vorhersagekarte des NOAA (USA- Wetterdienst) vom 26.12. für den 10.01.2017 zeigte eine diffuse Hochdruckzone von den Azoren über Mittel- bis nach Osteuropa und tiefen Luftdruck westlich von Island (Quelle: NOAA). Sollte das so eintreten (noch sehr unsicher), so wäre es in Deutschland weder extrem mild, noch extrem kalt:

Bei den Modellen entstehen in derart langen Vorhersagezeiträumen aber oft Differenzen der einzelnen, gerechneten Läufe, ganz oben das amerikanische GFS von 26.12., 00 UTC, Mitte ENS, unten ECMWF, jeweils für den 05. Januar 2017, 00 UTC, berechnet (Quelle: http://www.wetterzentrale.de/topkarten/ ). Während GFS und ENS eher antizyklonales Westwetter vorhersahen, berechnete das ECMWF einen Trog über Mitteleuropa mit einem Mittelmeer- Tief, was starke Schneefälle in Ost- und Süddeutschland auslösen könnte:

Die Unsicherheit bleibt also groß, doch deutet sich wohl ein Januar an, der etwas kälter und vor allem niederschlagsreicher als der Dezember ausfallen könnte.

5. Die Nordatlantische Oszillation (NAO), die AMO, die QBO, der Polarwirbel, die markante Kaltwasserinsel im zentralen Nordatlantik und die Sonnenaktivität

Die NAO „drehte“ nach Mitte Dezember wieder auffallend markant in den Positivmodus, was mildes Westwetter förderte und so das „Weihnachtstauwetter“ begünstigt hat. Die AMO- Werte blieben auch im November ungewöhnlich hoch. AMO- Warmphasen erhöhen die Wahrscheinlichkeit für einen kalten Winter leicht, weil diese Konstellation kalte, nordöstliche Strömungen („Wintermonsun“) begünstigen könnte. Und die QBO (Windverhältnisse in der unteren Stratosphäre der Tropen, die etwa alle 2,2 Jahre zwischen West und Ost wechseln) dreht momentan in der unteren Stratosphäre in die Westwindphase, was eher milde Winter bevorteilt. Ein Polarwirbelsplitting, welches die Westdrift schwächen und kalte Nord- bis Ostlagen über Europa fördern könnte, kündigte sich in den Modellvorhersagen des französischen Wetterdienstes, welche gut 2 Wochen in die Zukunft reichen, bislang noch nicht eindeutig an.

Die lange Zeit auffällig beständige „Kaltwasserinsel“ im zentralen Nordatlantik zwischen Großbritannien/Westeuropa und den USA war auch im Dezember 2016 meist gut erkennbar. Im Dezember 2016 nahm die Sonnenaktivität weiter ab; zeitweise war die Sonne völlig fleckenlos, was nach eigenen Untersuchungen meridionale Strömungsmuster, darunter besonders Nord- und Ostlagen, im Hochwinter 2017 etwas wahrscheinlicher werden lässt.

6. Analogfälle (ähnliche Witterung wie 2016)

Die wahrscheinliche (trotzdem sehr unsichere) Luftdruckverteilung über Europa (Quelle: langfristwetter.com) sieht für die Hochwintermonate nun doch etwas anders aus, als noch im November erwartet:

Im Januar 2017 (oberes Bild) nur noch eine leicht geschwächte Westwind- Zirkulation (positive Luftdruck- Anomalien in hpa auf Meeresspiegelniveau, gelbe und rötliche Linien über Nordosteuropa und zu tiefer Luftdruck blau- violett auf dem zentralen Nordatlantik). Das kann zumindest gelegentlich Kälte in Mitteleuropa begünstigen. Im Februar (unteres Bild) soll nun etwas zu tiefer Luftdruck über West- und Nordwesteuropa herrschen. Einem Dezember mit auffallend zu hohem Luftdruck über Mitteleuropa folgten in der Vergangenheit häufiger normale bis milde, als zu kalte Januare. Einzelne, sehr milde oder zu kalte Phasen sind jedoch nicht ausgeschlossen.

7. Die „Siebenschläfer- Regel“ des Winters

Neben der im Novemberbericht bei EIKE ausführlich erläuterten „2- K- Septemberregel“ (der Winter und auch der Hochwinter fallen mit sehr hoher Wahrscheinlichkeit zu mild aus, wenn der vorangehende September in Deutschland um mindestens 2 Kelvin zu warm war), gibt es für die Abschätzung der Hochwinterwitterung noch weitere Regeln, so etwa „War der Dezember gelind, bleibt auch der Winterrest ein Kind.“ Oder „Bricht gar ein Spatz im Dezember- Eis ein, wird ein milder Januar sein.“ Bei Verknüpfung der Dezember- und Septemberregel gilt folgende Aussage: „Waren September und Dezember insgesamt zu mild, so erhöht das die Wahrscheinlichkeit für einen zu milden Januar deutlich“.

Am wichtigsten ist aber die sogenannte „Dreikönigs- Regel“: „War bis Dreikönige (06.01.) kein richtiger Winter, so folgt meist auch kein strenger mehr dahinter.“ Sie funktioniert ähnlich wie die Siebenschläfer- Regel. Kurz nach dem Sonnenhöchst- und Tiefststand hat sich die Atmosphäre meist für ein bestimmtes Strömungsmuster entschieden. Die markanten Keile und Tröge sowie der unser Wetter steuernde Strahlstrom haben eine bestimmte Position eingenommen und behalten diese dann meist für weitere 2 bis etwa 7 Wochen mit nur leichten Variationen bei („Persistenz“). Freilich lässt auch diese Regel Ausnahmen zu, und der „Entscheidungszeitraum“ reicht etwa vom 20.12. bis fast Mitte Januar. Einem Dezember mit auffallend hohem Luftdruck folgten bislang häufiger zu milde als zu kalte Januare. Weil sich der hohe Luftdruck und die milde Witterung auch bis zum Jahreswechsel 2016/17 noch hielten, könnte auch der Januar zeitweise ähnlich verlaufen; gelegentliche Kälteeinbrüche oder zumindest endlich zeitweise Schnee bis ins Flachland bleiben trotzdem möglich. In den Wintern 2011/12 und 2012/13 folgte milden Dezembern sogar noch entweder ein sehr kalter Februar (2012) oder 2013 ein bis in den April dauernder schneereicher Winter, der erst nach dem 10. Januar so richtig begann. Näheres und Interessantes zur Problematik der großräumigen Zirkulationsverhältnisse und deren Auswirkungen auf die winterlichen Temperaturverhältnisse finden Sie im Beitrag von Hans-Dieter Schmidt vom 23.12.2016 unter http://www.eike-klima-energie.eu/2016/12/23/extreme-kaelte-in-teilen-der-usa-dauerhoch-in-mitteleuropa/ . Fasst man alle Prognosesignale zusammen, so kündigt sich am wahrscheinlichsten ein wechselhafter, eher unspektakulärer Januar 2017 an, der weder extrem mild noch extrem kalt ausfällt, eher nasskalt, und einen Wechsel von zyklonalen und antizyklonalen Phasen aufweist.

8. Die Langfrist- Vorhersagen: Viele Institute korrigierten ihre Prognosen vom November 2016

Der britische Wetterdienst (UKMO) sieht nun eine leicht erhöhte Wahrscheinlichkeit für einen milden Winter in ganz Deutschland, allerdings unter Einbeziehung des März:

Anmerkung: Hier wird nur die erste UKMO- Karte gezeigt. Es gibt zwei weitere, eine mit der Probability (Wahrscheinlichkeit) für einen normalen Winter und eine für einen zu kalten. Die aktuellen Karten jederzeit unter http://www.metoffice.gov.uk/research/climate/seasonal-to-decadal/gpc-outlooks/glob-seas-prob

Meteo Schweiz bezieht nun ebenfalls den März ein und erhöht dabei die Wahrscheinlichkeitsaussage für einen milden Winter:

LARS THIEME (langfristwetter.com) sagt in seiner Dezemberausgabe nun einen zu milden Januar und einen normalen Februar vorher.

Das IRI bleibt bei seiner Novemberprognose eines mit leicht erhöhter Wahrscheinlichkeit zu milden Winters.

Der DWD (Offenbach) sieht nun eine deutlich erhöhte Wahrscheinlichkeit für einen normalen Winter:

Die NASA (US- Weltraumbehörde) schwenkt komplett um und kündigt nun einen zu kalten Januar und einen etwas zu kalten Februar an (hier wird nur der Januar gezeigt, Europa liegt ganz links oben in der Karte):

Und das CFSv2- Modell des NOAA (Wetterdienst der USA, folgende 2 Abbildungen, Eingabezeitraum 16. bis 25.12.2016): Januar (oben) eher normal, nur in Teilen des Alpenraumes etwas zu mild und in Südosteuropa zu kalt; Februar (unten) überall viel zu mild. Die vorhergesagten Temperaturabweichungen beziehen sich auf die Mittelwerte der Periode 1981 bis 2010. Die fast täglich aktualisierten, aber leider oft falschen Prognosen unter http://www.cpc.ncep.noaa.gov/products/people/wwang/cfsv2fcst/ (Europe T2m, ganz unten in der Menütabelle; E3 ist der aktuellste Eingabezeitraum):

Die Mehrzahl dieser Langfristprognosen deutet also weiterhin einen normalen bis etwas zu milden Hochwinter 2017 an.

Fazit: Die Prognosesignale sowie die Vorhersagen der Wetterdienste und Institute bleiben sehr widersprüchlich. Es deuten sich aber zumindest einige merklich kältere Phasen im Hochwinter 2017 an, besonders im Januar, zeitweise auch mit nördlichen Strömungsanteilen eher nasskalt; doch insgesamt fällt dieser mit erhöhter Wahrscheinlichkeit normal bis etwas zu mild aus, wenngleich etwas weniger, als in den Vorjahren. Zumindest in den Mittelgebirgen (über 600 Meter) könnte ab Anfang Januar für längere Zeit gut Wintersport möglich sein und auch im Tiefland öfter mal Frost und Schnee herrschen. Geschätzte Januar-Monatsmitteltemperatur 2017 für Erfurt-Bindersleben (Mittel 1981- 2010 minus 0,3°C) -1,5 bis +2,5°C (etwas zu kalt bis deutlich zu mild). Für Feb. 2017 lässt sich noch kein Temperaturbereich schätzen, doch ist ein zu milder Februar momentan noch wahrscheinlicher, als ein zu kalter.

Eine Bewertung der ursprünglichen Winterprognosen (Stand November) erfolgt im Laufe des Monats März.

Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 27.12. 2016




Aufhebung von Obamas 11-Stunden-Bohrverbot

Bei seinen Vorbereitungen zur Räumung seines Büros konnte Präsident Obama nicht einem „Parthian Shot“ widerstehen gegen die das Amt übernehmende Trump-Regierung, indem er Bohrungen verbot in großen Bereichen des amerikanischen Arktis-Sektors und vor der atlantischen Küste.

Grüne Gruppen behaupten, dass dieses Gesetz von Dauer ist, während Energiestrategen behaupten, dass Präsident Trump dieses Gesetz per Rechtsverfügung aufheben kann.

Auf unserer Website CFACT.org posteten wir einen Beitrag des Energie-Analysten Michael Bastasch hierzu:

„Obama ordnete an, dass sein Bohrverbot ,alle fünf Jahre überprüft werden soll mittels einer auf Klima- und Meereswissenschaft basierenden Abschätzung des Lebenszyklus‘. Im Hinterkopf hatte er dabei wohl, dass ein Klimatest von Offshore-Bohrungen immer einen schädlichen Einfluss auf die Umwelt herausbekommen wird. Umweltaktivisten haben ihn seit Monaten gedrängt, von Abschnitt 12(a) des Outer Continental Shelf Lands Act aus dem Jahr 1953 Gebrauch zu machen, um Offshore-Bohrungen zu blockieren“.

Das gesamte Gesetz kann auf unserer Website hier eingesehen werden.

Die Lektüre des Gesetzes zeigt aber, dass die Klima-Campaigner zu vertrauensselig sind.

Als der Kongress einem Gesetz zustimmte, welches den äußeren Kontinentalschelf der USA betrifft, wurde eindeutig dem Sinn des Gesetzes Ausdruck verliehen:

„Der Äußere Kontinentalschelf ist eine vitale nationale Ressource, die die Regierung für die Öffentlichkeit verwaltet. Er sollte zugänglich gemacht werden für Expeditionen und eine geordnete Entwicklung sowie Gegenstand von Umweltschutzmaßnahmen sein auf eine Art und Weise, die konsistent ist mit der Wahrung von Wettbewerb und anderer nationaler Erfordernisse“.

Der Kongress erkannte die Bedeutung der Ressourcen vor der amerikanischen Küste. Die Absicht des Kongresses war es, Energie und andere Ressourcen für die US-Wirtschaft verfügbar zu machen. Die Umwelt-Vorbehalte bestehen, um eine sichere und verantwortungsvolle Ausbeutung sicherzustellen.

Der Kongress glaubte auch, dass einige empfindliche Gebiete geschützt werden sollten, weshalb die Klausel verankert worden ist, dass „der Präsident der Vereinigten Staaten von Zeit zu Zeit nicht vermietete Gebiete im Äußeren Kontinentalschelf von der Nutzung ausschließen kann“.

Präsident Eisenhower befolgte diese Vorgabe wie geplant, als er ein Gebiet der Florida Keys von der Entwicklung ausnahm.

Nachfolgende Präsidenten erkannten die Weisheit in der Entscheidung von Ike und ließen sie bestehen. Allerdings waren andere präsidiale „Ausschlüsse“ keineswegs „permanent“. Sie wurden von nachfolgenden Präsidenten aufgehoben.

Das Atlanta Journal Constitution berichtet, dass „Präsident Bill Clinton im Jahre 1998 ein Offshore-Bohrverbot bis zum Jahr 2012 verlängerte, welches ursprünglich von Präsident George H. W. Bush in Kraft gesetzt worden war – aber im Jahre 2008 hob Präsident George W. Bush jene Clinton-Proklamation vier Jahre vorher auf“.

Präsident Obama, der prominent mit der Bemerkung „Ich habe einen Stift, und ich habe ein Telefon“ seine Absicht bekundet hatte, den Kongress zu umgehen, gab dem designierten Präsidenten Trump den Rat, sich nicht zu sehr auf präsidiale Verfügungen zu stützen. Gleichzeitig verordnete er das Bohrverbot.

Präsident Trump sollte dieses unkluge Bohrverbot aufheben. Wenn es zu den unvermeidlichen juristischen Klagen kommt, sollte jedes neutrale Gericht die Verordnung der Absicht des Kongresses folgend auslegen.

For nature and people too,

Craig Rucker, executive director

———————————————

In dem oben erwähnten Beitrag von Michael Bastasch beschreibt dieser noch einmal die näheren Umstände. Präsident Trump kann jederzeit mit Hilfe des von Republikanern beherrschten Kongresses dieses Verbot aufheben. Verschiedene Präsidenten zuvor haben bereits von dem gesetz aus dem Jahr 1953 Gebrauch gemacht, und jeweils nachfolgende Präsidenten haben entsprechende Verordnungen wieder aufgehoben.

Bastasch weist aber noch auf einen anderen Aspekt hin (hier): Die Fracking-Technologie ist inzwischen noch kostengünstiger zu betreiben als teure Bohrungen Offshore und in der Arktis. Es kann also gut sein, dass die „Umweltschützer“ ganz umsonst Zeter und Mordio schreien.

Chris Frey, Übersetzer für das EIKE




Die Kontroll- und Kommando­zentrale des Klima-Alarmismus‘

Zunächst von Jennifer Hadden, Networks in Contention: The Divisive Politics of Climate Change (2015) [etwa: Netzwerke im Wettstreit: Die entzweiende Politik zu Klimawandel]:

Wie mir ein Interviewter erklärte hinsichtlich der Strategie der internationalen Klima-Koalition: ,Wir arbeiten ziemlich viel zusammen. Aber wir wissen, dass wir alle für unterschiedliche Dinge stehen, darum müssen wir sorgfältig den Eindruck erwecken, dass wir nicht die ganze Zeit zusammenarbeiten‘ (Interview, WWF European Policy Office 2008).”

Ein Umweltaktivist erklärte mir: „Klimawandel ist nicht länger ein Thema unter anderen, es ist DAS Thema, ein Mega-Thema für alles, an dem wir arbeiten“ (Interview, Danish 92 Group, 2009).

Im Jahre 1989 kamen diese Organisationen erstmals zusammen, um eine Koalition zu bilden: The Climate Action Network (CAN). Das CAN wurde gegründet als der Motor einer transnationalen Koordinierung von 63 Organisationen … Viele Bemühungen des CAN bestanden in der Unterstützung der Arbeit des IPCC, und es half, dessen zentrale Rolle im internationalen Klimaregime zu etablieren … Tatsächlich konsolidierte das CAN seine Koalitions-Struktur während dieses Zeitraumes (neunziger Jahre), in dem es eine hochrangige politische Gruppe ins Leben rief, um Politik und strategische Koordinierung unter den Mitgliedsgruppen zu fördern.

Im Mittelpunkt des Treibens des CAN stand der Gedanke, dass die Mitgliedsorganisationen „mit einer Stimme“ sprechen müssen, um die internationalen Verhandlungen zu beeinflussen.

Das CAN hat einen großen Einfluss auf die Art der Strategien, zu welchen die Organisationen greifen: „Es scheint, dass viele der großen Gruppen die Richtung vorgeben, und wir alle neigen dazu, dieser zu folgen. Aber wenn wir vor Ort arbeiten, dürfen wir das nicht immer unter die Leute bringen, weshalb wir andere Dinge tun sollten“ (Interview, Greenpeace Germany 2010).

mit den großen internationalen Nicht-Regierungs-Organisationen NGOs – WWF, FOE (vor 2008), Oxfam und Greenpeace – werden extensive Beratungen durchgeführt, bevor Vorschläge erarbeitet werden. Die meisten Mitglieder erkennen an, dass die großen Gruppen de facto über CAN-Positionen das Vetorecht haben. Falls diese Gruppen einem Vorschlag zustimmen, wird dieser allen Mitgliedern zugeleitet …

Das CAN (1) prahlt damit, über 1100 Mitgliedsorganisationen zu vertreten. Hadden zufolge wird das CAN geleitet durch eine hochrangige politische Gruppe, geführt von den Vier Apokalyptischen Reitern: WWF, Greenpeace (1), FOE (1), möglicherweise vor 2008) und Oxfam (möglicherweise unter Ausschluss des USA-Ablegers). Sie geben Befehle, und alle Mitglieder folgen diesen Befehlen, während „sie sorgfältig den Eindruck erwecken, nicht zusammenzuarbeiten“. Jahrzehnte lang war es ihr Ziel, ein internationales Klimaregime zu etablieren, dem sich Amerika unterzuordnen hätte. Die Mitgliedsorganisationen (oder Einheiten) „können sich anderen Dingen zuwenden“ – mit anderen Worten, sie werden angehalten, die Initiative zu ergreifen, die Absichten des Kommandeurs auszuführen. So wird eine gute Armee geführt, nicht eine Bewegung oder ein Netzwerk. Sie verfügen auch über ungeheure finanzielle Macht: Der WWF allein hat ein jährliches Einkommen nahe 1 Milliarde Dollar, welches Geld er nach Belieben verwenden kann.

Ebenso sind die Mitglieder nach dem Top-Down-System organisiert wie militärische Einheiten und nicht wie ehrenamtliche Organisationen. Man betrachte diese Aussagen von Thomas Lyon, Good Cop/Bad Cop: Environmental NGOs and Their Strategies toward Business (2012):

Jüngere nationale Gruppen, die verwurzelt sind in der Umweltbewegung Ende der sechziger und Anfang der siebziger Jahre wie etwa der Natural Resources Defense Council und der Environmental Defense Fund, neigen dazu, ein sich selbst erneuerndes Gremium von Direktoren zu haben … eine Tendenz, konzentriert Entscheidungen für die Gruppe zu treffen und Demokratie innerhalb der Organisation zu umgehen. Am bemerkenswertesten: brauchbare Wahlverfahren sind selten. … Leider sind Studenten, die Zeit damit verbracht haben, die Rolle von Wahlen und demokratischen Prozessen in NGOs zu untersuchen, typischerweise enttäuscht worden. Was sie erkannt haben ist das Fehlen von klassischen demokratischen Prozessen … obwohl viele NGOs demokratische Verfahren in ihren Statuten haben, sind diese Gruppen in der Praxis fast immer oligarchisch.

das politische System in den USA scheint angesichts der gegebenen Gewaltenteilung und schwacher politischer Parteien (man beachte das Fehlen einer existenzfähigen Grünen Partei) wie geschaffen für den Einfluss (transnationaler Umwelt-) Gruppen auf Entscheidungen der Regierung.

Amerika ist im Besonderen Ziel, und der neue Feind erkennt unser verfassungsmäßiges politisches System mit seiner „Gewaltenteilung und schwachen politischen Parteien“ als eine Schwäche, die ausgebeutet werden kann, wobei offenbar die Fehler der Feinde Amerikas aus der Vergangenheit wiederholt werden.

Weitere Aussagen von diesen und anderen Autoren finden sich in meinem Beitrag Climate Alarmism Command auf meiner Website.

I. „Single-Voice-Prinzip“

Auf der Grundlage dieser Belege ist der Klima-Alarmismus das Erzeugnis eines sehr großen, sehr gut koordinierten und zentral kontrollierten Unternehmens. Dies erklärt dessen Fähigkeit, gewaltsam perfekt synchronisierte Botschaften zu verbreiten, trotz der internen Inkonsistenzen, trotz Widersprüchen zur Hochschulwissenschaft und trotz häufiger Flip-Flops als Reaktion auf sich ändernde politische Allianzen sowie focus group research results [?].

Ein Beispiel dafür ist die beispiellose Überschwemmung der Massenmedien mit eindeutig falschen Statements wie „97% aller Wissenschaftler stimmen überein“. Im Idealfall würden die Medien die ganze Zeit über die Wahrheit berichten. In der Vergangenheit (was inzwischen wie eine legendäre Vergangenheit aussieht) berichteten die Main-Stream-Medien Fakten zumeist zutreffend, sogar wenn sie diese mit einem liberalen Bias interpretierten. Gelegentlich machten sie Fehler oder stellten sogar Falschbehauptungen auf. Journalisten neigen dazu, voneinander abzuschreiben, und so könnten die gleichen Fake News in allen Zeitungen und TV-Kanälen erschienen sein, aber nur für sehr kurze Zeit. Die „97%-Lüge“ dagegen durchzieht die Medien konstant seit dessen Einführung durch Naomi Oreskes im Jahre 2004! Diese Zahl ist schon sehr oft explizit widerlegt worden und ist offensichtlich absurd: Es sieht mehr wie ein Wahlergebnis in einem kommunistischen Land aus als eine ,Umfrage‘ nach den Meinungen der Wissenschaftler! Vermeintlich ist es durch multiple Studien „bestätigt“ worden – etwas, das eine geringere Wahrscheinlichkeit aufweist als der Gewinn des Lotto-Jackpots zwei Jahre hintereinander. Und doch konnte diese Ente seit nunmehr 12 Jahren überleben.

Im Bereich des Klima-Alarmismus‘ gibt es andere magische Zahlen, die völlig sinnlos sind, wie etwa 350 ppm oder 2 Grad (später ersetzt durch 1,5 Grad). Aber sie haben eine enorme Überlebenskraft. Zusätzlich zu dem unnatürlich synchronisierten Vorgehen gibt es ein höchst anomales Fehlen von Abweichungen unter den Reihen der Klima-Alarmisten. Dies ist besonders auffällig angesichts der Kehrtwendungen, die das CAG hinsichtlich vieler politischer Dinge vollzogen hatte, wie etwa Emissionen von China und der Verbrauch von Erdgas. Sogar die Kommunistische Partei der USA, eine Marionette der Sowjets seit 1933, kroch zu Kreuze, nachdem ihr befohlen worden war, von Anti-Nazi zu Pro-Nazi zu wechseln nach dem Molotow-Ribbentrop-Pakt von 1939. Nichts dergleichen geschah in den heimischen Klima-Alarmisten-Gruppen, als die CAG seine Forderung von globaler Reduktion von CO2-Emissionen zu einseitiger Reduktion durch den Westen änderte und China, Japan, Russland und der Rest der Welt ihre Emissionen nach Belieben zunehmen lassen dürfen. Diese Fakten beweisen über alle Zweifel erhaben, dass es eine zentrale Kontrolle des Klima-Alarmismus‘ gibt.

II. Front Groups

Die Existenz von front groups, die oftmals aus dem Nichts erscheinen und in den Brennpunkt der Medien-Aufmerksamkeit katapultiert werden, ist ein weiteres verräterisches Anzeichen. Beispiel: InsideClimate News führte ein Nischendasein als Projekt innerhalb der Gedärme einer obskuren linksextremen Brutstätte Public Interest Projects (jetzt NEO Philanthropy) seit 2007. Im Jahre 2011 hatte sie sechs Mitarbeiter. Plötzlich wurde sie mit Beifall überhäuft einschließlich des einst renommierten Pulitzer-Preises für besondere Berichterstattung im Jahre 2013. Schon bald heimste sie Dutzende journalistischer Auszeichnungen ein, einschließlich eines weiteren Pulitzer-Preises, und dessen Fake News wurden zu „Beweisen“ in dem berüchtigten Versuch der „Attorneys General United for Clean Power” [etwa: Staatsanwälte vereint für saubere Energie], durch Vollmachten bestimmte Sprechweisen zu unterdrücken (hier). Exxon, dem obersten Protagonisten der Verschwörungstheorie, der zufolge Klimarealisten durch „fossile Treibstoffe“ finanziert werden, wurde diese Vollmacht genehmigt. InsideClimate News wurde gegründet von der Ford Foundation (1), RBF (1)/RFF (Rockefeller Brothers Fund / Rockefeller Family Fund), the Park Foundation, the Marisla Foundation, the Knight Foundation, the Grantham Foundation und weiteren üblichen Verdächtigen. Fast alle die Geldgeber sind offen Mitglieder der EGA (1) (Environmental Grantmakers Association), welche von RBF/RFF gegründet worden war und in der gleichen Etage sein Büro hat. (Übrigens ist die RBF/RFF separat von der größeren Rockefeller Foundation). 350.org ist ein weiteres Beispiel einer hochgejubelten front group.

III. Entwicklung der CAG

Die CAG ist im Jahre 1989 gegründet worden, aber es dauerte fast eineinhalb Jahrzehnte, bis Klima-Alarmismus zum ideologischen Hauptthema für multiple transnationale und internationale Gruppen geworden ist. Dementsprechend ist auch die Konsolidierung der Macht in den Händen einiger Weniger graduell erfolgt. Folglich hat sich die Climate Alarmism Governance entwickelt anstatt von einer Person oder einer kleinen Gruppe erschaffen worden zu sein. ENGOs und ehrgeizige UN-Politiker arbeiteten seit den siebziger Jahren Hand in Hand miteinander, um ihre Macht zu erweitern. Die Einführung dieses Vorgehens wird häufig Maurice Strong zugeschrieben. UN-Agenturen und Politiker können sich nicht offen und direkt in die inneren Angelegenheiten der meisten Länder einmischen. Also nutzen sie NGOs für diesen Zweck. CAN und ihre Mitglieder WWF, Greenpeace, Oxfam, EDF und NRDC haben beim IPCC offiziell den Status von Beobachtern und agieren als dessen de-facto-Sprecher, korrumpieren die IPCC-Forschung noch mehr und schmücken die ohnehin schon verzerrten IPCC-Berichte aus (ein ehemaliger Greenpeace-Führer nannte es „dramatisieren“). CAN-Mitglieder leisten Lobbyarbeit für die Delegationen bei den COPs des UNFCCC und bei anderen internationalen Zusammenkünften, manipulieren die wissenschaftliche Arbeit des IPCC von innen heraus (hier) und gehen finanzielle Deals mit deren Funktionären ein. Das Climate Action Network vermeidet zwar die Verbindung mit Gruppen, die Gewalt unterstützen, kooperiert aber mit diesen. Sie schürt Hass zwischen Europa und Amerika und will Rache („Gerechtigkeit“) für wirkliche oder imaginäre Angriffe in der Vergangenheit. Die Führer verschiedener transnationaler NGOs (nicht nur CAN-Mitglieder) treffen sich regelmäßig persönlich, um gemeinsame Ziele und Strategien festzulegen. Zwischen derartigen Treffen bleiben sie via elektronischer Medien in Kontakt.

Ein weiterer Stützpfeiler der CAG ist die UN-Organisation, wo die USA lediglich eine Stimme von über 190 weiteren haben (aber den Löwenanteil der Finanzierung tragen). Bequemerweise sind einige der Umwelt-„Markenzeichen“ bei den UN akkreditiert und nehmen offiziell an Treffen vieler UN-Agenturen teil. Inoffiziell bestechen oder manipulieren sie Vertreter auswärtiger Regierungen und der UN nach ihren Wünschen (siehe hier, Abschnitte 3.2 und 3.8). Die relevanteste Gruppe der UN-Abteilung Klima-Alarmismus ist das IPCC, ins Leben gerufen durch UNEP und WMO. Ich habe die genaue Zusammensetzung und die Beziehungen an der Spitze der CAG oder die Rolle der europäischen Grünen Parteien nicht untersucht.

IV. Finanzielle Beziehungen zwischen einigen Klimaalarm-Einheiten und der Korruption von ehemaligen Mainstream-Institutionen

Die zentralisierte Finanzierung des Klima-Alarmismus‘ geht Hand in Hand mit der zentralisierten Befehlsgebung und Kontrolle. Heute kommt das meiste Geld für den Klima-Alarmismus von der öffentlichen Hand der USA und der EU. In der Vergangenheit war die EGA ein großer Faktor. Geld von den Primärquellen wird gewaschen und zwischen Klimaalarm-Gruppen auf verschiedenen Wegen hin- und hergeschoben. Die folgenden Tabellen stammen von einer offiziellen Klage in 5:16-cv-211-C, verifiziert unter der Strafe für Meineid.

Tabelle 1: Matrix der Finanzbeziehungen zwischen einigen CAG-Unternehmen

„R“ bedeutet, dass das in der Zeile genannte Unternehmen („Markenzeichen“) direkt von dem Unternehmen in der Spalte finanziert wird. „D“ bedeutet, dass das Unternehmen in der Zeile direkt Gelder an das Unternehmen in der Spalte gegeben hat. Nur Geld-Transfers, über die von 2003 bis 2014-2015 in bestimmten Steuerformularen berichtet worden war, sind erfasst. „Freundschafts“-Dienste, Zahlungen an nahestehende Parteien, Geldtransfers mittels Dritter und Transfers außerhalb der Bücher sind nicht erfasst. Alle Finanzierungs-Ereignisse sind substantiell (manchmal Millionen Dollar stark und mit Sicherheit über 10.000 Dollar).

Tabelle 2: Finanzierung des Center for American Progress und einiger front groups durch einige CAG-Unternehmen.

Tabelle 3: „Spenden“ an einige ehemals respektierte Organisationen seitens einiger CAG-Unternehmen.

NAS ist die National Academy of Sciences, welche einmal die höchste wissenschaftliche Einrichtung der Nation war. AAAS steht für die American Association for the Advancement of Science, dem Herausgeber des Journals Science. Die New York Times Company (NYT) ist eine kommerzielle Körperschaft, was „Spenden“ sogar noch seltsamer macht. (2)

(1) Diese Organisationen stehen im Verdacht, mit kriminellen Machenschaften in Verbindung zu stehen oder an diesen teilzuhaben, wie es definiert ist im The Racketeer Influenced and Corrupt Organizations Act (“RICO”), 18 U.S.C. § 1961-1963. Der Autor ist Kläger in einem Zivilprozess gegen diese Organisation (5:16-cv-211-C Goldstein v. Climate Action Network et al.).

(2) Man darf nicht vergessen: die große Mehrheit von Individuen, die der CAG unwissentlich geholfen haben, sind unschuldig.

Link: https://wattsupwiththat.com/2016/12/23/the-command-control-center-of-climate-alarmism/

Übersetzt von Chris Frey EIKE




Harald Lesch, die Claudia Roth des Klima­wandels: Glaubt einfach, was ich erzähle – Nach­prüfen schadet nur!

Wie die bekannte Claudia Roth der GRÜNEN appelliert er, anstelle Belege zu bringen, vorwiegend an die „Betroffenheit“, die seine „unbezweifelbaren“ Aussagen erzeugen sollen, weshalb man ihn inzwischen synonym als klimatisches Pedant der GRÜNEN-Politikerin bezeichnen kann, obwohl ihm der bei den GRÜNEN sonst oft übliche (bei Frau Roth vorhandene) Studienabbruch fehlt.

Der Autor hat sich (wieder) die Mühe gemacht, Beispiele seiner inzwischen oft schon abstrus überzogenen Thesen zu sichten und darzustellen, dass Vieles einer Nachprüfung nicht Stand hält, oder zumindest wesentlich Klimawandel-unkritischer betrachtet werden kann.

Video: Frag den Lesch – Neues aus der Klimaküche

https://www.youtube.com/watch?v=mfALmgAwPKQ&feature=youtu.be

Video: [2] Frag den Lesch – Neues aus der Klimaküche 

Im Video geht es angeblich über das Neueste vom Klimawandel. Zumindest wird es in der Lesch-typischen, stammelnden und auslassungsreichen Vortragsweise so erzählt.

Einleitung

H. Lesch: … Neuigkeiten von den Klimamodellen … Klimawandel, das stimmt ja sowieso nicht …. denn dass der Mensch einen Einfluss auf das Klima hat, auf den Klimawandel, das ist eindeutig, übereindeutig. … in den 90er Jahren dachte man, da könnte noch eine gewisse Unsicherheit sein, das ist aber vorbei … die neuesten Entdeckungen, muss man leider sagen, aber auch Bestätigungen muss man leider noch mehr sagen, die zeigen ganz klar – wir sind dran schuld.

Und dann wird über eine ganz neue Entdeckung erzählt,

Biofilme auf Gletschern:

H. Lesch: … Neu herausgekommen ist ein Effekt … eine ganz neue Entdeckung …. warum schmelzen die Gletscher so viel schneller… Ruß und andere Staubteilchen regnen auf die Gletscher … diese bilden Biofilme aus .. dadurch, dass die unsichtbaren Biofilme auf der Oberfläche der Gletscher sind, wird ne ganze Menge Energie in den Biofilmen deponiert und dadurch schmelzen die Gletscher schneller. Die Biofilme sind etwas, das man vorher nicht kannte, aber jetzt weiß, aha das verstärkt nochmal den Effekt des Klimawandels, also der Erwärmung.

Der Autor ist dieser wichtigen Entdeckung, welche den Treibhauseffekt zusätzlich verstärkt, nachgegangen. Bei der Max Planck Gesellschaft findet sich dazu eine Pressemitteilung:

Bakterien heizen Gletschereis auf
Mikroorganismen siedeln sich auf dem Eis an Staubteilchen aus der Atmosphäre und lassen den Gletscher dadurch schneller schmelzen… Mikroben leben von Kohlenstoff aus Gletschern
Das nutzt auch der Klimaforschung, denn ein besseres Verständnis des Kohlenstoffspeichers in Gletschern und des Transports von Kohlenstoff in andere Ökosysteme kann dazu beitragen, aktuelle Klimamodelle zu verbessern. Es ist schon lange bekannt, dass organischer Kohlenstoff, der für Jahrtausende in Gletschern gespeichert war, beim Abschmelzen freigesetzt wird und Mikroorganismen als Nahrung dient. Die nun vorliegende Studie zeigt, dass auch durch die Fixierung von anorganischem Kohlenstoff durch Mikroorganismen auf Gletschern organischer Kohlenstoff entsteht, der rasch von benachbarten Organismen verbraucht wird.

Zur Pressemitteilung ist die Studie genannt, welche wohl auf einer Dissertationsarbeit beruht:
Heidi J: Smith et al.: [3] Biofilms on glacial surfaces: hotspots for biological activity
Leider steht in dieser Studie nirgends auch nur ein vager Hinweis zum quantitativen Einfluss auf das Klima oder die Gletscherschmelze. Auf Nachfrage des Autors beim Max Planck Institut kam dazu die folgende Antwort: … Tatsächlich gibt es bisher noch keine quantitativen Daten zu dieser Studie. Das wird sicher Gegenstand weiterer Untersuchungen sein.

Was sagte Herr Lesch

Und nun vergleiche man diese Antwort mit Herrn Leschs Darstellung:

H. Lesch: „ … Die Biofilme sind etwas, das man vorher nicht kannte, aber jetzt weiß, aha, das verstärkt nochmal den Effekt des Klimawandels, also der Erwärmung… „.

Prognosen von Klimamodellen

Weiter geht es im Video:
H. Lesch: Es gibt jetzt klare Prognosen dafür, dass die Prognosen von Klimamodellen eintreten … Eine Vorhersage war in der Tat, dass durch die allgemeine Erwärmung sich die Wolkenbänder systematisch vom Äquator hinaus in Richtung nach Norden und nach Süden bewegen müssten. Und genau das ist nun entdeckt worden. Und eine weitere Vorhersage der Klimamodelle ist eingetreten: Sobald die Atmosphäre eine bestimmte Temperatur überschreitet, schießen die Wolken weiter nach oben … aber inzwischen sind nicht nur Gewitterwolken davon betroffen, sondern die gesamte Dynamik ist davon betroffen.

Wieder muss man Datenquellen raten. Doch könnte sich die Aussage auf die folgende Studie beziehen:

Juli 2016, [4] Evidence for climate change in the satellite cloud record,
deren Pressemitteilung vorwiegend im Englischsprachigen Raum publiziert wurde.
Doch WELT N24 hat auch darüber berichtet: Wegen des Klimawandels haben wir weniger Wolken
… Unklar waren bislang auch die Auswirkungen der globalen Erwärmung auf den Wolken-Bedeckungsgrad. Das lag vor allem daran, dass Wettersatelliten die Veränderungen nur teilweise zuverlässig wiedergeben, unter anderem wegen verschiedener Umlaufbahnen, unterschiedlicher Kalibrierung und Veränderungen der Sensorenempfindlichkeit im Laufe der Zeit. Das Forscherteam analysierte nun die Datenreihen verschiedener Satelliten und rechnete störende Einflüsse heraus.
Die Auswertung über 27 Jahre zeigt, dass der Bedeckungsgrad vor allem der mittleren Breiten abnimmt – weil sich der subtropische Hochdruckgürtel ausdehnt und sich die Tiefdruckzone der mittleren Breiten – insbesondere über dem nördlichen Atlantik – polwärts verlagert. Dagegen stieg der Bedeckungsgrad etwa über dem Atlantik und Pazifik nördlich des Äquators. Zudem berichten die Forscher, dass die oberste Wolkenschicht höher reicht als früher.

Seit dem Jahr 1984 gibt es ein ISCCP Cloud-Cover Daten-Projekt. Und Studien, welche die Veränderungen der Wolken-Bedeckungsgrade über die verschiedenen Breiten analysieren und versuchen, mit den Simulationsergebnissen in Einklang zu bringen, gibt es wie Sand am Meer. Allerdings oft mit ernüchternden Ergebnissen, zum Beispiel,

dass zwischen Messungen und Simulationsergebnissen nicht nur große Abweichungen bestehen, sondern die Effekte schlichtweg noch nicht ausreichend verstanden sind. Dazu kommt, dass beispielsweise ein Projekt beim CERN ermittelte, dass die Wolkenbedeckung viel stärker als bisher angenommen von natürlichen Einflüssen abhängt, somit im vor-industriellen Zeitalter eventuell viel größer als bisher angenommen war und das aktuelle Verhalten somit weit mehr (als bisher angenommen) von natürlichem und weniger (als bisher angenommen) vom CO2-Forcing abhängt

Theorien und Annahmen gibt es also viele und die Ergebnisse erscheinen insgesamt etwas chaotisch, weshalb die Klimamodellierer bezüglich der Wolken immer noch ziemlich hilflos sind:
M. Calisto at al., 2014: Cloud radiative forcing intercomparison between fully coupled CMIP5 models and CERES satellite data (Anmerkung: CMIP5 „Coupled Model Intercomparison Project 5“ sind neue Klimamodellierungen)

We have found that none of the models are consistent with the CERES data for all four variables considered….
we can say that despite consistent improvements in complexity and resolution of the models, none of the CMIP5 models presented here fits perfectly to the satellite data. Most of the models show a large bias in sea-ice regions, the tropical Pacific, and subtropical stratocumulus regions (Figs. 5 and 6). An accurate representation of clouds and their radiative effects still remains a challenge for global climate modeling.

[Übersetzung von Chris Frey: Wir sind zu dem Ergebnis gekommen, dass keines der Modelle konsistent ist mit den CERES-Daten für alle betrachteten Variablen … wir können sagen, dass trotz konsistenter Verbesserungen hinsichtlich Komplexität und Auflösung der Modelle keines der hier präsentierten CMIP5-Modelle genau zu den Satellitendaten passt. Die meisten Modelle zeigen einen großen Bias in Gebieten mit Meereis, dem tropischen Pazifik und subtropischen Stratocumulus-Regionen. Eine genaue Repräsentation von Wolken und deren Strahlungs-Auswirkungen bleibt nach wie vor eine große Herausforderung für die globale Klima-Modellierung.

Ende Übersetzung]

The Daily Star, May 27, 2016 : Scientists make news clouds which may lessen global warming
… Nobody knows just how cloudy skies were in the old days. Scientists have figured there were far fewer clouds than now, Kirkby said. But the discovery of a new natural route to cloud formation suggests that cloud cover was in fact greater than scientists had assumed.

If so, the way these simulations work, it would mean that greenhouse gases haven’t been quite as potent in producing warming so far as scientists thought. So, ton for ton, they may not be quite as potent in producing future warming either.
A new discovery about how clouds form may scale back some of the more dire predictions about temperature increases caused by man-made global warming. That’s because it implies that a key assumption for making such predictions is a bit off. „What this will do is slightly reduce and sharpen the projections for temperature during the 21st century,“ said researcher Jasper Kirkby.

[Übersetzung von Chris Frey: … Niemand weiß, wie wolkig es während der alten Tage war. Wissenschaftler haben herausgefunden, dass es weit weniger Wolken gegeben hatte als jetzt, sagte Kirkby. Aber die Entdeckung eines neuen natürlichen Weges der Wolkenbildung zeigt, dass die Wolkenbedeckung tatsächlich höher war als die Wissenschaftler vermutet hatten.

Falls das so ist, die Funktionsweise dieser Simulationen, würde das bedeuten, dass Treibhausgase nicht in der Lage gewesen wären, eine den Vermutungen der Wissenschaftler entsprechende Erwärmung zu erzeugen. Eine neue Entdeckung darüber, wie sich Wolken bilden, kann einige der düsteren Prophezeiungen hinsichtlich der vom Menschen verursachten Erwärmung abschwächen. Und zwar deswegen, weil es impliziert, dass eine grundlegende Hypothese für derartige Prophezeiungen ein wenig abwegig ist. „Das Ergebnis hiervon wird sein, dass die Projektionen der Temperaturen im 21. Jahrhundert etwas reduziert werden“, sagte der Forscher Jasper Kirkby.

Ende Übersetzung]

Einer Studie, der es auf einmal gelang, aus längst bekannten, teilweise aber ungeeigneten Satellitendaten
[4] „this is because observational systems originally designed for monitoring weather have lacked sufficient stability to detect cloud changes reliably over decades unless they have been corrected to remove artefacts ,
durch „Herausrechnen störender Einflüsse“ plötzlich einen „genauen“ Wolkenverlauf zu rekonstruieren und dann durch geeignet angepasste
[4] „Here we show that several independent, empirically corrected satellite records exhibit large-scale patterns of cloud change between the 1980s and the 2000s that are similar to those produced by model simulations of climate with recent historical external radiative forcing
Simulationsläufe nachzuvollziehen, ist jedenfalls mit äußerster Vorsicht zu betrachten. Es entsteht leicht der Eindruck der typischen “Beweisführung” in der Klimakunst: Nachträglich Messdaten zu “erzeugen”, dann Simulationen so lange anzupassen (es wurden wohl die CO2- und Aerosol-Forcinwerte so lange verändert, bis die zurückgerechneten Kurvenverläufe ungefähr passten), bis diese Daten wenigstens im Ansatz in einer Rücksimulation herauskommen und dann zu behaupten, damit ist die Qualität der Simulationen belegt (die das Ergebnis allerdings weder vorhersagen, noch ohne nachträgliche “Anpassung” zurückrechnen konnten).

Auf kaltesonne kam dazu jüngst eine größere Zusammenfassung:
kaltesonne, 27. August 2016: Wolken – die großen Unbekannten im Klimasystem
Lange Zeit hatten uns die Klimawissenschaftler vorgegaukelt, es gäbe nur noch i-Punkte in den Klimagleichungen zu setzen. Heute wissen wir, dass dies ein schwerer Fehler war. Noch immer gibt es viele große Unbekannte in den Klimamodellen. Im Februar 2015 räumte das Deutsche Klimakonsortium (DKK) ein:
Wolken – die großen Unbekannten im Klimasystem
[…] Wolken sind für systematische Messungen nicht nur schwer zugänglich, sie unterliegen auch ständiger und schneller Veränderung, sind in Form, Entstehung, Zusammensetzung und Höhenvorkommen unterschiedlich und haben deshalb verschiedene Auswirkung auf die Energiebilanz in der Atmosphäre. So wirken Wolken in tieferen Atmosphärenschichten kühlend, weil sie Sonnenstrahlen reflektieren und weniger Energie die Erdoberfläche erreicht. Hohe Eiswolken, Zirren genannt, wirken hingegen eher wärmend, da sie die Wärmeabstrahlung der Erde nicht in die Atmosphäre entlassen, sondern wieder Richtung Erdoberfläche reflektieren. […] Frank Stratmann untersucht im weltweit einzigartigen Leipziger Wolkensimulator (Leipzig Aerosol Cloud Interaction Simulator, LACIS) die Wechselwirkungen zwischen Aerosolpartikeln und Wolkentropfen: Im Kleinen wird die Wolkenbildung simuliert, die sich normalerweise bis zu einer Höhe von 15 km über der Erdoberfläche abspielt. […]
In Stratmanns Vortrag heißt es:
Was ist der Stand:
Wolken in Klimamodellen werden in der Regel nicht im Detail modelliert weil:
a) es teilweise an grundlegendem physikalischem Verständnis mangelt
b) eine Prozessmodellierung numerisch zu aufwändig ist
c) es ein grundsätzliches Skalenproblem gibt
(Wolken – Kilometerskala, Modellauflösung – Hundertkilometerskala)
d) Wolken werden in parametrisierter Form behandelt
Klimamodelle müssen anhand von Messwerten validiert werden
kaltesonne: Im Mai 2015 brachte auch proplanta.de Klimarealimus:
Forscher nehmen Wolken ins Visier
Wie beeinflussen die Wolken den weltweiten Klimawandel? Forscher haben darauf noch keine umfassenden Antworten.
Klar sei nur eines, sagt Professor Thomas Leisner, Klimaforscher am Karlsruher Institut für Technologie (KIT): «Wenn sich das Klima ändert, ändern sich auch die Wolken – und umgekehrt». Doch in welchem Maße? Und in welche Richtung? In der deutschlandweit einzigartigen Wolkenkammer «Aida» versuchen Leisner und seine Mitarbeiter, Antworten zu finden. Zwei zentrale Fragen stellen sich:
Werden die Wolken im Klimawandel mehr kühlend oder mehr erwärmend wirken?

Das Max Plank Institut umschreibt die Problematik recht umständlich, aber mit ähnlichem Ergebnis: Wo liegen die Grenzen der Vorhersagbarkeit des Erdsystems?
… Anderes ist jetzt erst möglich geworden, wie etwa das Ersetzen der Wolkenparametrisierung durch konvektionsauflösende Modelle, wodurch die Simulationen eine deutlich stabilere konzeptuelle Grundlage erhalten.
Um unsere Modelle zu evaluieren und zu initialisieren, benutzen wir in zunehmendem Maße Beobachtungsdatensätze, aus denen wir grundlegende,
neue Einsichten in das sich ändernde Erdsystem gewinnen: von der Vertikalstruktur der Wolken über die zunehmende Wärmeaufnahme des Ozeans bis hin zu den immer genauer werdenden Beschreibungen der Landbiosphäre. Die globalen Beobachtungen werden durch eine neue Generation von Messkampagnen ergänzt, zum Beispiel für die Wolkendynamik in den Subtropen oder die meridionale Umwälzbewegung im Ozean.

Was sagte Herr Lesch

Die Aussage: „ H. Lesch: Es gibt jetzt klare Prognosen dafür, dass die Prognosen von Klimamodellen eintreten.“
ist damit auf jeden Fall nicht belegt und entspringt eher einem Wunschdenken. Zudem ist eine solche Aussage auch Unsinn, doch trotzdem entlarvend typisch „ … es gibt Prognosen, dass die Prognosen eintreten …“.
Beim Klima-Simulieren werden viele verschieden parametrierte Simulations-Läufe gemacht und dann „ermittelt“, welcher der „richtigste“ sein könnte. Irgend eine Prognose tritt dadurch irgendwann immer ein. Nur ist in der Regel vorher nicht bekannt, welche es werden wird. Anders herum werden die Simulationen rückwirkend den wahren Verläufen angepasst und dazu verkündet: „hätte man es damals so parametriert, wären die heutigen Ergebnisse herausgekommen“.
Wer die himmelschreienden Ungenauigkeiten nicht glaubt, sehe sich das in den vielen Vulnerabilitätsstudien mit ihren Simulationsläufen an:
EIKE: Der Himmel fällt uns auf den Kopf und ohne die Glaskugel im Computer würden wir es nie erfahren

Wie schwierig es ist, Ursache und Wirkung zu unterscheiden, lässt sich am folgenden Verlaufsbild der tropischen Wolkenbedeckung ahnen.

Bild 3 Tropische Wolkenbedeckung und Temperatur seit 1983 (Wolken: ISCCP) Quelle: WUWT, Blogbeitrag

Meeresspiegel

Weiter geht es bei Herrn Lesch mit dem Meeresspiegel:
H. Lesch: … und warmes Wasser braucht mehr Platz … und schon ist man beim Meeresspiegelanstieg: Da gibt es ebenfalls neue Daten und die sagen uns ebenfalls nichts Gutes. … Zumal sich eben auch die Kontinente noch anheben z.B. genau dann wenn die Gletscher verschwinden die … wenn das Eis verschwindet …
Wie hoch ist tatsächlich der Meeresspiegelanstieg … Man hat Modelle benutzt und hat lokale Messstationen deren Wasseranstieg, deren Meeresanstieg zu rekonstruieren. Dann macht man das mit zwei, drei, vieren . ist eine Evolution von Modellen. … auf diese Art und Weise ist es gelungen, eine klipp und klare Aussage darüber zu machen, dass die Meere in den letzten 100 Jahren so stark angestiegen sind wie in den letzten 3000 Jahren nicht mehr …
und das ist klar, klipp und klar

Wieder muss man Datenquellen raten, aber es finden sich dazu passende Fundstellen, wie:
[1] Temperature-driven global sea-level variability in the Common Era
Wie so oft, hat ein Studienteam ganz neu festgestellt, dass man die Daten der Vergangenheit bisher falsch interpretiert hat und mit den „richtigen“, statistischen Methoden berechnet, die Zukunft viel schlimmer (als bisher publiziert) werden wird. Und wie so oft, wenn eine schlimme Klimaapokalypse zu verkünden ist, war auch Herr Rahmstorf (PIK) im Team dabei.
Die Studie kommt auch im EIKE-Artikel: Anstieg des Meeresspiegels: Nur Fakten, vor, doch soll hier auf eine Besprechung auf scinexx eingegangen werden.
scinexx.de:
[6] Meeresspiegel: Schnellster Anstieg seit 3.000 Jahren Bisher vollständigste Berechnung der klimabedingten Veränderungen des globalen Meeresspiegels
Jetzt ist es amtlich: Der globale Meeresspiegel ist im 20. Jahrhundert schneller angestiegen als jemals zuvor in den letzten 3.000 Jahren. Von 1900 bis 2000 stiegen die weltweiten Pegel um 14 Zentimeter. Gäbe es dagegen den anthropogenen Klimawandel nicht, wäre der Meeresspiegel vielleicht sogar gleichgeblieben, wie Forscher im Fachmagazin „Proceedings of the National Academy of Sciences“ berichten. Zudem wären allein den US-Küsten 4.000 Überschwemmungen seit 1950 erspart geblieben.
Dass die Meeresspiegel durch die globale Erwärmung ansteigen, ist mittlerweile sattsam bekannt. Unter anderem deshalb prognostizieren Klimaforscher zunehmende Überschwemmungen und selbst in den USA gehen schon die ersten Inseln unter.
Zudem wurde lange Zeit mit
falschen Basiswerten gerechnet, so dass sich erst kürzlich herausstellte, dass der Anstieg doch steiler ist als gedacht.
„Eine statistische Herausforderung“
Robert Kopp von der Rutgers University und seine Kollegen haben es nun dank komplexer Analysen erstmals geschafft, die Entwicklung des Meeresspiegels in den letzten 3.000 Jahren zu rekonstruieren. „Kein lokaler Pegelstand liefert uns den globalen Meeresspiegel“, erklärt Kopp. „Denn an jedem Standort wird der Wert von zahlreichen Prozessen beeinflusst, die ihn vom globalen Mittel abweichen lassen. Hieraus das globale Signal zu isolieren – das ist die statistische Herausforderung“
Wie sensibel der Ozean auf Klimaveränderungen reagiert, zeigt ein weiteres Ergebnis:
Zwischen den Jahren 1000 und 14000 sank der Meeresspiegel um rund acht Zentimeter ab, wie die Forscher feststellten. Diese Entwicklung trifft mit einer Phase zusammen, in der sich globale Klima um 0,2 Grad Celsius abkühlte. „Es ist erstaunlich, dass wir diese Pegelveränderungen sogar bei einer so schwachen Abkühlung sehen“, sagt Kopp.

Selbst allerschlimmste Fehler fallen einer Fachredaktion nicht auf

Im scinexx-Artikel steht (hier extra als screenshot, damit man es glaubt, sofern es doch noch von der Redaktion korrigiert werden sollte), dass der Meeresspiegel zwischen den Jahren 1.000 und 14.000 um rund 8 cm sank:

Bild 4 Screenshot aus dem scinexx Artikel [6] zur Studie [1]

Diese Textstelle liest sich in der Studie allerdings wie folgt:

[1] „ … with a notable decline over 10001400 CE coinciding with 0.2 °C of global cooling

Der Redakteur hat (sicher versehentlich) aus den richtigen 1.400 CE in der Studie falsche 14.000 CE getippt. Das kann jedem mal passieren. Nur lag der Meerespegel vor 14.000 Jahren wie allgemein bekannt um 80 m (und nicht 8 cm) tiefer und die Temperatur ebenfalls um fast 20 Grad (und nicht 0,2 Grad). Dass dieser – fast schon jedem Klimalaien sofort ins Auge springende – Fehler niemandem in der Redaktion aufgefallen ist (und keinen Leser zur Reklamation veranlasste), zeigt, welcher krasse Unsinn beim Klimawandel publiziert werden kann, ohne „anzuecken“.

Bild 5 Pegel- und Temperaturverlauf seit ca. 25.000 Jahren. Quelle: Zentralanstalt für Meteorologie und Geodynamik, ZAMG

Im Studienteam müssen wahre Rekonstruktionsgenies gewesen sein

Im scinexx Artikel steht: „Der globale Meeresspiegel ist im 20. Jahrhundert schneller angestiegen als jemals zuvor in den letzten 3.000 Jahren“. In der Studie selbst findet sich dazu das folgende Bild:

Bild 6 Die erste (angeblich) wirklich genaue Rekonstruktion des Meeresspiegelverlaufs seit 2400 Jahren. Quelle: [1]

Dieser „endlich ganz genaue berechnete Verlauf“ zeigt seit den letzten 2400 Jahren (bis ca. 1900) eine Spanne von gerade einmal ca. 15 cm.

Nun hat der Autor historische Pegelrekonstruktionen schon einmal in einer kleinen Analyse gesichtet und ist dabei zum Ergebnis gekommen, dass die Pegel-Änderungsspanne um Dimensionen höher ist, und schlimmer, aufgrund der katastrophalen Proxi-Ungenauigkeiten gar kein „wirklicher“ Global-Verlauf mit brauchbarer Genauigkeit rekonstruiert werden kann:
EIKE 07.04.2016: [5] Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

Daraus eine Proxy_Rekonstruktion (Bild 7), welche dem IPCC AR5 entstammt. Die Proxys überstreichen in diesem Zeitraum eine Spanne von mindestens 100 cm. Vor allem aber sind sie regellos verteilt (Verdacht, dass sie teils Zufallswerte darstellen). Jedenfalls lässt sich kein „wahrscheinlicher“ mittlerer Kurvenverlauf daraus berechnen, weil die notwendigen, statistischen Basisannahmen nicht erfüllt sind. Natürlich kommt im Rechner immer eine Mittelwert-Kurve heraus – nur stimmt sie nicht.

Bild 7 IPCC Proxibild der vergangenen 3000 Jahre (gestrichelte Linien durch den Autor ergänzt). 0 = Jahr 1950

Original-Bildtext: Figure 13.3 (a) Paleo sea level data for the last 3000 years from Northern and Southern Hemisphere sites

Der folgende Verlauf eines Proxys der Malediven, indischer Ozean (Bild 8) soll zeigen, wie leicht die Annahme, einen so steilen Pegelanstieg wie aktuell hätte es die letzten 3000 Jahre noch nie gegeben, auch falsch sein kann. Es fällt aber kaum auf, da die schnellen Änderungen in den vielen Mittelungen verschwinden.

Bild 8 [5] Fig. 1. Sea level curve for the last 5000 years for the Maldives.

Nun eine Tabelle mit den Pegeländerungen weltweit verteilter Proxis aus dem EIKE-Artikel (Bild 9). Die Pegel-Spannweiten der letzten 2000 Jahre liegen zwischen -1,4 … +3,2 m. Laut der ganz neuen Studie will man daraus mittels ganz moderner Statistik heraus bekommen haben, dass der globale Mittelwert in diesem Zeitraum um nicht mehr als 15 cm geschwankt hätte. Das ist mehr als absolut unglaubwürdig. Bei den katastrophal streuenden Daten lässt sich auch mit noch so viel „Statistik“ kein wahrer Mittelwertverlauf mit dieser Genauigkeit bestimmen, beziehungsweise belegen.

Bild 9 [5] Meerespegel-Verlaufsrekonstruktionen aus weltweit verteilten Pegelproxys (ohne Pegel Mittelmeer)

Zum angeblich so alarmistischen, jüngeren Pegelanstieg noch ein Link:

EIKE: Anstieg des Meeresspiegels: Nur Fakten
Nur weil der Meerespegel eben nicht alarmistisch ansteigt, wird mit immer neuen „bahnbrechenden, statistischen Analysen“ versucht, einen zu konstruieren.

Was sagte Herr Lesch

Die Aussage: H. Lesch: „ … auf diese Art und Weise ist es gelungen, eine klipp und klare Aussage darüber zu machen, dass die Meere in den letzten 100 Jahren so stark angestiegen sind wie in den letzten 3000 Jahren nicht mehr … und das ist klar, klipp und klar,
darf man bedenkenlos anzweifeln, da sie sich auf eine Studie bezieht, welche unseriöse und vielen anderen Analysen deutlich widersprechende Ergebnisse präsentiert. Klipp und klar ist nur, dass damit gar nichts klar ist.

Fazit

Herr Lesch hat inzwischen mehrere Vorträge zum Klimawandel „gedreht“. Es ist (für jemand dazu kritisch eingestellten) wirklich eine Qual, sich seine Darstellungen dazu anzusehen und zu hören. Man merkt dabei auch, wie wenig „Wissenschaftsvorträge“ nutzten, wenn keine Quellen bekannt gegeben werden.
Im Kern sind seine Vorträge dazu inzwischen zur reinen Agitation und Kanzelpredigt, moderner: Vermittlung einer Message, verkommen. Mit „Wahrheitsvermittlung“ haben sie jedenfalls rein gar nichts mehr zu tun. Vor Kurzem verkündet er inzwischen, beim Klimawandel gäbe es überhaupt keine Zweifel, was die (alarmistischen) Studien schreiben, wäre einfach „wahr“ und somit gäbe es dazu auch keinen Dissens mehr (die Rezension zu einem seiner Videos, in welchem er vor großem Publikum genau dies konkret sagt, erscheint noch).
Es fragt sich nur: Was treibt einen Professor dazu, sich sein Renommee selbst so konsequent kaputt zu machen? – Und, warum unsere Fernsehanstalten solche Ökokirchen-Predigersendungen als „Wissenschaft“ bringen.

Quellen

[1] R. E. Kopp et al. (mit S. Rahmstorf): Temperature-driven global sea-level variability in the Common Era

[2] ZDFHD, Video: Frag den Lesch – Neues aus der Klimaküche Quelle: YouTube, Veröffentlicht am 28.11.2016

[3] npj, Heidi J Smith at al., 8 June 2016: Biofilms on glacial surfaces: hotspots for biological activity

[4] Joel R. Norris at al., 11 July 2016: Evidence for climate change in the satellite cloud record

[5] EIKE 07.04.2016: Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

[6] scinexx.de: Meeresspiegel: Schnellster Anstieg seit 3.000 Jahren

[7] ScienceScepticalBlog: Die Top 5 Lügenmärchen der Klimaforscher
http://www.science-skeptical.de/klimawandel/die-top-5-luegenmaerchen-der-klimaforscher/0015719/




Obsolete Klimawissenschaft zu CO2

Greenstone und Sunstein haben ein großes Interesse in diesem Spiel: Während ihrer Jahre in der ersten Obama-Regierung riefen sie eine inter-ministerielle Arbeitsgruppe IWG ins Leben, deren Mitglieder aus verschiedenen Regierungsagenturen berufen wurden, die sich mit den sozialen Kosten von Kohlenstoff (SCC) befasst hatten – oder den marginalen Kosten der Freisetzung einer Tonne CO2 in die Atmosphäre. Diese IWG befand, dass man die Kosten mit 36 Dollar pro Tonne schätzen sollte (für 2015). Man lege diese Zahl zugrunde, und man hat viel Rechtfertigung für wesentliche politische Schritte, um die CO2-Emissionen zu kappen. Greenstone und Sunstein hofften, dass die Arbeitsgruppe sich auf die „jüngsten Forschungen in Wissenschaft und Ökonomie“ stützen und die behaupteten Kosten belegen würden mit der „Berückichtigung der Zerstörungen von Eigentum durch Stürme und Überschwemmungen, abnehmende landwirtschaftliche und industrielle Produktivität, steigende Sterblichkeit und mehr“.

Ihre Mühe sollte als grandioses Scheitern betrachtet werden sowie als ein Affront gegen das wissenschaftliche Verfahren, das in ihren Studien anzuwenden sie vorgeben. Der erste Fehler ist ein Verfahrensfehler. Der schlechteste Weg, einen grundlegenden Meinungsaustausch zum komplexen Thema Klimawandel zu bekommen ist es, die IWG ausschließlich mit Mitgliedern der Obama-Regierung zu besetzen, alle sorgfältig ausgewählt, weil sie die übertriebenen Bedenken des Präsidenten bzgl. globaler Erwärmung teilen. Der einzige Weg, ein vollständiges und genaues Bild der Lage zu erhalten ist, den Abweichlern zum Thema globale Erwärmung genauso zuzuhören wie den Befürwortern. Das ist jedoch niemals geschehen. Denn schließlich, wer sollte schon einem „Leugner“ zuhören?

Diese herablassende Haltung ist fatal für eine unabhängige Untersuchung. Egal wie oft der Präsident behauptet, die Wissenschaft sei felsenfest – die Vielfalt von Beweisen aus jüngster Zeit lassen immer mehr ein sehr unterschiedliches Bild entstehen, welches den zügellosen Pessimismus hinsichtlich Klimawandel unterminiert, der vor etwa 10 Jahren groß in Mode war. Die im Rahmen der Obama-Regierung zusammen gerufene Gruppe hat niemals die Akkumulation von Beweisen der anderen Seite untersucht, geschweige denn widerlegt. Tatsächlich sind nahezu alle Berichte der IWG bemerkenswert hinsichtlich ihrer Weigerung, überhaupt irgendwelche Daten zu berücksichtigen. Stattdessen beruft man sich durchgängig auf Modelle, die von anderen entwickelt wurden, als das solide Fundament der Arbeit der Gruppe, ohne auch nur ein einziges Wort zu hinterfragen, welches die Modelle sagen.

Der zweite grundlegende Fehler der regierungsamtlichen Studien ist die Art und Weise, mit der sie die sozialen Kosten von Kohlenstoff (SCC) ausarbeiten. Wie alle Experten einer Kosten/Nutzen-Analyse wissen, ist es ein Fehler, die Kosten isoliert vom Nutzen zu betrachten, oder den Nutzen isoliert von den Kosten. Und doch scheint man genau dies in den Berichten getan zu haben. Als Reaktion auf die zahlreichen Beanstandungen zu den Berichten hat die IWG in einer Antwort im Juli 2015 geschrieben, dass „einige Kommentatoren den Eindruck hatten, dass die SCC-Schätzungen den Wert der Vorteile und die Dienstleistungen für die Gesellschaft einschließen sollten im Zusammenhang mit CO2-Emissionen“. Man muss deren Antwort in Gänze lesen, um das glauben zu können: „Eine rigorose Evaluierung der Vorteile und Kosten ist ein Eckpfeiler des Vorschriften gebenden Prozesses. Die IWG stimmt darin überein, dass dies wichtige Themen sind, die bei der Abschätzung der Auswirkungen einer Politik relevant sein können, die zur CO2-Reduktion führt. Allerdings sind diese Themen nicht relevant für die SCC selbst. Die SCC sind eine Schätzung der gesamtwirtschaftlichen Schäden aufgrund von CO2-Emissionen und werden daher herangezogen, um die Vorteile der Reduktion dieser Emissionen abzuschätzen“.

Im Wesentlichen werden die Vorteile derzeitiger oder zukünftiger CO2-Emissionen gar nicht angesprochen. Und doch muss eine wirklich neutrale Betrachtung des Problems vorbereitet werden, um zu der Schlussfolgerung zu kommen, dass gesteigerte Niveaus von CO2-Emissionen insgesamt vorteilhaft für die Gesellschaft sein, wie die Carbon Dioxide Coalition argumentiert hat, wenn man eine umfassendere Untersuchung durchführen würde. Der gesamte Prozess der Ausweitung von EPA-Vorschriften und anderer Maßnahmen der Obama-Regierung halten nur diese unrichtige grundlegende Schätzung am Leben. Das atemberaubendste Eingeständnis der Unsinnigkeit des gesamten EPA-Projektes stammt von der EPA-Chefin Gina McCarthy, die gesagt hatte, dass sie eine Temperaturabnahme um ein Hundertstel Grad als enorm vorteilhaft ansehen würde, unbeschadet der hohen Kosten, weil dieser Symbolismus „globale Maßnahmen auslösen“ könnte. Keine Kosten/Nutzen-Analyse würde verschwendete Ausgaben allein aus symbolischen Gründen rechtfertigen. Schließlich würde die menschliche Entwicklung bzgl. globaler Erwärmung nur dann Schaden nehmen, falls andere Nationen unseren falschen Sirenengesängen bzgl. CO2-Emissionen folgen, während die gewaltige Verschmutzung ignoriert wird, die Begleiterscheinung großer Bevölkerungszentren sind wie etwa Delhi und Peking.

Unglücklicherweise beruht die Unterstützung für Vorschriften bzgl. CO2-Emissionen unzulässig auf einer amtlichen Auswirkungs-Analyse, die nicht mehr wert ist als die falschen Hypothesen, auf denen die Modelle beruhen. Darunter ist auch der gewaltig komplizierte Clean Power Plan, der zeitweise vom Obersten US-Gerichtshof untersagt worden war und der ebenfalls auf den betrügerischen Schätzungen der sozialen Kosten von Kohlenstoff beruht.

Die Schwäche des EPA-Verfahrens wird offensichtlich durch die Daten, die Greenstone und Sunstein anführen, um die Behauptung zu stützen, dass die globale Erwärmung bereits ein gefährliches Niveau erreicht hat. Sie beziehen sich beispielsweise auf einen Geophysical Research Letter aus dem Jahr 2014, in dem es um den Rückzug von Eis in der Westantarktis zwischen 1992 und 2011 geht. Aber dieses eine Ergebnis muss in den richtigen Zusammenhang gestellt werden, wie es im State of the Climate Report aus diesem Jahr 2016 der Fall war. Dieses Dokument wurde vom Committee for a Constructive Tomorrow (CFACT) erstellt und der UN-Klimakonferenz in Marokko zugeleitet. In diesem vollständigeren Bericht wird belegt, dass der Massenzuwachs in der Ostantarktis im Mittel 200 Milliarden Tonnen pro Jahr betragen habe, verglichen mit den 65 Milliarden Tonnen Massenverlust, welche vom Zuwachs in der Ostantarktis weit überkompensiert worden waren. Damit ergibt sich ein Eiszuwachs in der gesamten Antarktis von grob geschätzt 82 Milliarden Tonnen pro Jahr zwischen 2003 und 2008. Fazit: „Die gute Nachricht lautet, dass die Antarktis gegenwärtig nicht zum Anstieg des Meeresspiegels beiträgt, sondern diesen um 0,23 Millimeter pro Jahr verlangsamt“. Alles in allem war die Temperatur in der Antarktis während der letzten 35 Jahre konstant geblieben.

Keine Analyse, die nur auf die Negativa schaut, kann es sich leisten, die viel größeren Positiva zu ignorieren, um ihre Glaubwürdigkeit zu erhalten. Tatsächlich belegt der CFACT-Bericht, dass die Eismasse in der Arktis derzeit um 22% größer ist als während der minimalen Ausdehnung im Jahre 2012. Diese Tatsache hilft zu erklären, warum es jüngst zu keiner Änderung der Rate des Meeresspiegel-Anstiegs gekommen war und mit Sicherheit zu keinem Anstieg, der irgendwie der relativ moderaten Erwärmung der letzten 100 Jahre zuzuordnen ist. Jüngste Trends zeigen, dass sich die Anstiegsrate der Ozeane während der letzten 18 Jahre immer mehr verlangsamt hat, während einer Zeit also, in der es eine substantielle Zunahme des CO2-Niveaus gegeben hatte. Und doch zeigen alle 102 verschiedenen, vom IPCC herangezogenen Modelle sehr hohe Schätzungen, und zwar um etwa das Vierfache zu hoch. Wie im CFACT-Bericht 2016 dokumentiert, hat sich die Temperatur während der letzten 18 Jahre kaum geändert, und die berichteten rekordhohen Werte beruhen auf Abweichungen bei den Messungen, die noch innerhalb der Messgenauigkeit liegen. Und doch folgt die Regierung der Methode, ausschließlich auf die Modelle zu schauen und die Daten zu ignorieren.

Genau dies wurde auch getan bei den inzwischen anachronistischen Endangerment Findings der EPA aus dem Jahr 2009, wo von der insgesamten Abnahme des arktischen Eises die Rede und die Behauptung aufgestellt worden war, dass die „erhöhten CO2-Niveaus“ „geringe vorteilhafte Auswirkungen auf die Ernteerträge“ erwarten ließen. Die gute Nachricht zu diesem Punkt scheint zu sein, dass die CO2-Zunahme während der letzten 30 Jahre zu einer Zunahme der grünen Vegetation auf der Erde um 14 Prozent geführt hat. Dies berichtet Matt Ridley in einem Vortrag im Jahre 2016. Es ist die beste aller möglichen CO2-Welten, wenn die Fläche urbaren Landes zunimmt bei geringen Temperaturänderungen und kaum wahrnehmbaren Änderungen des Meeresspiegels. Führt man all diese Zahlen zusammen, muss eine Überarbeitung der SCC erfolgen, denn wie es jetzt scheint, sind die Gesamtkosten von Kohlenstoff negativ. Außerdem haben die überarbeiteten Projektionen nur die viel niedrigen Schätzungen der globalen Erwärmung infolge eines höheren CO2-Niveaus untermauert.

Dieses grundlegende Ergebnis wird durch andere, leicht zugängliche Daten gestützt, die andere Bedenken im Artikel von Greenstone und Sunstein betreffen. Für Neulinge in dieser Diskussion: Es gab keine Zunahme von Stürmen und Überschwemmungen oder auch der Schäden, die diesen Ereignissen in die Schuhe geschoben werden. Im Gegenteil, die Trendlinie war eindeutig sehr günstig, hat doch die Anzahl von Extremereignissen wie Fluten und Stürme stetig während der letzten 100 Jahre abgenommen. Tatsächlich war das letzte schwere Unwetter in den USA der Hurrikan Katrina im Jahre 2005, gefolgt von elf Jahren relativer Ruhe in den USA und auf der ganzen Welt. Dieser Punkt ist zentral, weil eine der konstantesten Behauptungen zum globalen Klimawandel lautet, dass die systemweite Instabilität diese Extremereignisse hat zunehmen lassen, sogar dann noch, falls das Temperaturniveau insgesamt konstant geblieben ist.

Das Gesamtbild hinsichtlich der SCC ist daher das genaue Gegenteil dessen, was von Greenstone und Sunstein beschrieben worden ist, und diese Änderung der Richtung hat eine ernste Auswirkung auf den Erfolg zahlreicher juristischer Klagen. Greenstone und Sunstein schreiben, dass einem Urteil aus dem Jahr 2008 zufolge das Ignorieren der SCC eine regierungsamtliche Vorschrift „willkürlich und unberechenbar“ ist und dass daher eine Umformulierung seitens der betreffenden Agentur erfolgen muss. Sie erwähnen auch eine andere Entscheidung aus dem Jahr 2016, welche eine administrative Entscheidung des Energieministeriums aufrecht erhielt unter explizitem Bezug auf die SCC. Aber diese juristischen Entscheidungen sind umgeben von einer surrealistischen Aura. Eckpunkt dieser Fälle das Energy Policy and Conservation-Gesetz aus dem Jahr 2016 (EPCA). Dieses wurde in der Folge des Ölembargos des Nahen Ostens im Jahre 1973 in Kraft gesetzt. Das Hauptergebnis von EPCA war „die fundamentale Realität, dass diese Nation in eine neue Ära eingetreten ist, in der Energieressourcen, die früher ergiebig waren, immer weiter schrumpfen, was unser eigenes Wachstum verzögert und eine Änderung unserer Lebensgewohnheiten und -erwartungen erforderlich macht“.

Es war die Stärke dieses 41 Jahre alten Statuts, die den Gerichtshof im Jahre 2008 dazu veranlasste, von der National Highway Traffic Safety Administration zu verlangen, ihre Vorschriften bzgl. Treibstoffersparnis für Kleinlaster zu überarbeiten, weil sie die SCC nicht berücksichtigt hatte. Heutzutage ist diese Gesetzgebung vollkommen anachronistisch, weil die Revolution der Energie-Technologie die gesamte faktische Grundlage zerschlagen hat, auf der die Vorschriften bzgl. Treibstoffersparnis fußen. Angesichts Fracking ist Energie ergiebig. Folglich müssen die SCC neu bewertet werden im Lichte der Beweise, die außerhalb der EPA zusammengetragen und oben zusammengefasst worden waren. Kein einziger dieser Beweise ist berücksichtigt worden bei der Arbeit im geschlossenen Universum des gegenwärtigen Bündels von Umwelt- und Energiegesetzen. Derzeit scheint es so, dass praktisch alle EPA-Vorschriften auf überholter Wissenschaft beruhen.

Greenstone und Sunstein stehen nicht allein mit ihrer Weigerung, Beweise in Betracht zu ziehen, die ihre Behauptungen widerlegen. Aber falls die SCC negativ aussehen, sollte die Trump-Regierung tätig werden und die gegenwärtige Gefahrenbehauptung bzgl. CO2 eliminieren. Sie sollte den Vorschriften gebenden Apparat auflösen, der auf der hoch fragwürdigen Schätzung der hohen Werte der SCC beruht. Die traurige Wahrheit ist, dass die EPA und das Gesetzgebungsverfahren der Obama-Regierung keinen Respekt zeigt für die wissenschaftliche Methode, auf die zu bauen sie doch so sehr behaupten.

Link: http://www.hoover.org/research/obsolete-climate-science?utm_content=bufferefd7e&utm_medium=social&utm_source=twitter.com&utm_campaign=buffer