Aufhebung von Obamas 11-Stunden-Bohrverbot

Bei seinen Vorbereitungen zur Räumung seines Büros konnte Präsident Obama nicht einem „Parthian Shot“ widerstehen gegen die das Amt übernehmende Trump-Regierung, indem er Bohrungen verbot in großen Bereichen des amerikanischen Arktis-Sektors und vor der atlantischen Küste.

Grüne Gruppen behaupten, dass dieses Gesetz von Dauer ist, während Energiestrategen behaupten, dass Präsident Trump dieses Gesetz per Rechtsverfügung aufheben kann.

Auf unserer Website CFACT.org posteten wir einen Beitrag des Energie-Analysten Michael Bastasch hierzu:

„Obama ordnete an, dass sein Bohrverbot ,alle fünf Jahre überprüft werden soll mittels einer auf Klima- und Meereswissenschaft basierenden Abschätzung des Lebenszyklus‘. Im Hinterkopf hatte er dabei wohl, dass ein Klimatest von Offshore-Bohrungen immer einen schädlichen Einfluss auf die Umwelt herausbekommen wird. Umweltaktivisten haben ihn seit Monaten gedrängt, von Abschnitt 12(a) des Outer Continental Shelf Lands Act aus dem Jahr 1953 Gebrauch zu machen, um Offshore-Bohrungen zu blockieren“.

Das gesamte Gesetz kann auf unserer Website hier eingesehen werden.

Die Lektüre des Gesetzes zeigt aber, dass die Klima-Campaigner zu vertrauensselig sind.

Als der Kongress einem Gesetz zustimmte, welches den äußeren Kontinentalschelf der USA betrifft, wurde eindeutig dem Sinn des Gesetzes Ausdruck verliehen:

„Der Äußere Kontinentalschelf ist eine vitale nationale Ressource, die die Regierung für die Öffentlichkeit verwaltet. Er sollte zugänglich gemacht werden für Expeditionen und eine geordnete Entwicklung sowie Gegenstand von Umweltschutzmaßnahmen sein auf eine Art und Weise, die konsistent ist mit der Wahrung von Wettbewerb und anderer nationaler Erfordernisse“.

Der Kongress erkannte die Bedeutung der Ressourcen vor der amerikanischen Küste. Die Absicht des Kongresses war es, Energie und andere Ressourcen für die US-Wirtschaft verfügbar zu machen. Die Umwelt-Vorbehalte bestehen, um eine sichere und verantwortungsvolle Ausbeutung sicherzustellen.

Der Kongress glaubte auch, dass einige empfindliche Gebiete geschützt werden sollten, weshalb die Klausel verankert worden ist, dass „der Präsident der Vereinigten Staaten von Zeit zu Zeit nicht vermietete Gebiete im Äußeren Kontinentalschelf von der Nutzung ausschließen kann“.

Präsident Eisenhower befolgte diese Vorgabe wie geplant, als er ein Gebiet der Florida Keys von der Entwicklung ausnahm.

Nachfolgende Präsidenten erkannten die Weisheit in der Entscheidung von Ike und ließen sie bestehen. Allerdings waren andere präsidiale „Ausschlüsse“ keineswegs „permanent“. Sie wurden von nachfolgenden Präsidenten aufgehoben.

Das Atlanta Journal Constitution berichtet, dass „Präsident Bill Clinton im Jahre 1998 ein Offshore-Bohrverbot bis zum Jahr 2012 verlängerte, welches ursprünglich von Präsident George H. W. Bush in Kraft gesetzt worden war – aber im Jahre 2008 hob Präsident George W. Bush jene Clinton-Proklamation vier Jahre vorher auf“.

Präsident Obama, der prominent mit der Bemerkung „Ich habe einen Stift, und ich habe ein Telefon“ seine Absicht bekundet hatte, den Kongress zu umgehen, gab dem designierten Präsidenten Trump den Rat, sich nicht zu sehr auf präsidiale Verfügungen zu stützen. Gleichzeitig verordnete er das Bohrverbot.

Präsident Trump sollte dieses unkluge Bohrverbot aufheben. Wenn es zu den unvermeidlichen juristischen Klagen kommt, sollte jedes neutrale Gericht die Verordnung der Absicht des Kongresses folgend auslegen.

For nature and people too,

Craig Rucker, executive director

———————————————

In dem oben erwähnten Beitrag von Michael Bastasch beschreibt dieser noch einmal die näheren Umstände. Präsident Trump kann jederzeit mit Hilfe des von Republikanern beherrschten Kongresses dieses Verbot aufheben. Verschiedene Präsidenten zuvor haben bereits von dem gesetz aus dem Jahr 1953 Gebrauch gemacht, und jeweils nachfolgende Präsidenten haben entsprechende Verordnungen wieder aufgehoben.

Bastasch weist aber noch auf einen anderen Aspekt hin (hier): Die Fracking-Technologie ist inzwischen noch kostengünstiger zu betreiben als teure Bohrungen Offshore und in der Arktis. Es kann also gut sein, dass die „Umweltschützer“ ganz umsonst Zeter und Mordio schreien.

Chris Frey, Übersetzer für das EIKE




Der politische Einfluss des WBGU: Die gefährlichen Weissagungen des Papstflüsterer

Wie konnte es dazu kommen?

WISSENSCHAFT: In seinem Buch „Klimahysterie ist keine Lösung“ (2012) hatte der Autor einstmals mit Bezug auf die „Große Transformation“ (2011) des späteren „Papstflüsterers“ Professor Schellnhuber und seines WBGU, zugegebenermaßen prä-aktuell und voll-phobisch, vor einer offenbar politisch gewollten Klimadiktatur gewarnt, Zitat mit meinen Hervorhebungen:

„… Stattdessen schlägt unsere Klimaforschung auf der Grundlage von fiktiven Ergebnissen grob vereinfachender Computermodelle bereits heute eine ‚Große Transformation zur dekarbonisierten Weltgemeinschaft‘ vor, um unsere Gesellschaft auf eine strikte CO2-Vermeidung auszurichten und den Klimaschutz als Verfassungsziel einzuführen.

Propagiert der WBGU mit seiner ‘Großen Transformation‘ bereits unseren neuen –ISMUS, den CO2-Klimatismus? Nach dem Fall des Eisernen Vorhangs war man sich doch einstmals einig darüber, nie wieder gesellschaftliche Experimente mit Menschen zulassen zu wollen….

Man möge sich also lieber rechtzeitig fragen, was die Forderung nach einer ‚gesellschaftlichen Problematisierung von nicht nachhaltigen Lebensstilen‘ in ihrer weichgespülten Formulierung wirklich bedeutet und welche Art von Hexenjagd uns am Ende tatsächlich damit angedroht worden sein mag!

Heute wird die „vom Menschen verursachte Klimaerwärmung“ angeblich von 97 Prozent aller Klimawissenschaftler bestätigt, was übrigens eine typische Fake-News ist. In unserer extrem arbeitsteiligen Welt müssen sich die Bürgerinnen und Bürger aber mangels eigener Expertise in fremden Fachgebieten auf ausgewiesene „Experten“ verlassen können, und Wissenschaftler genießen in unserem Land nun mal einen ganz besonders hohen Vertrauensvorschuss. Und diese Wissenschaftler erklären nun mit einer Fake-News eine wissenschaftliche Diskussion von globaler sozial- und wirtschaftspolitischer Bedeutung im Sinne der mittelalterlichen Inquisition für beendet.

POLITIK: Die „Große Transformation“ des WBGU (2011) machte keine öffentlichen Schlagzeilen. Im Gegenteil, kaum jemand hatte in der zwischenzeitlichen gesellschaftlichen Diskussion überhaupt schon jemals diesen Begriff „Dekarbonisierung“ gehört. Und von einer solchen „Dekarbonisierung der Welt“ wurde in den Mainstream-Medien auch jahrelang überhaupt nichts berichtet. Diese „Dekarbonisierung“ tauchte dann aber völlig unvermittelt in der Rede von Bundeskanzlerin Frau Dr. Merkel zum VI. Petersberger Klimadialog am 19. Mai 2015 wieder auf, Zitat mit Hervorhebungen:

„.. Meine Damen und Herren, wir dürfen das Ziel nicht aus dem Auge verlieren. Wir werden in Paris erleben – auch das kann man schon absehen –, dass es noch mehr Engagement als heute brauchen wird, um dem Zwei-Grad-Ziel wirklich gerecht zu werden. Damit wir das Ziel nicht aus den Augen verlieren, brauchen wir eine langfristige Vision, die uns Orientierung, aber auch Ansporn gibt.

Die Wissenschaft gibt uns eine klare Handlungsempfehlung. Wir müssen in diesem Jahrhundert, im 21. Jahrhundert, die Dekarbonisierung schaffen – also den vollständigen Umstieg auf kohlenstofffreies Wirtschaften. Für diese Vision treten Deutschland und Frankreich gemeinsam ein und werben dafür auch bei unseren Partnern. Das Intergovernmental Panel on Climate Change, IPCC, fordert als Etappenziel auf dem Weg dorthin, bis 2050 die Treibhausgasemissionen um 40 bis 70 Prozent gegenüber 2010 zu verringern…“

Am 8. Juni 2015, dem zweiten Tag des G7-Gipfels auf Schloss Elmau, meldete Spiegel-Online dann unvermittelt: „G7-Beschluss in Elmau – Umweltschützer feiern historisches Klimaversprechen“. Zu diesem Zeitpunkt war die internationale Meinungsbildung auf politischer Ebene für eine globale „Dekarbonisierung“ also offenbar bereits abgeschlossen – und zwar ohne jede gesellschaftliche Diskussion.

RELIGION: In seiner Enzyklika ‚Laudatio Si‘ macht sich Papst Franziskus Gedanken über das „gemeinsame Haus“, Zitat aus Wikipedia:

Die auf den 24. Mai 2015 datierte und am 18. Juni 2015 in acht Sprachen veröffentlichte Verlautbarung ‚Über die Sorge für das gemeinsame Haus‘ befasst sich schwerpunktmäßig mit dem Themenbereich Umwelt- und Klimaschutz und setzt zudem Zeichen im Hinblick auf bestehende soziale Ungerechtigkeiten und auf die Erschöpfung der natürlichen Ressourcen…“.

Papst Franziskus macht sich in dieser Enzyklika aber auch sehr ausführliche Gedanken um die zukünftige politische Weltordnung, Zitat mit Hervorhebungen:

„175. Die gleiche Logik, die es erschwert, drastische Entscheidungen zur Umkehrung der Tendenz zur Erderwärmung zu treffen, unterbindet auch die Verwirklichung des Ziels, die Armut auszurotten. Wir brauchen eine verantwortlichere weltweite Reaktion, die darin besteht, gleichzeitig sowohl die Reduzierung der Umweltverschmutzung als auch die Entwicklung der armen Länder und Regionen in Angriff zu nehmen. Während das 21. Jahrhundert ein Regierungssystem vergangener Zeiten beibehält, ist es Schauplatz eines Machtschwunds der Nationalstaaten, vor allem weil die Dimension von Wirtschaft und Finanzen, die transnationalen Charakter besitzt, tendenziell die Vorherrschaft über die Politik gewinnt. In diesem Kontext wird es unerlässlich, stärkere und wirkkräftig organisierte internationale Institutionen zu entwickeln, die Befugnisse haben, die durch Vereinbarung unter den nationalen Regierungen gerecht bestimmt werden, und mit der Macht ausgestattet sind, Sanktionen zu verhängen. Auf der Linie dessen, was bereits von der Soziallehre der Kirche entwickelt wurde, hat Benedikt XVI. bekräftigt: ‚Um die Weltwirtschaft zu steuern, die von der Krise betroffenen Wirtschaften zu sanieren, einer Verschlimmerung der Krise und sich daraus ergebenden Ungleichgewichten vorzubeugen, um eine geeignete vollständige Abrüstung zu verwirklichen, sowie Ernährungssicherheit und Frieden zu verwirklichen, den Umweltschutz zu gewährleisten und die Migrationsströme zu regulieren, ist das Vorhandensein einer echten politischen Weltautorität, wie sie schon von meinem Vorgänger, dem [heiligen] Papst Johannes XXIII., angesprochen wurde, dringend nötig.‘ …“

Papst Franziskus fordert in seiner Enzyklika ‚Laudatio Si‘ also ganz unverblümt eine mit eigener Macht ausgestattete politische Weltregierung zur Rettung der Menschheit ein.

ZEITENWENDE?

Rückkehr der Vernunft in die „Klimapolitik“?

Zwei extreme Positionen prägen die Klimadebatte seit Jahrzehnten. Die eine geht davon…

ERGEBNIS: Mit dieser übereinstimmenden Zielsetzung von Wissenschaft, Politik und Religion ging es dann in die UN-Klimakonferenz vom 30. November bis 12. Dezember 2015 in Paris (COP 21). Das wenig überraschende Ergebnis dieser Klimakonferenz war dann eine „Dekarbonisierung der Welt“ für ein 1,5-2 Grad Klimaziel bis zum Jahre 2100 in einer „nicht verbindlichen“ völkerrechtlichen Vereinbarung, die inzwischen von mehr als 80 Staaten ratifiziert worden ist. In dem neuen WBGU-Sondergutachten Entwicklung und Gerechtigkeit durch Transformation: Die vier großen I wurde jetzt offenbar die politische Agenda dieser Neuen Ökologische Weltbewegung formuliert, mit der die „Top-Down“-Strategie für das weitere Vorgehen in Sachen „Dekarbonisierung der Welt“ spezifiziert und deren Finanzierung durch eine weltweite Planwirtschaft und ökologische Zwangsabgaben in den G20-Staaten zementiert werden soll, Zitat mit Hervorhebungen:

„… Transformative Staatsfonds einrichten

Zur Umsetzung der Agenda 2030 und des Übereinkommens von Paris sollten die beteiligten Staaten effektive nationalstaatliche Politikinstrumente entwickeln. Der WBGU empfiehlt den G20-Staaten insbesondere die Einrichtung transformativer Staatsfonds (Zukunftsfonds). Damit können die G20-Staaten auf den Finanzmärkten stärker als Akteure aktiv werden, mit dem Ziel, einen sozialverträglichen Strukturwandel hin zu einem nachhaltigen Wirtschafts- und Gesellschaftssystem zu fördern. Die Zukunftsfonds sollten sich aus den Einnahmen von CO2-Steuern und Emissionshandel speisen sowie aus einer Generationenkomponente auf Nachlassvermögen. Die Mittel der transformativen Staatsfonds sollten im Sinne des Klimaschutzes und der SDGs angelegt und die Erträge für gemeinwohl- und gerechtigkeitsorientierte Zwecke verwendet werden.

Nachhaltigkeits- und Klimapolitik zur Lösung weltpolitischer Probleme nutzen

Die Regierungen der G20 sollten sich nicht nur „zu Hause“ engagieren, sondern auch auf  internationaler Ebene als Vorreiter dazu beitragen, Kooperation zu stärken und globale Probleme zu lösen. Bei richtiger Ausgestaltung und dem strategischen Einsatz der vier großen I kann Nachhaltigkeits- und Klimapolitik als Hebel zur Lösung weltpolitischer Probleme genutzt werden. Erstens kann eine weitsichtige Klimaschutz- und Nachhaltigkeitspolitik zu einem Modernisierungsprojekt der Weltwirtschaft werden. Sie kann ökonomische Entwicklungschancen eröffnen, indem sie Innovationen inspiriert, Investitionsmöglichkeiten und nachhaltige Beschäftigung schafft sowie Investitionen in zukunftsfeste Technologien, Unternehmen und Infrastrukturen lenkt. Zweitens kann Klimaschutz- und Nachhaltigkeitspolitik auf nationaler Ebene zum Gerechtigkeitsprojekt werden und Inklusion voranbringen, indem sie Dekarbonisierungsstrategien sozialverträglich gestaltet, Ungleichheiten bekämpft und soziale Kohäsion stärkt. Drittens kann die Bewältigung gemeinsamer nachhaltigkeits- und klimapolitischer Herausforderungen zum Friedensprojekt werden, denn dadurch können auch Staaten Vertrauen aufbauen, die sonst nicht miteinander kooperieren oder in offenem Konflikt stehen. Dies fördert Inklusion auf globaler Ebene, indem Ressourcen- und Verteilungskonflikte entschärft werden und Bürgerkriegen sowie Massenflucht entgegengewirkt wird…“

Hier wurden also vom WBGU die Ergebnisse des G20-Gipfels von Hamburg (2017) einer weiterhin schweigenden Öffentlichkeit schon mal probehalber „vorgestellt“.

Diese Vorstellung zukünftiger Absichten geschah ganz im Sinne der politischen EU-Strategie eines Jean-Claude Juncker, Zitat mit Hervorhebungen:

Wir beschließen etwas, stellen das dann in den Raum und warten einige Zeit ab, was passiert. Wenn es dann kein großes Geschrei gibt und keine Aufstände, weil die meisten gar nicht begreifen, was da beschlossen wurde, dann machen wir weiter – Schritt für Schritt, bis es kein Zurück mehr gibt.”

Schritt für Schritt, bis es kein Zurück mehr gibt – aus den Mosaiksteinen einer menschengemachten Klimakatastrophe, dem festen Willen der G7-Industrienationen zur Dekarbonisierung der Welt und dem gesellschaftspolitischen Streben von Kirche und ökologischen NGOs zu einer „nachhaltigen“ Weltordnung setzt sich also das Bild einer neuen „Weltrevolution von oben“ zusammen. Diese Weltrevolution zu einer dekarbonisierten Weltgemeinschaft vergleicht der WBGU in seiner Großen Transformation (2011), Zitat mit Hervorhebungen,

„…mit den beiden fundamentalen Transformationen der Weltgeschichte: der Neolithischen Revolution, also der Erfindung und Verbreitung von Ackerbau und Viehzucht, sowie der Industriellen Revolution…“.

Der Absatz 214 in Kapitel II. der Enzyklika ‚Laudatio Si‘ lässt wohlmöglich, rechtzeitig vor dem G20-Gipfel in Hamburg (2017), das Mäntelchen dieses neuen ökologischen Welt-Totalitarismus fallen, Zitat mit Hervorhebungen:

„… Es ist Sache der Politik und der verschiedenen Vereinigungen, sich um eine Sensibilisierung der Bevölkerung zu bemühen … Da viel auf dem Spiel steht, sind nicht nur Institutionen notwendig, die die Macht besitzen, Sanktionen gegen Umweltattacken zu verhängen, sondern ebenso notwendig ist es, dass auch wir uns gegenseitig kontrollieren und erziehen “.

Bevor wir jetzt aber anfangen, uns gegenseitig zu kontrollieren und zu erziehen, sollten wir ernsthaft bedenken, dass die vom WBGU zitierten Transformationen in der Menschheitsgeschichte freiwillige Entwicklungen waren, die sich „marktwirtschaftlich“ von der Basis her als „wirtschaftliche Erfolgsmodelle“ durchgesetzt hatten.

Alle „Weltrevolutionen“ dagegen, die einer Bevölkerung durch regulatorische „Top-Down-Strategien“ aufgezwungen worden sind, haben in Unfreiheit, wirtschaftlicher Not und Kriegen bis hin zum Völkermord geendet …

Uli Weber ist Geophysiker und Publizist

Übernommen von Tichys Einblick hier




Der Fukushima-Report (1): Die Fakten, die Mythen

Hier soll nicht relativiert werden. In Fukushima gab es drei Kernschmelzen. 150.000 Menschen wurden evakuiert und von ihrer Heimat entfremdet. Das ist schlimm. Aber es gab keine Strahlungsopfer, es gab keine Meeresungeheuer und es gibt keine auf ewig unbewohnbare Todeszone. Stattdessen gab es „postfaktische“ Berichterstattung und Panikmache in den deutschen Medien. So schlimm die Reaktorkatastrophe von Fukushima auch war, der Weltuntergang ist ausgefallen. Bleiben Se interessiert an dem, was wirklich in Fukushima geschieht.

Der Tsunami, der am 11. März 2011 um 14:47 Uhr (Ortszeit) von dem Tōhoku-Erdbeben ausgelöst wurde, war an der Küste Fukushimas 14 Meter hoch. Die Sintflut hat fünf Jahre nach ihrem Eintreten im fernen Deutschland mehr Reaktoren zerstört als in Japan. Der Unterschied: Japan fährt seine Atomkraftwerke schrittweise nach Sicherheitsverbesserungen wieder an. Sie ungenutzt stehen zu lassen, wird den Japanern zu teuer. Deutschland legt seine Reaktoren, die zu den Besten der Welt gehören, sukzessive still, uns ist nichts zu teuer. Das letzte AKW soll 2022 außer Betrieb gehen. Es könnte ja im Emsland einen Tsunami geben.

„Vorhersehbar und vermeidbar“

Ich möchte diesen Artikel mit einem Statement von Kiyoshi Kurokawa, dem Vorsitzenden der Unabhängigen-Untersuchungskommission des Kernkraft-Unfalls in Fukushima beginnen: „Der GAU des KKW Fukushima war eine zutiefst menschengemachte Katastrophe – die man hätte vorhersehen und vermeiden können. Eine Vielzahl von Irrtümern und absichtlichen Vernachlässigungen führte dazu, dass das AKW Fukushima unvorbereitet von den Ereignissen des 11. März heimgesucht wurde…„.

Diesem Statement stimme ich vollinhaltlich zu. Der Tsunami, der zigtausende Menschen tötete, war nur der Auslöser der folgenden Reaktor-Katastrophe in Fukushima. Die Ursache war, dass die Vorstände des Kraftwerk-Betreibers  TEPCO Erkenntnisse von Wissenschaftlern und Ingenieuren mißachtet hatten, die vor den riesigen Flutwellen gewarnt hatten. Zu den Ursachen gehörte auch, dass die japanische Aufsichtsbehörde und die Regierung ihrer Aufgabe der unabhängigen Überwachung der AKW-Betreiber nicht gerecht wurden. Mit Sicherheitsvorkehrungen, deren Kosten überschaubar gewesen wären, hätte man die Turbinengebäude, in denen sich die Notstromdiesel befanden, tsunamifest abdichten können. Niemand von uns würde heute den Namen Fukushima kennen.

Die Vorstände und Politiker haben anders entschieden und damit leichtfertig – und gierig – die nukleare Sicherheit aufs Spiel gesetzt. Sie haben einen Schaden angerichtet, den sie niemals wieder gut machen können, selbst wenn ein Gericht sie dafür hart bestraft. Das Desaster war auch in der japanischen Kultur des Gehorsams, der Unterordnung und des Kuschens vor der Hierarchie begründet – eine Katastrophe Made in Japan. Dies weist der Bericht der Untersuchungskommission in voller Transparenz nach. Den vollständigen Untersuchungsbericht finden Sie hier. Dem habe ich nichts hinzuzufügen.

Die Helden verhinderten Schlimmeres

Es gibt aber, wie immer, auch eine andere Seite der Medaille. Das Erdbeben überstanden alle japanischen AKW-Anlagen unbeschadet und sie reagierten bestimmungsgemäß mit automatischer Reaktorabschaltung. Als dann aber die 14 Meter hohe Flut die sechs Blöcke der Anlage in Fukushima überrollte, drückten die Wellen quasi mit dem kleinen Finger ihrer linken Hand die Blechtore der Turbinengebäude ein und verwandelten das Turbinenhaus in ein gesunkenes Schiff, in dem das Wasser fünf Meter hoch stand. In diesem Gebäude waren aber auch die Notstromdiesel untergebracht, die dabei überflutet wurden und ausfielen.

Zum Zeitpunkt des Tsunami waren etwa 700 Mitarbeiter im Kraftwerk tätig. Fünf von ihnen ertranken in den Fluten – es waren wohl die mit der Überwachung der Notstromaggregate Beauftragten – einer stürzte beim Erdbeben von einem Kran. Das waren die einzigen Todesopfer der Nuklearkatastrophe. Nach meinem Wissen verließ in der Folge nicht ein einziger Mitarbeiter das Kraftwerksgelände, obwohl ihnen das Schicksal ihrer Angehörigen nicht bekannt war und die Telefone in die Ortschaften nicht mehr funktionierten. Sie blieben, solange es der Einsatzstab von ihnen erwartete, und es gelang ihnen, noch Schlimmeres zu verhindern. Sie versammelten sich unter der Leitung von Masao Yoshida, dem Leiter der Anlage, im Notstandsgebäude. Von hier aus begann der fast aussichtslose Kampf mit den Folgen der Überschwemmung. Sehen Sie sich Yoshida San an, den Mann, der die Helden von Fukushima führte, und bilden Sie sich Ihr eigenes Urteil.

Hilflos mussten die Betriebsmannschaften mit ansehen, wie ein Notstromsystem nach dem anderen absoff und sie die Kontrolle über die Reaktoren verloren. Einige der Männer bauten sogar Batterien aus den übereinander geworfenen Autos auf den Parkplätzen aus, um sie an wichtige Messinstrumente anzuschließen, für ein Mindestmaß an Kontrolle über die abgeschalteten Anlagen. Der Brennstoff in den abgeschalteten Reaktoren wurde nicht mehr genügend gekühlt, die Brennstäbe fingen an zu glühen und setzten große Mengen Wasserstoff frei. Wasserstoff ist in Verbindung mit Luft hochexplosiv, der geringste Funke löst eine Explosion aus. Das sollte sich auch in Deutschland jeder vor Augen führen, der auf die Wasserstoff-Technologie für Fahrzeuge setzt.

Vorsorge war TEPCO zu teuer

In Fukushima baute der Wasserstoff Druck in den Sicherheitsgebäuden der Reaktoren auf. Dieser Sicherheitseinschluss musste intakt bleiben, damit keine Radioaktivität entwich. Masao Yoshida, der sich dieser Gefahr bewusst war, stellte mehrere Teams von Freiwilligen zusammen – sie sollten die Ventile des kontrollierten Notablasses des Wasserstoffgases manuell öffnen. Wegen der dabei bestehenden Explosionsgefahr gehörten ältere Mitarbeiter den Teams an.

Mit Taschenlampen kämpften sich die Männer zu den Ventilen durch das dunkle Kraftwerk, vorbei an geborstenen Leitungen, über zerrissene Stromkabel kletternd, von denen sie nicht wussten, ob sie noch Spannung führten. Allen Teams gelang es, die Armaturen zu öffnen und mit hohem Druck strömte der Wasserstoff aus den Reaktorgebäuden durch große Wasserbecken, in denen nicht-gasförmige Radioaktivität aus dem Gas gewaschen wurde und verbreitete sich in der Turbinenhalle. In deutschen Kraftwerken stehen überall Rekombinatoren, die diesen Wasserstoff unschädlich machen würden. In Fukushima hatte TEPCO es nicht für nötig erachtet, sie zu installieren – zu teuer.

Der Wasserstoff gelangte so in die Bedienungsflure der Turbinengebäude und reicherte sich dort an, bis er die Explosionskonzentration von grösser 4 Vol% erreicht hatte und explodierte. Das waren die Explosionen, die als Videobilder um die Welt gingen. Kaum jemand verstand damals, dass auf den Fernsehbildern nicht die Reaktoren explodierten, sondern dass die Mannschaft die Explosionen von abgeleitetem Wasserstoff bewusst herbeigeführt hatte, um die Reaktoren zu schützen. Es gelang allen Teams noch vor den Explosionen, unverletzt ins Notstandsgebäude zurückzukehren. Trotzdem konnten die Reaktoren danach immer noch nicht gekühlt werden und die Brennstäbe wurden teilweise zerstört und schmolzen.

Arbeit unter extremen Bedingungen

Obwohl das Notstandsgebäude auf Grund seiner erdbebenfesten Bauweise auf Federn und Gleitfundamenten unbeschädigt blieb, waren die Bedingungen in dem dreistöckigen Notstandsgebäude für die 700 Mitarbeiter äußerst kompliziert. Die Ungewissheit über das Schicksal ihrer Familien belastete sie. Es gab nicht genügend zu essen und zu trinken – einen halben Liter Wasser und eine kleine Fertigpackung Nudeln oder Reis wurde die Ration der nächsten Wochen. Nachschub kam nicht, da auch außerhalb des Kraftwerkes die Infrastruktur zusammengebrochen war.

Aus Angst wollte auch niemand von den lokalen Lieferanten etwas in das havarierte Kraftwerk liefern, die Mannschaften mussten alles selbst herbeischaffen. Für die 700 gab es ganze zwei Dixi-Toiletten, man mag sich das gar nicht vorstellen. Geschlafen wurde unter den Tischen und auf den Korridoren des Notstandsgebäudes. Zwei Mann machten nichts anderes, als die elektrischen Eingangstüren manuell zu bedienen. Es gab nicht genügend Gummistiefel, um sich vor dem heißen Wasser zu schützen, Arbeitsschutzkleidung wurde schnell knapp. Von außen kam anfangs kaum Hilfe.

Und trotzdem, Japan ist nicht Russland, Fukushima ist nicht Tschernobyl. Bei allen folgenden Havarie-Bekämpfungsmaßnahmen trugen die Ingenieure und Arbeiter ihre Dosimeter und hielten die von Masao Yoshida festgelegte Maximaldosis von 250 Millisievert ein. So wird es auch in Zukunft keine Strahlentoten als Folge von Fukushima geben. Die „50 von Fukushima“ sind übrigens eine von den Medien erdachte Legende, es waren stets mehrere Hundert Mitarbeiter vor Ort. Und sie sind auch nicht gestorben, wie es die deutschen „Experten“ prophezeiten. „Postfaktisch“ heißt so etwas heute „fake news“.

Panische Führungskräfte, unwürdige Szenen

Eines der größten Probleme Yoshida Sans während dieser Zeit war das panische Verhalten der Führungskräfte im Tokioer Havarie-Stab. Die von TEPCO im Internet veröffentlichten Filme dieser Videokonferenzen – ja, das gab es die ganze Zeit, das Kraftwerk war mit Satellitenfunk dazu ausgerüstet, der auch funktionierte – zeigen unwürdige Szenen: Masao Yoshida teilt die von ihm festgelegte Dosis von 250 mSV mit und Akio Takahasi, eine ranghohe Führungskraft ruft barsch „Eine Dosis von 500 mSv ist in Ordnung, also los“. Masau Yoshida erklärt, dass er Leute zum Beschaffen von Mineralwasser losgeschickt hat und der Vorstand ruft: „Benzin für die Feuerlöschpumpen ist wichtiger.“ Bezeichnend ist, dass ganze 418 Menschen dieses Video überhaupt aufgerufen haben.

In ihrer Angst vor dem bösen Atom vergisst die Welt ganz und gar, von Yoshida San und seinen Männern würdigend Notiz zu nehmen. Niemand denkt über ihren Mut und ihre Umsicht nach. Niemand erkennt ihre Professionalität und ihre Standhaftigkeit. Die Medien machen das Gegenteil, sie verunglimpfen das Havariepersonal von TEPCO. Diese Männer haben es geschafft, dass in Fukushima Daiichi bei drei Kernschmelzen niemand durch Radioaktivität um Gesundheit und Leben kam. Trotz der Führungsschwäche des Krisenstabs und der beteiligten Regierungsvertreter kann heute die Evakuierungszone derzeit wieder besiedelt werden, weil dank Yoshida Sans Männern eine noch stärkere Ausbreitung von Radioaktivität verhindert wurde.

Wir Menschen sind schon eine ungerechte Spezie. Wenn wir Angst haben, setzt das Denken aus. Wir suchen Schuldige, wenn etwas schiefgeht. Dabei wird schon unbedacht gern mal ein Falscher beschuldigt. Oder ein Held wird vergessen. Gerade im Land der berufsmäßigen Besserwisser und Weltenretter wurden von verantwortungslosen Journalisten aus sicherer Entfernung wilde Verleumdungen erfunden: von Obdachlosen und Jugendlichen, die in tödlicher Strahlung verheizt wurden, von Feuerwehrleuten, die gewaltsam in einen Todeseinsatz getrieben wurden. Nichts davon ist wahr, aber wen interessierte das schon?

Wilde Fantasien deutscher Journalisten

In der ARD, die ja bekanntlich jeden verurteilt, der Ängste befeuert, wurden damals abenteuerliche Geschichten „gefunden“: ARD-Reporter Robert Hetkämper: „Wir haben ehemalige Kernkraftwerksmitarbeiter gefunden, die darüber geklagt haben, dass sie mehr oder weniger in früheren Jahren verheizt worden sind und ihnen nie gesagt wurde, wie hoch die Strahlung tatsächlich ist. Sie wurden über die wirklichen Gefahren nicht aufgeklärt. Wenn sie erkrankten, zahlte ihnen niemand Kompensation. Dann haben wir einen Arzt in Osaka gefunden. Er sagte, es sei Usus, in der Kernkraftwerksbranche Obdachlose oder Arbeitslose, Gastarbeiter oder sogar Minderjährige anzuheuern. Wir selber als ARD-Studio Tokio hatten vor vielen Jahren schon mal über Obdachlose in den Straßen von Tokio berichtet. Die hatten uns erzählt, dass sie in Kernkraftwerken eingesetzt wurden. Die Leute sind zu ihnen in den Park gekommen, wo sie lagerten, und haben sie dann für gutes Geld angeheuert, Kernkraftwerke zu reinigen. Da sind offenbar auch viele erkrankt. Das wussten wir.“

Diese Geschichte ist so absurd, dass sie einem ARD-Journalisten sogar nach dem Genuss von mehreren Flaschen Sake hätte seltsam vorkommen können. Weltweit darf niemand in einem AKW arbeiten, der nicht einer umfangreichen Sicherheitsüberprüfung unterzogen wurde. Und selbst zum Reinigen eines AKW’s bedarf es einer Qualifikation, die jemand von der Straße mit Sicherheit nicht hat. Und im Kraftwerk gibt es eine Strahlenschutzabteilung, die jeden Ort des Kontrollbereiches ausmisst und kennzeichnet. Außerdem tragen alle Mitarbeiter ein behördlich kontrolliertes Dosimeter und zusätzlich mindestens ein Alarmdosimeter, das sich beim Erreichen einer niedrigen Dosis automatisch mit einem Warnton meldet. In einem AKW wird niemand „verheizt“, sondern nur in der wilden Fantasie des ARD-Korrespondenten Hetkämper. Wobei man zu seiner Ehrenrettung sagen muss, dass seinerzeit die meisten deutschen Journalisten von wilden Fantasien heimgesucht wurden.

Achse-Autor Manfred Haferburg studierte an der TU Dresden Kernenergetik und machte eine Blitzkarriere im damalig größten AKW in Greifswald. Nach der Wende kümmerte er sich für eine internationale Organisation um die Sicherheitskultur von Atomkraftwerken weltweit und hat so viele AKW’s von innen gesehen, wie kaum ein anderer.

In dieser Serie erscheinen in den nächsten Tagen

Der Fukushima-Report (2): Fukushima unter Kontrolle

Der Fukushima-Report (3): Wieder Leben in „Todeszonen“

Der Fukushima-Report (4): Geisterfahrer der Energiepolitik

Zuerst erschienen bei ACHGUT hier




Die Kontroll- und Kommando­zentrale des Klima-Alarmismus‘

Zunächst von Jennifer Hadden, Networks in Contention: The Divisive Politics of Climate Change (2015) [etwa: Netzwerke im Wettstreit: Die entzweiende Politik zu Klimawandel]:

Wie mir ein Interviewter erklärte hinsichtlich der Strategie der internationalen Klima-Koalition: ,Wir arbeiten ziemlich viel zusammen. Aber wir wissen, dass wir alle für unterschiedliche Dinge stehen, darum müssen wir sorgfältig den Eindruck erwecken, dass wir nicht die ganze Zeit zusammenarbeiten‘ (Interview, WWF European Policy Office 2008).”

Ein Umweltaktivist erklärte mir: „Klimawandel ist nicht länger ein Thema unter anderen, es ist DAS Thema, ein Mega-Thema für alles, an dem wir arbeiten“ (Interview, Danish 92 Group, 2009).

Im Jahre 1989 kamen diese Organisationen erstmals zusammen, um eine Koalition zu bilden: The Climate Action Network (CAN). Das CAN wurde gegründet als der Motor einer transnationalen Koordinierung von 63 Organisationen … Viele Bemühungen des CAN bestanden in der Unterstützung der Arbeit des IPCC, und es half, dessen zentrale Rolle im internationalen Klimaregime zu etablieren … Tatsächlich konsolidierte das CAN seine Koalitions-Struktur während dieses Zeitraumes (neunziger Jahre), in dem es eine hochrangige politische Gruppe ins Leben rief, um Politik und strategische Koordinierung unter den Mitgliedsgruppen zu fördern.

Im Mittelpunkt des Treibens des CAN stand der Gedanke, dass die Mitgliedsorganisationen „mit einer Stimme“ sprechen müssen, um die internationalen Verhandlungen zu beeinflussen.

Das CAN hat einen großen Einfluss auf die Art der Strategien, zu welchen die Organisationen greifen: „Es scheint, dass viele der großen Gruppen die Richtung vorgeben, und wir alle neigen dazu, dieser zu folgen. Aber wenn wir vor Ort arbeiten, dürfen wir das nicht immer unter die Leute bringen, weshalb wir andere Dinge tun sollten“ (Interview, Greenpeace Germany 2010).

mit den großen internationalen Nicht-Regierungs-Organisationen NGOs – WWF, FOE (vor 2008), Oxfam und Greenpeace – werden extensive Beratungen durchgeführt, bevor Vorschläge erarbeitet werden. Die meisten Mitglieder erkennen an, dass die großen Gruppen de facto über CAN-Positionen das Vetorecht haben. Falls diese Gruppen einem Vorschlag zustimmen, wird dieser allen Mitgliedern zugeleitet …

Das CAN (1) prahlt damit, über 1100 Mitgliedsorganisationen zu vertreten. Hadden zufolge wird das CAN geleitet durch eine hochrangige politische Gruppe, geführt von den Vier Apokalyptischen Reitern: WWF, Greenpeace (1), FOE (1), möglicherweise vor 2008) und Oxfam (möglicherweise unter Ausschluss des USA-Ablegers). Sie geben Befehle, und alle Mitglieder folgen diesen Befehlen, während „sie sorgfältig den Eindruck erwecken, nicht zusammenzuarbeiten“. Jahrzehnte lang war es ihr Ziel, ein internationales Klimaregime zu etablieren, dem sich Amerika unterzuordnen hätte. Die Mitgliedsorganisationen (oder Einheiten) „können sich anderen Dingen zuwenden“ – mit anderen Worten, sie werden angehalten, die Initiative zu ergreifen, die Absichten des Kommandeurs auszuführen. So wird eine gute Armee geführt, nicht eine Bewegung oder ein Netzwerk. Sie verfügen auch über ungeheure finanzielle Macht: Der WWF allein hat ein jährliches Einkommen nahe 1 Milliarde Dollar, welches Geld er nach Belieben verwenden kann.

Ebenso sind die Mitglieder nach dem Top-Down-System organisiert wie militärische Einheiten und nicht wie ehrenamtliche Organisationen. Man betrachte diese Aussagen von Thomas Lyon, Good Cop/Bad Cop: Environmental NGOs and Their Strategies toward Business (2012):

Jüngere nationale Gruppen, die verwurzelt sind in der Umweltbewegung Ende der sechziger und Anfang der siebziger Jahre wie etwa der Natural Resources Defense Council und der Environmental Defense Fund, neigen dazu, ein sich selbst erneuerndes Gremium von Direktoren zu haben … eine Tendenz, konzentriert Entscheidungen für die Gruppe zu treffen und Demokratie innerhalb der Organisation zu umgehen. Am bemerkenswertesten: brauchbare Wahlverfahren sind selten. … Leider sind Studenten, die Zeit damit verbracht haben, die Rolle von Wahlen und demokratischen Prozessen in NGOs zu untersuchen, typischerweise enttäuscht worden. Was sie erkannt haben ist das Fehlen von klassischen demokratischen Prozessen … obwohl viele NGOs demokratische Verfahren in ihren Statuten haben, sind diese Gruppen in der Praxis fast immer oligarchisch.

das politische System in den USA scheint angesichts der gegebenen Gewaltenteilung und schwacher politischer Parteien (man beachte das Fehlen einer existenzfähigen Grünen Partei) wie geschaffen für den Einfluss (transnationaler Umwelt-) Gruppen auf Entscheidungen der Regierung.

Amerika ist im Besonderen Ziel, und der neue Feind erkennt unser verfassungsmäßiges politisches System mit seiner „Gewaltenteilung und schwachen politischen Parteien“ als eine Schwäche, die ausgebeutet werden kann, wobei offenbar die Fehler der Feinde Amerikas aus der Vergangenheit wiederholt werden.

Weitere Aussagen von diesen und anderen Autoren finden sich in meinem Beitrag Climate Alarmism Command auf meiner Website.

I. „Single-Voice-Prinzip“

Auf der Grundlage dieser Belege ist der Klima-Alarmismus das Erzeugnis eines sehr großen, sehr gut koordinierten und zentral kontrollierten Unternehmens. Dies erklärt dessen Fähigkeit, gewaltsam perfekt synchronisierte Botschaften zu verbreiten, trotz der internen Inkonsistenzen, trotz Widersprüchen zur Hochschulwissenschaft und trotz häufiger Flip-Flops als Reaktion auf sich ändernde politische Allianzen sowie focus group research results [?].

Ein Beispiel dafür ist die beispiellose Überschwemmung der Massenmedien mit eindeutig falschen Statements wie „97% aller Wissenschaftler stimmen überein“. Im Idealfall würden die Medien die ganze Zeit über die Wahrheit berichten. In der Vergangenheit (was inzwischen wie eine legendäre Vergangenheit aussieht) berichteten die Main-Stream-Medien Fakten zumeist zutreffend, sogar wenn sie diese mit einem liberalen Bias interpretierten. Gelegentlich machten sie Fehler oder stellten sogar Falschbehauptungen auf. Journalisten neigen dazu, voneinander abzuschreiben, und so könnten die gleichen Fake News in allen Zeitungen und TV-Kanälen erschienen sein, aber nur für sehr kurze Zeit. Die „97%-Lüge“ dagegen durchzieht die Medien konstant seit dessen Einführung durch Naomi Oreskes im Jahre 2004! Diese Zahl ist schon sehr oft explizit widerlegt worden und ist offensichtlich absurd: Es sieht mehr wie ein Wahlergebnis in einem kommunistischen Land aus als eine ,Umfrage‘ nach den Meinungen der Wissenschaftler! Vermeintlich ist es durch multiple Studien „bestätigt“ worden – etwas, das eine geringere Wahrscheinlichkeit aufweist als der Gewinn des Lotto-Jackpots zwei Jahre hintereinander. Und doch konnte diese Ente seit nunmehr 12 Jahren überleben.

Im Bereich des Klima-Alarmismus‘ gibt es andere magische Zahlen, die völlig sinnlos sind, wie etwa 350 ppm oder 2 Grad (später ersetzt durch 1,5 Grad). Aber sie haben eine enorme Überlebenskraft. Zusätzlich zu dem unnatürlich synchronisierten Vorgehen gibt es ein höchst anomales Fehlen von Abweichungen unter den Reihen der Klima-Alarmisten. Dies ist besonders auffällig angesichts der Kehrtwendungen, die das CAG hinsichtlich vieler politischer Dinge vollzogen hatte, wie etwa Emissionen von China und der Verbrauch von Erdgas. Sogar die Kommunistische Partei der USA, eine Marionette der Sowjets seit 1933, kroch zu Kreuze, nachdem ihr befohlen worden war, von Anti-Nazi zu Pro-Nazi zu wechseln nach dem Molotow-Ribbentrop-Pakt von 1939. Nichts dergleichen geschah in den heimischen Klima-Alarmisten-Gruppen, als die CAG seine Forderung von globaler Reduktion von CO2-Emissionen zu einseitiger Reduktion durch den Westen änderte und China, Japan, Russland und der Rest der Welt ihre Emissionen nach Belieben zunehmen lassen dürfen. Diese Fakten beweisen über alle Zweifel erhaben, dass es eine zentrale Kontrolle des Klima-Alarmismus‘ gibt.

II. Front Groups

Die Existenz von front groups, die oftmals aus dem Nichts erscheinen und in den Brennpunkt der Medien-Aufmerksamkeit katapultiert werden, ist ein weiteres verräterisches Anzeichen. Beispiel: InsideClimate News führte ein Nischendasein als Projekt innerhalb der Gedärme einer obskuren linksextremen Brutstätte Public Interest Projects (jetzt NEO Philanthropy) seit 2007. Im Jahre 2011 hatte sie sechs Mitarbeiter. Plötzlich wurde sie mit Beifall überhäuft einschließlich des einst renommierten Pulitzer-Preises für besondere Berichterstattung im Jahre 2013. Schon bald heimste sie Dutzende journalistischer Auszeichnungen ein, einschließlich eines weiteren Pulitzer-Preises, und dessen Fake News wurden zu „Beweisen“ in dem berüchtigten Versuch der „Attorneys General United for Clean Power” [etwa: Staatsanwälte vereint für saubere Energie], durch Vollmachten bestimmte Sprechweisen zu unterdrücken (hier). Exxon, dem obersten Protagonisten der Verschwörungstheorie, der zufolge Klimarealisten durch „fossile Treibstoffe“ finanziert werden, wurde diese Vollmacht genehmigt. InsideClimate News wurde gegründet von der Ford Foundation (1), RBF (1)/RFF (Rockefeller Brothers Fund / Rockefeller Family Fund), the Park Foundation, the Marisla Foundation, the Knight Foundation, the Grantham Foundation und weiteren üblichen Verdächtigen. Fast alle die Geldgeber sind offen Mitglieder der EGA (1) (Environmental Grantmakers Association), welche von RBF/RFF gegründet worden war und in der gleichen Etage sein Büro hat. (Übrigens ist die RBF/RFF separat von der größeren Rockefeller Foundation). 350.org ist ein weiteres Beispiel einer hochgejubelten front group.

III. Entwicklung der CAG

Die CAG ist im Jahre 1989 gegründet worden, aber es dauerte fast eineinhalb Jahrzehnte, bis Klima-Alarmismus zum ideologischen Hauptthema für multiple transnationale und internationale Gruppen geworden ist. Dementsprechend ist auch die Konsolidierung der Macht in den Händen einiger Weniger graduell erfolgt. Folglich hat sich die Climate Alarmism Governance entwickelt anstatt von einer Person oder einer kleinen Gruppe erschaffen worden zu sein. ENGOs und ehrgeizige UN-Politiker arbeiteten seit den siebziger Jahren Hand in Hand miteinander, um ihre Macht zu erweitern. Die Einführung dieses Vorgehens wird häufig Maurice Strong zugeschrieben. UN-Agenturen und Politiker können sich nicht offen und direkt in die inneren Angelegenheiten der meisten Länder einmischen. Also nutzen sie NGOs für diesen Zweck. CAN und ihre Mitglieder WWF, Greenpeace, Oxfam, EDF und NRDC haben beim IPCC offiziell den Status von Beobachtern und agieren als dessen de-facto-Sprecher, korrumpieren die IPCC-Forschung noch mehr und schmücken die ohnehin schon verzerrten IPCC-Berichte aus (ein ehemaliger Greenpeace-Führer nannte es „dramatisieren“). CAN-Mitglieder leisten Lobbyarbeit für die Delegationen bei den COPs des UNFCCC und bei anderen internationalen Zusammenkünften, manipulieren die wissenschaftliche Arbeit des IPCC von innen heraus (hier) und gehen finanzielle Deals mit deren Funktionären ein. Das Climate Action Network vermeidet zwar die Verbindung mit Gruppen, die Gewalt unterstützen, kooperiert aber mit diesen. Sie schürt Hass zwischen Europa und Amerika und will Rache („Gerechtigkeit“) für wirkliche oder imaginäre Angriffe in der Vergangenheit. Die Führer verschiedener transnationaler NGOs (nicht nur CAN-Mitglieder) treffen sich regelmäßig persönlich, um gemeinsame Ziele und Strategien festzulegen. Zwischen derartigen Treffen bleiben sie via elektronischer Medien in Kontakt.

Ein weiterer Stützpfeiler der CAG ist die UN-Organisation, wo die USA lediglich eine Stimme von über 190 weiteren haben (aber den Löwenanteil der Finanzierung tragen). Bequemerweise sind einige der Umwelt-„Markenzeichen“ bei den UN akkreditiert und nehmen offiziell an Treffen vieler UN-Agenturen teil. Inoffiziell bestechen oder manipulieren sie Vertreter auswärtiger Regierungen und der UN nach ihren Wünschen (siehe hier, Abschnitte 3.2 und 3.8). Die relevanteste Gruppe der UN-Abteilung Klima-Alarmismus ist das IPCC, ins Leben gerufen durch UNEP und WMO. Ich habe die genaue Zusammensetzung und die Beziehungen an der Spitze der CAG oder die Rolle der europäischen Grünen Parteien nicht untersucht.

IV. Finanzielle Beziehungen zwischen einigen Klimaalarm-Einheiten und der Korruption von ehemaligen Mainstream-Institutionen

Die zentralisierte Finanzierung des Klima-Alarmismus‘ geht Hand in Hand mit der zentralisierten Befehlsgebung und Kontrolle. Heute kommt das meiste Geld für den Klima-Alarmismus von der öffentlichen Hand der USA und der EU. In der Vergangenheit war die EGA ein großer Faktor. Geld von den Primärquellen wird gewaschen und zwischen Klimaalarm-Gruppen auf verschiedenen Wegen hin- und hergeschoben. Die folgenden Tabellen stammen von einer offiziellen Klage in 5:16-cv-211-C, verifiziert unter der Strafe für Meineid.

Tabelle 1: Matrix der Finanzbeziehungen zwischen einigen CAG-Unternehmen

„R“ bedeutet, dass das in der Zeile genannte Unternehmen („Markenzeichen“) direkt von dem Unternehmen in der Spalte finanziert wird. „D“ bedeutet, dass das Unternehmen in der Zeile direkt Gelder an das Unternehmen in der Spalte gegeben hat. Nur Geld-Transfers, über die von 2003 bis 2014-2015 in bestimmten Steuerformularen berichtet worden war, sind erfasst. „Freundschafts“-Dienste, Zahlungen an nahestehende Parteien, Geldtransfers mittels Dritter und Transfers außerhalb der Bücher sind nicht erfasst. Alle Finanzierungs-Ereignisse sind substantiell (manchmal Millionen Dollar stark und mit Sicherheit über 10.000 Dollar).

Tabelle 2: Finanzierung des Center for American Progress und einiger front groups durch einige CAG-Unternehmen.

Tabelle 3: „Spenden“ an einige ehemals respektierte Organisationen seitens einiger CAG-Unternehmen.

NAS ist die National Academy of Sciences, welche einmal die höchste wissenschaftliche Einrichtung der Nation war. AAAS steht für die American Association for the Advancement of Science, dem Herausgeber des Journals Science. Die New York Times Company (NYT) ist eine kommerzielle Körperschaft, was „Spenden“ sogar noch seltsamer macht. (2)

(1) Diese Organisationen stehen im Verdacht, mit kriminellen Machenschaften in Verbindung zu stehen oder an diesen teilzuhaben, wie es definiert ist im The Racketeer Influenced and Corrupt Organizations Act (“RICO”), 18 U.S.C. § 1961-1963. Der Autor ist Kläger in einem Zivilprozess gegen diese Organisation (5:16-cv-211-C Goldstein v. Climate Action Network et al.).

(2) Man darf nicht vergessen: die große Mehrheit von Individuen, die der CAG unwissentlich geholfen haben, sind unschuldig.

Link: https://wattsupwiththat.com/2016/12/23/the-command-control-center-of-climate-alarmism/

Übersetzt von Chris Frey EIKE




Harald Lesch, die Claudia Roth des Klima­wandels: Glaubt einfach, was ich erzähle – Nach­prüfen schadet nur!

Wie die bekannte Claudia Roth der GRÜNEN appelliert er, anstelle Belege zu bringen, vorwiegend an die „Betroffenheit“, die seine „unbezweifelbaren“ Aussagen erzeugen sollen, weshalb man ihn inzwischen synonym als klimatisches Pedant der GRÜNEN-Politikerin bezeichnen kann, obwohl ihm der bei den GRÜNEN sonst oft übliche (bei Frau Roth vorhandene) Studienabbruch fehlt.

Der Autor hat sich (wieder) die Mühe gemacht, Beispiele seiner inzwischen oft schon abstrus überzogenen Thesen zu sichten und darzustellen, dass Vieles einer Nachprüfung nicht Stand hält, oder zumindest wesentlich Klimawandel-unkritischer betrachtet werden kann.

Video: Frag den Lesch – Neues aus der Klimaküche

https://www.youtube.com/watch?v=mfALmgAwPKQ&feature=youtu.be

Video: [2] Frag den Lesch – Neues aus der Klimaküche 

Im Video geht es angeblich über das Neueste vom Klimawandel. Zumindest wird es in der Lesch-typischen, stammelnden und auslassungsreichen Vortragsweise so erzählt.

Einleitung

H. Lesch: … Neuigkeiten von den Klimamodellen … Klimawandel, das stimmt ja sowieso nicht …. denn dass der Mensch einen Einfluss auf das Klima hat, auf den Klimawandel, das ist eindeutig, übereindeutig. … in den 90er Jahren dachte man, da könnte noch eine gewisse Unsicherheit sein, das ist aber vorbei … die neuesten Entdeckungen, muss man leider sagen, aber auch Bestätigungen muss man leider noch mehr sagen, die zeigen ganz klar – wir sind dran schuld.

Und dann wird über eine ganz neue Entdeckung erzählt,

Biofilme auf Gletschern:

H. Lesch: … Neu herausgekommen ist ein Effekt … eine ganz neue Entdeckung …. warum schmelzen die Gletscher so viel schneller… Ruß und andere Staubteilchen regnen auf die Gletscher … diese bilden Biofilme aus .. dadurch, dass die unsichtbaren Biofilme auf der Oberfläche der Gletscher sind, wird ne ganze Menge Energie in den Biofilmen deponiert und dadurch schmelzen die Gletscher schneller. Die Biofilme sind etwas, das man vorher nicht kannte, aber jetzt weiß, aha das verstärkt nochmal den Effekt des Klimawandels, also der Erwärmung.

Der Autor ist dieser wichtigen Entdeckung, welche den Treibhauseffekt zusätzlich verstärkt, nachgegangen. Bei der Max Planck Gesellschaft findet sich dazu eine Pressemitteilung:

Bakterien heizen Gletschereis auf
Mikroorganismen siedeln sich auf dem Eis an Staubteilchen aus der Atmosphäre und lassen den Gletscher dadurch schneller schmelzen… Mikroben leben von Kohlenstoff aus Gletschern
Das nutzt auch der Klimaforschung, denn ein besseres Verständnis des Kohlenstoffspeichers in Gletschern und des Transports von Kohlenstoff in andere Ökosysteme kann dazu beitragen, aktuelle Klimamodelle zu verbessern. Es ist schon lange bekannt, dass organischer Kohlenstoff, der für Jahrtausende in Gletschern gespeichert war, beim Abschmelzen freigesetzt wird und Mikroorganismen als Nahrung dient. Die nun vorliegende Studie zeigt, dass auch durch die Fixierung von anorganischem Kohlenstoff durch Mikroorganismen auf Gletschern organischer Kohlenstoff entsteht, der rasch von benachbarten Organismen verbraucht wird.

Zur Pressemitteilung ist die Studie genannt, welche wohl auf einer Dissertationsarbeit beruht:
Heidi J: Smith et al.: [3] Biofilms on glacial surfaces: hotspots for biological activity
Leider steht in dieser Studie nirgends auch nur ein vager Hinweis zum quantitativen Einfluss auf das Klima oder die Gletscherschmelze. Auf Nachfrage des Autors beim Max Planck Institut kam dazu die folgende Antwort: … Tatsächlich gibt es bisher noch keine quantitativen Daten zu dieser Studie. Das wird sicher Gegenstand weiterer Untersuchungen sein.

Was sagte Herr Lesch

Und nun vergleiche man diese Antwort mit Herrn Leschs Darstellung:

H. Lesch: „ … Die Biofilme sind etwas, das man vorher nicht kannte, aber jetzt weiß, aha, das verstärkt nochmal den Effekt des Klimawandels, also der Erwärmung… „.

Prognosen von Klimamodellen

Weiter geht es im Video:
H. Lesch: Es gibt jetzt klare Prognosen dafür, dass die Prognosen von Klimamodellen eintreten … Eine Vorhersage war in der Tat, dass durch die allgemeine Erwärmung sich die Wolkenbänder systematisch vom Äquator hinaus in Richtung nach Norden und nach Süden bewegen müssten. Und genau das ist nun entdeckt worden. Und eine weitere Vorhersage der Klimamodelle ist eingetreten: Sobald die Atmosphäre eine bestimmte Temperatur überschreitet, schießen die Wolken weiter nach oben … aber inzwischen sind nicht nur Gewitterwolken davon betroffen, sondern die gesamte Dynamik ist davon betroffen.

Wieder muss man Datenquellen raten. Doch könnte sich die Aussage auf die folgende Studie beziehen:

Juli 2016, [4] Evidence for climate change in the satellite cloud record,
deren Pressemitteilung vorwiegend im Englischsprachigen Raum publiziert wurde.
Doch WELT N24 hat auch darüber berichtet: Wegen des Klimawandels haben wir weniger Wolken
… Unklar waren bislang auch die Auswirkungen der globalen Erwärmung auf den Wolken-Bedeckungsgrad. Das lag vor allem daran, dass Wettersatelliten die Veränderungen nur teilweise zuverlässig wiedergeben, unter anderem wegen verschiedener Umlaufbahnen, unterschiedlicher Kalibrierung und Veränderungen der Sensorenempfindlichkeit im Laufe der Zeit. Das Forscherteam analysierte nun die Datenreihen verschiedener Satelliten und rechnete störende Einflüsse heraus.
Die Auswertung über 27 Jahre zeigt, dass der Bedeckungsgrad vor allem der mittleren Breiten abnimmt – weil sich der subtropische Hochdruckgürtel ausdehnt und sich die Tiefdruckzone der mittleren Breiten – insbesondere über dem nördlichen Atlantik – polwärts verlagert. Dagegen stieg der Bedeckungsgrad etwa über dem Atlantik und Pazifik nördlich des Äquators. Zudem berichten die Forscher, dass die oberste Wolkenschicht höher reicht als früher.

Seit dem Jahr 1984 gibt es ein ISCCP Cloud-Cover Daten-Projekt. Und Studien, welche die Veränderungen der Wolken-Bedeckungsgrade über die verschiedenen Breiten analysieren und versuchen, mit den Simulationsergebnissen in Einklang zu bringen, gibt es wie Sand am Meer. Allerdings oft mit ernüchternden Ergebnissen, zum Beispiel,

dass zwischen Messungen und Simulationsergebnissen nicht nur große Abweichungen bestehen, sondern die Effekte schlichtweg noch nicht ausreichend verstanden sind. Dazu kommt, dass beispielsweise ein Projekt beim CERN ermittelte, dass die Wolkenbedeckung viel stärker als bisher angenommen von natürlichen Einflüssen abhängt, somit im vor-industriellen Zeitalter eventuell viel größer als bisher angenommen war und das aktuelle Verhalten somit weit mehr (als bisher angenommen) von natürlichem und weniger (als bisher angenommen) vom CO2-Forcing abhängt

Theorien und Annahmen gibt es also viele und die Ergebnisse erscheinen insgesamt etwas chaotisch, weshalb die Klimamodellierer bezüglich der Wolken immer noch ziemlich hilflos sind:
M. Calisto at al., 2014: Cloud radiative forcing intercomparison between fully coupled CMIP5 models and CERES satellite data (Anmerkung: CMIP5 „Coupled Model Intercomparison Project 5“ sind neue Klimamodellierungen)

We have found that none of the models are consistent with the CERES data for all four variables considered….
we can say that despite consistent improvements in complexity and resolution of the models, none of the CMIP5 models presented here fits perfectly to the satellite data. Most of the models show a large bias in sea-ice regions, the tropical Pacific, and subtropical stratocumulus regions (Figs. 5 and 6). An accurate representation of clouds and their radiative effects still remains a challenge for global climate modeling.

[Übersetzung von Chris Frey: Wir sind zu dem Ergebnis gekommen, dass keines der Modelle konsistent ist mit den CERES-Daten für alle betrachteten Variablen … wir können sagen, dass trotz konsistenter Verbesserungen hinsichtlich Komplexität und Auflösung der Modelle keines der hier präsentierten CMIP5-Modelle genau zu den Satellitendaten passt. Die meisten Modelle zeigen einen großen Bias in Gebieten mit Meereis, dem tropischen Pazifik und subtropischen Stratocumulus-Regionen. Eine genaue Repräsentation von Wolken und deren Strahlungs-Auswirkungen bleibt nach wie vor eine große Herausforderung für die globale Klima-Modellierung.

Ende Übersetzung]

The Daily Star, May 27, 2016 : Scientists make news clouds which may lessen global warming
… Nobody knows just how cloudy skies were in the old days. Scientists have figured there were far fewer clouds than now, Kirkby said. But the discovery of a new natural route to cloud formation suggests that cloud cover was in fact greater than scientists had assumed.

If so, the way these simulations work, it would mean that greenhouse gases haven’t been quite as potent in producing warming so far as scientists thought. So, ton for ton, they may not be quite as potent in producing future warming either.
A new discovery about how clouds form may scale back some of the more dire predictions about temperature increases caused by man-made global warming. That’s because it implies that a key assumption for making such predictions is a bit off. „What this will do is slightly reduce and sharpen the projections for temperature during the 21st century,“ said researcher Jasper Kirkby.

[Übersetzung von Chris Frey: … Niemand weiß, wie wolkig es während der alten Tage war. Wissenschaftler haben herausgefunden, dass es weit weniger Wolken gegeben hatte als jetzt, sagte Kirkby. Aber die Entdeckung eines neuen natürlichen Weges der Wolkenbildung zeigt, dass die Wolkenbedeckung tatsächlich höher war als die Wissenschaftler vermutet hatten.

Falls das so ist, die Funktionsweise dieser Simulationen, würde das bedeuten, dass Treibhausgase nicht in der Lage gewesen wären, eine den Vermutungen der Wissenschaftler entsprechende Erwärmung zu erzeugen. Eine neue Entdeckung darüber, wie sich Wolken bilden, kann einige der düsteren Prophezeiungen hinsichtlich der vom Menschen verursachten Erwärmung abschwächen. Und zwar deswegen, weil es impliziert, dass eine grundlegende Hypothese für derartige Prophezeiungen ein wenig abwegig ist. „Das Ergebnis hiervon wird sein, dass die Projektionen der Temperaturen im 21. Jahrhundert etwas reduziert werden“, sagte der Forscher Jasper Kirkby.

Ende Übersetzung]

Einer Studie, der es auf einmal gelang, aus längst bekannten, teilweise aber ungeeigneten Satellitendaten
[4] „this is because observational systems originally designed for monitoring weather have lacked sufficient stability to detect cloud changes reliably over decades unless they have been corrected to remove artefacts ,
durch „Herausrechnen störender Einflüsse“ plötzlich einen „genauen“ Wolkenverlauf zu rekonstruieren und dann durch geeignet angepasste
[4] „Here we show that several independent, empirically corrected satellite records exhibit large-scale patterns of cloud change between the 1980s and the 2000s that are similar to those produced by model simulations of climate with recent historical external radiative forcing
Simulationsläufe nachzuvollziehen, ist jedenfalls mit äußerster Vorsicht zu betrachten. Es entsteht leicht der Eindruck der typischen “Beweisführung” in der Klimakunst: Nachträglich Messdaten zu “erzeugen”, dann Simulationen so lange anzupassen (es wurden wohl die CO2- und Aerosol-Forcinwerte so lange verändert, bis die zurückgerechneten Kurvenverläufe ungefähr passten), bis diese Daten wenigstens im Ansatz in einer Rücksimulation herauskommen und dann zu behaupten, damit ist die Qualität der Simulationen belegt (die das Ergebnis allerdings weder vorhersagen, noch ohne nachträgliche “Anpassung” zurückrechnen konnten).

Auf kaltesonne kam dazu jüngst eine größere Zusammenfassung:
kaltesonne, 27. August 2016: Wolken – die großen Unbekannten im Klimasystem
Lange Zeit hatten uns die Klimawissenschaftler vorgegaukelt, es gäbe nur noch i-Punkte in den Klimagleichungen zu setzen. Heute wissen wir, dass dies ein schwerer Fehler war. Noch immer gibt es viele große Unbekannte in den Klimamodellen. Im Februar 2015 räumte das Deutsche Klimakonsortium (DKK) ein:
Wolken – die großen Unbekannten im Klimasystem
[…] Wolken sind für systematische Messungen nicht nur schwer zugänglich, sie unterliegen auch ständiger und schneller Veränderung, sind in Form, Entstehung, Zusammensetzung und Höhenvorkommen unterschiedlich und haben deshalb verschiedene Auswirkung auf die Energiebilanz in der Atmosphäre. So wirken Wolken in tieferen Atmosphärenschichten kühlend, weil sie Sonnenstrahlen reflektieren und weniger Energie die Erdoberfläche erreicht. Hohe Eiswolken, Zirren genannt, wirken hingegen eher wärmend, da sie die Wärmeabstrahlung der Erde nicht in die Atmosphäre entlassen, sondern wieder Richtung Erdoberfläche reflektieren. […] Frank Stratmann untersucht im weltweit einzigartigen Leipziger Wolkensimulator (Leipzig Aerosol Cloud Interaction Simulator, LACIS) die Wechselwirkungen zwischen Aerosolpartikeln und Wolkentropfen: Im Kleinen wird die Wolkenbildung simuliert, die sich normalerweise bis zu einer Höhe von 15 km über der Erdoberfläche abspielt. […]
In Stratmanns Vortrag heißt es:
Was ist der Stand:
Wolken in Klimamodellen werden in der Regel nicht im Detail modelliert weil:
a) es teilweise an grundlegendem physikalischem Verständnis mangelt
b) eine Prozessmodellierung numerisch zu aufwändig ist
c) es ein grundsätzliches Skalenproblem gibt
(Wolken – Kilometerskala, Modellauflösung – Hundertkilometerskala)
d) Wolken werden in parametrisierter Form behandelt
Klimamodelle müssen anhand von Messwerten validiert werden
kaltesonne: Im Mai 2015 brachte auch proplanta.de Klimarealimus:
Forscher nehmen Wolken ins Visier
Wie beeinflussen die Wolken den weltweiten Klimawandel? Forscher haben darauf noch keine umfassenden Antworten.
Klar sei nur eines, sagt Professor Thomas Leisner, Klimaforscher am Karlsruher Institut für Technologie (KIT): «Wenn sich das Klima ändert, ändern sich auch die Wolken – und umgekehrt». Doch in welchem Maße? Und in welche Richtung? In der deutschlandweit einzigartigen Wolkenkammer «Aida» versuchen Leisner und seine Mitarbeiter, Antworten zu finden. Zwei zentrale Fragen stellen sich:
Werden die Wolken im Klimawandel mehr kühlend oder mehr erwärmend wirken?

Das Max Plank Institut umschreibt die Problematik recht umständlich, aber mit ähnlichem Ergebnis: Wo liegen die Grenzen der Vorhersagbarkeit des Erdsystems?
… Anderes ist jetzt erst möglich geworden, wie etwa das Ersetzen der Wolkenparametrisierung durch konvektionsauflösende Modelle, wodurch die Simulationen eine deutlich stabilere konzeptuelle Grundlage erhalten.
Um unsere Modelle zu evaluieren und zu initialisieren, benutzen wir in zunehmendem Maße Beobachtungsdatensätze, aus denen wir grundlegende,
neue Einsichten in das sich ändernde Erdsystem gewinnen: von der Vertikalstruktur der Wolken über die zunehmende Wärmeaufnahme des Ozeans bis hin zu den immer genauer werdenden Beschreibungen der Landbiosphäre. Die globalen Beobachtungen werden durch eine neue Generation von Messkampagnen ergänzt, zum Beispiel für die Wolkendynamik in den Subtropen oder die meridionale Umwälzbewegung im Ozean.

Was sagte Herr Lesch

Die Aussage: „ H. Lesch: Es gibt jetzt klare Prognosen dafür, dass die Prognosen von Klimamodellen eintreten.“
ist damit auf jeden Fall nicht belegt und entspringt eher einem Wunschdenken. Zudem ist eine solche Aussage auch Unsinn, doch trotzdem entlarvend typisch „ … es gibt Prognosen, dass die Prognosen eintreten …“.
Beim Klima-Simulieren werden viele verschieden parametrierte Simulations-Läufe gemacht und dann „ermittelt“, welcher der „richtigste“ sein könnte. Irgend eine Prognose tritt dadurch irgendwann immer ein. Nur ist in der Regel vorher nicht bekannt, welche es werden wird. Anders herum werden die Simulationen rückwirkend den wahren Verläufen angepasst und dazu verkündet: „hätte man es damals so parametriert, wären die heutigen Ergebnisse herausgekommen“.
Wer die himmelschreienden Ungenauigkeiten nicht glaubt, sehe sich das in den vielen Vulnerabilitätsstudien mit ihren Simulationsläufen an:
EIKE: Der Himmel fällt uns auf den Kopf und ohne die Glaskugel im Computer würden wir es nie erfahren

Wie schwierig es ist, Ursache und Wirkung zu unterscheiden, lässt sich am folgenden Verlaufsbild der tropischen Wolkenbedeckung ahnen.

Bild 3 Tropische Wolkenbedeckung und Temperatur seit 1983 (Wolken: ISCCP) Quelle: WUWT, Blogbeitrag

Meeresspiegel

Weiter geht es bei Herrn Lesch mit dem Meeresspiegel:
H. Lesch: … und warmes Wasser braucht mehr Platz … und schon ist man beim Meeresspiegelanstieg: Da gibt es ebenfalls neue Daten und die sagen uns ebenfalls nichts Gutes. … Zumal sich eben auch die Kontinente noch anheben z.B. genau dann wenn die Gletscher verschwinden die … wenn das Eis verschwindet …
Wie hoch ist tatsächlich der Meeresspiegelanstieg … Man hat Modelle benutzt und hat lokale Messstationen deren Wasseranstieg, deren Meeresanstieg zu rekonstruieren. Dann macht man das mit zwei, drei, vieren . ist eine Evolution von Modellen. … auf diese Art und Weise ist es gelungen, eine klipp und klare Aussage darüber zu machen, dass die Meere in den letzten 100 Jahren so stark angestiegen sind wie in den letzten 3000 Jahren nicht mehr …
und das ist klar, klipp und klar

Wieder muss man Datenquellen raten, aber es finden sich dazu passende Fundstellen, wie:
[1] Temperature-driven global sea-level variability in the Common Era
Wie so oft, hat ein Studienteam ganz neu festgestellt, dass man die Daten der Vergangenheit bisher falsch interpretiert hat und mit den „richtigen“, statistischen Methoden berechnet, die Zukunft viel schlimmer (als bisher publiziert) werden wird. Und wie so oft, wenn eine schlimme Klimaapokalypse zu verkünden ist, war auch Herr Rahmstorf (PIK) im Team dabei.
Die Studie kommt auch im EIKE-Artikel: Anstieg des Meeresspiegels: Nur Fakten, vor, doch soll hier auf eine Besprechung auf scinexx eingegangen werden.
scinexx.de:
[6] Meeresspiegel: Schnellster Anstieg seit 3.000 Jahren Bisher vollständigste Berechnung der klimabedingten Veränderungen des globalen Meeresspiegels
Jetzt ist es amtlich: Der globale Meeresspiegel ist im 20. Jahrhundert schneller angestiegen als jemals zuvor in den letzten 3.000 Jahren. Von 1900 bis 2000 stiegen die weltweiten Pegel um 14 Zentimeter. Gäbe es dagegen den anthropogenen Klimawandel nicht, wäre der Meeresspiegel vielleicht sogar gleichgeblieben, wie Forscher im Fachmagazin „Proceedings of the National Academy of Sciences“ berichten. Zudem wären allein den US-Küsten 4.000 Überschwemmungen seit 1950 erspart geblieben.
Dass die Meeresspiegel durch die globale Erwärmung ansteigen, ist mittlerweile sattsam bekannt. Unter anderem deshalb prognostizieren Klimaforscher zunehmende Überschwemmungen und selbst in den USA gehen schon die ersten Inseln unter.
Zudem wurde lange Zeit mit
falschen Basiswerten gerechnet, so dass sich erst kürzlich herausstellte, dass der Anstieg doch steiler ist als gedacht.
„Eine statistische Herausforderung“
Robert Kopp von der Rutgers University und seine Kollegen haben es nun dank komplexer Analysen erstmals geschafft, die Entwicklung des Meeresspiegels in den letzten 3.000 Jahren zu rekonstruieren. „Kein lokaler Pegelstand liefert uns den globalen Meeresspiegel“, erklärt Kopp. „Denn an jedem Standort wird der Wert von zahlreichen Prozessen beeinflusst, die ihn vom globalen Mittel abweichen lassen. Hieraus das globale Signal zu isolieren – das ist die statistische Herausforderung“
Wie sensibel der Ozean auf Klimaveränderungen reagiert, zeigt ein weiteres Ergebnis:
Zwischen den Jahren 1000 und 14000 sank der Meeresspiegel um rund acht Zentimeter ab, wie die Forscher feststellten. Diese Entwicklung trifft mit einer Phase zusammen, in der sich globale Klima um 0,2 Grad Celsius abkühlte. „Es ist erstaunlich, dass wir diese Pegelveränderungen sogar bei einer so schwachen Abkühlung sehen“, sagt Kopp.

Selbst allerschlimmste Fehler fallen einer Fachredaktion nicht auf

Im scinexx-Artikel steht (hier extra als screenshot, damit man es glaubt, sofern es doch noch von der Redaktion korrigiert werden sollte), dass der Meeresspiegel zwischen den Jahren 1.000 und 14.000 um rund 8 cm sank:

Bild 4 Screenshot aus dem scinexx Artikel [6] zur Studie [1]

Diese Textstelle liest sich in der Studie allerdings wie folgt:

[1] „ … with a notable decline over 10001400 CE coinciding with 0.2 °C of global cooling

Der Redakteur hat (sicher versehentlich) aus den richtigen 1.400 CE in der Studie falsche 14.000 CE getippt. Das kann jedem mal passieren. Nur lag der Meerespegel vor 14.000 Jahren wie allgemein bekannt um 80 m (und nicht 8 cm) tiefer und die Temperatur ebenfalls um fast 20 Grad (und nicht 0,2 Grad). Dass dieser – fast schon jedem Klimalaien sofort ins Auge springende – Fehler niemandem in der Redaktion aufgefallen ist (und keinen Leser zur Reklamation veranlasste), zeigt, welcher krasse Unsinn beim Klimawandel publiziert werden kann, ohne „anzuecken“.

Bild 5 Pegel- und Temperaturverlauf seit ca. 25.000 Jahren. Quelle: Zentralanstalt für Meteorologie und Geodynamik, ZAMG

Im Studienteam müssen wahre Rekonstruktionsgenies gewesen sein

Im scinexx Artikel steht: „Der globale Meeresspiegel ist im 20. Jahrhundert schneller angestiegen als jemals zuvor in den letzten 3.000 Jahren“. In der Studie selbst findet sich dazu das folgende Bild:

Bild 6 Die erste (angeblich) wirklich genaue Rekonstruktion des Meeresspiegelverlaufs seit 2400 Jahren. Quelle: [1]

Dieser „endlich ganz genaue berechnete Verlauf“ zeigt seit den letzten 2400 Jahren (bis ca. 1900) eine Spanne von gerade einmal ca. 15 cm.

Nun hat der Autor historische Pegelrekonstruktionen schon einmal in einer kleinen Analyse gesichtet und ist dabei zum Ergebnis gekommen, dass die Pegel-Änderungsspanne um Dimensionen höher ist, und schlimmer, aufgrund der katastrophalen Proxi-Ungenauigkeiten gar kein „wirklicher“ Global-Verlauf mit brauchbarer Genauigkeit rekonstruiert werden kann:
EIKE 07.04.2016: [5] Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

Daraus eine Proxy_Rekonstruktion (Bild 7), welche dem IPCC AR5 entstammt. Die Proxys überstreichen in diesem Zeitraum eine Spanne von mindestens 100 cm. Vor allem aber sind sie regellos verteilt (Verdacht, dass sie teils Zufallswerte darstellen). Jedenfalls lässt sich kein „wahrscheinlicher“ mittlerer Kurvenverlauf daraus berechnen, weil die notwendigen, statistischen Basisannahmen nicht erfüllt sind. Natürlich kommt im Rechner immer eine Mittelwert-Kurve heraus – nur stimmt sie nicht.

Bild 7 IPCC Proxibild der vergangenen 3000 Jahre (gestrichelte Linien durch den Autor ergänzt). 0 = Jahr 1950

Original-Bildtext: Figure 13.3 (a) Paleo sea level data for the last 3000 years from Northern and Southern Hemisphere sites

Der folgende Verlauf eines Proxys der Malediven, indischer Ozean (Bild 8) soll zeigen, wie leicht die Annahme, einen so steilen Pegelanstieg wie aktuell hätte es die letzten 3000 Jahre noch nie gegeben, auch falsch sein kann. Es fällt aber kaum auf, da die schnellen Änderungen in den vielen Mittelungen verschwinden.

Bild 8 [5] Fig. 1. Sea level curve for the last 5000 years for the Maldives.

Nun eine Tabelle mit den Pegeländerungen weltweit verteilter Proxis aus dem EIKE-Artikel (Bild 9). Die Pegel-Spannweiten der letzten 2000 Jahre liegen zwischen -1,4 … +3,2 m. Laut der ganz neuen Studie will man daraus mittels ganz moderner Statistik heraus bekommen haben, dass der globale Mittelwert in diesem Zeitraum um nicht mehr als 15 cm geschwankt hätte. Das ist mehr als absolut unglaubwürdig. Bei den katastrophal streuenden Daten lässt sich auch mit noch so viel „Statistik“ kein wahrer Mittelwertverlauf mit dieser Genauigkeit bestimmen, beziehungsweise belegen.

Bild 9 [5] Meerespegel-Verlaufsrekonstruktionen aus weltweit verteilten Pegelproxys (ohne Pegel Mittelmeer)

Zum angeblich so alarmistischen, jüngeren Pegelanstieg noch ein Link:

EIKE: Anstieg des Meeresspiegels: Nur Fakten
Nur weil der Meerespegel eben nicht alarmistisch ansteigt, wird mit immer neuen „bahnbrechenden, statistischen Analysen“ versucht, einen zu konstruieren.

Was sagte Herr Lesch

Die Aussage: H. Lesch: „ … auf diese Art und Weise ist es gelungen, eine klipp und klare Aussage darüber zu machen, dass die Meere in den letzten 100 Jahren so stark angestiegen sind wie in den letzten 3000 Jahren nicht mehr … und das ist klar, klipp und klar,
darf man bedenkenlos anzweifeln, da sie sich auf eine Studie bezieht, welche unseriöse und vielen anderen Analysen deutlich widersprechende Ergebnisse präsentiert. Klipp und klar ist nur, dass damit gar nichts klar ist.

Fazit

Herr Lesch hat inzwischen mehrere Vorträge zum Klimawandel „gedreht“. Es ist (für jemand dazu kritisch eingestellten) wirklich eine Qual, sich seine Darstellungen dazu anzusehen und zu hören. Man merkt dabei auch, wie wenig „Wissenschaftsvorträge“ nutzten, wenn keine Quellen bekannt gegeben werden.
Im Kern sind seine Vorträge dazu inzwischen zur reinen Agitation und Kanzelpredigt, moderner: Vermittlung einer Message, verkommen. Mit „Wahrheitsvermittlung“ haben sie jedenfalls rein gar nichts mehr zu tun. Vor Kurzem verkündet er inzwischen, beim Klimawandel gäbe es überhaupt keine Zweifel, was die (alarmistischen) Studien schreiben, wäre einfach „wahr“ und somit gäbe es dazu auch keinen Dissens mehr (die Rezension zu einem seiner Videos, in welchem er vor großem Publikum genau dies konkret sagt, erscheint noch).
Es fragt sich nur: Was treibt einen Professor dazu, sich sein Renommee selbst so konsequent kaputt zu machen? – Und, warum unsere Fernsehanstalten solche Ökokirchen-Predigersendungen als „Wissenschaft“ bringen.

Quellen

[1] R. E. Kopp et al. (mit S. Rahmstorf): Temperature-driven global sea-level variability in the Common Era

[2] ZDFHD, Video: Frag den Lesch – Neues aus der Klimaküche Quelle: YouTube, Veröffentlicht am 28.11.2016

[3] npj, Heidi J Smith at al., 8 June 2016: Biofilms on glacial surfaces: hotspots for biological activity

[4] Joel R. Norris at al., 11 July 2016: Evidence for climate change in the satellite cloud record

[5] EIKE 07.04.2016: Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

[6] scinexx.de: Meeresspiegel: Schnellster Anstieg seit 3.000 Jahren

[7] ScienceScepticalBlog: Die Top 5 Lügenmärchen der Klimaforscher
http://www.science-skeptical.de/klimawandel/die-top-5-luegenmaerchen-der-klimaforscher/0015719/