Die unglaubliche Geschichte, wie Klimawandel apokalyptisch wurde

Es stimmt zwar, dass apokalyptische Dissonanzen immer einen Platz in Diskussionen über Klima hatten. Im Jahre 1989 warnten die UN, dass der Welt „nur noch ein Zeitfenster von 10 Jahren verbleibt, um dem Treibhauseffekt entgegen zu treten, bevor dieser sich der menschlichen Kontrolle entzieht“ (hier). Aber die Eskalation der apokalyptischen Klima-Rhetorik während der letzten Jahre ist beispiellos. Die Untergangs-Trommelei hat einige prominente Gestalten dazu verleitet, der Mainstream-Klima-Gemeinschaft beizutreten mit dem Lamento, dass „Klimawissenschaftler die Rate des Klimawandels sowie die Schwere von dessen Auswirkungen bisher unterschätzt haben“ (hier). In Wirklichkeit hat die Klimawissenschaft es nicht einmal vermocht, den Klimawandel genau zu bestimmen – und das permanent auch nicht über die letzten 50 Jahre (hier).

Folglich gibt es hier eine Inkonsistenz. Die Diskussionen über Klimawandel sind apokalyptischer geworden, nicht aber die Klimawissenschaft (hier). Es war schwierig, diese Inkonsistenz zu verstehen, und obwohl ich noch nicht alle Antworten gefunden habe, so habe ich doch einen großen Teil dieses Puzzles ausgemacht, über welches ich hier zum ersten Mal berichten möchte.

Diskussionen über Klimawandel sind direkt oder indirekt beeinflusst von Experten, die unter dem Schirm des IPCC arbeiten. Das IPCC wurde während der 1980er Jahre ins Leben gerufen, um die Klimawissenschaft zusammenzufassen und Schätzungen vorzunehmen, um dann die Politiker zu informieren. Das IPCC hat seitdem fünf große Zustandsberichte veröffentlicht sowie periodisch Abschätzungen zu Teilbereichen.

Ich habe bei vielen Gelegenheiten dem Kongress Rede und Antwort gestanden hinsichtlich der kritischen Bedeutung des IPCC. Das IPCC spielt bei allem eine so zentrale Rolle, dass man es hätte erfinden müssen, wenn es das nicht schon gäbe. Forschungen bzgl. Klimawandel resultieren in umfang- und variantenreicher Literatur, welche zusammenzustellen ohne die Experten-Zustandsbeschreibungen wie jene des IPCC unmöglich wäre. Das IPCC spielt also eine eine entscheidende Rolle am Schnittpunkt zwischen Wissenschaft und Politik.

Ein vom Menschen verursachter Klimawandel ist natürlich ein reales und bedeutendes Problem [?]. Ich habe seit Jahrzehnten immer wieder die Wichtigkeit der Reduktion von Kohlendioxid-Emissionen betont sowie die Notwendigkeit, sich an Klima-Variabilität und -Änderung anzupassen. Aber eine effektive Politik ist jetzt bedroht durch die apokalyptische Wendung in der Klimadebatte.

Entscheidungen innerhalb des IPCC haben zu dieser apokalyptischen Wende in den Diskussionen beigetragen. Das brachte uns von konstruktiven Diskussionen ab, ängstigt Kinder und trägt zu überhitzter Rhetorik bei. Um die Rolle des IPCC im jüngsten Aufstieg des Klima-Untergangs zu verstehen, muss man verstehen, auf welche Art und Weise diese Institution ihre Zustandsberichte erstellt.

Allem, was dem IPCC bei deren Erstellung zugrunde liegt, sind Zukunfts-Szenarien. Derartige Szenarien werden herangezogen, um den zukünftigen Klimawandel zu projizieren, ebenso wie die Auswirkungen eines solchen Wandels auf Gesellschaft und Umwelt sowie Kosten und Nutzen von Maßnahmen zur Abschwächung dieser Auswirkungen.

Um derartige Projektionen zu erzeugen, hat das IPCC in seinen Szenarien lange differenziert zwischen „Grundlegenden Szenarien“ [baseline scenarios] der Zukunft, welche beschreiben, wohin die Welt steuert beim Fehlen jedweder Klimapolitik einerseits und „Abschwächungs-Szenarien“ [mitigation scenarios], welche eine Welt mit Klimapolitik beschreiben, andererseits. Grundlegende Szenarien werden oftmals als „Business as Usual“ gewertet.

Der Aufstieg des neuen Klima-Kataklysmus‘ kann direkt bis zu einer folgenreichen, aber kaum beachteten Änderung zurückverfolgt werden, mit welcher das IPCC seine Szenarien präsentiert. Die Konsequenzen dieser Änderung haben in der gesamten wissenschaftlichen Gemeinde nachgehallt, ebenso wie in der Berichterstattung der Medien und in Diskussionen von Politik und Gesellschaft.

Vor fast zwei Jahrzehnten hat das IPCC einen Satz von Szenarien entwickelt (hier) als Grundlage für die Integration der Arbeiten seiner drei Arbeitsgruppen zu Wissenschaft, Auswirkungen und Abschwächung. Die Szenarien waren entwickelt worden, um als die Grundlage zukünftiger Klima-Entwicklungen und den Folgen von Maßnahmen zu dessen Abschwächung zu dienen. Eine solche Koordinierung bzgl. der gesamten Abschätzungen des IPCC ist offensichtlich sinnvoll.

Zu jener Zeit erkannte das IPCC, dass „die Zukunft inhärent unvorhersagbar ist und dass infolgedessen die Ansichten in dieser Hinsicht darüber auseinandergehen, welches der repräsentativen Szenarien mehr oder weniger wahrscheinlich ist. Daher ist die Entwicklung eines einzelnen ,Best Guess‘– oder ,Business as Usual‘-Szenarios weder wünschenswert noch möglich“. Auf der Grundlage dieser Perspektive entwickelte das IPCC zwar einen Satz von Szenarien für unsere kollektive Zukunft, legte sich aber nicht fest, welches davon wahrscheinlicher ist als ein anderes. Es erklärte: „der Terminus ,Business as usual‘ kann irreführen sein“ und „die meisten in diesem Bericht betrachteten Szenarien können als theoretisch [exploratory] betrachtet werden“.

Das Ergebnis dieser Prozedur war, dass die projizierte Zukunft beim Fehlen von Klimapolitik eine sehr breite Palette möglicher Entwicklungen umfasste. Der vierte Zustandsbericht des IPCC aus dem Jahr 2007 räumte diese breite Palette zukünftiger möglicher Entwicklungen ein. „Es gibt immer noch eine riesige Spannbreite von (Kohledioxid-)Emissionen in allen Grundlagen-Szenarien in der Literatur, wobei die Emissionen im Jahre 2100 eine Bandbreite von 10 Gt bis zu rund 250 Gt CO2 aufweisen“.

Mit anderen Worten, wenn es um Kohlendioxid-Emissionen aus der Verbrennung fossiler Treibstoffe und die damit verbundenen Klima-Konsequenzen geht, enthält die langfristige Zukunft Möglichkeiten, die von höchst optimistischen (das 10 Milliarden-Tonnen-Szenario) bis zu höchst pessimistischen (die 250 Milliarden Tonnen) Szenarien reichen – und alles dazwischen auch.

Eine enorm folgenschwere Änderung der Prozedur vollzog das IPCC dann von seinem 4. Zustandsbericht 2007 zum 5. Zustandsbericht 2013. Das IPCC verwarf sein früheres Eingeständnis der fundamentalen Unsicherheiten und Ignoranz bzgl. der Zukunft. Stattdessen wurde in vollem Umfang das Szenario „Business as Usual“ für die Zukunft auf den Schild gehoben. Dieses vom 5. Zustandsbericht übernommene Szenario war assoziiert mit einem der extremsten Szenarien der Zukunft.

Im 5. Zustandsbericht stellt das IPCC fest: „Die zukünftigen Treibhausgas-Emissionen sind unsicher. Zwischen 1970 und 2010 nahmen die Emissionen um 79% zu (von 27 Gt auf über 49 Gt). Business as Usual würde zu einer Fortsetzung dieser Rate führen“. Eine Zunehme mit dieser Rate würde bewirken, dass zum Ende dieses Jahrhunderts 189 Milliarden Treibhausgase emittiert werden würden. Dies liegt innerhalb des 99. Perzentils aller Szenarien in der Datengrundlage von Referenz-Szenarien im 5. Zustandsbericht (hier).

Der 5. Zustandsbericht ging noch weiter und identifizierte explizit eine Untermenge von Referenz-Szenarien, welche charakterisierten, wo das IPCC dem Glauben anhängt, wohin sich die Welt ohne jede Klimapolitik entwickeln würde. Die Bandbreite der in dem Report für das Jahr 2100 angenommenen Emissionen allein für „Business as Usual“ reicht von 50 Gt bis 106 Gt Kohlendioxid (was als die 10% bis 90%-Perzentile der Szenarien-Datengrundlage beschrieben wird). Der Report ging noch weiter und identifizierte ein einzelnes Szenario als „Business as Usual“ mit Kohlendioxid-Emissionen von über 80 Milliarden Tonnen im Jahre 2100 (dieses Szenario wird als RCP 8.5 bezeichnet).

Vom 4. zum 5. Zustandsbericht änderte sich die Zukunft, wie sie vom IPCC gesehen wird, dramatisch. Die Welt ging nicht mehr einer großen Bandbreite möglicher Entwicklungen entgegen mit enormen Unsicherheiten, sondern stattdessen mit einiger Sicherheit einer Zukunft, welche charakterisiert ist durch ein extremes Niveau von Kohlendioxid-Emissionen (hier). Quantitativ sind 50 Milliarden Tonnen Emissionen im Jahre 2100 aus den IPCC-Szenarien einfach verschwunden, und der Schwerpunkt legte sich auf ein „Business as Usual“-Szenario von über 80 Milliarden Tonnen Emissionen im Jahre 2100 (hier).

Die Apokalypse ist auf den Weg gebracht.

Die Entscheidung des IPCC, seinen 5. Zustandsbericht auf das extremste Szenario überhaupt zu konzentrieren, war unglaublich folgenreich. Tausende akademischer Studien bzgl. der zukünftigen Auswirkungen des Klimawandels folgten der Anleitung seitens des IPCC und haben das extremste Szenario als „Business as Usual“ hervorgehoben. Dies wird jetzt oftmals als das Einzige interpretiert und als die Zukunft, der die Welt entgegen geht. Im Jahre 2019 beispielsweise sind zwei neue akademische Studien pro Tag veröffentlicht worden (hier), welche dieses extremste aller Szenarien als „Business as Usual“ darstellen und extremste zukünftige Auswirkungen prophezeien. Journalisten schlachten diese ,sensationalistischen‘ Ergebnisse aus, die von Aktivisten und Politikern noch weiter übertrieben werden (hier), und als Konsequenz davon wird der Klimawandel als immer apokalyptischer betrachtet.

Das Problem mit dem extremen „Business-as-Usual“-Szenario im 5. IPCC-Zustandsbericht besteht darin, dass es schon jetzt überholt ist. Schon für das Jahr 2020 werden die Emissionen auf das Wildeste übertrieben, was in der akademischen Literatur schon als höchst unwahrscheinlich wenn nicht unmöglich beschrieben wird. Die International Energy Agency IEA hat Szenarien für die nächsten Jahrzehnte entwickelt (hier), welche erheblich vom favorisierten Szenario des IPCC abweichen. Natürlich ist es möglich, dass die Welt massive Mengen Kohlendioxid emittiert, was jedoch eine massive Zunahme der Verbrennung von Kohle zur Voraussetzung hat. Aber dieses Szenario ist mit Sicherheit nicht vorherbestimmt, und andere zukünftige Entwicklungen sind mit Sicherheit auch möglich.

Bemerkenswerterweise ist das IPCC drauf und dran, sich weiterhin auf Extrem-Szenarien wie „Business as Usual“ in seinem bevorstehenden 6. Zustandsbericht zu stützen, obwohl diese Szenarien längst überholt sind.

Zu all dem werde ich künftig sicher noch mehr schreiben, ist es doch derzeit der Schwerpunkt meiner Forschungen. Für heute steht unter dem Strich zu verstehen, dass eine verhängnisvolle Entscheidung des IPCC, selektiv ein Extrem-Szenario aus einer gewaltigen Palette möglicher zukünftiger Szenarien herauszupicken, wesentlich dazu beigetragen hat, die Klima-Apokalypse zu erzeugen – eine ängstigende, aber durchweg imaginäre Zukunft.

Link: https://wattsupwiththat.com/2019/12/07/the-incredible-story-of-how-climate-change-became-apocalyptic/

Übersetzt von Chris Frey EIKE




Wettbewerb um die größten Klima-Heuchler: Bitte um Nominie­rungen!

Im vorigen Jahr war die Fähigkeit unserer Klima-bewussten Freunde, von Skipisten zum Protestmarsch und von der Business-Class-Lounge auf die Barrikaden zu steigen, eine endlose Quelle der Unterhaltung. Erinnert sich noch jemand an Zoe Jones von Extinction Rebellion? Sie kehrte von Ferienreisen nach Uganda, Neuseeland und den Alpen zurück, um eine Hauptverkehrsstraße zu blockieren, womit sie infamerweise Manchen daran hinderte, ins Krankenhaus zu kommen. „Wir tun genau das Richtige!“ skandierte sie.

Ein anderer heißer Anwärter war ein weiterer Unterstützer von Extinction Rebellion namens Professor Jem Bendell von der University of Cumbria, welcher regelmäßig nach Bali reist und Gastprofessor an Institutionen in Australien, Spanien, Kenia und der Schweiz ist.

Tatsächlich ist die Heuchelei der Umweltbewegung inzwischen so allumfassend, dass sie anfängt, sich aus der Domäne ,amüsante Anekdoten‘ zu entfernen und zur Domäne ,wissenschaftlicher Konsens‚ zu wechseln.

Wir hier beim Global Warming Policy Forum wollen wir nicht, dass dieser Vorgang in dieser Größenordnung unbemerkt bleibt. Damit im Hinterkopf loben wir einen jährlich zu vergebenden Preis aus, um diejenige Person zu finden, welche am schamlosesten Wasser predigt und Wein trinkt; die Person, welche die Nerven hat, noch aus der grünen Masse herauszuragen.

Unsere Studie zur Auslobung des Preises steht hier. Aber Beeilung, Einsendeschluss ist bereits am 13. Dezember*!

[*Dieses Datum ist bereits verstrichen. Aber Ende des nächsten jahres wird ja wieder entschieden. Außerdem geht es viel eher um die Sache selbst als darum, den preis zu gewinnen. Anm. d. Übers.]

Link: https://www.thegwpf.com/nominations-open-in-our-green-hypocrite-of-the-year-competition/

Übersetzt von Chris Frey EIKE




Kelvin allein zu Haus: Der Unter­schied zwischen zwei Watt ist deren Umgebungs­temperatur

 

Abbildung: Die Umgebungsgleichung des Stefan-Boltzmann-Gesetzes       Rot: Verlauf der T4-Funktion des Stefan-Boltzmann-Gesetzes           Blau: Temperaturanstieg für einen zusätzlichen Strahlungsbeitrag von (Delta S = 235 W/m²) in Abhängigkeit von der jeweiligen Umgebungstemperatur T0

Je nach Umgebungstemperatur T0 ergibt eine spezifische Strahlung von (Delta S = 235 W/m²) also einen Temperaturanstieg von 255K oder von 46K oder von 32K oder…

Wenn wir uns jetzt einmal in der nachfolgenden Graphik genauer ansehen, welchen Temperaturanstieg eine zusätzliche Leistung von 1 [W/m²] nach dem Stefan-Boltzmann-Gesetz bewirken kann, dann reicht die Spanne von 64,8K bei 0 [W/m²] (entsprechend einer Umgebungstemperatur von 0K) bis zu 0,18K bei 399 [W/m²] (entsprechend einer Umgebungstemperatur von 289K):

Das große Diagramm ist für eine verbesserte Auflösung auf 3 Kelvin reduziert, die 64,8K bei 0 W/m² bestimmen den Maßstab der kleinen Graphik. Hier ist aufgetragen, um wieviel Kelvin sich die Temperatur erhöht, wenn die spezifische Strahlungsleistung um (Delta S = 1 W/m²) ansteigt, beispielsweise ergibt sich bei dem Schritt von 40 auf 41 W/m² ein Anstieg von 1 Kelvin. Das T4-Gesetz von Stefan und Boltzmann weist also jedem Delta S [W/m²] ein ganz konkretes Delta T [K] zu, je nachdem, wie groß die jeweilige spezifische Strahlungsleistung der Umgebung in [W/m²] respektive deren Temperaturäquivalent T0 [K] ist.

Umgekehrt erhöht sich nach dem Stefan-Boltzmann-Gesetz mit steigender Umgebungstemperatur T0 die erforderliche Strahlungsleistung Delta S [W/m²], um einen weiteren Temperaturanstieg von 1 Kelvin auf T1 zu bewirken:

Der lernhelfer.de erklärt die S-B-Umgebungsgleichung folgendermaßen (mit kleinen Anpassungen durch den Autor): Je nach dem Verhältnis der beiden Temperaturen T1 (Körper) und T0 (Umgebung >>Körper) sind drei Fälle zu unterscheiden:

Wenn T 1 > T 0 dann gibt der Körper mehr Strahlung an die Umgebung ab als er aufnimmt.
Er kühlt sich dabei ab.

Wenn T 1 = T 0 dann befindet sich der Körper mit seiner Umgebung im Strahlungsgleichgewicht. Die Temperatur des betreffenden Körpers bleibt gleich.

Wenn T 1 < T 0 dann nimmt der Körper mehr Strahlung aus der Umgebung auf als er an diese abgibt.
Er erwärmt sich dabei.

Versuchen wir einmal, diese Gesetzmäßigkeit analog zur Abbildung (Delta Strahlungsleistung pro 1 Kelvin) graphisch vereinfacht mit Dreiecken abzubilden:

In allen 3 Fällen hat der Körper am Ende also die gleiche Temperatur wie seine Umgebung. Die nachfolgende Abbildung mag diesen Vorgang auf Grundlage der vorherigen „Dreieckssymbolik“ verdeutlichen:

Vielleicht wird jetzt auch deutlich, warum man die hemisphärische solare Einstrahlung auf der Tagseite nicht über die gesamte Erdoberfläche mitteln darf. Die nachfolgende Mittelung von (S0*(1-ALPHA)=Seff=940 W/m²) auf die Hemisphäre der Tagseite mit (Smean = 470 W/m²) ist eigentlich falsch, denn korrekt folgt die örtliche Einstrahlung der Formel (Si = Seff * cos PHIi). Aber dann lässt sich die Situation wiederum graphisch nicht mehr so einfach darstellen. Die nachfolgende vereinfachte Graphik möge also lediglich den Fehler einer globalen Mittelung verdeutlichen:

Der Strahlungsdurchschnitt von 470 W/m² (korrekt: 940W/m²*cosPHIi) umfass einen Strahlungsbereich von 0-940W/m² für die tagseitige Hemisphäre mit einem maximalen S-B-Temperaturäquivalent von 85,7°C @ 940W/m². Bei der globalen Mittelung der tagseitigen solaren Einstrahlung fällt also genau derjenige Teil der spezifischen solaren Strahlungsleistung weg, der Temperaturen oberhalb von (-18°C) erzeugen kann. Mit dem sogenannten „natürlichen atmosphärischen Treibhauseffekt“ soll dann in einem thermodynamisch widersinnigen Prozess ein kälterer Körper einen wärmeren Körper um angeblich 33°C erwärmen, um schließlich wieder der „gemessenen“ Realität zu entsprechen. Aber dazu fehlt diesem kälteren Körper ganz offensichtlich die erforderliche spezifische Strahlungsleistung, denn die Leistungsdifferenz von [Delta S = 155 W/m²] liegt eindeutig „außerhalb“ der spezifischen Strahlungsleistung dieses kälteren Körpers.

Mit der globalen Mittelung der hemisphärischen Sonneneinstrahlung hatte man also deren S-B-Temperaturäquivalent soweit reduziert, dass zwischen dieser fehlerhaften theoretischen Ableitung und der „gemessenen“ Realität eine Lücke von 33 Grad klafft. Diese Lücke hatte man dann mit einem frei erfundenen Perpetuum-mobile-Prozess namens THE wieder zu schließen versucht. Aber „2x falsch“ ergibt nun mal nicht „richtig“, auch wenn das Ergebnis nun scheinbar wieder stimmt. Es ist vielmehr eine böse Ironie des Schicksals, das dieses antiphysikalische „Trojanische Pferd“ jetzt einer politisch gewollten Großen Transformation dazu dient, die Zerstörung des kohlenstoff-basierten Lebensstandards in den westlichen Industrienationen zu begründen, was unsere Kinder und Enkel schließlich in ein ökologisches und ökonomisches Mittelalter zurückwerfen wird. In das intellektuelle Mittelalter eines klimareligiösen Angstglaubens hatte uns ja bereits die politische Klimawissenschaft mit ihrem jahrzehntelangen medialen Trommelfeuer aus Schreckensmeldungen geführt…




Haltungsjour­nalismus im ”Öffentlich-Recht­lichen”

Hier das entsprechende Video aus der Mediathek der Tagesschau:

Die Überschrift lautet ”Neumayer-Station in Antarktis: Deutsche Klimaforschung auf brüchigem Eis” und soll wohl suggerieren, dass das Eis dort schwindet. Das Gegenteil ist richtig. Auf dem Titelbild ist die Station abgebildet, sie steht auf hydraulischen Stelzen. Auf der Homepage des Instituts erfährt man, damit solle verhindert werden, dass die Station mit der Zeit von der ansteigenden Schnee-Eis-Masse geflutet wird, wie schon ihre beiden Vorgängerstationen.

In der Anmoderation behauptete Caren Miosga, in der Antarktis sei wahrnehmbar, dass die Erderwärmung keine wissenschaftliche Theorie, sondern Fakt sei und der Berichterstatter sich dort auf’s dünner werdende Eis begeben habe. Das ist eine komplette Verdrehung der Tatsachen. Die Station steht mit ihren Stelzen nicht auf dünner, sondern auf dicker werdendem Eis. Auch für die gesamte Antarktis hat die NASA eine Zunahme des Eisvolumens auf der Grundlage von Satellitendaten dokumentiert, und zwar hier.

Völlig grotesk wird die Angelegenheit, wenn die Moderatorin behauptet, die Erderwärmung sei ”in der Antarktis ein mit allen Sinnen wahrnehmbarer Fakt”, und dabei auf die Neumayer-Station im Bild hinter ihr deutet. Die Originaldaten der Temperaturaufzeichnungen der drei Neumayer-Stationen seit 1981 zeigen dort nämlich eine Abkühlung:

Quelle

Das entspricht auch der Temperaturveränderung in der Gesamt-Antarktis seit Beginn der Satellitenaufzeichnungen im Jahr 1979 (60. bis 85. Breitengrad Süd):

Auch hier eine leichte, statistisch nicht signifikante Abkühlung, jedenfalls alles andere als ein Beweis für eine Erwärmung, die dort angeblich Fakt sei. Sogar das Ozeanwasser rund um die Antarktis kühlt sich leicht ab:

In der Einleitung zu dem Bericht werden über die grotesk fehlerhafte Einführung hinaus noch Erkenntnisse der Neumayer-Forscher angekündigt, die das Faktum des Klimawandels und der dort ”mit allen Sinnen wahrnehmbaren Erderwärmung” angeblich stützen. Danach kommt jedoch nichts dergleichen, es wird lediglich ein Forscher zitiert, der eine Erhöhung des CO2-Gehalts der Atmosphäre auch in der Antarktis gemessen hat. Das ist lächerlich. Konnte man bisher etwa davon ausgehen, dass dies dort nicht der Fall sei? Ansonsten bringen die Forscher Zukunftsbedenken vor, aber keine Fakten.

Alles in allem erreicht das Filmchen eine neue Stufe der Desinformation durch den Haltungsjournalismus in den öffentlich-rechtlichen Medien. In der Einleitung werden Behauptungen aufgestellt, die in dem nachfolgenden Bericht gar nicht wieder aufgegriffen, geschweige denn belegt werden und sie lassen sich überdies mit ein paar Klicks im Internet bei der Originalquelle widerlegen.

Wie kommt eigentlich Caren Miosga zu ihrer Einleitung und den Bemerkungen über schwindendes Eis und Erwärmung in der Antarktis? Aus dem Inhalt des Berichts lassen sich diese Feststellungen nicht ableiten. Warum hält sie es nicht für nötig, sich die Daten der Station anzusehen, bevor sie vollmundig falsche Behauptungen darüber aufstellt? Hat sie vielleicht nur gedacht, dass es schon stimmen wird, weil es ja inzwischen zum Allgemeinwissen gehört, dass an den Polen das Eis schmilzt? Wollte sie einfach nur Haltung zeigen? Geht so moderner Journalismus?

Diese ”fake news” waren leicht zu enttarnen. Man fragt sich, wo wir sonst womöglich noch auf die Irreführungen der Haltungsjournalisten hereinfallen, wenn die Aufdeckung nicht so einfach ist.

Gut zu wissen, dass es noch Journalisten gibt, die recherchieren, wenn z.B. Spiegel online in der Rubrik „Wissenschaft“ wieder einmal Unsinn verbreitet. Wie hier aufgedeckt von Alexander Wendt in seinem Online-Magazin „Publico“, ebenfalls am Beispiel Klimawandel:

Zur aktuellen Entwicklung des Journalismus in den Mainstream-Medien ein Interview mit dem Medienwissenschaftler Prof. Norbert Bolz, der die Schieflagen benennt:




Aktuell: Gerichts­verfahren von #ExxonKnew bricht zusammen und geht in Schall und Rauch auf

Von Climate Litigation Watch (CLW):

Von Geldgeber- und Haftpflicht-Anwälten angestrengtes Klima-„Betrugs“-Verfahren ist zerschellt und verbrannt

In seinem „Betrugs“-Verfahren gegen ExxonMobil als ein Proxy der Energie-Industrie und als Proxy für jeden, der es wagt, sich der Klima-Agenda entgegen zu stellen, ist der General-Staatsanwalt (Justizminister) von New York damit gescheitert, die niedrigste jemals für derartige Angelegenheiten errichtete Barriere zu überwinden, den Martin Act (hier).

[Martin Act: Der Martin Act, ein Gesetz in New York State, gibt dem New Yorker Generalstaatsanwalt die Befugnis, jede börsennotierte Gesellschaft wegen Finanzbetrug zu belangen, solange die betreffende Gesellschaft Wertpapiere im Staat handelt. Mehr dazu hier. Anm. d. Übers.]

Das passiert, wenn Strafverfolgungsbehörden unrechtmäßige Ermittlungen und Strafverfolgungen auf Veranlassung von Spendern anstrengen. Die hässliche Story, wie es dazu kommen konnte, ist in einer Dokumentation hier beschrieben.

Das sind keine guten Nachrichten für die Maura Healey AG in Massachusetts, die ihre eigene Klage im Zuge des Verfahrens eingereicht hatte und jetzt verhindern will, dass diese Klage zur Verhandlung kommt, nachdem die Katastrophe des Zusammenbruchs der Causa NY AG offensichtlich geworden war (hier).

Die ganze Story steht hier.

Aktualisierung:

Hier folgt die Begründung des Gerichts:

 

[Leider ist der Text auch im Original nicht deutlicher zu erkennen]

Die schmutzige Geschichte dieser Missbräuche, soweit bis August 2018 bekannt, steht hier.

Inzwischen weiß man noch sehr viel mehr, was bei CLW auch immer wieder gepostet wird.

Da dürfte noch viel mehr kommen:

https://climatelitigationwatch.org/courts-opinion-released-in-ny-ag-v-exxonmobil/

Link: https://wattsupwiththat.com/2019/12/10/breaking-exxonknew-lawsuit-crashes-and-burns/

Übersetzt von Chris Frey EIKE