Wo ist der CO2-Treibhaus­effekt? Der Januar wird seit über 30 Jahren kälter

Vollmundig sind die Worte der CO2-Erwärmungsgemeinschaft, wenn es um die Wintererwärmung geht, da sollten doch die deutschen Kinder den Schnee überhaupt nicht mehr kennengelernt haben, und falls ja, dann nur im Hochgebirge. Laut Behauptung des CO2-Erwärmungsorakels sollte doch gerade der Januar und insbesondere die Winter wärmer werden. Tatsache ist: Kein einziger dieser Erwärmungsverkünder, aber auch keiner aus der Gemeinschaft der Erwärmungs-Gläubigen, die man auch immer wieder bei EIKE in den Kommentaren findet, konnte uns eine wärmer werdende Wetterstation aus den letzten 30 Jahren benennen. Gibt es überhaupt eine?
Aber zwei aufmerksame Leser haben sich gemeldet und die Daten von Neugersdorf, eine Wetterstation an der deutsch/polnisch/tschechischen Grenze, und von der Zugspitze, Deutschlands höchstem Berg zugeschickt.
Beginnen wollen wir mit der Zugspitze seit der Einrichtung der Station durch den DWD.

Grafik 1: Auf der x-Achse sind die Temperaturen aufgetragen, auf der y-Achse die 117 Januarmonate. Die Trendlinie verläuft recht ausgeglichen.


Auch die Temperaturen auf Deutschlands höchstem Berg zeigen das übliche Schaubild. Die Januarmonate wurden ab 1900 bis über Jahrhundertemitte hinaus erst einmal kälter, um dann wieder leicht anzusteigen. Nach 1986 erfolgt dann ein plötzlicherTemperatursprung auf ein höheres Niveau, das 1989 erreicht war. Weder die leichte Temperaturabnahme über 60 Jahre zu Beginn des letzten Jahrhunderts, noch der plötzliche Sprung auf das höhere Niveau lassen sich mit einem Kohlendioxidtreibhauseffekt erklären. Erklärungsversuche wie wir sie fast täglich durch Katastrophenscharlatane erleben, sind reine wissenschaftliche Märchen.
30 Jahre sind eine Klimaeinheit. Deshalb betrachten wir die letzten 30 Jahre, in welcher laut Gemeinschaft der Erwärmungsgläubigen die Temperaturen besonders stark gestiegen wären.

Grafik 2: Auch auf der Zugspitze wurde es in den letzten 30 Januarmonaten eindeutig kälter und nicht wärmer.


Fazit: Alle Behauptungen in deutschen Medien über wärmer werdende Winter sind Unwahrheiten. Seriöse Wissenschaftler richten sich nicht nach dem Mehrheits-Glauben und nach der oftmals bombastischen Panikmache von ZDF und dergleichen, sondern nach den Fakten des Deutschen Wetterdienstes. Schon allein diese Grafik der Januartemperaturen der Zugspitze, einer offiziellen DWD-Wetterstation zeigt, dass Kohlendioxid und Temperaturen unabhängig voneinander sind. Eins hat mit dem anderen nichts zu tun. Aus der Grafik müsste man vielmehr schlussfolgern, dass die auf dem Mouna Loa gemessene CO2-Konzentrationszunahme der Atmosphäre eher zu einer Abkühlung in den letzten 30 Jahren in Mitteleuropa geführt hat. Also Klimaabkühlung durch CO2-Zunahme? Hier gilt es, diesen möglichen Zusammenhang in Zukunft näher zu beleuchten. Immerhin gibt es Hypothesen, welche das behaupten.
Und wie reagieren unsere Medien auf die Januargrafiken? Antwort: gar nicht oder mit diesem Trick: Es wird nur die CO2-Zunahme der letzten 30 Jahre gezeigt und den Unwissenden suggeriert, dass auch die Temperaturen ähnlich gestiegen wären. Aber wer fällt darauf rein? Antwort: Viele. Leider auch immer noch viele der EIKE-Kommentarschreiber.
Anmerkung: Grundsätzlich sind die Daten der Zugspitze mit Vorsicht zu betrachten, denn der Berg hat durch den Umbau in den letzten 100 Jahren zur Touristenhochburg einen immensen Wärmeinseleffekt entwickelt, eine menschengemachte Zusatzwärme, welche das Thermometer auf dem Dach des DWD-Hauses mit misst, eine anthropogene Wärmeinsel-Erwärmung, welche in die gemessenen Temperaturerhebungen mit eingeht. Jedoch sind die Besucherströme vorwiegend in den Sommermonaten, so dass der Wärmeinseleffekt im Januar weniger Wirkungen zeigt.
Wetterstation 2: Neugersdorf: sprich Neu-Gersdorf.
Die Daten dieser Station schickte uns ein Leser zu, der in Goldbach bei Bischofswerda selbst seit 22 Jahren eine Wetterstation führt und sich deswegen auch in der Nachbarschaft umtut. Ab 1960 bis 2011 stand die Wetterstation Neugersdorf an einer 50m höher gelegenen Stelle wie momentan. Die Januardaten ab 2012 wurden von der neuen etwas wärmeren Station in der Nähe einer der Spreequellen durch den Stationsleiter auf den ehemaligen Standort umgerechnet. Der Ort selbst ist wärmeinselarm, da die Einwohnerzahl seit der Wende stagniert.
Die Januar-Grafik der letzten 30 Jahre:

Grafik 3: Die fast wärmeinselfreie Wetterstation in Neugersdorf zeigt eine deutliche Abkühlung der Januartemperaturen in den letzten 30 Jahren. Mit y = – 0,11x ist die Trendlinie stark negativ und unterbietet damit deutlich den DWD-Schnitt. Ein richtiger Temperatursturz in der Oberlausitz.


Zum Vergleich, für Gesamtdeutschland sieht das Januarmittel der letzten 30 Jahre, erhoben durch den Deutschen Wetterdienst so aus:

Grafik 4: Die offiziellen Daten des Deutschen Wetterdienstes, ermittelt aus vielen Einzelstationen über ganz Deutschland verteilt, darunter auch viele Städte und Großstädte, zeigen eindeutig, dass der Monat Januar in den letzten 30 Jahren kälter wurde. Wie es weitergeht weiß niemand, da CO2 wirkungslos ist.


Es wird Zeit, dass endlich der Natur- und Umweltschutz in den Mittelpunkt des öffentlichen Handelns gerückt werden und nicht das Geschäftsmodell Klimaschutz. Wir leben derzeit in einer klimatisch sehr ruhigen Periode mit ausgeglichenen Temperaturen. Nur in den Städten wurde es in den letzten 100 Jahren wärmer, was aber nicht durch Kohlendioxid, sondern durch den zunehmenden Wärmeinseleffekt bedingt wurde. Kohlendioxid und Temperaturen haben nichts oder fast nichts miteinander zu tun. Das beweisen gerade die Grafiken dieses Artikels.
Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher




Rundbrief der GWPF vom 17. Februar 2017

Anzahl der Eisbären immer noch steigend, trotz globaler Erwärmung

Neuen Forschungen zufolge steigt die Eisbär-Population immer weiter, trotz globaler Erwärmung. Die neuen Populations-Schätzungen der Scientific Working Group 2016 liegen irgendwo zwischen 22.633 und 32.257 Bären. Dies wäre eine Gesamt-Zunahme gegenüber dem Vorjahr, als 22.000 bis 31.000 Exemplare geschätzt worden waren. Die gegenwärtigen Zahlen sind eine erhebliche Zunahme gegenüber dem Jahr 2005, als lediglich 20.000 bis 25.000 Bären geschätzt worden waren – und außerdem sind jene Zahlen eine drastische Zunahme gegenüber Schätzungen Ende der sechziger Jahre, als man von 8000 bis 10.000 Bären ausging. Wissenschaftler erkennen immer mehr, dass Eisbären erheblich widerstandsfähiger gegen Änderungen des Niveaus von Meereis sind als Umweltaktivisten geglaubt hatten. – Andrew Follett, The Daily Caller, 16. Februar 2017

Gestützt und bestätigt wird diese Meldung hier:

Jetzt offiziell: Anzahl der Polarbären nimmt weiter zu! – Susan Crockford, Polar Bear Science, 15. Februar 2017

Es geht nicht um David Rose [der es ans Licht gebracht hatte]. Es geht auch nicht um Bates [den Whistleblower]. Es geht um die Umgehung der Verfahren, die eingeführt worden sind, um die Integrität der Daten zu schützen und damit auch den Ruf der NOAA. Es geht darum, was Bates so umrissen hat: „Ethische Standards müssen befolgt werden“. Es kann kein Vertrauen in Daten geben ohne Vertrauen in die Verfahren um Sammlung und Speicherung der Daten. Und Personen oder Organisationen, die diesen Verfahren keinerlei Wert beimessen, erodieren das Vertrauen noch weiter. Toad Liquor, 14. Februar 2017

Nicht vor Klima kneifen!

Präsident Trump wird seine Aufmerksamkeit demnächst einem weiteren Versprechen seiner Kampagne zuwenden – der Rücknahme der Klimaagenda von Obama – und einer Quelle aus seiner Regierung zufolge werden Executive Orders zu diesem Thema „die Luft aus dem Raum saugen“. Das ist gut, aber nur, wenn das Team Trump das Vorhaben vollendet und die Pariser Klima-Bemühung in jenes Vakuum sendet. Das ist nicht mehr sicher. Das schlimme Risiko des erbärmlichen Verfahrens sieht so aus: Falls die umweltliche Linke etwas aus den letzten 20 Jahren gelernt hat, dann den Umstand, dass in der juristischen Branche viele zuverlässige Freunde sitzen. Republikaner teilen die grüne Agenda nicht, und die Regierungen der Demokraten, die das tun, sind gehindert durch Gesetze und Vorschriften. Aber Richter erledigen das. Will man eine Schlange auf die Liste gefährdeter Arten setzen? Will man einen Damm stilllegen? Man klage vor einem freundlich gesonnenen Gericht, und man bekommt augenblicklich bindende Ergebnisse. – Kimberley A. Strassel, The Wall Street Journal, 17. Februar 2017 [paywalled]

Sind Klima-Alarmisten Kult-Gläubige mit glasigen Augen?

Will Happer ist ein bedeutender Physiker bei Princeton, der sich entschlossen hat, (zusammen mit seinem Kollegen Freeman Dyson) eine Flagge auf der skeptischen Seite der Klimadebatte einzurammen. Jüngst fiel sein Name als potentieller Kandidat als Wissenschaftsberater von Präsident Trump. Kürzlich gab Happer dem Guardian ein Interview. Beim Thema „Klimawandel“ nahm Happer kein Blatt vor den Mund: „Es gibt einen ganzen Bereich der so genannten Klimawissenschaft, der in Wirklichkeit mehr ein Kult ist“, sagte Happer dem Guardian. „Es ist wie Hare Krishna oder so. Sie haben glasige Augen und sie singen. Das wird potentiell das Image der Wissenschaft insgesamt schädigen“. Das Wort „Kult“ mag ein wenig zu hoch gegriffen sein, aber was immer es ist, es ist mit Sicherheit keine Wissenschaft. – Francis Menton, Manhattan Contrarian, 17. Februar 2017

Übersetzt von Chris Frey EIKE




Energie-Restrik­tionen, nicht der Klima­wandel, sind das Risiko für Zivili­sationen

McKibbens Artikel ist eine Mischung aus Halbwahrheiten, Irreführung und Fiktion. Er hat die Absicht, die Wired-Leser davon zu überzeugen, dass die Wissenschaft eindeutig ist dergestalt, dass Menschen eine katastrophale globale Erwärmung verursachen. Nichts könnte weiter entfernt von der Wahrheit liegen.

In den neunziger Jahren des 19. Jhh. hat der schwedische Physiker und spätere Gewinner des Nobelpreises Svante Arrhenius die ersten Berechnungen durchgeführt, bei denen er einen steigenden CO2-Gehalt in der Atmosphäre mit Erwärmung in Verbindung brachte. Für Klimaalarmisten wie McKibben ist Arrhenius ein Held. Was er aber wohlweislich nicht erwähnt ist, das Arrhenius keineswegs eine Erwärmung als eine Drohung für die Menschheit ansah, sondern dass er sich im Gegenteil dringend eine wärmere Welt wünschte, die zu bekommen er glaubte. Arrhenius argumentierte, dass die Erwärmung durch menschliche CO2-Emissionen notwendig waren, um eine rapide wachsende Bevölkerung zu ernähren und die nächste Eiszeit auszubremsen.

McKibben vergöttert auch den US-Ozeanographen Roger Revelle, den ehemaligen Präsidenten der American Association for the Advancement of Science, für seine frühen Arbeiten zur globalen Erwärmung. In einer Studie aus dem Jahr 1957, die Revelle zusammen mit Hans Suess durchführte, behaupteten die Forscher, dass die Ozeane der Welt all das überschüssige CO2 aus der Verbrennung fossiler Treibstoffe nicht aufnehmen können, wie es Forscher davor geglaubt hatten. Als Folge davon, sagte Revelle, verursachen die Menschen einen „Treibhauseffekt“, der zu einer „globalen Erwärmung“ führen werde. In seinem Film Eine Unbequeme Wahrheit würdigt der gescheiterte Präsidentschaftskandidat Al Gore die Arbeiten von Revelle, der in Harvard sein Lehrer war und der ihn in den siebziger Jahren auf die Gefahren einer vom Menschen verursachten globalen Erwärmung aufmerksam machte.

Den Worten des unsterblichen Rundfunksprechers Paul Harvey zufolge ist hier „die übrige Story“. Alarmiert darüber, dass seine Arbeiten bzgl. Klima für Bemühungen herangezogen wurden, Gesetzgeber zu nötigen, dramatische Maßnahmen zum Kampf gegen die globale Erwärmung zu ergreifen, schrieb Revelle im Jahre 1991, dem letzten Jahr seines Lebens, in einem Artikel „Die wissenschaftliche Grundlage für eine Treibhaus-Erwärmung ist zu unsicher, um drastische Maßnahmen zu diesem Zeitpunkt zu rechtfertigen. Es gibt kaum ein Risiko dabei, mit politischen Reaktionen noch zu warten“. Revelle und seine Kollegen gingen noch weiter, als sie feststellten: „Drastische, überstürzte – und besonders einseitige – Schritte, die vermeintlichen Treibhaus-Auswirkungen zu verzögern, können Arbeitsplätze und Wohlstand kosten sowie die menschlichen Entbehrungen bei der globalen Armut zunehmen lassen, ohne effektiv zu sein. Stringente ökonomische Kontrollen wären derzeit ökonomisch verheerend besonders für Entwicklungsländer…“.

Und was ist mit dem Pariser Klimaabkommen, bei dem McKibben solche Angst hat, dass Präsident Donald Trump diesen aufkündigen wird? Zwar stimmt es, dass 195 Nationen zugestimmt haben, ihren Kohlendioxid-Ausstoß zu verringern, doch bei genauerem Hinsehen erzählen die Details des Planes eine völlig andere Story.

Das Pariser Klimaabkommen ist ein Papiertiger. Die darin versprochenen Kürzungen der Emissionen sind für die Unterzeichner-Länder nicht bindend, und es sind keine Strafen vorgesehen für Länder, die ihre freiwillig gesetzten Ziele nicht erreichen.

Nach Unterzeichnung des Abkommens räumte man im UN-Umweltprogramm ein, dass selbst wenn alle am Abkommen beteiligten Parteien die versprochenen Emissionsziele erreichen würden, würden die von den Regierungen eingereichten Pläne zu einer weniger als halb so starken Reduktion der Emissionen führen, wie zur Erreichung des 2°C-Zieles erforderlich wären. Diese Tatsache veranlasste James Hansen, den ehemaligen Direktor des Goddard Institute for Space Studies der NASA, zu seinem vernichtenden Urteil des Abkommens gegenüber dem Guardian, von dem er sagte, dass es ein „wirklicher Betrug, ein Fake sei … Es gibt keine Maßnahmen, nur Versprechungen“.

Da das Abkommen nicht mehr ist als eine ein gutes Gefühl vermittelnde Maßnahme, deren wirkliches Ziel es war, den Führern der Welt einen positiven Photo-Termin zu verschaffen, wird es keinen messbaren Einfluss auf das Klima haben, falls Trump sein Wort hält und sich aus dem Abkommen zurückzieht.

Fossile Treibstoffe sind das Lebenselixier der modernen Zivilisation. Wie Alex Epstein in seinem brillanten Buch The Moral Case for Fossil Fuels demonstriert, ermöglichen erst sie die moderne Landwirtschaft, die erforderlich ist, um die Milliarden Menschen auf diesem Planeten zu ernähren, sowie die moderne Medizintechnik, welche für einen drastischen Rückgang der Kindersterblichkeit sowie für längere Lebensdauer gesorgt hat. Man kann keine Krankenhäuser, Ambulanzen, Operationssäle und Kliniken 24 Stunden am Tag betreiben, wenn man nicht Kohle, Erdgas und Öl verbrennt.

Epstein schrieb: „Das Klima ist jetzt nicht mehr ein wesentlicher Grund für Todesfälle, was zum größten Teil den fossilen Treibstoffen zu verdanken ist … Nicht nur, dass wir das Große Ganze ignorieren, indem wir den Kampf gegen die Klimagefahr in den Mittelpunkt unserer Kultur stellen, sondern auch, dass wir den Klimawandel ,bekämpfen‘ mittels Gegnerschaft zu dem Werkzeug, dass das Klima Dutzende Male weniger gefährlich macht. Die öffentliche Klimadiskussion ist rückwärts gewandt. Sie betrachtet den Menschen als eine destruktive Kraft bzgl. der Überlebensfähigkeit im Klima; als einen, der das Klima wegen des Verbrauchs fossiler Treibstoffe gefährlich macht. Tatsächlich ist aber das genaue Gegenteil der Fall: Wir verwandeln ein sicheres Klima nicht in ein gefährliches Klima, sondern wir verwandeln ein gefährliches Klima in ein sicheres Klima.“.

Das ist die wirkliche Story der Relation zwischen fossilen Treibstoffen und der Zivilisation – eine Story, die Misanthropen wie McKibben einfach nicht verstehen [oder nicht verstehen wollen, wie z. B. die gesamte Klimaille hierzulande! Anm. d. Übers.]

[Originally Published at American Spectator]
Link: https://www.heartland.org/news-opinion/news/energy-restrictions-not-climate-change-put-civilizations-at-risk
Übersetzt von Chris Frey EIKE




Weitere Daten-Manipu­lationen seitens NOAA, NASA, HadCRUT … Vergangen­heit kälter, Gegen­wart wärmer gemacht

Um Folgendes geht es:

Manipulation von globalen Temperaturdaten:

Tausende nicht-städtische Messorte wurden ausgesondert

Seit 1998 wurden 0,3°C Wärme hinzugefügt, um den ,Stillstand‘ zu beseitigen

Von dem Trend 1880 bis 1950 wurden 0,5°C Wärme subtrahiert

Im Verlauf der letzten paar Jahrzehnte haben es die drei Hauptbetreiber von Datensätzen der globalen Temperatur vom 19. Jahrhundert bis zur Gegenwart – NOAA, NASA und HadCRUT – erfolgreich geschafft, diese Temperaturaufzeichnungen so zu frisieren, dass sie zu den Ergebnissen der Klimamodelle passen. Genauer, es gab konzertierte Bemühungen, die Vergangenheit kälter zu machen – vor allem die Warmperiode von den zwanziger bis zu den vierziger Jahren – und die Temperaturwerte aus jüngeren Jahrzehnten zu erwärmen, vor allem nach dem Jahr 1950. Auf diese Weise erscheint ein Trend einer starken linearen Erwärmung, der ähnlich aussieht wie die lineare Form anthropogener CO2-Emissionen im 20. und 21. Jahrhundert. Passen die beiden Verläufe besser zusammen, hilft das, eine Kausalität zu implizieren, und diese vorgebliche, in Kausalität umgewandelte Koinzidenz kann dann herangezogen werden, um politische Maßnahmen zu rechtfertigen, die fossile Treibstoffe eliminieren sollen.

Seit den siebziger Jahren wurden 75% aller GHCN-Temperatur-Messpunkte ausgesondert.

Eines der am wenigsten erwähnten Mittel, die zu diesem „Aussehen“ der Temperaturkurve führt, war die tendenziöse und umfassende Aussonderung Tausender Wetterstationen und Messpunkten in abgelegenen Gebieten, auf Bergen und/oder nicht-städtischen Stellen seit den siebziger Jahren. Alle diese Stationen zeigen nicht den von den Modellen prophezeiten Erwärmungstrend, sind sie doch nicht betroffen von der Nähe zu künstlichen oder nicht-klimatischen Heizquellen (befestigte Straßen, Gebäude, Maschinen, Industrie usw.), wie es bei urbanen Messpunkten der Fall ist. (Wie weiter unten detailliert erläutert, kann die Aufstellung von Thermometern nahe urbanen Heizquellen einen Warm-Bias zwischen 0,1°C und 0,4°C pro Jahrzehnt hervorrufen).

Falls eine in krassem Missverhältnis stehende Anzahl NICHT-urbaner Wetterstationen aus dem globalen Temperaturarchiv entfernt werden, erhalten die urban aufgestellten Thermometer ein viel größeres Gewicht als vor der Entfernung der nicht-städtischen Messpunkte. Darum wird eine solche Temperaturaufzeichnung viel mehr Erwärmung zeigen – obwohl diese zusätzliche Wärme nicht klimatischen Ursprungs, sondern künstlich erzeugt ist.

Und genau das ist auch geschehen. Das Global Historical Climatology Network (GHCN) ist die primäre Quelle für Aufzeichnungen von Temperaturdaten aus der ganzen Welt. NOAA, NASA und HadCRUT sind sehr stark von der GHCN-Temperaturhistorie abhängig bei der Konstruktion ihrer globalen Datensätze bis zurück zum 19. Jahrhundert. McKitrick (2010) zufolge gab es noch bis in die siebziger Jahre des vorigen Jahrhunderts hinein zwischen 5000 und 6000 GHCN-Messpunkte auf der ganzen Welt, welche zum Temperaturarchiv beitrugen. Heute (oder bis zum Jahr 2009) sind davon noch etwas über 1000 Stationen übrig geblieben – 75% aller in dem siebziger Jahre noch in Gebrauch gewesenen Thermometer sind verschwunden. Es gibt jetzt weniger Stationen, die zum GHCN beitragen, als im Jahre 1919.

Erstaunlicherweise befinden sich fast die Hälfte aller GHCN-Messpunkte (49% im Jahre 2009) auf der Welt auf (betonierten) Beton- oder Asphaltflächen auf Flughäfen!

McKitrick, 2010:

Es gibt drei große globale Temperatur-Historien: die kombinierte CRU-Hadley-Aufzeichnung (HadCRU), die NASA-GISS-Aufzeichnung (GISTEMP) und die NOAA-Aufzeichnung. Alle drei globalen Mittel hängen vom gleichen zugrunde liegenden Datenarchiv ab, dem Global Historical Climatology Network (GHCN). Infolge dieser Abhängigkeit vom GHCN werden die Qualitäts-Defizite auch die Qualität aller abgeleiteten Produkte beeinträchtigen.

Die Anzahl von Wetterstationen, die zum GHCN beitragen, erfuhren 1990 und dann noch einmal 2005 einen scharfen Rückgang. Die Stichprobenmenge ist seit dem Spitzenwert Anfang der siebziger Jahre um 75% gesunken und ist jetzt kleiner als zu jedweder Zeit seit 1919“.



Zunehmender Bias durch Aufstellung an Flughäfen:

Der Kollaps der Stichprobenmenge hat den relativen Anteil von Daten, die von Flughäfen stammen, um etwa 50% zunehmen lassen (von etwa 30% in den siebziger Jahren). … Die Änderung der Menge war hinsichtlich des Typus‘ der Quelle nicht ausgewogen. So wurde die Stichprobenmenge zu Flughafen-Bedingungen hin verzerrt. Die GHCN-Daten hatten schon immer ein Übergewicht von Flughäfen, welche aus vielen Gründen ungeeignet für das Klima-Monitoring sind. Ein Problem mit Flughäfen besteht darin, dass sie oftmals nahe urbanen Plätzen liegen, die während der letzten paar Jahrzehnte gebaut worden waren, und die Zunahme des Luftverkehrs hat dazu geführt, dass Verkehr, Versieglung von Flächen, Gebäude und Abwärme zugenommen haben. Diese Einflüsse sind allesamt nur schwer aus den Temperaturaufzeichnungen zu entfernen. … Im globalen Maßstab kamen im Jahre 2009 49% aller GHCN-Daten von Flughäfen (NH 46%, SH 59%). Ende der zwanziger Jahre waren es lediglich etwas über 20%“. McKitrick, 2010

Tom Karl von der NOAA hegte einst Bedenken hinsichtlich des Warm-Bias von Flughäfen und Städten.

Ende der achtziger Jahre dachte man, dass der Warm-Bias von 0,1°C bis 0,4°C aufgrund der Thermometer-Aufstellung auf Flughäfen oder in urbanen Gebieten die globalen Temperatursätze ernsthaft beeinträchtigen würde mit einem „substantiellen Anteil am Gesamt-Trend globaler und regionaler Temperaturen“, welche diesen Warm-Bias direkt reflektieren. Die „künstliche Erwärmung im Netzwerk der primären Stationen“ ist niemals verschwunden. Heute wird dieser Umstand einfach ignoriert.

Karl and Quayle, 1988

„Karl et al. (1988) haben gezeigt, dass in einigen Städten des Sun Belt [in den westlichen USA] der Temperaturanstieg, der dem Wärmeinsel-Effekt zugeordnet werden kann, bis zu 0,3°C bis 0,4°C pro Dekade beträgt … Die künstliche Erwärmung im Netzwerk der Primärstationen beträgt relativ zu den Daten in der Division Klima fast 0,17°C während der letzten 34 Jahre (seit ~1950). Derartige Trends sind zumindest genau so groß wie jedweder der anderen beobachteten Trends in den USA (Karl 1988) oder auf dem Globus (Jones und Wigley 1987)“.

Karl and Jones, 1989

„Die Ergebnisse zeigen, dass die beiden festlands-basierten Datensätze der Temperatur in den USA über das 20. Jahrhundert (1901 bis 1984) einen urbanen Bias von +0,1°C bis +0,4°C aufweisen. … Gegenwärtig können nur grobe Schätzungen der potentiellen Auswirkungen der Verstädterung angegeben werden. Dies enthält einen urbanen Bias in den Daten von Hansen und Lebedeff (1987; NASA), der über die USA zwischen 0,3°C und 0.4°C im 20. Jahrhundert liegt. Dieser Wert ist größer als der Trend insgesamt in den USA während dieses Zeitraumes. … Unseres Wissens nach sind die USA das einzige große Gebiet, in welchem die Größenordnung dieses Bias‘ sorgfältig untersucht worden ist.

Es stellte sich heraus, dass die Größenordnung dieses urbanen Bias‘ in den beiden landbasierten Datensätzen einen substantiellen Anteil beiträgt zu dem Gesamttrend der globalen und regionalen Temperaturen“.

Kukla, Gavin, and Karl, 1986

In städtischer Umgebung liegende Stationen in Nordamerika erwärmten sich zwischen 1941 und 1980 im Vergleich zu ländlichen Stationen (Abkühlung) mit einer mittleren Rate von etwa 0,12C pro Dekade. Säkulare Trends der Lufttemperatur, die vorherrschend aus urbanen Stationsdaten berechnet werden, haben sehr wahrscheinlich einen starken Warm-Bias. … Wir verglichen Trends der 34 städtischen/ländlichen Stationspaare … wobei die städtischen Stationen im Vergleich zur freien Landschaft während fast des gesamten Jahres eine Erwärmung zeigen.

Die jährliche mittlere Differenz zwischen den Trends beträgt etwa +0,11°C pro Dekade (nicht-klimatische Erwärmung infolge der Nähe zur Stadt). … Die mittlere Differenz zwischen Trends (zwischen urbaner bzw. ländlicher Umgebung) summieren sich zu einer jährlichen Erwärmungsrate von 0,34°C pro Dekade. … Der Grund für die merklich höhere Erwärmungsrate (könnte sein), dass die Rate nach den fünfziger Jahren zugenommen hat, entsprechend dem jüngsten starken Wachstum in der Umgebung von Flughäfen. … Unser Ergebnisse sowie auch diejenigen anderer Autoren zeigen, dass die Inhomogenität durch urbanes Wachstum erheblich ist und berücksichtigt werden muss, wenn man die Zuverlässigkeit von Temperaturaufzeichnungen abschätzt“.

Zunehmender Bias an Tiefland-Stationen

Die stetige Zunahme (der mittleren Seehöhe von Temperaturstationen seit den achtziger Jahren) ist konsistent mit einer Verlagerung der Stationen des Netzwerkes weiter landeinwärts, ebenso wie einer zunehmenden Zahl von Stationen in den Bergen. Der Kollaps der Messpunkte im Jahre 1990 ist eindeutig sichtbar als ein drastischer Rückgang nicht nur der Anzahl, sondern auch der Seehöhe. Dies impliziert, dass abgelegene Stationen in größerer Höhe aufgegeben wurden zugunsten von Messpunkten in Tälern und an küstennahen urbanen Stellen. Dies geschah ein zweites Mal im Jahre 2005. Nun tendieren Stellen mit geringer Höhe über dem Meeresspiegel dazu, mehr von Landwirtschaft, Verstädterung und anderen Modifikationen der Landschaft betroffen zu sein. Dieser Vorgang, eine gleichbleibende Seehöhe der Messpunkte, verletzt die statistische Kontinuität. … GHCN hat immer mehr Messpunkte in höher gelegenen Gebieten aufgegeben (z. B. in Richtung der Pole) zugunsten von tiefer gelegenen Stationen. Wenn alle anderen Umstände gleich bleiben, impliziert dies, dass immer weniger Daten aus entfernt liegenden, kalten Regionen und mehr aus bewohnten, wärmeren Regionen eingehen“. McKitrick, 2010

Die Ergebnisse: eine künstliche Erwärmung des Festlandes seit 1980:


NOAA Global Land vs. Sea 

HadCRUT Land vs. Ocean Temperature Anomalies

Die NOAA fügt seit 1998 0,3°C Erwärmung (relativ zu Satelliten) hinzu

Jüngst wurde die Studie von Karl et al. (2015), das „Pause-Buster“-Paper, erneut signifikanter Kritik unterzogen durch einen anderen ehemaligen NOAA-Wissenschaftler (Tom Karl war im Jahr 2015 der Direktor der NOAA) aufgrund von Vorwürfen, dass es politischer Druck war, die Studie vor der Pariser Klimakonferenz im Dezember 2015 an die Presse zu leiten ohne die vorschriftsmäßigen Qualitäts-Checks. Der Grund dafür war offensichtlich: Falls man den unbequemen Stillstand der globalen Erwärmung, über den im IPCC-Bericht 2013 berichtet worden war, eliminieren könnte, wäre dies ein bedeutender Vorgang, der die Regierungschefs zu Versprechungen ermutigen könnte, CO2-Emissionen zu reduzieren. Unglücklicherweise sind die zur Berechnung des neuen Trends herangezogenen Temperaturdaten in der NOAA-Veröffentlichung „verloren gegangen“ aufgrund eines schadhaften Computers, der „vollständig abgestürzt“ sei, so dass es kaum die Chance gibt die Studie einer unabhängigen Replikation oder Verifikation zu unterziehen.

Seitdem hat die New York Times eine Verteidigung der NOAA-Kontroverse ausgegeben mit der Behauptung, dass der Trend von 1998 bis 2014 von Karl et al. (2015) durch andere Wissenschaftler unabhängig verifiziert worden sei, ebenso wie durch Satellitendaten, die zeigen, dass der Trend von +0,11°C pro Dekade (+0,2°C insgesamt) zwischen 1998 und 2014 in allen Datensätzen konsistent war.

Diese Behauptung ist natürlich Unsinn. Mittels der verfügbaren Rohdaten und dem WoodForTrees interactive tool erkennt man, dass die Trend-Diskrepanz für den betrachteten Zeitraum 1998 bis 2014 fast 0,3°C beträgt, wenn man den jüngst erzeugten NOAA-Trend mit Satellitendaten (RSS) vergleicht. Es gibt sogar eine Differenz von 0,5°C zwischen den Endpunkten der Trendlinien von NOAA/NASA GISS sowie RSS (Dezember 2014). Die aus den Satellitendaten hervorgehende Abkühlung von -0,1°C wurde von Karl et al. (2015) in eine Erwärmung von +0,2°C umgewandelt. Fast augenblicklich nach deren Veröffentlichung wurde der neue Erwärmungstrend 1998 bis 2014 von der NASA und HadCRUT gleichermaßen akzeptiert, was dazu führte, dass alle drei Datensätzen jetzt eine signifikante Erwärmung zeigen, während sich zuvor ein Stillstand, ja sogar eine geringe Abkühlung zeigte.


Source: WoodForTrees

HadCRUT radiert die leichte Abkühlung von 1998 bis 2012 einfach aus mittels Änderung der Versionen

Die Änderung [politisch] unpassender Temperaturtrends gerade rechtzeitig vor einem Ereignis von großer Bedeutung für die internationale Politik und Öffentlichkeit gab es auch früher schon.

Der kombinierte Datensatz von HadCRUT) – welcher den IPCC-Berichten zugrunde liegt – wurde im März 2012 einer Revision von Version 3 zu Version 4 unterzogen. Dies war etwa ein Jahr vor der geplanten Veröffentlichung des jüngsten IPCC-Berichtes erfolgt (2013). Zu jener Zeit (Anfang 2012) war es für das Paradigma ziemlich unbequem, dass sich bei HadCRUT4 zwischen 1998 und 2012 ein leichter Abkühlungstrend zeigte, wie die Graphik unten zeigt (Rohdaten von HadCRUT3 und HadCRUt4 von WoodForTrees).

Graphiken des IPCC, die einen leichten Abkühlungstrend seit 1998 zeigten, wären für diejenigen Politiker inakzeptabel gewesen, die die Dringlichkeit des Kampfes gegen eine gefährliche globale Erwärmung betonen wollten. Also wurden pünktlich zur Ausgabe des IPCC-Berichtes 2013 dem HadCRUT-Trend etwa 0,1°C Erwärmung hinzugefügt. Damit sollte die leichte Abkühlung in etwas transformiert werden, was das IPCC einen „Stillstand“ der Erwärmung nannte. Um den in HadCRUT3 auftretenden leichten Abkühlungstrend zu entfernen, wurden die jüngeren Anomalien in HadCRUT4 erwärmt (um 0,1°C bis 0,2°C), während die Wärme der Vergangenheit (besonders um das Jahr 1998) unangetastet gelassen wurde. Der Effekt war, dass die Gegenwart wärmer und die Vergangenheit kälter gemacht wurden.


Quelle: WoodForTrees

IPCC-Analyse (2013) des „Stillstandes“ der Erwärmung von 1998 bis 2012

Im Zeitraum 1998 bis 2011 zeigen 111 der 114 Klimamodell-Simulationen einen Erwärmungstrend, der größer ist als der beobachtete Trend.

Während des im Jahre 1998 beginnenden 15-jährigen Zeitraumes liegt das Ensemble der HadCRUT4 GMST-Trends unter fast allen von Modellen simulierten Trends.

Fast alle historischen Simulationen der CMIP5-Modelle reproduzieren nicht den beobachteten jüngsten Erwärmungs-Stillstand.

NASA hat seit den neunziger Jahren etwa 0,5°C von der Erwärmung 1880 bis 1950 subtrahiert

Noch im Jahre 1990 war weithin akzeptiert, dass der globale Temperaturtrend, wie er von der NASA angegeben wurde (Hansen und Lebedeff 1987) zwischen 1880 und 1950 einen Anstieg um 0,5°C zeigte.

Pirazzoli, 1990:

Die Untersuchung sehr langer Aufzeichnungen (z. B. Amsterdam von 1682 bis 1930 sowie Brest seit 1807) hat gezeigt, dass es zwischen dem Ende des 19. und Mitte des 20. Jahrhunderts zu einer Beschleunigung von 0,9 mm pro Jahr gekommen war. Da diese Beschleunigung mit der jüngsten Änderung der globalen Temperatur (ein Anstieg um 0,5°C) zwischen 1880 und 1950 korreliert mit weniger bedeutenden Änderungen vor und nach diesem Zeitraum (Jones et al. 1986 sowie Hansen & Lebedeff 1987) und mit einem markanten Abschmelzen von Gletschern der Mittleren Breiten wurde sie interpretiert als korrespondierend mit einem eustatischen Anstieg.

Dieser Anstieg der globalen Temperaturen um 0,5°C zwischen 1880 und 1950 (sowie 0,6°C zwischen 1880 und 1940) erscheint klar in der NASA GISS-Graphik aus dem Jahr 1987:

Schneider, S. H. 1989. The greenhouse effect: Science and policy. Science 243: 771-81.

Heute ist es für die Datensätze der globalen Temperatur von HadCRUT, NASA und NOAA nicht mehr akzeptabel, einen starken Erwärmungstrend während der ersten Hälfte des 20. Jahrhunderts graphisch darzustellen. Grund hierfür waren die CO2-Emissionen, die damals keine Änderungen zeigten und vernachlässigbar waren im Vergleich zu heute während dieser abrupten Erwärmungsperiode, wie hier gezeigt:

Um also die Unbequemlichkeit eines nicht-anthropogenen Erwärmungstrends in modernen Zeiten zu eliminieren, haben die NASA und NOAA die gesamte oder fast die gesamte Erwärmung von 0,5°C zwischen 1880 und 1950 eliminiert. Falls Rohdaten der Temperatur in der Vergangenheit nicht zu dem Narrativ passen, dass menschliche CO2-Emissionen den Klimawandel treiben, müssen die Rohdaten eben verändert werden. Auf diese Weise erhält man das Paradigma am Leben.

NASA GISS graph


Link: http://notrickszone.com/2017/02/13/more-data-manipulation-by-noaa-nasa-hadcrut-cooling-the-past-warming-the-present/
Übersetzt von Chris Frey EIKE




Die versteckten Agenden von Nachhaltigkeits-Illusionen

Genau wie der „gefährliche, vom Menschen verursachte Klimawandel“ reflektiert der Begriff Nachhaltigkeit das geringe Verstehen hinsichtlich grundlegender Prinzipien von Energie, Ökonomie, Ressourcen-Ausbeutung und Produktion – sowie eine Tendenz, Tautologien und theoretische Modelle als eine Alternative zu empfehlen für schon jetzt zu beobachtende Beweise in der realen Welt. Involviert sind auch schlecht informierte Menschen mit guten Absichten, die von gut informierten Aktivisten mit schlechten Absichten in die Irre geführt werden, welche damit eine größere Kontrolle der Regierung über das Leben, die Lebensweise und den Lebensstandard erreichen wollen.

Die allgemeinste Definition lautet, dass wir die Bedürfnisse der gegenwärtigen Generationen nur bis zu einem Ausmaß erfüllen dürfen, damit wir die Fähigkeiten zukünftiger Generationen, deren Bedürfnisse zu erfüllen, nicht gefährden.

Auf den ersten Blick klingt das logisch und sogar ethisch. Aber es erfordert unmögliche Hellseherei.

Im Jahre 1887, als das Hearthstone House zum ersten Haus wurde, das mit Wasserkraft erleuchtet wurde, konnte und hat niemand vorhergesehen, dass Strom unser Leben dominieren, verbessern und sicherer machen würde auf den unendlich vielfältigen Wegen, wie das heutzutage der Fall ist. Jahrzehnte später hat niemand erwartet, dass Kabel aus reinem Silizium-Fiber Kupferdrähte ersetzen würden.

Niemand prophezeite kleine Mobil-Telefone mit ausgezeichneten digitalen Kameras und größerer Computerleistung als ein Desktop-Computer des Jahres 1990 oder ein 3-D-Drucker oder Tausende Windturbinen verstreut über unsere fruchtbaren [fruited] Ebenen – oder Kadmium, Seltene Erden und andere Rohstoffe, die plötzlich erforderlich sind, um diese technologischen Wunder zu vollbringen.

Die Menschheit ist Tausende Jahre lang nur im Schneckentempo vorangekommen. Nachdem die moderne, auf fossilen Treibstoffen beruhende Ära Fuß gefasst hatte, beschleunigte sich dieses Vorankommen in atemberaubenden Tempo. Heute ist Änderung exponentiell. Als wir von Feuersteinen zu Kupfer, zu Bronze, Eisen, Stahl und darüber hinaus kamen, war der Grund hierfür nicht, dass die Vorräte von Feuersteinen, Kupfer, Zinn und so weiter erschöpft gewesen wären. Sondern wir taten es mit Innovation – indem wir etwas besseres, effizienteres oder praktischeres erfanden. Jeder Fortschritt erforderte unterschiedliche Rohstoffe.

Wer kann heute vorhersahen, über welche Technologien zukünftige Generationen in 25, 50 oder 200 Jahren verfügen werden? Welche Rohstoffe werden sie brauchen? Wie können wir heute vermeintlich sicherstellen, dass jene Familien ihre Bedürfnisse decken können?

Warum sollten wir darum auch nur daran denken, die Regierung zu ermächtigen, die heutigen Aktivitäten Vorschriften zu unterwerfen, die auf völlig unvorhersagbaren Technologien, Lebensweisen und Bedarf an Rohstoffen ferner Generationen in der Zukunft beruhen? Warum sollten wir die Bedürfnisse heutiger Generationen ignorieren oder beschneiden, um jenen völlig unvorhersagbaren zukünftigen Bedürfnissen zu genügen – einschließlich der Bedürfnisse der heutigen ärmsten, unterernährten Menschen ohne Zugang zu Strom, die verzweifelt nach einem besseren Leben streben?

Außerdem werden uns die Ressourcen in absehbarer Zeit längst nicht ausgehen. Ein 1 Kilometer langes Fiberglas-Kabel aus 45 Pfund Silizium (dem auf der Erde am meisten vorhandenen Element) überträgt tausendfach mehr Informationen als ein gleich langes RG-6-Kabel aus 3600 Pfund Kupfer, was die Nachfrage nach Kupfer zurückgehen lässt.

Im Jahre 1947 beliefen sich die nachgewiesenen Ölreserven der Erde auf 47 Milliarden Barrel. Während der nachfolgenden 70 Jahre verbrauchten wir hunderte Milliarden Barrel – und dennoch hatten wir im Jahre 2016 mindestens 2800 Milliarden Barrel Ölreserven, darunter Ölsande, Schieferöl und andere unkonventionelle Lagerstätten: mindestens noch ein Jahrhundert lang, dazu überreichlich Erdgas. Fortwährend sich verbessernde Technologien lassen uns jetzt Öl und Erdgas aus Lagerstätten finden und erzeugen, die wir noch vor ein paar Jahrzehnten nicht einmal erkennen, geschweige denn ausbeuten konnten.

Das Nachhaltigkeits-Dogma rankt sich um Hass auf fossile Treibstoffe und die Entschlossenheit, die Welt von diesen Stoffen zu befreien, ohne jede Rücksicht auf jedwede sozialen, ökonomischen oder umweltlichen Kosten. Und wir sehen häufig, dass vermeintlich grüne, ökofreundliche und nachhaltige Alternativen häufig genau das nicht sind.

Die [gesetzlichen] Äthanol-Quoten in den USA verbrauchen 40% der Maisvorräte der Nation, Ackerland von der Größe Iowas, Milliarden Gallonen Wasser und riesige Mengen von Pestiziden, Dünger, Treibstoff für Traktoren und Erdgas, um Energie zu erzeugen, welche die Preise für Nahrungsmittel in die Höhe treibt, kleine Motoren schädigt und ein Drittel weniger Kilometer-Leistung pro Gallone [= ca. 4 Liter] als Benzin bringt.

Stark subventionierte Windenergie erfordert mit fossilen Treibstoffen betriebene Generatoren im Standby-Modus, ultralange Fernleitungen und folglich Millionen Tonnen Beton, Stahl, Kupfer, seltene Erden und Fiberglas. Die Turbinen führen zu chronischen Gesundheitsproblemen bei Anwohnern und töten Millionen Vögel und Fledermäuse – nur um zeitweilig völlig unzuverlässigen Strom zu erzeugen, der bis zu 250% mehr kostet als kohlebasierter Strom.

Mit all dem erzeugten die 3500 gigantischen Windturbinen in UK an einem heißen, trockenen Augusttag gerade mal 12 Megawatt Strom: das waren 0,032% der 38.000 Megawatt, welche das Land zu jener Zeit verbrauchte.

UK subventioniert auch viele riesige anaerobic digesters, dazu ausersehen, tierischen Dung und andere landwirtschaftliche Abfälle in ökofreundliches Methan umzuwandeln, welches dann zur Stromerzeugung genutzt wird. Aber es gibt viel zu wenig landwirtschaftliche Abfälle. Also werden die Behälter mit Mais, Gras und Roggen befüllt, welcher auf 130.000 Acres (etwa viermal die Größe von Washington D.C.) angebaut wird und enorme Mengen Wasser und Dünger benötigt – und natürlich Dieselkraftstoff, um die Ernten anzubauen, zu ernten und zu den Behältern transportieren. Warum bohrt oder frackt man nicht einfach nach Erdgas?

Dies führt uns zu der politischen Arena mit ihrer zyklischen, dehnbaren und unendlich elastischen Terminologie – also das perfekte Werkzeug für Aktivisten. Was auch immer sie stützen ist nachhaltig; gegen was auch immer sie opponieren ist nicht nachhaltig; und welche Mantras oder vorsorgliche Maßnahmen sie vorschlagen – jedes Einzelne verleiht ihnen mehr Macht und Kontrolle.

Der Club of Rome trachtete danach, eine neue Bewegung ins Leben zu rufen, indem er „einen gemeinsamen Feind kreierte, vor dem wir uns vereinigen können“ – vermeintlich bevor stehende Katastrophen „verursacht durch menschliche Eingriffe in natürliche Prozesse“ sowie die Erfordernis „geänderter Haltung und Verhalten“, um globales Unheil zu vermeiden: globale Erwärmung und Ressourcen-Erschöpfung.

„Die Schaffung einer umweltlich nachhaltigen Zukunft erfordert Einschränkung der globalen Ökonomie, eine dramatische Veränderung der Vermehrung der Menschen sowie die Änderung von Werten und Lebensarten“, sagte der Gründer des Worldwatch Institute Lester Brown. „Um dies schnell zu erreichen, ist nichts Geringeres notwendig als eine Revolution“.

„Der gegenwärtige Lebensstil und Verbrauchsraten der wohlhabenden Mittelklasse – darunter hoher Fleischkonsum, der Verbrauch fossiler Treibstoffe, Elektrogeräte, Air Conditioning im Büro und zu hause sowie Wohnen in Vororten – ist nicht nachhaltig“, erklärte der kanadische Ur-Umweltaktivist Maurice Strong.

„Kleinere Änderungen der Politik, moderate Verbesserung von Gesetzen und Vorschriften anstelle einer echten Änderung“, sagte der ehemalige Vizepräsident Al Gore, „sind alles Formen der Besänftigung, dazu gedacht, die Öffentlichkeit dazu zu bringen zu glauben, dass Opfer, Mühen und eine die Öffentlichkeit zerreißende Transformation der Gesellschaft nicht erforderlich sein werden“. Der Umweltaktivist Daniel Sitarz stimmte dem mit den Worten zu: „Die Agenda 21 bietet eine Vielfalt von Maßnahmen mit der Absicht, diese jedem Menschen auf der Erde zu implementieren. Die effektive Durchführung der Agenda 21 wird eine ausgeprägte Umorientierung aller Menschen erforderlich machen; anders als alles, was die Welt bisher erfahren hat“.

Der National Research Council [etwa: Nationaler Forschungsrat] deklamierte in einem Report aus dem Jahr 2011: „Nachhaltige Entwicklung wirft Fragen auf, denen nicht vollständig oder direkt in der US-Politik oder in den US-Gesetzen Rechnung getragen wird, einschließlich der Frage, wie man nicht nachhaltige Produktion und Verbrauch definieren und kontrollieren kann und wie man die Entwicklung nachhaltiger Gemeinden, Erhaltung der Biodiversität, saubere Energie und umweltlich nachhaltige ökonomische Entwicklungen sowie die Kontrolle des Klimawandels fördern kann“. Tatsächlich, sagte Obamas Wissenschaftsberater John Holdren, können wir nicht einmal über Nachhaltigkeit sprechen, ohne über Politik, Macht und Kontrolle zu sprechen. Besonders Kontrolle!

Natürlich fühlen diese Aktivisten, Politiker und Vorschriftengeber kaum Beschwerden, erfreuen sie sich doch an Geldern und Vergünstigungen, für die Steuerzahler und Stiftungen aufkommen. Sie fliegen zu UN- und anderen Konferenzen und logieren dabei in Fünf-Sterne-Hotels auf der ganzen Welt – und implementieren Agenden, die das Leben anderer Menschen kontrollieren, umkrempeln und transformieren.

Es sind wir, die Regierten – vor allem die Arbeiterklasse und arme Bürger – welche den Preis zahlen, wobei die ärmsten Familien der Welt den höchsten Preis zahlen. Wir können nur hoffen, dass die Trump-Regierung und der Kongress nachhaltige Entwicklung abbricht und nicht mehr finanziert – das alter ego des katastrophalen, vom Menschen verursachten Klimawandels.

https://www.cfact.org/2017/02/09/the-hidden-agendas-of-sustainability-illusions/
Übersetzt von Chris Frey EIKE