https://x.com/cohler/status/2045615260443279694
Zusammenfassung meines Vortrags auf der ICCC16 am 8. April 2026.

John Cohler bei seinem Vortrag Heartland Climate Conference April 2026
Die dieser Analyse zugrunde liegenden Dokumente sind unter
http://papers.jcohler.com verfügbar.
Seit fast vier Jahrzehnten wird der Welt eine Geschichte erzählt: Die Erde erwärmt sich in alarmierendem Tempo, der Mensch ist dafür verantwortlich, indem er fossile Brennstoffe verbrennt, und wenn wir nicht Billionen von Dollar investieren, um dies zu verhindern, droht eine Katastrophe. Regierungen haben ihre Wirtschaften auf diese Geschichte ausgerichtet. Kinder wachsen mit Angst davor auf. Wissenschaftler, die sie hinterfragen, werden ausgegrenzt.
Es gibt da nur ein Problem. Die wissenschaftliche Grundlage dieser Argumentation – jede einzelne Zahl, die der IPCC verwendet – ist physikalisch bedeutungslos. Nicht unsicher. Nicht diskutabel. Physikalisch bedeutungslos, genauso wie der Durchschnitt aller Telefonnummern in Washington, D.C., bedeutungslos ist. Man kann ihn berechnen. Die Rechnung stimmt. Aber das Ergebnis sagt absolut nichts über die Realität aus.
Das ist keine abwegige Behauptung. Es handelt sich um einen mathematischen und physikalischen Beweis, der auf wissenschaftlichen Artikeln und den Grundprinzipien der Thermodynamik basiert. Und wenn man es einmal erkannt hat, kann man es nicht mehr ignorieren.
Die erste Lüge: Eine Temperatur, die nicht existiert
Alles beginnt mit der globalen mittleren Oberflächentemperatur (GMST). Diese eine Zahl – üblicherweise als Abweichung vom vorindustriellen Niveau angegeben – bildet die Grundlage der gesamten IPCC-Studie. Wenn Sie hören, dass sich die Erde seit der industriellen Revolution um 1,2 Grad erwärmt hat, sprechen Sie von der GMST. Wenn Klimamodelle eine Erwärmung von 2, 3 oder 4 Grad bis zum Jahr 2100 prognostizieren, beziehen sie sich auf Veränderungen der GMST. Wenn das Pariser Abkommen eine Obergrenze von 1,5 Grad festlegt, ist dies eine Obergrenze für die GMST.
Was genau ist GMST? Hier beginnt die Geschichte sich zu entwirren.
Temperatur ist in der Physik eine sogenannte intensive Größe. Das bedeutet, sie beschreibt den Zustand eines spezifischen physikalischen Systems – eines Systems mit Grenzen, das sich im oder nahe am thermischen Gleichgewicht befindet und dessen Zustandsgleichung eindeutig definiert ist. Man kann sinnvoll über die Temperatur einer Tasse Kaffee, eines Zimmers oder des Ozeans in einer bestimmten Tiefe sprechen, da es sich dabei jeweils um ein definiertes physikalisches System handelt. Was man jedoch nicht tun kann, ohne die Gesetze der Thermodynamik zu verletzen, ist, Temperaturen von Systemen zu addieren, die nicht in thermischem Kontakt miteinander stehen, und das Ergebnis als „Temperatur“ zu bezeichnen.
Die Erdoberfläche ist kein thermodynamisches System. Sie ist ein Flickenteppich aus Tausenden von lokalen Systemen – Wüsten und Regenwäldern, polaren Eisschilden und tropischen Ozeanen, Berggipfeln und Talsohlen –, von denen keines mit den anderen im thermischen Gleichgewicht steht. Die Mittelung ihrer Temperaturen ergibt zwar einen Wert. Dieser Wert ist aber keine Temperatur im physikalisch sinnvollen Sinne. Er unterliegt keiner Zustandsgleichung. Es gibt kein physikalisches Gesetz, das ihn mit irgendetwas verknüpft. Wie der Physiker Christopher Essex und seine Kollegen in einer Veröffentlichung aus dem Jahr 2007 überzeugend darlegten, ist er schlichtweg keine Temperatur.
The Emperor Has No Clothes: How the IPCC Built a 38-Year Climate Empire on a Circle of Lies
Summary of my talk at ICCC16 on April 8, 2026.
The papers underlying this analysis are available at https://t.co/ym4Iv7EjWR.For nearly four decades, the world has been told a story. The… https://t.co/EwuAzclQxL
— Jonathan Cohler (@cohler) April 18, 2026
Das ist keine bloße Formalität. Es handelt sich um einen Kategorienfehler, der in jedem anderen Wissenschaftsbereich ein Forschungsprogramm sofort beenden würde. Intensive Eigenschaften über Nichtgleichgewichtssysteme hinweg zu mitteln, ist so, als würde man die Postleitzahlen aller Einwohner New Yorks mitteln und das Ergebnis dann als Wegbeschreibung verwenden. Die Rechnung liefert eine Zahl. Diese Zahl ist bedeutungslos.
Die Internationale Organisation für Normung (ISO) erkannte dies bereits vor Jahrzehnten implizit an. 2002 wurde die ISO beauftragt, alle wichtigen Begriffe im Zusammenhang mit dem Klimawandel zu definieren – und bis heute fehlt der Begriff „globale Durchschnittstemperatur“ in den finalen Definitionen. Diese Auslassung ist kein Versehen. Der Auftrag der ISO erfordert messtechnische Genauigkeit, und der Begriff „globale Durchschnittstemperatur“ kann diesen Anforderungen nicht gerecht werden.
Weder der IPCC noch irgendeine andere Klimabehörde hat jemals eine präzise physikalische Definition der globalen mittleren Oberflächentemperatur (GMST) vorgelegt. Sie verwenden den Begriff ständig – er taucht in praktisch jedem Kapitel des Sechsten Sachstandsberichts des IPCC auf –, aber sie haben nie definiert, welche physikalische Größe er repräsentiert, weil eine solche Definition nicht möglich ist.
Die zweite Lüge: Modelle, die auf nichts basieren
Wenn GMST physikalisch bedeutungslos ist, was leisten dann die Klimamodelle des IPCC eigentlich?
Die Antwort ist unbequem. Jedes der vom IPCC verwendeten wichtigen Klimamodelle – das Ensemble CMIP (Coupled Model Intercomparison Project) – ist darauf ausgelegt, historische Trends der mittleren globalen Oberflächentemperatur (GMST) zu reproduzieren. Diese Modelle verfügen über Hunderte von anpassbaren Parametern, die so eingestellt werden, dass die Modellausgabe mit den beobachteten GMST-Daten übereinstimmt. Diesen Vorgang nennt man Validierung: Man passt das Modell so lange an, bis es zu den Daten passt, und erklärt es dann anhand der Beobachtungen für validiert.
Wenn die globale mittlere Oberflächentemperatur (GMST) jedoch keine physikalisch sinnvolle Größe darstellt, ist die Anpassung eines Modells an ihre Reproduktion keine Validierung. Es handelt sich vielmehr um eine Kurvenanpassung an eine Zahl ohne physikalischen Gehalt. Das Modell lernt, ein mathematisches Artefakt abzubilden, nicht die physikalische Realität. Und da es sich um gekoppelte globale Zirkulationsmodelle handelt – in denen die Temperatur mit Niederschlag, Wind, Meeresströmungen, Meereis und Dutzenden weiterer Variablen interagiert –, breitet sich diese Verfälschung überall aus. Jede vom Modell erzeugte Projektion erbt für jede Variable die ursprüngliche Bedeutungslosigkeit.
Die Auswirkungen sind erschreckend. Jede Temperaturprognose. Jede Meeresspiegelprognose. Jede Prognose extremer Wetterereignisse. Jede CO₂-Bilanz. Jede Berechnung der verbleibenden Emissionen. All das basiert auf Modellen, die anhand einer physikalisch nicht existierenden Größe validiert wurden.
Die dritte Lüge: Ein Ozean, der nie vermessen wurde
Da die Aufzeichnungen der Oberflächentemperatur umstritten und unzuverlässig waren, entwickelte der IPCC eine zweite Beweiskette: den Wärmeinhalt der Ozeane (OHC). Die Argumentation war einfach: Wenn die Erde durch den Treibhauseffekt Energie speichert, muss diese Energie irgendwohin fließen, und der größte Teil davon sollte in die Ozeane gelangen. Misst man den Wärmeinhalt der Ozeane über einen längeren Zeitraum, erhält man ein direktes Maß für das Energieungleichgewicht der Erde.
Dieses Argument klingt überzeugend. Es basiert auf dem Programm Argo – einem Netzwerk von rund 4.400 Roboterbojen, die in den Weltmeeren verteilt sind. Jede Boje taucht bis zu 2.000 Meter tief und steigt alle zehn Tage wieder an die Oberfläche, wobei sie Temperatur- und Salzgehaltsprofile übermittelt. Argo ist eine echte wissenschaftliche Leistung, ein technisches Meisterwerk, das eine enorme Menge wertvoller ozeanografischer Daten geliefert hat.
Laut den Gründungsdokumenten von 1998 war Argo ursprünglich für Folgendes konzipiert: die Beobachtung des sich verändernden physikalischen Zustands der oberen Ozeanschichten, die Erfassung regionaler Wärme- und Salzgehaltsmuster, die Unterstützung der Wettervorhersage und die Ergänzung von Satellitenaltimetern. Der globale Wärmegehalt der Ozeane und das Energieungleichgewicht der Erde werden nirgends erwähnt. Das Programm war nicht für diesen Zweck gedacht und ist dafür grundlegend ungeeignet.
Das Problem beginnt mit grundlegenden physikalischen Prinzipien. Wenn eine Argo-Boje innerhalb von sechs bis zehn Stunden von 2.000 Metern Tiefe zur Oberfläche aufsteigt, sammelt sie dabei etwa 1.000 Temperaturmessungen. Die Boje driftet jedoch die ganze Zeit. Bis sie auftaucht und per Satellit Daten sendet, kann sie sich bis zu 50 Kilometer von der Stelle entfernt befinden, an der die tiefsten Messungen durchgeführt wurden. Diese Messungen werden alle der GPS-Position an der Oberfläche zugeordnet – dem einzigen tatsächlich bekannten Standort. Die tatsächliche Unterwasserbahn ist völlig unbekannt. Jeder einzelne Datenpunkt unter Wasser wird dem falschen Standort zugeordnet.
Dann beginnt die Interpolation. Die 12.000 monatlichen Messwerte – die bereits räumlich falsch zugeordnet sind – werden verwendet, um 45.000 dreidimensionale Gitterzellen zu füllen, die den globalen Ozean abdecken. Der größte Teil des Ozeans wird gar nicht gemessen, sondern berechnet. Polargebiete, Küstenzonen und Randmeere werden weitgehend ausgeschlossen. Etwa die Hälfte des gesamten Ozeanvolumens, einschließlich aller Wassermassen unterhalb von 2.000 Metern, wird schlichtweg ignoriert. Die Berechnungen verwenden Korrelationsfunktionen, die Messwerte von Wassermassen vermischen, die Hunderte oder sogar Tausende von Kilometern voneinander entfernt liegen, und so jegliche lokale Information zerstören, die die Messbojen tatsächlich erfasst haben.
Die aus diesem Prozess berechneten Anomalien – die Abweichungen von einem historischen Referenzwert – stoßen dann auf dasselbe grundlegende physikalische Problem wie GMST. Temperatur ist eine intensive Größe. Man kann Temperaturanomalien nicht sinnvoll über Nichtgleichgewichtsvolumina des Ozeans mitteln, genauso wenig wie über die Erdoberfläche. Der resultierende Wert hat zwar eine Einheit und die Berechnung ist korrekt, aber er repräsentiert keine physikalische Realität.
Wenn alle relevanten Unsicherheitsquellen – nicht erfasste Trajektorien, Interpolationsfehler, unzureichende Kenntnisse über die Tiefsee, Lücken in den Polargebieten und uneinheitliche Messrahmen – korrekt quantifiziert werden, beträgt die tatsächliche Unsicherheit des abgeleiteten Wertes für das Energieungleichgewicht der Erde mehr als ± 1 Watt pro Quadratmeter bei einer Wahrscheinlichkeit von 95 %. Der sechste Sachstandsbericht des IPCC gibt sie mit 0,7 ± 0,2 Watt pro Quadratmeter an. Die tatsächliche Unsicherheit ist etwa fünfmal größer als das gemessene Signal. Das Ergebnis ist statistisch nicht von null zu unterscheiden.
Die vierte Lüge: Satelliten wurden an die Fiktion angepasst
Der IPCC präsentiert seine Daten zum Wärmegehalt der Ozeane und seine satellitengestützten Daten zum Energieungleichgewicht als zwei unabhängige, übereinstimmende Beweisketten. Diese Übereinstimmung wird als starke Bestätigung dafür angeführt, dass die Erde Energie in dem behaupteten Ausmaß speichert.
Was der IPCC nicht prominent in den Vordergrund rückt, ist, wie diese Einigung zustande kam.
Die CERES-Instrumente der NASA – Satelliten zur Messung der Strahlungsbilanz am oberen Rand der Atmosphäre – liefern Rohmesswerte mit einer absoluten Unsicherheit von etwa drei bis fünf Watt pro Quadratmeter. Das vom IPCC angegebene Messsignal beträgt 0,7 Watt pro Quadratmeter. Die Satelliten allein können diese Größe nicht bestimmen.
Was wurde also getan? Die CERES-Daten wurden – mittels einer Methode der kleinsten Quadrate – angepasst, um eine Übereinstimmung mit der aus Argo-Daten abgeleiteten Schätzung des Wärmegehalts der Ozeane zu erzielen. Die Dokumentation des IPCC-Berichts AR6 bestätigt dies ausdrücklich: Die CERES-Flüsse „wurden innerhalb der geschätzten Unsicherheiten angepasst, um sicherzustellen, dass der Nettofluss an der Obergrenze der Atmosphäre mit der auf Basis von Messungen des Wärmegehalts der Ozeane geschätzten Energiebilanz der Erde übereinstimmt.“
Anders ausgedrückt: Sie haben die Satelliten so ausgerichtet, dass sie mit den Driftbojen übereinstimmten, und diese Übereinstimmung dann als unabhängige Bestätigung angeführt. Das ist keine Wissenschaft. Das ist ein Zirkelschluss mit unnötigen Umwegen.
Dieses Verhalten ist im IPCC-Ökosystem nicht beispiellos. Kevin Trenberth, einer der Architekten des Modells zur Berechnung des Wärmegehalts der Ozeane, schrieb in einer mittlerweile berüchtigten E-Mail aus dem Jahr 2009, die durch die ClimateGate-Enthüllungen ans Licht kam: „Tatsache ist, dass wir die derzeit ausbleibende Erwärmung nicht erklären können, und es ist eine Farce, dass wir es nicht können. Die im August veröffentlichten CERES-Daten zeigen, dass es eigentlich noch stärkere Erwärmung geben müsste: aber die Daten sind mit Sicherheit falsch.“ Wenn die Satellitendaten nicht mit den Modellen übereinstimmen, gelten die Satelliten als falsch. Wenn die Satellitendaten so angepasst werden, dass sie übereinstimmen, wird diese Übereinstimmung als Bestätigung angeführt. Das System ist von vornherein manipuliert.
Die fünfte Lüge: Der CO-Fingerabdruck ₂ , der nie existierte
Die letzte Säule der IPCC-Argumentation ist die Zuordnung des Kohlendioxids. Zwar ist der CO₂-Gehalt ₂ in der Atmosphäre gestiegen, und menschliche Industrieaktivitäten emittieren CO₂ ₂ . Doch der IPCC geht noch weiter und behauptet, der Anstieg des atmosphärischen CO₂ ₂ sei fast ausschließlich anthropogen bedingt – natürliche Prozesse könnten ihn nicht erklären, und die Isotopenzusammensetzung des atmosphärischen CO₂ ₂ liefere einen eindeutigen menschlichen Fingerabdruck.
Diese Behauptung stützt sich auf das Berner Modell, ein mathematisches Modell, das die CO₂-Verteilung ₂ zwischen Atmosphäre und natürlichen Speichern beschreibt. Das Berner Modell weist eine besonders alarmierende Eigenschaft auf: Es prognostiziert, dass ein erheblicher Anteil des heute emittierten CO₂ ₂ Jahrhunderte oder Jahrtausende in der Atmosphäre verbleiben wird. Der fünfte Sachstandsbericht des IPCC (AR5) besagt, dass 15 bis 40 Prozent des emittierten CO₂ ₂ über tausend Jahre in der Atmosphäre verbleiben werden. Dies ist die Grundlage für CO₂-Budgets und Klimaneutralitätsziele.
Das Berner Modell wurde durch Beweise widerlegt, die seit sechzig Jahren offenkundig waren.
Als die atmosphärischen Atomtests Anfang der 1960er Jahre ihren Höhepunkt erreichten, wurde ein massiver Impuls radioaktiven Kohlenstoffs – Atom-14-Kohlenstoff (CO₂) – in die Atmosphäre freigesetzt. Dieser Impuls wird seither kontinuierlich verfolgt. Wäre das Berner Modell korrekt, müsste dieser Impuls langsam abklingen, wobei ein substanzieller permanenter Anteil zurückbliebe. Stattdessen klingt er exponentiell mit einer e-Faltungszeit von etwa siebzehn Jahren ab. Der Atom-14-Kohlenstoff ist verschwunden. Er durchlief das System und wurde innerhalb von etwa einem halben Jahrhundert vollständig absorbiert. Das multi-exponentielle Berner Modell mit seinem permanenten Anteil in der Atmosphäre ist schlichtweg falsch. CO₂ ₂ verbleibt nicht über Jahrtausende in der Atmosphäre. Es durchläuft das System innerhalb von Jahren bis Jahrzehnten.
Die Isotopenanalyse bestätigt dies. Das Kohlenstoffisotopenverhältnis im atmosphärischen CO₂ ₂ – die sogenannte Delta-13C-Größe – nimmt ab, da sich das isotopisch leichtere CO₂ aus fossilen Brennstoffen ₂ mit der Atmosphäre vermischt. Der IPCC wertet diesen Rückgang als eindeutigen Beweis für die menschliche Verursachung.
Eine 2024 von Fachkollegen begutachtete Studie von Prof. Demetris Koutsoyiannis untersuchte die tatsächlichen Isotopendaten eingehend und fand etwas, das mit der gängigen Lehrmeinung nicht vereinbar ist: Die Netto-Isotopensignatur des atmosphärischen Eintrags ist seit der Kleinen Eiszeit im Wesentlichen unverändert geblieben. Der Wert ist stabil geblieben – weltweit, an allen wichtigen Messstationen und während der gesamten Industrialisierungsphase. Ein sich verändernder menschlicher Einfluss müsste sich in einer veränderten Nettosignatur widerspiegeln. Das ist jedoch nicht der Fall. Die Isotopenzusammensetzung ist mit der Dominanz der natürlichen Biosphäre und einem nicht nachweisbaren menschlichen Beitrag vereinbar.
Der Grund dafür ist nicht mysteriös. Die Biosphäre – Pflanzen, Böden, Ozeane – zirkuliert jährlich etwa 25-mal mehr Kohlenstoff als die menschlichen Industrieemissionen. Natürliche Prozesse sind dabei mit Abstand dominant. Menschliche Emissionen stellen lediglich ein Rauschen dar, das einem gewaltigen natürlichen Signal überlagert ist. Und die Temperatur, nicht menschliche Aktivitäten, ist für den größten Teil dieses Signals verantwortlich: Die Erwärmung führt dazu, dass die Biosphäre mehr CO₂ ausstößt ₂ , was die atmosphärischen Konzentrationen erhöht. Die Kausalität verläuft von der Temperatur zum CO₂ ₂ , nicht umgekehrt.
5 x 0 = 0
Treten Sie einen Schritt zurück und betrachten Sie das Gesamtbild.
Die Argumentation des IPCC für eine vom Menschen verursachte Klimakatastrophe stützt sich auf fünf miteinander verknüpfte Indikatoren: die globale mittlere Oberflächentemperatur (GMST), die darauf abgestimmten Klimamodelle, den Wärmeinhalt der Ozeane, das aus der Wärme der Ozeane resultierende Energieungleichgewicht der Erde und die CO₂-Zuordnung ₂ . Jeder dieser Indikatoren wird als unabhängiger Beweis präsentiert. Zusammen bilden sie laut IPCC einen überwältigenden Beweis.
Sie sind jedoch nicht unabhängig. Sie bilden einen Kreis. Die globale mittlere Oberflächentemperatur (GMST) ist physikalisch bedeutungslos. Die Modelle sind auf die GMST abgestimmt und erben deren Bedeutungslosigkeit. Der Wärmegehalt der Ozeane wird durch ein Verfahren berechnet, das gegen die Gesetze der Messphysik verstößt und statistisch nicht von null zu unterscheiden ist. Die Energiebilanz der Erde wird aus dem Wärmegehalt der Ozeane abgeleitet und durch Satelliten bestätigt, die entsprechend justiert wurden. Die Zuordnung von CO ₂ basiert auf einem Modell, das durch Daten aus Atombombenversuchen widerlegt wurde, und einem Isotopen-Fingerabdruck, der in den Beobachtungen nicht existiert.
Jedes Glied der Kette ist von den anderen abhängig. Keines steht für sich allein. Der IPCC nennt dies „mehrere Beweisketten“. Doch fünf mal null ist immer noch null.
Was das bedeutet
Nichts davon beweist, dass sich das Klima nicht verändert oder das menschliche Aktivitäten keinen Einfluss auf die Atmosphäre haben. Das Klima verändert sich kontinuierlich, und das seit Milliarden von Jahren. Es zeigt lediglich, dass die spezifischen Kennzahlen, mit denen der IPCC die Krise quantifiziert – jede Zahl, die die Politik bestimmt, jede Zahl, die die Ausgaben rechtfertigt, jede Prognose, die die Öffentlichkeit verängstigt – auf einem Fundament beruhen, das den Gesetzen der Physik nicht standhält.
Die Internationale Organisation für Normung konnte keine globale Durchschnittstemperatur definieren, da diese den metrologischen Anforderungen nicht genügt. Vier verschiedene KI-Systeme, denen die mathematischen Argumente vorgelegt wurden, kamen unabhängig voneinander zum selben Ergebnis. Der Kaiser ist nackt – und selbst die Werkzeuge, die sein Hof zu seinem Schutz geschaffen hat, erkennen es.
Seit 38 Jahren wurde auf diesen Kennzahlen eine gewaltige wissenschaftliche und politische Infrastruktur aufgebaut. Billionen von Dollar an Ausgaben wurden damit gerechtfertigt. Karrieren, Institutionen und internationale Abkommen hängen von ihnen ab. Sie in Frage zu stellen, wurde als Ketzerei behandelt.
Doch die Physik verhandelt nicht. Eine Zahl ohne physikalische Bedeutung erhält diese nicht, nur weil einflussreiche Personen sie für nützlich halten. Eine Messung, die sich nicht von Null unterscheidet, wird nicht zum Beweis einer Krise, nur weil ein Satellit entsprechend justiert wurde. Ein Modell, das durch sechzig Jahre Atombomben-Kohlenstoffdaten widerlegt wurde, wird nicht gültig, nur weil es zehntausendmal zitiert wurde.
Die Arbeit ist getan. Die Artikel sind veröffentlicht. Die mathematischen Grundlagen stehen jedem zur Verfügung, der sie untersuchen möchte. Die Frage ist nun nicht wissenschaftlicher Natur. Es geht vielmehr darum, ob die Institutionen, die ihre Macht auf diesen Zahlen aufgebaut haben, endlich anerkennen werden, was die Physik ihnen seit jeher zu sagen versucht.
Der Kaiser ist nackt. Das war schon immer so. Und es ist längst überfällig, das auszusprechen.
Der Vortrag „Des Kaisers neue Kleider“ wurde auf der 16. Internationalen Klimakonferenz in Washington DC am 8. und 9. April 2026 gehalten















Wir freuen uns über Ihren Kommentar, bitten aber folgende Regeln zu beachten:
- Bitte geben Sie Ihren Namen an (Benutzerprofil) - Kommentare "von anonym" werden gelöscht.
- Vermeiden Sie Allgemeinplätze, Beleidigungen oder Fäkal- Sprache, es sei denn, dass sie in einem notwendigen Zitat enthalten oder für die Anmerkung wichtig sind. Vermeiden Sie Schmähreden, andauernde Wiederholungen und jede Form von Mißachtung von Gegnern. Auch lange Präsentationen von Amateur-Theorien bitten wir zu vermeiden.
- Bleiben Sie beim Thema des zu kommentierenden Beitrags. Gehen Sie in Diskussionen mit Bloggern anderer Meinung auf deren Argumente ein und weichen Sie nicht durch Eröffnen laufend neuer Themen aus. Beschränken Sie sich auf eine zumutbare Anzahl von Kommentaren pro Zeit. Versuchte Majorisierung unseres Kommentarblogs, wie z.B. durch extrem häufiges Posten, permanente Wiederholungen etc. (Forentrolle) wird von uns mit Sperren beantwortet.
- Sie können anderer Meinung sein, aber vermeiden Sie persönliche Angriffe.
- Drohungen werden ernst genommen und ggf. an die Strafverfolgungsbehörden weitergegeben.
- Spam und Werbung sind im Kommentarbereich nicht erlaubt.
Diese Richtlinien sind sehr allgemein und können nicht jede mögliche Situation abdecken. Nehmen Sie deshalb bitte nicht an, dass das EIKE Management mit Ihnen übereinstimmt oder sonst Ihre Anmerkungen gutheißt. Wir behalten uns jederzeit das Recht vor, Anmerkungen zu filtern oder zu löschen oder zu bestreiten und dies ganz allein nach unserem Gutdünken. Wenn Sie finden, dass Ihre Anmerkung unpassend gefiltert wurde, schicken Sie uns bitte eine Mail über "Über Uns->Kontakt"Ordentliche Quellenangaben wären hilfreich.
Bitte hier nur unter vollem Klarnamen posten, siehe Regeln.
Dann halten Sie sich auch dran, und geben Sie keinen geschlechtslosen Fantasienamen an.
Richtig, wie ist ihr tatsächlicher Name oder sind Sie ein geschlechtsloses KI-Wesen?
Bitte hier nur unter vollem Klarnamen posten, siehe Regeln.
Dann halten Sie sich auch dran, und geben Sie keinen geschlechtslosen Fantasienamen an.
Richtig, wie ist ihr tatsächlicher Name oder sind Sie ein geschlechtsloses KI-Wesen?
Wie der IPCC ein 38-jähriges Klimaimperium auf einem Lügengebäude errichtete
aber wie bringen wir es wieder zu Fall. Zumal in Mitteleuropa zufälligerweise auch 1987 auf 88 ein Klimawandel einsetzte. Er begann mit einem Temperatursprung und der anschließenden angenehmen Weitererwärmung bis heute.
Aber: Die Erwärmung geht nicht mehr weiter. Allein der April stagniert seit 20 Jahren, bei wärmeinselarmen Wettersationen seit 1998!!
Ich fürchte der Zug ist abgefahren. Mehr als 40 Jahre Gehirnwäsche lassen sich nicht in wenigen Jahren korrigieren. Erst müssen noch viel mehr Menschen ihren Wohlstand, ihre Arbeit und vielleicht auch noch ihre Wohnung verlieren um sich davon zu befreien.
Wie der IPCC ein 38-jähriges Klimaimperium auf einem Lügengebäude errichtete.
Schön, aber wie bringen wir es wieder zu Fall?
Es gibt stattdessen viel bessere, korrekte und elegantere Evidenz, die die Klimawissenschaft falsifiziert. Um da drauf zu kommen muss sich aber halt mit der Materie tiefergehend beschäftigen.
Lustiger Weise liefert die „Konsenswissenschaft“ selbst die Daten die sie falsifiziert, und das auch noch auf höchstnotpeinliche Weise. Hier Daten aus dem Anhang von Chung et al 2010. Die Proxydaten sollen ein stark positives Wasserdampf-Feedback beweisen, wobei ein „Planck Feedback“ = 3,6 unterstellt wird. Für das WD-Feedback ergibt sich dann zB. 3,6 – 2,1 = 1,5W/m2.
Der Witz: die Regression ist einfach falsch. Bei stark verrauschten x-Werten ist eine lineare Einfachregression (OLS) nicht zulässig. Das weiß jeder Statistiker, aber kein Klimawissenschafter. Besonders falsch wird das Ergebnis, wenn die numerische Verteilung vertikal ist.
Eine Re-Analyse der Daten zeigt das wunderbar auf. Invertiert man die OLS Regression erhält man Werte ~5W/m2. Sinnvoller hier ist allerdings eine orthogenale Regression (TLS), die dann jedenfalls eine Steigung von weit über 3,6 liefert. Das heißt diese Daten zeigen tatsächlich, dass WD ein stark negatives Feedback ist! Und ja, da fährt der Zug drüber.
Wozu all diese Unwahrheiten?
„Der Atom-14-Kohlenstoff ist verschwunden. Er durchlief das System und wurde innerhalb von etwa einem halben Jahrhundert vollständig absorbiert.“
Nein, wurde es nicht. Zwar ist die C14 Konzentration wieder auf den „natürlichen“ Ausgangswert abgesunken, aber zugleich fiel and fält der C14 Wert eben wegen der anthropogenen Emissionen. Ich habe schon gezeigt, dass man die C14 Kurve (leider) sehr gut mit verschienden Modellannahmen rekonstruieren kann.
Was man sicher sagen kann ist, dass die extrem restrikten Modellannahmen in der RCP Szenarios wo die Atmosphäre mit einem sekundären Reservoir nur doppelter Größe kommunizieren würde, welches dann ebenfalls „voll läuft“, falsch ist. Das zeigen alleine schon die vorindustriellen anthropogenen Emissionen. Viel mehr lässt sich aus diesen Daten vorerst noch nicht ableiten.
https://greenhousedefect.com/basic-greenhouse-defects/co2-sinks-and-the-ocean
Es gibt keine physikalisch plausible Begründung für eine Klimaerwärmung durch ir-anregbare Spurengase. Von daher ist völlig egal wieviel, und wie lange, das „anthropogene“ CO2 in der Atmosphäre verbleibt. Eine Geisterdiskussion mit einer durchgeknallten Klimasekte….
Es ist zweifellos wichtig, die Schwachstellen des Klimakonzeptes immer wieder aufzuzeigen, und hier hat der Artikel von Jonathan Cohler zweifellos seine Verdienste. Umso ärgerlicher, wenn dabei unsinnige Aussagen sich mit sinnvollen mischen.
Cohler ist sich nicht zu schade für die Behauptung, das Mitteln von Temperaturen sei: „Physikalisch bedeutungslos, genauso wie der Durchschnitt aller Telefonnummern in Washington, D.C.“ Dieser Vergleich hinkt nicht nur, er ist geradezu beinamputiert!
Ein Temperaturwert ist eine Maßzahl. Das heißt v.a., man kann sie nach kleiner, gleich oder größer ordnen, und grundsätzlich ist auch das Rechnen damit erlaubt.
Eine Telefonnummer ist etwas vollkommen anderes: es handelt sich um eine reine Codierung. Sie hat kein Maß und ist keine Zahl im eigentlichen Sinne, auch wenn zur Codierung Ziffern verwendet werden. Man könnte statt der Ziffern genau so gut Buchstaben nehmen oder irgendwelche chinesischen Zeichen oder meinetwegen Farbtöne.
Wenn Cohler also meint, mit Telefonnummern rechnen zu können, macht er nicht weniger als einen Kategorienfehler – also genau das, was er dem IPCC vorwirft (Zitat: „Es handelt sich um einen Kategorienfehler, der in jedem anderen Wissenschaftsbereich ein Forschungsprogramm sofort beenden würde.“)!
Diejenigen, die vehement behaupten, die ermittelte Globaltemperatur ist bedeutungslos und lässt keine Aussagen über den energetischen Zustand der Erde zu, können sicher ganz einfach folgende Fragen beantworten:
1. Warum stimmen die Jahreswerte so gut überein? Das klingt trivial, ist aber bei einer
bedeutungslosen Zahl ohne Bindung zur Realität nicht zu erwarten.
2. Wieso wird der Jahresgang der globalen Temperatur (spezifisch für die Wasser- und
Lufttemperaturen) immer wieder korrekt abgebildet, wenn dieser Wert keinen Bezug
zum Energiegehalt des Erdsystems hat? Bei den Meerestemperaturen sind das
Änderungen im Zehntelgrad-Bereich!
3. Warum lassen sich in den globalen Temperaturreihen gut untersuchte Oszillationen
(z.B. ENSO) oder Störungen (Vulkanausbrüche) klar erkennen?
4. Weshalb korreliert der gemessene Temperaturanstieg erstaunlich gut mit dem
Meeresspiegelanstieg?
Ich bin auf die Antworten gespannt. Beste Grüße, Ole
„4. Weshalb korreliert der gemessene Temperaturanstieg erstaunlich gut mit dem
Meeresspiegelanstieg?“
Welchen gemessenen Temperaturanstieg meinen Sie?
Und welchen korrelierenden Meeresspiegelanstieg haben Sie dabei im Blick?
Da die Temperaturzeitreihen gerade in der modernen Ära (seit 1980) kaum voneinander zu unterscheiden sind, dürfen Sie sich eine aussuchen. Egal ob Landmessstellen, Satellitendaten oder Reanalyse-Produkte: Darin sehen Sie immer einen Temperaturanstieg der zum Meerespiegelanstieg (Pegelmessungen oder Satellit) passt. Mittlerweile hat man die jeweiligen Teilursachen für den Anstieg so gut aufgeschlüsselt, dass das Gesamtbudget sehr gut hinkommt. Aber so kompliziert meinten Sie es wahrscheinlich nicht, oder?
Das klingt nach einer sauberen Korrelation, aber bei genauerem Hinsehen vermischen Sie hier ein statistisches „Oberflächentemperatur“-Konstrukt mit einer volumetrischen Energiebilanz.
Dass die Kurven optisch ähnlich verlaufen, heilt nicht die thermodynamischen Mängel des GMST-Konstruktes, der Nicht-Temperatur.
Der Meeresspiegel steigt z.B. unter anderem durch thermische Ausdehnung (sterischer Anstieg). Aber das Wasser dehnt sich nicht wegen der GMST-Statistik aus, sondern wegen der Energieaufnahme in der Tiefe (Ocean Heat Content).
Die GMST ist ein geometrisch flächenmäßiges statistisches Konstrukt aus Oberflächentemperaturen, dem man °C unthermodynamisch anhängt.
Der Meeresspiegel reagiert auf die totale Enthalpie des Ozeans über die gesamte Tiefe.
Dass beide steigen/sinken, zeigt nur, dass Energie ins/aus dem System fließt. Es legitimiert aber nicht die GMST als physikalisch korrekte Messgröße. Eine Korrelation ist keine Kausalität – das eine hängt von der Energiebilanz ab, das andere ist geometrische Statistik.
Wenn Sie von Pegelmessungen sprechen: Wie rechnen Sie die lokale Tektonik und Landabsenkungen (z. B. durch Grundwasserentnahme oder postglaziale Landhebung) heraus?
Viele Pegel zeigen einen Anstieg, der primär auf das Absinken des Landes zurückzuführen ist.
Diese lokalen Effekte mit einem globalen statistischen Temperaturmittelwert-Konstrukt zu korrelieren, ist methodisch gewagt, da man hier geologische Prozesse mit atmosphärischem Rauschen vermengt.
Sie erwähnen Satellitendaten beim Meeresspiegel. Wissen Sie, in welcher Größenordnung wir hier messen?
Wir sprechen von einem Anstieg von ca. 3 mm pro Jahr.
Die Messgenauigkeit der Satelliten (z. B. Jason-Missionen) liegt nach allen Korrekturen (Atmosphäre, Wellengang, Gezeiten) in einem ähnlichen Bereich.
Zwei extrem fehleranfällige, hochgradig prozessierte statistische Konstrukte (GMST und globale Altimetrie) miteinander zu korrelieren und daraus eine physikalische Gewissheit abzuleiten, ist eher ein mathematischer Zirkelschluss als eine thermodynamische Beweisführung.
Dass das „Gesamtbudget“ angeblich so toll hinkommt, liegt oft daran, dass die Parameter so lange angepasst werden (Homogenisierung, Fitting), bis die Modelle die Korrelation widerspiegeln. Modelle passen Modelle an passen Modell an.
Wenn die GMST thermodynamisch keine Bedeutung hat – was sie als statistisches Flächenmittel nicht haben kann – dann ist ihre Korrelation mit dem Meeresspiegel lediglich das gewünschte/beauftragte Indiz damit die Klimatistik weiterhin politisch gepampert wird, oder?
„2. Wieso wird der Jahresgang der globalen Temperatur (spezifisch für die Wasser- und Lufttemperaturen) immer wieder korrekt abgebildet, wenn dieser Wert keinen Bezug zum Energiegehalt des Erdsystems hat? Bei den Meerestemperaturen sind das Änderungen im Zehntelgrad-Bereich!“
Woraus schließen Sie, dass der Jahresgang der sogenannten globalen Temperatur korrekt abgebildet wird? Was meinen Sie mit korrekt abgebildet?
Es gibt einen typischen Verlauf für die Globaltemperaturen übers Jahr. Ich vermute, das haben Sie sich schon mal angesehen. Dieser Verlauf wird jedes Jahr ähnlich durchlaufen und hängt vom Sonnenstand ab. Hätte die gemittelte Globaltemperatur keinen Bezug zur physikalischen Wirklichkeit, wäre dieses Verhalten nicht zu erwarten, sondern eher ausgeschlossen. Verständlich?
Der Jahresgang des statistischen GMST-Konstruktes ist eher eine „geografische Kuriosität“, ein geometrischer Index geprägt durch die zufällige Verteilung der Kontinente.
Er beschreibt lediglich, dass die Nordhalbkugel „kontinentaler“ geprägt ist.
Er ist ein Maß für die saisonalen höheren Temperaturen von Landflächen gegenüber den Ozeanen, nicht für eine globale Erwärmung des Planeten im Halbjahrstakt.
Für die energetische Bilanz des Planeten ist er tatsächlich eher statistisches Rauschen – Unfug.
Man kann sehr viel mit einem statistischen Konstrukt zusammenbauen, der Jahresgang der GMST was soll der beschreiben, wenn schon die GMST keine Temperatur beschreibt, thermodynamisch hat das alles keine Bedeutung, oder?
Hallo Herr Lange, Sie haben mein Argument nicht wirklich verstanden. Wahrscheinlich habe ich es auch nicht gut dargebracht. Ein nächster Versuch: Wodurch der Jahresgang entsteht, ist mir durchaus klar. Erstaunlich dabei ist, oder besser sollte für Kritiker der Globaltemperatur sein, dass die statistische GMST-Größe diesen Jahresgang zuverlässig abbildet. Und das zeigt eindeutig, dass die gewählte statistische Methode einen Wert ergibt, der mit der physikalischen Realität gekoppelt ist. Wäre er das nicht, würde er den Jahresgang, aber auch ENSO-Schwankungen nicht wiedergeben können. Und es widerspricht Ihrer Aussage, dass die Jahreswerte ein Artefakt der Mittelung sind, das kurzfristige Schwankungen wegdämpft. Was Sie beschreiben, ist das Wegmitteln von Wetter. Und das ist korrekt. Aber den globalen Energiegehalt der Luft (wahrscheinlich zu 95% durch die Meerestemperaturen getriggert) scheint die GMST sehr genau zu repräsentieren. El Nino ist da ein gutes Beispiel, das Phänomen kann man aktuell quasi live mitverfolgen. Ja, da wird warmes Wasser an die Oberfläche befördert. Das erwärmt, neben der Sonne, die Luft über einen großen Bereich des Pazifiks. Global gesehen, ist das gar nicht so viel, bei einem moderraten El Nino vielleicht 0.1 Grad. Und dennoch sieht die GMST diese Veränderung. Und das jedes Mal. Wie erklären Sie das, wenn die GMST für Sie nur ein statistisches Artefakt, ohne Aussagekraft ist?
siehe unten
„Diejenigen, die vehement behaupten, die ermittelte Globaltemperatur ist bedeutungslos und lässt keine Aussagen über den energetischen Zustand der Erde zu,…“
„El Nino ist da ein gutes Beispiel, das Phänomen kann man aktuell quasi live mitverfolgen. Ja, da wird warmes Wasser an die Oberfläche befördert. Das erwärmt, neben der Sonne, die Luft über einen großen Bereich des Pazifiks. Global gesehen, ist das gar nicht so viel, bei einem moderraten El Nino vielleicht 0.1 Grad. Und dennoch sieht die GMST diese Veränderung.“
Zunächst wird die Lufttemperatur über dem Pazifik für die GMST Ermittlung nicht verwendet. Dies „sieht“ GMST nicht!
Das ist das energetische Blindflug-Problem:
Eine Änderung der GMST um +0,1 (angeblich „Grad“) ist energetisch völlig unbestimmt. Physikalisch gesehen gibt es beliebig viele mögliche Szenarien, was diese +0,1 im Index bedeuten könnten, ich nenne wenige.
Szenario A (Interne Umverteilung):
Warmes Wasser steigt nach oben (El Niño). Die Oberfläche wird wärmer (Index steigt), aber das Gesamtsystem hat kein einziges Joule dazugewonnen. Im Gegenteil: Die Erde strahlt jetzt mehr Wärme ins All ab. Resultat: GMST steigt, aber das System kühlt energetisch ab.
Szenario B (Albedo-Änderung):
Weniger Wolken lassen mehr Sonnenstrahlung rein. Das System gewinnt Energie. Resultat: GMST steigt, System erwärmt sich.
Weitere:
Enthalpie-Falle (Feuchtigkeit): Die Lufttemperatur kann sinken, während der Energiegehalt (Enthalpie) steigt;
Phasenübergänge (Eisschmelze/Eiszunahme): Das System wir energetisch geladen/entladen, GMST suggeriert Stillstand;
Anthropologische Oberflächenveränderung (UHI): Indexanstieg ohne korrespondierende globale Strahlungsbilanzänderung;
Die GMST ist ein „Helligkeitswert“ einer Oberfläche, keine Bilanzsumme eines Systems.
In der Physik würde man eine Maschine niemals nach der Temperatur ihres Gehäuses beurteilen, ohne Druck, Masse und Energiedurchsatz zu kennen.
In der Klimatistik ist genau das jedoch die Standardvorgehensweise, zudem bei einer nicht-trivialen, offenen thermodynamischen Maschine, oder?
Herr Lange Sie machen die Diskussion zu kompliziert. Ihre Anmerkungen wären nur dann relevant, wenn wir sonst nichts über den Zustand der ENSO-Oszillation wüssten. Und nochmal, darum geht es primär nicht. Es ging doch jetzt, und so war auch mein ursprünglicher Post gedacht, nur um die Frage, warum eine GMST-Zeitreihe tatsächliche globale Temperaturabweichungen der Erdoberfläche (und der Jahresgang und ENSO sind global messbare aus anderen Quellen bekannte Änderungen) recht genau (natürlich mit Unsicherheiten) aufzeichnet. Um das zu können, muss sich auch im globalem Mittelwert das Signal der Abweichung manifestieren. Wenn Sie mir eine GMST-Zeitreihe geben, kann ich Ihnen daraus mit hoher Sicherheit den ENSO-Zyklus über den gesamten Zeitraum ablesen. Und geben sie mir die Tageswerte der Meerestemperaturen über mehrere Jahre, zeige ich Ihnen die Jahreszeiten. Damit ist eindeutig klar, auch die gemittelten globalen Temperaturreihen enthalten sinnvolle Informationen über die reale Welt. Und das steht im Widerspruch zu Aussagen des Artikels oben. Können wir uns darauf einigen?
Sie mischen bzw. unterscheiden in Ihren Aussagen häufig undifferenziert GMST-Zeitreihen und Meerestemperaturen-Zeitreihen ohne mitzuteilen welche statistischen Konstrukte aus Temperaturen Sie eigentlich meinen.
Wenn ich über GMST schreibe, dann meine ich, dass aus den globalen Luftoberflächen- und Meeresoberflächentemperaturen flächenmäßig gemitteltes rein statistisches Konstrukt, ohne Maßeinheit gebaut wurde. .
Was meinen Sie?
Was für Meerestemperaturen haben Sie im Blick, z.B. bei der Korallendiskussion oder hier oben bei den Tageswerten der Meerestemperaturen?
Wenn ich Ihnen beispielsweise die nur GMST-Zeitreihen der Jahre 1800 – 1820 gäbe – und weiter nichts, könnten Sie mir dann eindeutig mittels dieser GMST-Zeitkurve aufzeigen, wann ein starker/schwacher/kein El Nino/La Nina/Vulkanausbruch für die Ausschläge in der Kurve ursächlich verantwortlich war?
Sicher nicht!
Könnten Sie in einer reinen GMST-Kurve einen „Modoki“-El-Niño (zentraler Pazifik) von einem klassischen El Niño (Ostpazifik) unterscheiden unterscheiden? Die GMST schlägt bei beiden aus, aber die physikalischen Auswirkungen und Ursachen sind grundverschieden.
Gäbe ich Ihnen aber die „anderen eigentlich relevanten Daten“, welche vorliegen, zu diesen Jahren, dann könnten Sie diese Ereignisse genau und präzise determinieren!
Die GMST ist lediglich das globale Echo regionaler physikalischer Ereignisse. Ein Peak in der GMST-Kurve von 1810 veranlasst uns nur zunächst zu sagen, dass es global „wärmer“ war – er verrät uns nicht, ob die Ursache ein El Niño, eine solare Anomalie oder das Abklingen eines vulkanischen Winters war.
Noch gravierender: Ein Peak in der GMST-Kurve beweist nicht einmal eine globale Erwärmung im energetischen Sinne. ENSO ist primär eine Umverteilung von Energie zwischen Ozean und Atmosphäre. Wenn bei El Niño Wärme aus der Tiefe an die Oberfläche steigt, schlägt Ihr GMST-Fieberthermometer zwar aus, aber das System Erde hat dadurch kein Joule an Energie gewonnen. Ohne die räumliche und vertikale Auflösung bleibt die GMST blind für den Unterschied zwischen einer echten Energieaufnahme des Planeten und einem bloßen „Umrühren“ des Ozeans. Sie feiern das Signal eines Prozesses, dessen physikalische Bilanz die GMST gar nicht erfassen kann.
GMST verwechselt Wärmtransport mit Wärmeerzeugung.
Klimarettung sollte sich doch im Kern mit Wärmeerzeugung befassen.
Wozu brauchen wir also GMST?
Wir brauchen GMST aus rein wissenschaftlicher Sicht absolut nicht!
Darauf könnte am sich einigen, oder?
(GMST ist perfekt für rein politisch-ideologische Zwecke nutzbar!)
Also ich schreibe schon, ob ich Meerestemperaturen meine, oder die GMST-Zeitreihe. Welches Produkt genau, ist eher nebensächlich, weil sie sich in der modernen Ära nicht wirklich unterscheiden. Mein Favorit ist das Reanalyseprodukt von ECMWF, weil es sehr gut visualisiert ist und wohl aktuell (neben dem japanischen Produkt) zum qualitativ besten gehört. Ich wäre überrascht wenn GMST ohne Maßeinheit ausgeliefert wird. Sind Sie sich da sicher?
Sie neigen wieder dazu, die Diskussion zu verschieben. Natürlich kann man aus der globalen Temperaturreihe nicht den El Nino-Typ bestimmen. Aber überregionale Temperaturinformationen braucht es dafür schon. Und letztendlich sind alle Temperaturangaben, die über reine Punktmessungen hinausgehen, Mittelwerte und dennoch nützlich. Und ja, die ENSO-Oszillation verringert den Energiegehalt der Erde, wenn die GMST ansteigt. Ich plädiere auch nicht dafür, nur die globalen Temperaturreihen als Informationsgrundlage zu nutzen.
Dennoch bleibt bestehen, dass ich aus der GMST der letzten 80 Jahre die ENSO-Ereignisse mit einer hohen Wahrscheinlichkeit herauslesen kann. Und das geht nur, ich wiederhole mich, wenn dieses Signal in der Zeitreihe repräsentiert wird. Und wenn ich die El Nino induzierte Erwärmung, oder die La Nina induzierte Abkühlung der Luft im globalen Mittelwert reproduzierbar nachweisen kann, eignet sich die GMST natürlich auch dafür, den generellen Verlauf der Oberflächentemperatur über die letzten Jahrzehnte zu bestimmen, da es vergleichbare Größenordnungen sind. Das ist zwar zunächst reine Empirie und sagt nichts darüber aus, warum die GMST das vermag, obwohl Lufttemperaturen mit unterschiedlicher Wärmeenergie (Stichwort Feuchtigkeit) zusammengefasst werden, aber es funktioniert offensichtlich. Und dass die Richtung des Verlaufs (die globale Lufttemperatur wird seit 50 Jahren ca. 02 Grad pro Jahrzehnt wärmer) sehr wahrscheinlich richtig ist, wird durch zahlreiche unabhängige Indikatoren zusätzlich gestützt.
Wenn Sie begründete Argumente gegen diese „Logik“ haben, nehme ich diese gern auf. Aber bitte keine neuen Nebenschauplätze aufmachen. Es ist vollkommen klar, dass damit nicht alle Fragen beantwortet werden (Energiegehalt, Ursachen,…), aber zumindest ist es eine Grundlage, von der man starten kann.
„Das ist zwar zunächst reine Empirie und sagt nichts darüber aus, warum die GMST das vermag, obwohl Lufttemperaturen mit unterschiedlicher Wärmeenergie (Stichwort Feuchtigkeit) zusammengefasst werden, aber es funktioniert offensichtlich. Und dass die Richtung des Verlaufs (die globale Lufttemperatur wird seit 50 Jahren ca. 02 Grad pro Jahrzehnt wärmer) sehr wahrscheinlich richtig ist, wird durch zahlreiche unabhängige Indikatoren zusätzlich gestützt.“
Noch einmal:
Die GMST setzt sich im Wesentlichen aus zwei gemessenen Komponenten zusammen:
Im GMST-Konstrukt stecken also auch Meerestemperaturen, daher meine Nachfrage, welche Meerestempersturen Sie meinen, was Sie aber nicht beantworten.
(Reanalyseprodukten wie das von Ihnen genannte ERA5 (ECMWF) berechnen oft die Lufttemperatur in 2 Metern Höhe auch über dem Wasser.)
Temperaturen werden nicht kälter oder wärmer. Sie steigen oder fallen.
Temperaturen haben selbst keine Energie, auch keine Wärmeenergie.
Trendanalysenergebnisse leben von der Wahl der Stichprobenanzahl, hier von der der Periodenlänge.
Nicht ohne Grund hat die noch gute wissenschaftliche Metrologie eine Klimaperiode auf eine Zeitdauer 30 Jahre gesetzt.
Mit Beobachtungsergebnissen aus 2 Klima-Perioden lässt sich kein signifikanter statistischer Trend ermitteln.
Verkürzt man die Periodendauer, auf stündlich, wöchentlich, monatlich, jährlich, 10jährlich, erhält man genügend viele Perioden (Stichproben) um gute Statistik zu betreiben, aber man erhält für jede Periodendauer eine anderes Ergebnis.
Man hat nun einerseits die große Auswahl Passendes zu greifen, zerschlägt aber andererseits (für den Laien unbemerkt) die Klimadefinition, d.h. man beschreibt gar keinen Klimatrend mehr, man macht Statistik von Wetterabweichungen mit Ergebnis-Shopping und verkauft es als möglichst angstmachenden Klimatrend, oder?
Sorry, ich war etwas ungenau in der Formulierung. Letztendlich wissen sie schon, was ich meine: Die Temperatur von Luft mit unterschiedlicher Gehalt an Wärmeenergie. Und ja, Temperaturen steigen oder fallen, das sind semantische Feinheiten, auf die ich hätte achten sollen, da haben Sie einen Punkt.
Aber ansonsten machen Sie genau das, was ich befürchtet hatte, Sie bringen eine neuen Aspekt in die Diskussion, der erstmal nichts mit unserer Frage aus dem Ausgangpost zu tun hat.
Die 30 jährige Klimaperiode ist ein menschliches Konstrukt und kein naturgesetzliche Notwendigkeit. Ich denke, dass diese mit guten Argumenten von den Meteorologen so gewählt wurde, wobei ich persönlich glaube, dass durch die neuen Messverfahren und verbesserten Statistiken auch eine kürzere Periode sinnvoll sein kann.
Doch egal, die Klimaperiode hat eh nichts damit zu tun, ob sich der GMST-Trend statistisch signifikant von der Nullhypothese (flacher Trend) unterscheidet. Sie spielt vielleicht für die nachfolgende Diskussion, ob man schon von einer Klimaveränderung reden kann, eine Rolle. Für die direkt gemessenen Meerestemperaturen ist das Signal-Rausch-Verhältnis übrigens wesentlich günstiger, so dass man dort nach deutlich weniger Jahren von Signifikanz bei Trendänderungen (falls es diese gibt) ausgehen kann.
Ob Sie mit Tages-, Monats- oder Jahresdaten rechnen wollen, hängt davon ab, ob Sie für die jeweilige Wahl genug Daten zur Verfügung haben. An den Trends sollte das eigentlich keinen Unterschied machen, solange sich die Gesamtdauer nicht verändert. Das kommt aber auch auf die statistische Methode an, wie diese Anfangs- und Endwerte einbezieht.
Bei Jahresdaten haben Sie den Vorteil, dass Sie die Autokorrelation (zeitlich, räumlich) verringern oder sogar ganz verhindern. Bei kürzeren Perioden müssen sie in jedem Fall dagegen prüfen.
Halten wir fest: Die GMST-Datenreihe (Reanalyse) zeigt seit ca.1970 einen Trend von über 0,02 Grad/Jahr. Dieser Trend ist hoch signifikant. Neuste Berechnungen (Foster und Rahmstorf) zeigen sogar eine signifikante Beschleunigung. Ist das schon Klima oder noch Wetter? Ich denke, nach über 50 Jahren deutet vieles auf eine Veränderung der klimatischen Randbedingung auf unserer Erde hin. Meiner Meinung nach gibt es diesen Trend sogar schon deutlich länger, unterbrochen von der rasanten Zunahme der Luftverschmutzung nach dem 2. Weltkrieg. Was aus diesen Daten jeder persönlich mitnimmt, und ob er sie überhaupt anerkennt, oder schlicht verdrängt (leugnet), darauf hat auch die beste Statistik keinen Einfluss, wie man auf diesen Seiten immer wieder feststellen kann.
Wir sollten also, um den Trend der GMST-Datenreihe von 1970 bis heute richtiger einordnen zu können eine andere Klimadefinition vornehmen, insbesondere die Zyklusdauer stark reduzieren, die Definition modernisieren, oder?
Das brauchen wir nicht, aber für die Beurteilung globaler Änderungen könnten wir das (meiner persönlichen Meinung nach):
Die Definition von Klima ist ja eigentlich eine lokale. Und lokal ist das zufällige Rauschen (Wetter) groß. Um ein brauchbares Klimasignal aus diesem Rauschen zu isolieren, haben sich wohl 30 Jahre bewährt. Ich vermute, man könnte für unterschiedliche Klimazonen auch unterschiedliche Zeiträume definieren (z.B. Mitteleuropa versus Südeuropa), aber das macht es nur kompliziert.
Global reduziert sich das Rauschen sehr stark, da sich die Wetterkomponente weitestgehend herausmittelt. Wenn Sie sich die globalen Jahreswerte ansehen, so sind diese seit den modernen Messverfahren (Satellit, Bojen, Reanalyse) erstaunlich eng zusammen gerückt. Das bedeutet, die globale Energiebilanz ist sehr stabil. Wenn man mathematisch die ENSO-Varianz herausrechnet, wird es noch einheitlicher. Und deshalb bin ich der Meinung, dass es keine 30 Jahre braucht, bis man bemerkt, wenn sich etwas an diesem gut eingespielten System ändert. Auch aus diesem Grund ist die allmähliche Steigerung (immerhin ja nur 0.02°/Jahr) in der GMST-Reihe schon nach wenigen Jahren hochsignifikant und konnte die Beschleunigung (auf 0.03°/Jahr) seit den 2010er Jahren überhaupt statistisch sauber ermittelt werden.
Für die Daten in Deutschland sind möglicherweise (ich habe es nicht nachgerechnet) 30 Jahre sogar zu wenig. In Mitteleuropa haben wir mit die höchste Wettervariabilität auf diesem Planeten. Deshalb fahren wir ja auch so gern im Sommer in den Süden. Nicht weil wir die Hitze dort so toll finden (jedenfalls nicht jeder), aber man weiß zumindest, was man bekommt. An der Ostsee ist die Küste super schön, aber es kann eben auch ein Brettspiel-Urlaub werden…
Wenn ich mich richtig erinnere wurde die Klimaperiodendauer von der Wissenschaft auf 30 gesetzt um innere physikalisch-thermodynamische Prozesse zu glätten, also bekannte lang andauernde natürliche Zyklen zu glätten, nicht um statistische Glättungsmaßnahmen zu ergreifen, oder?
Aus diesem Kontext heraus teile ich Ihre Ansichten nicht.
Wählt man einen Zeitraum von nur 10 oder 15 Jahren (wie Sie es für die 2010er Jahre andeutet), könnte man lediglich die Warmphase eines solchen natürlichen Zyklus messen und diese fälschlicherweise z.B. als beschleunigten anthropogenen Trend interpretieren.
Die 30 Jahre dienen dazu, das thermodynamische Ungleichgewicht so weit zu mitteln, dass der eigentliche Antrieb (das Forcing) sichtbar wird, ohne von der kurz- und mittelfristigen Umverteilung von Energie zwischen Ozean und Atmosphäre überlagert zu werden, auch örtlich. Es werden wesentliche physikalische Zeitkonstanten berücksichtigt.
Der entscheidende Unterschied in unseren Meinungen zeigt sich offenbar in der Ausdeutung der Problematik statistische versus physikalische Signifikanz (wie schon bei der GMST-Interpretations-Diskussion):
Sie argumentieren statistisch, aus der Sicht eines rein mathematischen Datenproblems: Sie sagen, wenn die Datenpunkte (Jahreswerte) eng beieinander liegen und eine klare Richtung zeigen, ist der Trend mathematisch „bewiesen“. Sie nutzen die Statistik, um die physikalische Trägheit und die internen Zyklen des Systems „abzukürzen“. Das kann in Zeiten eines sehr starken Signals (wie derzeit) gut gehen, ist aber methodisch angreifbar – wir können es nicht wissen.
Die Physik sagt uns: Ein statistisch signifikanter Trend kann physikalisch trotzdem eine bloße Fluktuation sein (z.B. eine Häufung von El-Niño-Ereignissen). Statistisches Vertrauen ist nicht gleichbedeutend mit physikalischer Ursächlichkeit. Der physikalische Prozess muss im Mittelpunkt stehen.
Sie begehen potenziell einen Kategorienfehler: Sie verwechseln die Präzision der Messung (Satelliten, Bojen) mit der Natur des Systems.
Nur weil wir heute genauer messen können, wie sich die „Temperatur“ von Jahr zu Jahr ändert (Nichttemperaturen wie das GMST-Konstrukt und die Meeres“Temperaturen“-Konstrukte), bedeutet das physikalisch nicht, dass das Klima schneller reagiert oder dass interne Zyklen plötzlich verschwunden sind oder dass sich anthropogen etwas tut. Die 30 Jahre wurden gerade deshalb gewählt, um sicherzustellen, dass man nicht „mitten in der Messung“ des 2. Klimazyklus ab 1970 eine vorübergehende Schwankung als dauerhafte Klimaänderung missversteht, was dies aber auch nicht ausschließt, oder?
Herr Lange,
darf ich mal sagen, ihre bestimmte, freundliche, wissensbasierte Argumentation ist eine Bereicherung?
Tschuldigung das ?. Gewohnheit!
Sie ist!
Nein, meine Erklärung, dass die GMST-Zeitreihe sinnvolle Aussagen über die Temperatur der Atmosphäre an der Erdoberfläche zulässt, folgt der Logik, nicht der Statistik. Wenn die GMST-Zeitreihe reproduzierbar den Jahresgang wiedergibt, wird sie auch Änderungen durch andere Ursachen in ähnlicher Größenordnung registrieren können. Punkt. Die ENSO-Oszillation stärkt diese Aussage, auch sie wird in der GMST-Zeitreihe zuverlässig abgebildet. Punkt. Und das war es eigentlich schon. Alle anderen Themen (Statistik, Klima) haben Sie in die Diskussion gebracht.
Das wir heute genauer messen können, ändert natürlich an der Klimaphysik nichts, sondern verbessert unser Verständnis von ihr. Wenn die modernen, genaueren Messungen zeigen, dass die Globaltemperatur sehr stabil zu sein scheint, verschwinden dadurch per se keine Klimazyklen. Aber es darf mit den neuen Erkenntnissen hinterfragt werden, ob die Zyklen überhaupt global existieren, oder ob diese Messartefakte sind. Es ist durchaus denkbar, dass durch eine vorher ungenaue Verteilung der Messstandorte eigentlich lokale Ereignisse überproportional repräsentiert wurden. Denn, und jetzt kommt die Physik ins Spiel, seit wir die Energieflüsse z.B. von der Sonne direkt messen können, ist klar, dass deren Änderungen gar nicht ausreichen, um die vorher postulierten Zyklen zu erklären. Zumindest nicht ohne einer größere Menge an Zusatzannahmen und indirekter Wirkmechanismen.
Die Physik ist die große Stärke der Klimawissenschaft. Denn sie war die Grundlage für die Voraussage, dass eine CO2 Anreicherung in unserer Atmosphäre die globale Temperatur ändern wird. Und das zu einer Zeit, als an an einer Erwärmung noch nicht zu denken war.
Und zum Schluss noch eine Bemerkung zu Ihrem Satz „Die Physik sagt uns: Ein statistisch signifikanter Trend kann physikalisch trotzdem eine bloße Fluktuation sein (z.B. eine Häufung von El-Niño-Ereignissen).“ Nein, das sagt uns die Physik nicht, das kann sie gar nicht. Genau für solche Aussagen ist die Statistik zuständig. Mit ihrer Hilfe können wir eine Reihe von Datenpunkten daraufhin untersuchen, wie hoch die Wahrscheinlichkeit ist, ob es sich um eine zufällige Verteilung an Werten handelt, oder ob es signifikante Abweichungen (z.B. ein Trend) vom Rauschen gibt. Welche statistische Methode ich anwende, wie viele Datenpunkte ich habe, welche Verteilung diese haben, all das hat großen Einfluss darauf, wie robust das Ergebnis ist.
Zu den Ursachen für das Rauschen und für die Abweichungen dazu kann dann die Physik etwas sagen.
Es gibt keine Klimaphysik, sondern eine Klimakirche, die Millionen Propheten ausbildet und „Klimaphysiker“ nennt, die die Aufgabe haben, den Glauben zu verbreiten.
Im der Erdgeschichte ist CO2 von ca 15%-17% auf 0,1…0,03% gesunken, zwangsläufig gegenläufig zum Anstieg von O2 0 auf 20% gemäß Massenerhaltungssatz. Dabei haben diese große Verschiebungen nicht im Heringsten die Temperatur beeinflusst, bei jeder Konzentration war es sowohl 10 Grad wärmer als auch 10 Grad kälter.
Nun sucht die Klimakirche kaum messbare Verschiebungen von CO2 und Temperatur, um ihr Glauben zu untermauern. Hat mit Wissenschaft und Physik nichts zu tun.
Physik vs. Statistik – Eine Frage der Erkenntnishierarchie
Könnte es sein, dass Ihre Antwort ein grundlegendes Missverständnis über das Verhältnis von Messpräzision und physikalischer Erkenntnisfähigkeit offenbart? Sie nutzen Physik, Statistik und eine vermeintliche „Logik“ als wechselseitige Schutzschilde, um methodische Schwächen Ihrer Position zu maskieren.
Sie wechseln die Beweislast je nach Argumentationsnot: Mal ist die Mathematik der Richter und die Physik nur geduldeter Erklärer, mal umgedreht. In der Wissenschaftstheorie gibt es jedoch eindeutige Hierarchien.
1. Das ENSO-Dilemma: Präzision ohne Erkenntnis
Sie behaupten, die GMST sei valide, weil sie das ENSO-Signal „zuverlässig abbildet“.
Das ist ein Zirkelschluss.
Die GMST zeigt lediglich, dass das (Fieber-)Thermometer-Konstrukt ausschlägt, wenn Energie vom Ozean in die Atmosphäre abgegeben wird. Da ENSO jedoch ein interner Umverteilungsprozess ist – ein energetisches Nullsummenspiel im Gesamtsystem –, ist dieser Ausschlag physikalisch kein Indikator für einen geänderten energetischen Antrieb (Forcing).
Hier begehen Sie einen Kategorienfehler:
Eine Häufung von El-Niño-Ereignissen erzeugt in der GMST einen statistisch „hochsignifikanten“ Trend.
Die Statistik ruft hier „Erwärmung“, während die Physik weiß, dass lediglich Energie vom „Sparbuch“ (Ozean) auf das „Girokonto“ (Atmosphäre) umgebucht wurde.
Ohne die physikalische Prüfung der Tiefsee-Thermodynamik bleibt Ihre statistische Signifikanz blind. GMST kann aus sich selbst heraus nicht einmal identifizieren, warum sie steigt. Uns schon gar nicht was „normal“ wäre bezüglich Häufigkeit und Abständigkeit des ENSOs.
2. Die 30-Jahre-Regel: Physikalische Konstante statt statistischer Krücke
Ihre Ansicht, moderne Präzision erlaube es, die 30-jährige Klimaperiode zu verkürzen, ist physikalisch naiv. Diese Zeitspanne wurde nicht wegen „schlechter Daten“ gewählt, sondern aufgrund der thermischen Trägheit des Ozeans und bekannter Oszillationen (PDO, AMO etc.).
Präzision ersetzt keine Zeit:
Sie können ein Pendel, das eine Stunde für einen Schwung braucht, im Millisekundentakt filmen. Nach einer Minute haben Sie Millionen Datenpunkte (Präzision), wissen aber physikalisch immer noch nicht, ob das Pendel jemals zurückschwingt. Wer Trends auf Basis von 10 oder 15 Jahren behauptet, misst lediglich das „Rauschen“ interner Zyklen, nicht das klimatische Signal.
Es ist eher zu befürchten, dass selbst 30 Jahre physikalisch zu kurz gegriffen sind. Die Mannigfaltigkeit von das Klima beeinflussenden Prozessen ist doch eher erstaunlich hoch und erschreckend unerforscht.
3. Die experimentelle Blindheit (N<2)
Wir müssen uns der methodischen Bescheidenheit stellen: Da wir wirklich präzise, globale Daten (Satelliten, Argo-Bojen) erst seit etwa 1970 besitzen, haben wir bisher gerade einmal 1,8 Klimaperioden vermessen.
In der Experimentalphysik ist eine Stichprobe von N<2 fast wertlos, um zwischen einem anthropogenen Trend, kosmischen Einflüssen, etc. und der ansteigenden Flanke eines natürlichen 60- bis 80-jährigen Zyklus sicher zu unterscheiden.
Uns fehlt die experimentelle Basis für einen echten Vergleich mit der Zeit vor 1970 (1930). Wir sehen eine Kurve, aber wir kennen das System noch nicht lange genug, um das Rauschen sicher vom Signal zu trennen. Rekonstruktionen der Vergangenheit versuchen dies zu heilen, doch erreichen sie nie die physikalische Belastbarkeit einer direkten Messung. Zumal historische Sichten auch politisch geprägt sein können.
Fazit: Physik ist der Herr, Statistik der Knecht
Ihr Ansatz wirkt methodisch opportunistisch: Sie erklären die Statistik zum Richter, wenn ein Trend Ihre Sicht stützt, erklären sie aber für zweitrangig („folgt der Logik“), wenn es um die fundamentale Validierung Ihrer Datenbasis geht.
ENSO beweist die Sensitivität der Messung, aber nicht die Kausalität der Erwärmung.
30 Jahre sind eine physikalische Notwendigkeit, keine statistische Empfehlung.
Das GMST-Konstrukt ist eine statistische Hilfsgröße – eine „Nicht-Temperatur“ –, die als politisches Kommunikationsmittel fungiert, aber die tatsächliche physikalische Komplexität (latente Wärme, Schichtung) eher verschleiert.
Statistik sichert Erkenntnisse ab, aber sie generiert sie nicht. In der Klimawissenschaft muss die Physik der Herr im Haus bleiben und die Statistik der Knecht. Und Politik muss vor die Tür gesetzt werden.
Das bedeutet letztlich, dass wir Prozesse verstehen müssen, statt nur Kurven zu verlängern.
Finden Sie nicht auch?
Sehr guter Beitrag und wohl sortierte Antwort.
Sehr offensichtlich im Beitrag von Herrn „Bienkopp“.
Mal sehen ob er das physikalische Model benennen kann.
Herr Lange, wie kommen Sie auf derart merkwürdige Texte? Lesen Sie meine Beiträge und noch wichtiger, verstehen Sie überhaupt, was ich schreibe?
Physik und Mathematik sind doch nicht hierarchisch einander untergeordnet, sondern haben ganz unterschiedliche Aufgaben in der wissenschaftlichen Praxis. Die Physik untersucht und beschreibt die die Wirkmechanismen der realen, unbelebten Welt. Die Statistik als Teil der Stochastik interpretiert Datenmengen, die wir aus Messungen gewinnen. Das erste ist Naturwissenschaft, das zweite gehört zur Strukturwissenschaft. Da habe ich ganz bestimmt nichts verwechselt, bei ihnen bin ich mir da nicht so sicher.
1)
Wie können Sie meinen Text zur GMST zu einem Zirkelschluss umdeuten? Darin steckt eine kurze lineare „wenn, dann“ – Logik. Zirkulär wäre es nur, wenn ich versucht hätte mit dem Ende den Anfang zu beweisen. Ich habe immer wieder betont, dass es hierbei um die prinzipielle Fähigkeit der Messmethode geht, Temperaturänderungen der oberflächennahen Atmosphäre aufzuzeichnen. Die Referenz dafür ist der Jahresgang, die ENSO-Oszillation ist lediglich ein guter Test und damit eine Bestätigung dieser Fähigkeit. Welche physikalische Ursache die jeweilige Temperaturveränderung hervorgerufen hat, ist in diesem Zusammenhang total irrelevant. Die logische Implikation erfordert nämlich keine inhaltliche Ursache-Wirkungs-Beziehung, um dennoch wahr zu sein. Ist das wirklich so schwer zu verstehen?
2)
Die 30 Jahre als kleinste Periode zur Bestimmung von Klimadaten sind keine physikalische Konstante, sondern eine menschliches Konstrukt. Auch hier habe ich klar gemacht, dass ich damit gar kein Problem habe; es hat sich ja regional total bewährt. Ich habe nur angeregt, das man auf Grund deutlich besserer Daten heute anders über z.B. zyklische Muster urteilen kann. Denn als man diese ursprünglich bestimmt hat, war die Datenlage deutlich schlechter.
Die thermische Trägheit der Ozeane hat mit den 30 Jahren aber nichts zu tun, das wäre als Wärmepuffer schon verdammt lang 🙂
3)
Der kritische Umgang mit Erkenntnissen und Daten gehört zur Wissenschaft intrinsisch dazu. Aber überall, wo Menschen involviert sind, machen diese Fehler oder haben einen Bias. Deswegen gibt es die wissenschaftliche Community als korrigierende Instanz (über Tagungen, Vorträge oder Veröffentlichungen). Ist nicht perfekt, funktioniert aber dennoch ganz gut.
Ansonsten verwechseln Sie hier wieder zwei voneinander getrennte Kategorien. Zum einen haben wir eine Temperaturmessreihe. Diese können wir auf ihre statistischen Eigenschaften prüfen. Diese Prüfung ergibt, dass die Temperaturen seit ca. 50 Jahren steigen. Der Anstieg hat sich in den letzten 20 Jahren beschleunigt. Worin die physikalischen Ursachen liegen und ob wir bereits Klimaänderungen messen, sind andere, nachgelagerte Fragen, wenn auch die deutlich spannenderen.
Fazit:
Ihren Satz: „ENSO beweist die Sensitivität der Messung, aber nicht die Kausalität der Erwärmung.“ habe ich bisher vermisst und unterschreibe ich sofort. Genau das habe ich die letzten Tage aussagen wollen.
Ansonsten ist Ihr Opportunismus-Vorwurf unsinnig. Ich habe die Statistik nie als zweitrangig eingestuft. Da haben sie etwas falsch interpretiert.
Dennoch danke für einen interessanten Austausch,
Ole
Ist das Problem nicht, das die von Ihnen beschworene Physik, so nicht existiert?
Mit welchem physikalisch abgeleitetden Model können wir denn die gemittelte Oberflächentemperatur eines Planeten voraussagen?
Wie hoch wäre zum Beispiel diese Temperatur, wenn die Erde anstatt nur 1 bar 3 bar Luftdruck hätte und warum?
„1. Warum stimmen die Jahreswerte so gut überein? Das klingt trivial, ist aber bei einer bedeutungslosen Zahl ohne Bindung zur Realität nicht zu erwarten.“
Womit stimmen die Jahreswerte so gut überein?
Die global gemittelten Werte übers Jahr sind immer sehr ähnlich und unterscheiden sich nur um wenige Zehntelgrad. Und das auch nur, wenn El Nino und La Nina ihren Einfluss ausüben. Auch hier das Gleiche: Anscheinend wird der Globalwert vom Energiezustand der Erde begrenzt und konstant gehalten. Ansonsten wären viel stärkere Fluktuationen zu erwarten.
Dass die Jahreswerte so stabil sind, liegt nicht an einer energetischen Begrenzung, sondern an der statistischen Glättung. Wenn man tausende Würfel gleichzeitig wirft, kommt fast immer ein Mittelwert von 3,5 heraus. Das liegt nicht daran, dass eine Kraft die Würfel ‚begrenzt‘, sondern dass sich die extremen Ausreißer (Eiszeit in Sibirien vs. Hitzewelle in Australien) mathematisch gegenseitig aufheben.
El Niño beweist, dass die GMST eben nicht direkt vom globalen Energiezustand gesteuert wird. Bei El Niño wird kein einziges Joule Energie zusätzlich von der Sonne aufgenommen (aber mehr abgestrahlt!); es wird lediglich warmes Wasser aus der Tiefe an die Oberfläche des Pazifiks geschoben. Die GMST schießt hoch, obwohl die Gesamtenergie der Erde gleich bleibt. Das zeigt: Die GMST ist eine reine Oberflächenstatistik, die bestenfalls auf interne Umverteilungen reagiert, nicht auf den energetischen Gesamtzustand, den sie nie repräsentiert.
Ergo: Die Konstanz der GMST-Jahreswerte beschreibt keine thermodynamische Stabilität, es ist eine künstliche statistische sehr flache Fläche, ein statistisches unphysikalisches Nebenprodukt einer riesigen homogenisierten Stichprobe. Dass die Werte so eng beieinander liegen, ist ein Artefakt der Mittelung über ein extrem träges System (die Ozeane), das kurzfristige Schwankungen wegdämpft.
„3. Warum lassen sich in den globalen Temperaturreihen gut untersuchte Oszillationen
(z.B. ENSO) oder Störungen (Vulkanausbrüche) klar erkennen?“
Die „Nichtdurchgängigkeit“ in korrekten Anzeigen – also die Tatsache, dass diese Signale manchmal verschwimmen – verdeutlicht, dass die sogenannte globale Oberflächentemperatur (GMST) allein kein vollständiges (geeignetes) Maß für den energetischen Zustand unseres Planeten ist. GMST hat zudem große historische Datenschwäche.
Man kann es so ausdrücken: Die Oberflächentemperatur ist eher das „Fieberthermometer“, während der Energiegehalt der Ozeane (Ocean Heat Content) das eigentliche „Bankkonto“ der Erderwärmung darstellt.
Wobei sodann die gemittelte GMST und deren Anomalie bezüglich willkürlichem Normal-Referenzpunkt als ein reines ideologisch-politisches Konstrukt benutzt wird, zur Ausgabe des politischen 1,5 °C-Ziels.
Und weil das statistische Konstrukt GMST so „zappelig“ und ungenau ist (wegen ENSO etc.), ist sie als wissenschaftliches Langzeit-Maß eigentlich schlechter geeignet als z.B. der Wärmegehalt der Ozeane. Aber gerade weil sie so zappelig ist, bietet sie der Politik ständig neue Schlagzeilen (z.B. „Heißester Monat seit Aufzeichnungsbeginn“).
Die GMST-Nutzung zeigt das geschmeidige Zusammenwirken von politisch bezahlter Klimatistik, Medien und Politik sehr gut, oder?
Die eigentliche Frage dahinter: Warum ist die GMST nie genormt worden, warum sind diesbezügliche Versuche der Klimatistik an der Wissenschaft gescheiter?
Sorry, aber da verstehe ich Ihre Bemerkungen nicht. Mir ging es darum, dass die gemittelte Globaltemperatur sensitiv genug ist, um typische klimatische Ereignisse (wie ENSO) wiederzugeben. Und das sehr zuverlässig in Stärke und temporärer Auflösung. Wie soll das ohne Kausation funktionieren?
Genau das macht GMST eben nicht stringent und falsch sensitiv.
Beispiel Energieumverteilung:
Bei einem El Niño gelangt Wärme aus dem Ozean in die Atmosphäre. Die GMST steigt sprunghaft, obwohl die Gesamtenergie der Erde (Ozean + Luft) sich nicht im selben Maße ändert.
Was zeigt sie also an? Eine globale Erwärmung, wie behauptet?
Nein eine Energieumverteilung vom Ozean zur Atmosphäre, damit ist GMST nicht sensitiv bezüglich des globalen Gesamtsystems, nicht sensitiv bezüglich des globalen Energieinhaltes, für das sie aber angeblich stehen soll, oder?
Warum ist die GMST falsch sensitiv? Sie zeigt doch genau das, wofür sie steht, die globale Lufttemperatur. Und diese wiederum spiegelt den Wärmegehalt der Meeresoberfläche wider, während ENSO-Oszillationen gut zu beobachten. Und ja, sie zeigt damit auch die globale Erwärmung an, denn (nahezu) jeder El Nino Peak ist wärmer als der vorherige.
Aber es ging bei meiner Argumentation vor allem darum, darauf hinzuweisen, dass die GMST auf bekannte natürliche Veränderungen im System Erde (Jahresgang, ENSO) in der erwartbaren Größenordnung und in der richtigen zeitlichen Auflösung reagiert und damit auch einen sinnvollen Index für anthropogene Einflüsse darstellt. Nicht mehr, aber auch nicht weniger.
Dann sagen Sie uns doch bitte wo, wann, und in welcher Höhe sie gemessen wird? Wenn Sie das nicht können, dann sollten Sie akzeptieren das dies eine künstlich geschaffner Wert ist. Ohne Sinn und Verstand für den Zweck für den sie erfunden wurde.
„Warum ist die GMST falsch sensitiv? Sie zeigt doch genau das, wofür sie steht, die globale Lufttemperatur.“
GMST (Global Mean Surface Temperature) ist keine gemittelte globale Luft-Temperatur.
GMST zeigt nicht die globale Mittellufttemperatur an. Es ist also ein statistischer Flächenmittelwert aus Lufttemperaturen (+2mH) und Wasseroberflächentemperaturen (+0,0mH), ohne Eingang weiterer thermodynamischer Größen wie Wärmekapazitäten, Massen, Dichten, Feuchtigkeit, etc..
Sie ist weder „Lufttemperatur“ noch „Temperatur„, sie ist ein statistischer Index, dem eine °C-Maßeinheit thermodynamisch und energetisch falsch verpasst wurde. Sodann hat man aus Global Mean Surface – Index eine GMS-Temperatur gemacht, also einen physikalisch falschen Namen gegeben.
Jetzt kann man da viel Klimatistisches hineindeuten oder eben korrelieren wenn Sie es lieber so ausdrücken möchten – das mag gute Statistik(Mathematik) sein, aber es ist Hokus-Pokus-Physik.
Und genau das zeigt sich bei El Niño, der das GMST-Konstrukt ansteigen lässt, obwohl nur eine Energieumverteilung im System stattgefunden hat, die physikalische nicht zu einer Erwärmung des Gesamtsystems (oder durch Abstrahlung sogar zu einer Abkühlung) führen kann.
Was zeigt also das statistische Konstrukt GMST an? Anthropogenes? Nein!, der Index selbst sagt nichts über die Ursache aus. Er ist stumm gegenüber der Frage, ob die Wärme von der Sonne, aus dem Ozean oder durch veränderte Albedo kommt, oder ob gar gerade eine globale Abkühlung dahinter steckt.
Und was behauptet die Klimatistik, was es anzeigt? Menschengemachtes, leider falsch, führt zu absichtlich unsachlich gesteuerter Klimadebatte, oder?
Nichts für Ungut, aber Ihre Antwort geht erneut ziemlich weit an meinem Argument vorbei. Ich kenne die Kritikpunkte an einer gemittelten Temperatur. Ist ja häufig Thema bei Eike. Aber darum geht es hier nur sekundär. Wir nehmen mal an, die Kritiker hätten in allen Punkten Recht (haben sie nicht, wie auch andere Kommentatoren herausgearbeitet haben). Dann entsteht ja trotzdem der Widerspruch, warum die GMST immer wieder bekannte zeitliche Veränderungen mit geringer Amplitude (Jahresgang, ENSO) korrekt abbilden kann. Zufall? Nach 8 Jahrzehnten (hier beziehe ich mich auf die Reanalyse) wohl kaum. Und wenn die GMST sich für die kurzfristige natürlichen Oszillationen eignet, kann sie auch den langfristigen Anstieg der Temperatur prinzipiell messen, zunächst unabhängig von deren Ursache, oder?
Stellen Sie sich vor, Sie haben eine Sportuhr mit Pulsmessung und sagen Ihrem Arzt nach vier Jahren Nutzung, dass Ihr Ruhepuls über die Zeit messbar angestiegen ist. Der sagt, Quatsch, die Pulsmessung der Uhr ist dafür nicht genau genug. Dann kontern Sie, dass die Uhr aber den Tagesgang immer wieder sehr gut abbildet. Und das sich schon leichte sportliche Bewegung sofort am gemessenen Puls bemerkbar macht. Und dass die Größenordnungen der Änderungen (Tagesgang, Bewegung und erhöhter Ruhepuls) ähnlich sind. Wenn der Arzt dann immer noch sagt, das überzeugt ihn nicht, sollten Sie sich eine neue Praxis suchen.
In diesem Sinne, Ole
Ihr Vergleich GMST mit der Pulsmessung hinkt!
Der Puls, als autonomes Signal, der eine physische Realität zusammenfasst, die den ganzen Körper repräsentiert, ob Messung am Handgelenk, am Finger, am Hals per Pulsuhr oder Hand es bleibt repräsentative Messung mit korrekter Nulllinie.
Die GMST ist demgegenüber eine rechnerische Übereinkunft, die nichts Physikalisches repräsentiert, sie wird ja erst statistisch z,B. flächenmäßig mittels vieler Schätzungen und Homogenisierungen konstruiert. Ändern Sie die statistischen Konstruktionsregeln, z.B. andere Gewichtungen oder gar echte thermodynamisch korrekte Konstruktion, erhalten Sie eine ganz andere „Fieberkurve“ der Erde.
Ändern Sie den Normal-Referenzpunkt erhalten Sie eine steigende, konstante oder fallende Anomalie, je nach gewähltem Bezugspunkt.
Und natürlich mit angeklebte Maßeinheit.
Sie schreiben die GMST bildet den Jahresgang der Temperaturen exakt ab.
Ja welcher Temperaturen?
Nicht der Temperaturen der Nordhalbkugel, nicht die Temperaturen der Südhalbkugel, nicht die Temperaturen des Äquators, nicht der Antarktika?
Es ist ein sich zufällig ergebender Jahresgang, einer zufällig oder besser bewusst ausgewählten GMST-Berechnungs-Konstruktion, es gäbe ja viele Möglichkeiten – aber es muss ja korrelieren.
Die statistischen Regeln bestimmen die Aussage, es ist im Grunde ein Zirkelschluss, Sie bestätigen die gewählten Konstruktionsregeln, die mathematische Konsistenz – sonst nichts.
Mit GMST entdecken wir nichts, keine globale Temperatur, nichts das Sie nicht selbst vorab unter die nächtliche Straßenlaterne gelegt haben, bevor Sie den Betrunkenen zur Haustürschlüsselsuche losschickten, oder?
Hallo Herr ?,
an dieser Stelle mal ganz allgemein gefragt. Warum postet jemand unter Pseudonym (Ole Bienkopp = Romanfigur) und nicht mit seinem Klarnamen? Stehen sie (und Sie) nicht zu ihren Aussagen?
Zu Ihren Fragen will ich mich gar nicht weiter äußern (das kann Herr Lange weitaus besser als ich), aber ich möchte Ihnen gerne eine mehrteilige Gegenfrage stellen.
Wenn die GMST eine sinnvolle Größe wäre, welche Erkenntnisse würden Sie daraus ableiten? Was wäre schlimmer, steigend oder fallend und warum?
Für mich ist die GMST eine sinnvolle Größe, oder besser ein nützlicher Index. Noch wertvoller sind die Meerestemperaturen, weil diese deutlich weniger fluktuieren und mehr über die Gesamtenergie aussagen. Aber mit beiden Zeitreihen kann man feststellen, ob sich der Energiehaushalt der Erde ändert. Und die Änderungen haben Konsequenzen. Es ist wahrscheinlich egal, ob es kälter oder wärmer wird, beide Richtungen haben unangenehme Folgen. Eiszeiten (ja, wir leben in einer Zwischeneiszeit) und Heißzeiten sind für uns großen Säugetiere mit aktiver Temperaturhomöostase problematisch. Aber bevor diese Gefahr relevant wird, sind mit hoher Wahrscheinlichkeit unsere zivilisatorischen Errungenschaften an ihre Grenzen geraten. Jedenfalls finde ich die Prognosen der Wissenschaftler dazu plausibel. Ob man das katastrophal nennt, muss jeder für sich entscheiden. Für mich persönlich ist das sehr wahrscheinliche Ende der Warmwasserkorallen bereits eine extrem traurige Aussicht. Für andere ist das leichter zu verschmerzen.
Ole
Das Ende der Warmwasserkorallen?
Wo kommt das her?
Mal rein logisch, die heißen Warmwasserkorallen warum?
Kommt eine Eiszeit? Wo kommen dann Warmwasserkorallen her? Gabs schon mal ne Warmzeit? Wo kommen Warmwasserkorallen her?
Sie heißen Warmwasserkorallen, da sie im warmen Wasser leben. Aber ab 30°C stoßen sie ihre symbiontischen Algen ab und verhungern. Ich vermute, das haben sie selbst schon gelesen oder gehört. Häufen sich Korallenbleichen haben die Nesseltiere keine Chance auf Regenration. Davon abgesehen, dass empfindliche Arten eh bereits weg sind. Die Geschwindigkeit, mit der das Meerwasser wärmer wird, verhindert eine evolutionäre Anpassung. Die rezenten Arten haben de facto nichts mit den Korallen der Warmzeit zu tun. Vielleicht kann der Mensch durch Gentechnik nachhelfen, aber der ungeheure Artenreichtum in den Riffen wird so nicht zu retten sein. Ein extrem tragischer Verlust, der nach Aussagen von Meeresbiologen schon jetzt nicht mehr zu verhindern ist. Zumindest für einen Großteil der bekannten Vorkommen.
Wie warm ist das Wasser?
Bei Whatsupwiththat gabs mal ne gute Serie über die Limitierung der Ozeantemperatur durch Wasserverdunstung und Wolkenbildung. Kann ich empfehlen.
Wie regenerieren sich die Korallen?
Häufen sich Korallenbleichen?
Empfindliche Arten sind schon weg? Haben wir schon alle Arten bestimmt?
Mit welcher Geschwindigkeit wird das Wasser wärmer? Schneller als der saisonale Wechsel oder langsamer? Wie sieht es im täglichen Wechsel aus?
Verstehe ich das richtig, die Ozeane werden wärmer und die Korallen entwickeln sich zu Kaltwasser Korallen, und gehen dann bei Wärme ein?
Und bedingt, aber was meinen sie, wenn wir Gehirnzellen wachsen lassen könnten, würden mehr oder weniger Menschen so sein wie sie?
Bitte Quelle und Namen der Wissenschaftler angeben. Haben sie schon mal so ein Riff besucht?
Ja, Korallenbleichen häufen sich. Und da sie passieren (immer häufiger), scheint das Abkühlen durch Verdunsten nicht zu reichen. Ihre anderen Fragen ergeben wenig Sinn. Bei der Bedrohung der Korallen spielt nicht die Variabilität der Temperatur eine Rolle (ideal sind 24 bis 28°C), sondern die Grenztemperatur (>= 30°C), die nicht überschritten werden sollte. Und da die Meere immer wärmer werden, wird diese Grenze wenig überraschend immer schneller, immer öfter und vor allem in allen großen Meeresbecken gleichzeitig gerissen. Das ist jetzt keine Raketenwissenschaft und auch ohne Gentechnik mit normaler humaner Hirnleistung zu verstehen… 🙂
Empfehle diese Serie hier angefangen mit Artikel 1 zu studieren.
Was sie so im Straßenslang als „Reissen“ bezeichnen, hat das wissenschaftliche Grundlagen oder ist das ihre Interpretation?
Seit wann beobachtet die Wissenschaft Korallen, wie sieht die Häufigkeitsverteilung der Bleichen aus? Von welchen Riffen sprechen wir?
Hier noch Etwas wissenschaftliches.
Und hier noch was logisches, wenn die Ozeane ueberall waermer werden, dann werden mehr Lebensraeume fuer Warmwasserkorrallen geschaffen. Also wird es sicher kein Ende dieser sein.
Das mit den Korallen erschließt sich mir nicht. Ich denke die werden sich in anderen Regionen ausbreiten die dann plötzlich warm genug sind.
Auch erschließt sich mir nicht was sie mit den zivilisatorischen Errungenschaften meinen, oder meinen sie das Deutschland so wenig Klimaanlagen hat, weil aufgrund von PV und Wind der Strom so teuer ist.
Wenn man das Klimarisiko als Anzahl Todesfälle bei Naturkatastrophen pro 100000 Menschen misst, dann stellt man fest, dass das Klimarisiko gesunken ist in den letzten 120 Jahren. Die realen Zahlen zeigen also nichts von einer Katastrophe.
Aber mit Katastrophen-Prognosen aufgrund von Katastrophenmodellen verdient man immer gutes Geld, wenn man genügend Lobbyismus betreibt.
Herr Heß, in geringem Umfang wandern Krollen schon jetzt in kältere Gebiete. Aber es gibt dabei klare Grenzen. Der wichtigste limitierende Faktor ist Licht. Warmwasserkorallen sind Tropenbewohner, jahreszeitliche Schwankungen passen nicht. Außerdem dauert die Neuentwicklung stabiler Riffe sehr lange, soviel Zeit verbleibt aber nicht. Dazu kommt, dass Riffe ein komplexes Ökosystem beherbergen. Beim Umsiedeln müssten alle beteiligten Spezies zeitgleich mitwandern. Eher unwahrscheinlich. Die warnenden Vorhersagen sind also tatsächlich ernst zu nehmen.
Bei der Interpretation der Statistik zu Todesfällen durch Naturkatastrophen muss man sehr vorsichtig sein. Die sehr hohen Zahlen im letzten Jahrhundert werden von ganz wenigen Einzelereignissen (meist Flutkatastrophen) dominiert, die heute auf Grund von technischen Entwicklungen in den Ländern (z.B. China) so nicht mehr passieren. Das verzerrt die Wahrnehmung, vor allem bei einer aggregierten Darstellung.
Naiv finde ich immer das Geld-Argument. Das absolut meiste Geld wird weltweit mit der Bereitstellung fossiler Energien verdient. Da reden wir von Milliarden tagtäglich. Aber die grüne Lobby bestimmt, wo es lang, klar.
Richtig ist, dass die realen Zahlen kein Klimarisiko zeigen im Gegensatz zu den Katastrophenvermutungen aus Modellen.
Was sind denn modellierte Katastrophenvermutungen?
Leute, die sich mit Risikobewertungen auskennen, interpretieren die Zahlen anders als Sie. Aktuell profitieren wir als menschliche Gesellschaft davon, dass der technologische Fortschritt mit den Gefahren aus den klimatischen Veränderungen Schritt hält. Ob das so bleibt ist zweifelhaft. Allein der beschleunigte Meeresspiegelanstieg ist eine enorme zukünftige Herausforderung.
Wenn dann noch Ökosysteme kippen (z.B. die Korallenriffe, der Amazonas, Hitzekollaps in den Tropen), kommen zusätzlich ganz andere Probleme auf uns zu.
Natürlich kann man auch darauf hoffen (oder einfach behaupten), dass es schon nicht so schlimm kommen wird, aber eine clevere Strategie ist das in meinen Augen nicht.
Viele der „Katastrophenszenarien“ sind modellabhängig und basieren oft auf hohen Emissionspfaden wie dem unrealistischen RCP8.5. Das sind Annahmen, keine Messungen und genau diese Annahmen werden selten offengelegt oder hinterfragt.
Das nenne ich modellierte Katastrophenvermutungen.
„Naiv finde ich immer das Geld-Argument. Das absolut meiste Geld wird weltweit mit der Bereitstellung fossiler Energien verdient. Da reden wir von Milliarden tagtäglich. Aber die grüne Lobby bestimmt, wo es lang, klar.“
Da ist doch nicht Naives dran. Wer Waren herstellt, der muss dies für den Verkauf tun. Energie ist täglich lebensnotwendige Ware. Bei 8 Milliarden Menschen, die täglich Energie einkaufen müssen, sind das automatisch hohe Summen.
Mischt sich Lobby und Politik, zentralplanerisch für ein kollektivistisches Ziel sehr stark einseitig regulierend, in diese Energieherstellungs-, Verkaufs- und Verbrauchsprozess ein, dann kann man mit Sicherheit davon ausgehen, dass Energiebereitstellung zu einem Sekundärprozess wird. Dadurch entstehen erst Knappheiten, dann Mängel, etc.. Der entstehende Primärprozess der Umverteilung ist sodann politisch determiniert, oder?
Herr Bienkopp, In Ihrem Text steckt keine echte Risikobewertung. Sie ersetzen Analyse durch eine Vermutung: Weil Anpassung heute funktioniert, könnte sie morgen versagen. Dafür nennen Sie weder Mechanismen noch Größenordnungen oder Zeithorizonte. Unsicherheit wird einfach als Verschärfung gelesen, obwohl sie in beide Richtungen gehen kann. Dazu werfen Sie sehr unterschiedliche Risiken in einen Topf, ohne sie vergleichbar zu machen. Und die Gegenposition stellen Sie als bloßes „Hoffen“ dar, obwohl es real um konkrete Abwägungen geht. Das ist kein belastbares Risikobild, sondern eher Rhetorik.
Risikobewertung sieht anders aus, hier fehlen bei Ihnen Zahlen, Annahmen und Vergleichsmaßstäbe. Das ist keine Analyse, sondern eben Rhetorik.
Es gibt aber zumindest ein paar harte Datenpunkte: Wenn man Todesfälle durch Naturkatastrophen pro 100000 Menschen anschaut, sind die über die letzten 100 Jahre deutlich gesunken. Das heißt, Anpassung und technischer Fortschritt haben bisher ziemlich gut funktioniert. Das schließt zukünftige Risiken nicht aus, aber Ihre implizite Annahme, dass sich das Risiko zwangsläufig verschärft, ergibt sich daraus eben nicht. Im Gegenteil: bessere Detektion, Frühwarnsysteme und Infrastruktur sprechen eher dafür, dass die Verwundbarkeit weiter sinkt, auch wenn die Gefährdung sich verändern kann.
Und der Verweis auf „Leute, die sich mit Risikobewertungen auskennen“ ersetzt keine nachvollziehbare Herleitung. Ohne Zahlen und Annahmen bleibt das nicht überprüfbar.
Natürlich steckt in meinem Text keine echte Risikobewertung, das ist ein Kommentar unter einem Blogbeitrag. Auch Ihre Texte bleiben sehr vage ohne belastbare Daten. Aber das ist ok, es sind ja mehr Anregungen darüber nachzudenken und sich gegebenenfalls näher zu informieren.
Wie bereits geschrieben, wenn man sich die Zahlen zu den Opfern von wetterbedingten Katastrophen näher anschaut, fällt sofort auf, das bis Mitte des vorigen Jahrhunderts diese von extremen Einzelereignissen dominiert werden. Und, diese Ereignisse sind lokal ungleich verteilt. Daraus allgemeine Schlussfolgerungen zu ziehen, ist deshalb aus statistischer Sicht problematisch. Aber davon abgesehen, gibt es noch andere Faktoren, die eine Entwarnung aus dem offensichtlichen (und natürlich zu begrüßenden) Rückgang der Opferzahlen erschweren. Anscheinend sind die Verbesserungen aus dem technischen Fortschritt weitestgehend ausgereizt. Zumindest lassen die wieder steigenden Zahlen das vermuten. Das liegt womöglich daran, das viele klimatische Extremereignisse eine nichtlineare Komponente haben. Das hat natürlich großen Einfluss auf die Risikobewertung. Und wenn wir mit europäischer Brille draufschauen, ergibt sich eh ein ganz anderes Bild. Hier nehmen die klimatisch bedingten Opferzahlen in den letzten Jahren deutlich zu und unsere ja prinzipiell sehr guten zivilisatorischen Voraussetzungen können das bisher nicht verhindern. Und da die Temperaturen aktuell weiter steigen, sind die Aussichten bei uns nicht so toll.
Achtung, auch das ist nur eine fragmentarischer Blick auf das Thema. Aber heutzutage ist ja zum Glück die Informationsbeschaffung ein Kinderspiel. Selbst die Primärliteratur ist sehr oft frei verfügbar. Sie können sich ja dazu belesen und dann Argumente gegen meine Position formulieren.
Ich würde mal sagen Klima bringt keinen um.
Von klimatisch bedingten Opfern kann man gar nicht sprechen.
Aber der nutzlose Versuch der Klimarettung bringt viele um, da all die verschwendeten Mittel echtem Katastrophenschutz entzogen werden.
Und en passant, der Bach muss die Brücke nicht mehr wegschwemmen – die Brücke legt sich freiwillig schon bei Niedrigwasser ins Bachbett, aber die moralische Haltung und das Klimamodell stimmen, oder?
(Leider gibt es an Brücken hierzulande keine Korallenbänke, zu deren Rettung man ggf. die Brücken instandgehalten hätte, bei uns kein Artenschutz für Pendler, oder?)
Ja das kann man so sagen. Sowohl beim Club of Rome als auch bei der Anti-Atom-Debatte zeigt sich ein wiederkehrendes Muster: Risiken werden unter hoher Unsicherheit mit vereinfachten Annahmen theoretisch modelliert und Politiker sowie Wissenschaftler neigen dabei zur Überschätzung ihrer Modelle, insbesondere wenn Anpassungsmechanismen wie technologische Entwicklung oder Marktreaktionen unzureichend berücksichtigt werden. Das bedeutet nicht, dass Umweltrisiken nicht existieren, sondern dass ihre quantitative Bewertung mit Vorsicht zu genießen ist. Die Brundtland Kommission hatte ja darauf hingewiesen, dass Gegenmassnahmen auch sehr schädlich sein können. Das wurde politisch immer wieder ignoriert und findet sich in der UN Politik nicht mehr wieder. Aus den vorliegenden Daten in der realen Welt kann man gut bewerten, dass Klimarisiken gering sind.
Ja zum Glück. Die Daten zeigen, dass das Klimarisiko gering ist.
Nein Herr Heß, das zeigen die Daten eben nicht. Auch Sie haben die Opferzahlen aggregiert. Dadurch entsteht ein falscher Eindruck. Auf Jahreseben wird sofort klar, die Statistik wird von Einzelereignissen dominiert. Wenige extreme Fluten und Dürren in einzelnen Jahren führen zu diesem Verlauf. Und das sind sehr seltene Extremwettergeschehen, die sich mittlerweile gut verhindern lassen: Bei Fluten über technischen Fortschritt (vor allem Dämme), bei Dürren über internationale Nahrungsverteilung. Das ist in jedem Falle eine gute Nachricht.
Aber die steigenden Temperaturen führen zu neuen Risiken, die dann weitaus schwieriger technisch zu bewältigen sind. Um mal ein Beispiel zu geben: In den feuchten Tropen ist jede weitere Temperaturerhöhung hochriskant. Ab einem Limit (35°) ist für die Säugetiere (und damit auch dem Menschen) kein Überleben in diesen Gebieten mehr möglich. Das ist keine graue Theorie, sondern gut dokumentiert (Wet-bulb temperature). Solange wir uns diesem Limit annähern, passiert noch nicht allzu viel. Aber mit Erreichen ändert sich die Situation dramatisch. Das ist die Nichtlinearität, von der ich oben geschrieben habe. Auch bei Windgeschwindigkeiten, Wasserständen bei Sturmfluten oder Regenmengen gibt es Grenzüberschreitungen, die unsere technischen Möglichkeiten mit einem Mal überfordern und sich nicht einfach nachskalieren lassen.
Das alles (und noch sehr viel mehr) fließt in eine gut gemachte Risikoanalyse ein. Oder aber man schaut auf ein Bild von Herrn Lomborg (der über eine geschickte Wahl der Zeiträume ein noch „besseres“ Bild als Sie hinbekommen hat) und lehnt sich entspannt zurück. Probleme? Sehe ich keine…
Ja wie gesagt, es gibt keine Klimatoten.
Da möchte ich widersprechen, es gibt Kältetote.
Ist kein Widerspruch. Kälte ist kein Klima.
Hier die Statistik (jährlich) zum besseren Verständnis:
Ja. Auch dieses Bild zeigt, dass es durch die Gegenmaßnahmen technischer Fortschritt und Wirtschaftswachstum bewirkt vor Allem durch fossile Energien, kein Klimarisiko mehr gibt und das Beides die besten Gegenmaßnahmen wären für denjenigen der ein Klimarisiko modelliert zur Beruhigung und für FFF. Im Grunde ist es ja vor Allem das Wetterrisiko.
Von welchen „klimatisch bedingten Opferzahlen“ in Europa reden Sie hier? Werden Sie doch mal konkret!
Ich habe mal schnell recherchiert und Folgendes gefunden:
„In Europa sterben im Winter im Durchschnitt etwa16 % bis 35 % mehr Menschenan Herz-Kreislauf-Erkrankungen als im Sommer.“
„Traditionell erreichen die Sterbezahlen im August ihren niedrigsten Stand.“
Also noch einmal die Frage: Welche „klimatisch bedingten Opfer“ meinen Sie?
Ja, es sterben im Winter deutlich mehr Menschen in Europa (oder besser in allen Ländern mit deutlichen Jahreszeiten) als im Sommer. Das hat aber nur sekundär etwas mit Kälte zu tun. Die Hauptursache sind virale Atemwegserkrankungen. Und die passieren in der kalten Jahreszeit messbar häufiger, weil unsere Schleimhäute in der trockenen Luft (vor allem in den Innenräumen) als erste Abwehr-Barriere diese Aufgabe nicht mehr gut erfüllen. Ich vermute (das können sie gern ausrechnen, wenn es Sie interessiert), dass es eher eine hohe Korrelation an Sterbezahlen mit der Virulenz des jeweiligen Grippestammes gibt, als mit den Temperaturen der Wintersaison.
Ein starkes Indiz für die Vermurung lieferte das erste Corona-Jahr. Auf Grund der hohen Schutzmaßnahmen gegen Virusübertragungen ist die Wintersterblichkeit nahezu weggebrochen. Das war in den deutschlandweiten Zahlen nicht so einfach zu sehen, da Corona selbst die Infektionen wieder erhöht hat. Aber in manchen Bundesländern war das eine auffällige Begleiterscheinung dieser Zeit.
Dazu kommt, dass die ostdeutschen Länder generell eine geringere Wintersterblichkeit hatten, da dort die Impfrate gegen Grippe traditionell deutlich höher (doppelt so hoch) als im Rest des Landes ist. Von den Temperaturen sollte das ja nicht getriggert sein, die sind nun wieder im Winter östlich eher tiefer.
Weil im Sommer, wie Sie richtig schrieben, die Übersterblichkeit normalerweise sehr gering ist und damit eine sehr flache Kurve entsteht, kann man in den letzten Jahren einen deutlichen zusätzlichen Peak während längeren Hitzeperioden sehen und messen. Das sind die klima- (oder besser wetter-) bedingten Opfer.
Als Erklärung ok?
Die angehängte Grafik ist von Statista für europäische Länder…
Sie sollten schon korrekt auf meine Argumente eingehen. Es ging nicht um die Gesamtsterblichkeit, sondern allein um die durch Herz-Kreislauf-Erkrankungen bedingten Sterbefälle und diesbezüglich ist die Sterblichkeit im August am geringsten.
Bzgl. Ihrer Grafik: An welchen Kriterien erkennt man einen hitzebedingten Todesfall? Nach welchen medizinischen Kriterien legt man fest, dass es sich um „Hitze“ und nicht um „Wärme“ handelt?
Warum ist die Sommersterblichkeit in den Mittelmeeranrainerstaaten deutlich niedriger als im kühleren Deutschland?
Vermutlich weil die in Krankenhäusern und Altenheimen Klimaanlagen installieren statt Lastenfahrräder zu subventionieren.
… geht es um etwas ganz anderes, als um Wissenschaft oder aussagekräftige Statistik, Herr Bienkopp.
Die Logik der Leugner ist eine gänzlich andere und die geht so:
Nein, will ich nicht. Die Globaltemperatur gibt es nicht und wenn, dann steigt sie nicht an. Der zur Globaltemperatur passende Anstieg der CO2-Konzetration ist Zufall. Der Anstieg der Konzentration wird auf keinen Fall durch uns verursacht. Treibhausgase gibt es nicht, bzw. haben keinen Einfluss auf die Temperatur oder/und das Klima. Alles andere ist Ursache der Erwärmung, aber nicht die Treibhausgase. Der Anstieg der Temperaturen ist für die Natur immer positiv. Also ändern wir nichts.
Sie beschreiben nicht die Logik der „Leugner“!
Das ist Ihre völlig falsche und infantile Vorstellung der Gedankenwelt von Kritikern der verbreiteten CO2-Theorie und ist eher eine Beschreibung Ihrer eindimensionalen Betrachtungsweise. Diese beginnt schon beim allerersten Punkt, der „Globaltemperatur“.
Diejenigen, die vehement behaupten, die ermittelte Globaltemperatur ist bedeutungslos und lässt keine Aussagen über energetischen Zustand der Erde zu, können sicher ganz einfach folgende Fragen beantworten:
1. Warum stimmen die Jahreswerte so gut überein? Das klingt trivial, ist aber bei einer
bedeutungslosen Zahl nicht zu erwarten.
2. Wieso wird der Jahresgang der globalen Temperatur (spezifisch für die Wasser- und
Lufttemperaturen) immer wieder korrekt abgebildet, wenn dieser Wert keinen Bezug
zum Energiegehalt des Erdsystems hat? Bei den Meerestemperaturen sind das
Änderungen im Zehntelgrad-Bereich!
3. Warum lassen sich in den globalen Temperaturreihen gut untersuchte Oszillationen
(z.B. ENSO) oder Störungen (Vulkanausbrüche) klar erkennen?
4. Weshalb korreliert der gemessene Temperaturanstieg erstaunlich gut mit dem
Meeresspiegelanstieg?
Ich bin auf die Antworten gespannt. Beste Grüße, Ole
Wie genau lassen sich Meerestemperaturen angeben – dazu noch angeblich im Zehntelgrad-Bereich – wenn eine Argo-Boje gerade mal eine Fläche von ca. 90.000 km^2 abdeckt und die sich dazu noch täglich an einer anderen Position befindet? Wird diese „Genauigkeit“ nicht vielmehr durch ungeeignete statistische Modelle erzeugt?
Dass wir uns im Moment einer etwas wärmeren Phase der Erdgeschichte befinden ist für mich unumstritten. Warum das so ist, dafür gibt es viele mögliche Erklärungsansätze, die neben der CO2-These auch durchaus andere anthropogene Einflüsse beinhalten – beispielsweise Änderung der Verdunstungsraten durch Flächenversiegelung. Aber gerade historische Aufzeichnungen der Erdgeschichte zeigen doch, dass wärmere Phasen optimalere Lebensbedingungen für die Tier- und Pflanzenwelt mit sich brachten. Wo ist also das Problem?
„Dass wir uns im Moment einer etwas wärmeren Phase der Erdgeschichte befinden ist für mich unumstritten.“
Dass wir uns im Moment in einer wärmeren Phase befinden, ist nur eine Frage des gewählten Zeitfensters.
Bezüglich welcher Phase der Erdgeschichte soll das gelten?
Im Vergleich zur „Kleinen Eiszeit“? Sicher.
Im Vergleich zum Holozän-Maximum oder dem Mesozoikum? Sicher nicht.
Die entscheidende Frage ist: Ist das überhaupt von Bedeutung, wenn wir es ohnehin nicht ändern können?
Es besteht ein ausdrücklicher Zwang zur Anpassung.
Evolutionär betrachtet ist die Äffin nicht vom Baum gestiegen, um zu flanieren, sich den neusten Klimabericht des IPCC vom Kiosk zu holen, sondern weil der Wald verschwand und sie sich anpassen musste.
Der Mensch passt sich durch Technik an: Der Eskimo lässt sich kein Fell wachsen, er nutzt das Fell eines Bären und heizt sein Iglu.
Der heutige Katarer kühlt seine Bushaltestelle und Jogingstrecken mitten in der Wüste.
Anpassung funktioniert über die Verfügbarkeit billiger Energie.
Das ist die Lösung.
Solange Energie bezahlbar ist, bleibt die eigene „Höhle“ wohnlich – egal bei welchem Außenklima. Wenn die Politik Energie künstlich verteuert, wird die schützende Höhle zur persönlichen Hölle. Wer die Energie teuer macht, heizt nur den Unmut an, nicht das Zimmer.
Angeblich zukünftig billige Energie – angeblich!! – nützt auch heute von den mit begrenzter Lebens- und Glückszeit Lebenden nur denen mit Haltung.
Am Ende rettet uns keine „Haltung“, keine Religion – denn dauerhaft gute Haltung und Glauben haben nur Fossilien.
Der Mensch lebt nicht durch das richtige Bekenntnis, sondern durch Ingenieurskunst und bezahlbare Ressourcen. Lösungen kommen aus der Werkstatt, nicht aus dem Gebetbuch des PIK und des IPCC.
Alles andere ist Metaphysik – also heutige Politik – statt Klimarealismus, oder?
… Diesbezüglich sind wir uns völlig einig 😉
Siehe dazu auch
Klima-Physik: Wie fundierte Wissenschaft das CO2-Narrativ korrigiert
2026_04_19
https://tkp.at/2026/04/19/klima-physik-wie-fundierte-wissenschaft-das-co2-narrativ-korrigiert/
CERES Team Shines at Heartland Institute’s ICCC16 Bold Voices for Climate Realism
Mit 3 Foliensätzen der Vortragenden
https://www.ceres-science.com/post/ceres-team-shines-at-heartland-institutes-iccc16-conference
Aller Vorträge auf der ICC
https://climateconference.heartland.org
Ja, der Kaiser ist nackt! Man kann das nicht oft genug sagen. Nur ist m. E. auch diesmal – wie leider so oft – in der Beweisführung ein Fehler enthalten: Eine Mittelwertbildung ist ein rein mathematischer Vorgang, den man immer manchen darf. Die Mathematik ist geduldig, es kommt immer nur darauf an, welche Schlüsse man daraus zieht. Und wahrscheinlich kann man sogar immer auch irgendeinen Nutzen aus einem Mittelwert ziehen. Das gilt selbst bei dem im Beitrag angeführten Trivial-Beispiel der Postleitzahlen aller Einwohner New Yorks: Wenn man außerhalb von New York ist, dann kann auch dieser Wert ein brauchbarer Hinweis auf „die richtige Richtung“ sein, wenn man eine Karte mit eingetragenen Postleitzahlen hat.
Und so ist es auch mit Temperaturmittelwerten: Manche daraus abgeleitete Aussage ist zulässig, manche nicht. Ob z. B. ein bestimmtes Land eher in Äquatornähe oder eher in Polnähe liegt, das kann aus der mittleren Temperatur sogar zuverlässiger beurteilt werden als aus zwei Einzelmessungen. Oder auch, ob es die Kleine Eiszeit gegeben hat oder nicht, ist aus Jahresmittelwerten recht zuverlässig beurteilbar. Das Gleiche gilt, als letztes Beispiel, auch für die Frage, ob es in den USA in den 30-er Jahren ähnlich warm war wie heute und dazwischen kühler. Temperatur-Mittelwerte sind nicht nur zulässig, sondern für manche Dinge auch aussagkräftig.
Der Kaiser ist nicht nackt, weil er Temperaturen mittelt, sondern er ist nackt, weil er bei dieser Mittelung trickst und weil er bei den gezogenen Schlüssen nicht ausreichend auf deren Tragfähigkeit achtet, z. B. bezüglich ausreichender Messgenauigkeit. Auf diese Fehler aufmerksam gemacht zu haben, ist ein großer Verdienst des Beitrags von J. Cohler. Nur leider wird der gesamte Beitrag m. E. durch die genannte Fehlbeurteilung der Mittelwertbildung entwertet. In einem Kommentar zum Beitrag heißt es auch treffend: „Auch Einstein hat sinngemäß schon gesagt, wenn eine Theorie an einem Punkt falsch ist, ist das gesamte Konstrukt falsch“. Das war zwar umgekehrt gemeint, es kann aber zu leicht auch auf den Beitrag von J. Cohler angewendet werden: Aussage zur Mittelung falsch, alles falsch?
Der Kaiser ist doch nackt, weil es ihm nämlich viel zu heiß geworden ist in unserem beinahe brennenden Vaterland. Der stürbe einen Hitzetod, trüge er standesgemäß einen Hermelin…
Dieser Kaiser war schon immer nackt und EIKE sagt das seit 2 Jahrzehnten täglich.
.
„CO2-Messungen im 19. Jahrhundert: Was Chemiker fanden und warum es die Klimaforschung ignoriert
20. April 2026″
1857 „Das entspricht exakt 415 ppm. Die Einzelwerte schwankten je nach Wetter, Standort und Jahreszeit zwischen etwa 315 und 574 ppm.“
1888 – „„CO₂ findet sich zu etwa 0,04 Proz. in der Atmosphäre“.“
(Was beim Artikel fehlt, man vergißt die tägliche Schwankung nach Uhrzeit zu erwähnen, wie man schon lange bei EIKE lesen konnte)
Im 19. Jahrhundert gab es auch schon Lügen-Presse.
Ordentliche Quellenangaben wären hilfreich.
Die Globaltemperatur ist bedeutungslos!
Mr. Cohler gibt eine gute Beschreibung der Situation:
Eine Globaltemperatur (GMST) als Mittelwert von Temperaturen aus dem Flickenteppich der Klimazonen herauszurechnen, ist zwar im Prinzip möglich, aber dieser Wert ist völlig bedeutungslos, denn eine Temperatur beschreibt physikalisch allerhöchstens den Zustand eines begrenzten spezifischen physikalischen Systems, dessen Zustandsgleichung eindeutig definiert ist.
So kann man z.B über die Temperatur einer Kaffeetasse sprechen und daraus deren Energieinhalt berechnen, man kann sie aber nicht mit der Temperatur einer danebenstehenden anderen Kaffeetasse vergleichen und daraus eine „Kaffeetassenglobaltemperatur“ mitteln. Der Wert ist völlig sinnlos, da Temperatur keine „Erhaltungsgröße“ wie z.B. die Energie ist. Eher ließe sich die Summe der Energien (proportional der Temperatur mal der Masse mal weiterer physikalischer Werte) der einzelnen Tasseninhalte mitteln. Diese mittlere Energie hat aber nichts mit der „mittleren Kaffetassentemperatur“ zu tun!
So erhöht auch ein verstärkter Wärmeenergieaustausch von der Tropen hin zu den Polen, der zur Zeit zuzunehmen scheint – aus welchen Gründen auch immer -, eine „Globaltemperatur“ nicht unerheblich, ohne daß irgendein Treibhauseffekte dafür verantwortlich wäre.
Es fällt einem immer wieder auf, daß auf IPCC-Seite ab und zu rechte „Klein-Fritzchen-Physik“ betrieben wird, so daß man sich fragt, wo manche dieser Herren-Damen ihre Physik gelernt haben.
Das Fazit ist eindeutig: Aus einer Globaltemperatur (GMST) lassen sich keine ,,Klimaaussagen
herleiten.MfG
G.Wedekind
Die wissen das ganz genau. Und lügen trotzdem.
Sehr geehrter Herr Michael Mechtel, danke für den Kommentar.
… wenn Sie die Energien in Ihren Kaffeetassen mitteln, wie Sie vorschlagen, dann hat das sehr wohl etwas mit deren mittlerer Temperatur zu tun, sehr viel sogar!
… natürlich, wenn man nur wissen will, ob der Kaffee heiß genug ist, oder wenn man einfach definiert, daß Klimaänderung nichts als eine Änderung der Globaltemperatur sei. Energetisch gesehen, ist aber z.B. eine Temperaturänderung in Wüstengebieten etwas völlig anderes als in Regenwaldgebieten.
Eigentlich fehlt eine saubere Definition, was man unter den sehr komplexen Begriffen „Klima“ und „Klimaänderung“ verstehen sollte. Daß das IPCC versucht, „Klimaänderung“ über ein Energieungleichgewicht zu definieren, ist vielleicht ein erster Schritt in die richtige Richtung, aber das ist, wie oben im Bericht erwähnt, in wegen seiner geringen Größe im Vergleich zu den gesamten Energieflüssen praktisch nicht meßbar.
MfG
G.Wedekind
„Klein Fritzchen Physik“, das ist Absicht. Die wollen das Geschäftsmodell CO2-Klimalüge weiter am Laufen halten. Denn davon leben diese Leute.
Man kann nicht aus mehreren Tassen eine „Kaffeetassenglobaltemperatur“ mitteln?
Herr Wedekind, boshafterweise stelle ich mir folgende Situation vor: ich bin Qualitätsprüfer für Restaurants und möchte wissen, ob der Kaffee in einem Betrieb heiß genug ausgeliefert wird. Ich messe also in jeder Tasse Kaffee, die einem Kunden serviert wird, die Temperatur (eine fiktive Situation, versteht sich). Dann kann ich daraus eine Mitteltemperatur bilden, um zu sehen, wie gut eine Sollvorgabe eingehalten wird. Das gleiche kann ich ein Jahr später bei einer Wiederholungsprüfung nochmals machen und anhand der Mittelwerte beurteilen, ob sich die Qualität verändert hat und wenn ja, ob zum besseren oder zum schlechteren.
Nur mal als Idee. Damit will ich aber weder den Artikel, den ich gut finde, noch Ihren Kommentar schlechtreden. Nur ein Kritikpunkt noch: wenn Sie die Energien in Ihren Kaffeetassen mitteln, wie Sie vorschlagen, dann hat das sehr wohl etwas mit deren mittlerer Temperatur zu tun, sehr viel sogar!
Ich wuerde sie nicht als Qualitaetspruefer einsetzen!
Sie messen die Temperatur, wenn sie unter dem Sollwert ist, ist die Qualitaet nicht erreicht. Sie zaehlen die Faelle und brauchen keine Mitteltemperatur, die hier keine Bedeutung hat.
……Wie der IPCC ein 38-jähriges Klimaimperium auf einem Lügengebäude errichtete….Wird im Artikel wunderbar dargestellt. Aber das ist nicht das Problem. Die Frage lautet, wie reißen wir das Lügengebäude wieder ein.
Erst die Ursache feststellen, dann zur Wirkung übergehen. Soweit die Theorie.
Ich fürchte allerdings das das Einreißen dieses Blendwerks mindestens solang dauert wie die Gehirnwäsche. Also rd. 40 Jahre.
Schneller wird es gehen, wenn die Leute merken es geht ihnen nicht nur ans Geld, sondern auch an den Arbeitsplatz, die Wohnung und alles was Ihre Mütter und Väter aufgebaut haben. Dann wird es schneller gehen, doch zu welchem Preis.
„Die Frage lautet, wie reißen wir das Lügengebäude wieder ein.“
Herr Kowatsch, nur keine Eile, das Lügengebäude wurde absichtlich errichtet, was dank entsprechend geschulter Bevölkerung gut geklappt hat. Wenn es also seinen Zweck erfüllt hat, wird sich keiner mehr drum scheren.
Der Zweck ist, das weltweite Finanzsystem kontrolliert gleichzeitig zu zerstören. Gleichzeitigkeit ist wichtig, damit kein Volk einen zeitlichen Startvorteil hat mit der neuen Wirtschaftsform. Dem Kapitalismus.
Was soll man sonst davon halten, wenn das Land das die Weltleitwährung betreibt, den weltweiten Handel selbst durch Zölle und Blockaden behindert?
Also den CO2-Absorptionstricher und die von O3, CH4 und Wasserdampf kann man im Auststrahlungsspektrum sehen.
Dann erläutern Sie doch mal wie sich das auf die Temperatur der Luft auswirkt, wie machen sog. GHGs Luft warm, um 33K? Ihr „Argument“ sagt nichts darüber aus wie der Effekt technisch gesehen funktionieren soll, ein sog. Nothing-Burger.
„Was ist das?“ – „Blaues Licht.“ – „Und was macht es?“ – „Es leuchtet blau.“ – John Rambo + Hamid
Und was sagt dies in Verbindung zu obigem Artikel nun aus? Oder hat das irgendwer in Zweifel gezogen und ich habs schlicht überlesen?
Auch die Behauptung, die Erde wäre in einem permanenten energetischen „Ungleichgewicht“ ist unphysikalisch!
Weil was würde das bedeuten, wenn wie von IPCC behauptet +0,7 ± 0,2 Watt pro Quadratmeter permanent mehr eingespeichert als abgegeben würden? Nehmen wir der einfachheit halber +0,8 W/m². Nach einem Tag wären das je m² +19,2 Wh, nach einem Monat 595 Wh oder ca. 0,6 kWh, nach einem Jahr ca. +7,2 kWh pro m², usw.
Es würde also bedeuten, bei angenommen unveränderter Sonneneinstrahlung würde sich die Erde ununterbrochen energetisch anreichern, wäre also unfähig, das zu tun, was das grundsätzliche physikalisch Prinzip des Energiegleichgewichts erfordert!
In der Wirklichkeit kann man schön beobachten, wie auf jede Tageserwärmung eine Nachtabkühlung erfolgt, es also keinen sich kumulierenden „Wärmeübertrag“ gibt.
Seit langem die im physikalischen Sinne sinnvollste Beschreibung der „Klimasituation“. Man kann nur hoffen, dass diese Darstellung in die Erziehung und Ausbildung nachfolgender Generationen eingeht.
Sehr geehrter Herr Bueren, Ihre klimapädagogische Hoffnung auf die nachfolgende Generation ist, so meine ich, leider verfehlt. Es gibt an den deutschen Schulen offensichtlich permanent gezielte Verstöße gegen den Beutelsbacher Konsens von 1972. Lesen Sie bitte einmal über gut funktionierende und bestens etablierte Klimaindoktrination in Schulen am unten aufgeführten Beispiel:
INTERVIEW MIT KLIMABOTSCHAFTERIN JULIA
Als Klimabotschafterin das Klimaschutz-Wissen an junge Menschen weitergeben
Der KEAN ist es ein wichtiges Anliegen, den Wünschen und Ideen der jungen Generation eine Stimme zu geben und diese weiterzutragen. Daher haben wir ein Interview mit Julia geführt, die sich im Mai 2022 zur Klimabotschafterin hat ausbilden lassen. Wir haben bei Julia nachgefragt, was sie zu der Ausbildung motiviert hat, wie ihre Wünsche an Gesellschaft und Politik lauten und wie der Klimaschutz in Schulen verbessert werden kann.
Veröffentlicht am: 05. Juli 2022
Im Projekt „Schule·Klima·Wandel 2.0″ wurden im Frühjahr 2022 Schülerinnen und Schüler im Alter von 14 bis 19 Jahren zu Klimabotschafterinnen und Klimabotschaftern ausgebildet. Das Ziel: Junge Menschen fit machen in Sachen Klimaschutz und Nachhaltigkeit, damit diese dann ihr Wissen in Workshops an Gleichaltrige weitergeben können – nicht nur, aber auch in Niedersachsen. Eine der Schulungen fand vom 9. bis 14. Mai in der Region Hannover statt. Unter den 16 Teilnehmenden war auch die fünfzehnjährige Julia.
Selbst aktiv werden und etwas bewirken
KEAN: Was hat Dich motiviert, Dich für die Ausbildung zu bewerben?
Julia: Ich erlebe oft, dass Menschen nicht viel über den Klimawandel wissen. Das Wissen um die Zusammenhänge des Klimawandels ist aber die Basis, um aktiv zu werden für den Klimaschutz. Meine Motivation war, dieses Wissen weiterzugeben, ganz besonders an andere junge Menschen. Daher war ich begeistert von der Möglichkeit, selbst etwas zu machen, selbst etwas zu bewirken. Dabei hat mich vor allem das Peer-to-Peer-Prinzip überzeugt, also das Lernen unter Gleichaltrigen.
KEAN: Was hast Du in der Ausbildung gelernt? Was hat Dich dabei am meisten beeindruckt?
Julia: Natürlich haben wir in der Ausbildung die Grundlagen zu Klimaschutz und Klimawandel gelernt, wie den Treibhauseffekt und die Erderwärmung. Aber im Fokus standen Projekt-Management und wie man interaktive Workshops leitet. Wir haben geübt, wie man vor Gruppen redet und das eigene Wissen für junge Menschen gut verständlich rüberbringt. Mein persönliches Aha-Erlebnis war das Weltverteilungsspiel, bei dem wir uns einmal anhand der Weltbevölkerung auf den Kontinenten aufgestellt haben.
Beim zweiten Mal ging die Aufteilung dann anhand der CO2-Emissionen. Dabei sind die viel höheren CO2-Emissionen der Industrieländer sichtbar geworden. Das hat die globale Klima-Ungerechtigkeit für mich so deutlich gemacht und auch, wie sehr die Welt unter dem Wohlstand vergleichsweise weniger Menschen leidet. Sehr gut gefallen haben mir die abendlichen Fragerunden. Vieles davon nehme ich in meinem Alltag mit – auch Vieles, was man nicht im Klassenraum lernen kann.
Argumentieren: Ja, aber nicht mit allen
KEAN: Habt ihr dabei auch Tipps bekommen, wie man mit Klimaskeptikern umgehen kann?
Julia: Ja, auch dazu haben wir Methoden gelernt. Aber auch, dass es hier immer wichtig ist, nach den Ursachen zu schauen: Oft sind Emotionen wie Ignoranz oder auch Angst der Grund. Hier kann man versuchen, sich mit den Argumenten auf diese Gefühlslagen zu beziehen und muss dabei immer sachlich bleiben. Das haben wir in Rollenspielen geübt. Anders sieht es bei felsenfesten Klimaleugnern aus, die ihre Meinung nicht diskutieren wollen. Hier brauchen wir uns nicht zu verkämpfen, das ist sinnlos.
Entschlossen gemeinsam handeln
KEAN: Bei manchen Menschen erzeugt der Gedanke an den Klimawandel Angst oder Resignation angesichts seiner dramatischen möglichen Folgen der Zukunft. Habt ihr auch gelernt, damit umzugehen?
Julia: Auch das war ein Thema. Wir haben gelernt, dass man diesen Gefühlen am besten mit hoffnungsvollen Beispielen begegnet – wie dem Ozonloch, das sich nach dem weltweiten Verbot von FCKW-Gasen wieder erholt. Dieses Beispiel macht Mut. Es zeigt: Wenn die Weltgemeinschaft entschlossen und gemeinsam handelt, können wir auch dem Klimawandel etwas entgegensetzen!
KEAN: Wie soll es nun mit Dir als Klimabotschafterin weiter gehen?
Julia: Ich freue mich schon auf meine ersten Einsätze, die nach den Sommerferien stattfinden sollen. Das funktioniert dann so: Schulen oder auch Jugendgruppen, die eine Klimabotschafterin oder einen Klimabotschafter für einen Workshop oder auch Projekttage einladen wollen, wenden sich an das Projektteam in Berlin. Von dort bekommen wir über eine App die Anfrage mit Ort und Termin. Dann wird geschaut, wer die Anfrage übernehmen kann und die Inhalte der Workshops werden individuell angesprochen.
Mehr Klimaschutz in Schulen
KEAN: Wie könnte man Klimaschutz noch besser zum Thema in Schulen machen?
Julia: Das würde ich mir auf jeden Fall wünschen! Das Thema sollte schon ganz früh in Schulen auf dem Plan stehen, also in den Grundschulen. Den Treibhauseffekt kann man sehr gut auch Jüngeren erklären. Jede weiterführende Schule sollte eine Klima-AG haben. Jeder kann und sollte einen Teil zum Klimaschutz beitragen und Schulen sollten dies mehr fördern – in AGs geht das sehr gut.
Forderungen an die Politik
KEAN: Wenn Du drei Wünsche an die Politik frei hättest, welche wären das?
Julia: Mein erster Wunsch ist, dass wir weniger Produkte importieren – vor allem bei Lebensmitteln, aber auch weniger Fast-Fashion. Eine Jeans reist mehr als einmal um die Welt, bis sie bei uns im Laden hängt. Da stimmt doch etwas nicht. Waren aus dem eigenen Land stärken die heimische Wirtschaft und vermeiden Emissionen. Damit wird nicht nur die Umwelt geschützt, sondern wir sind auch unabhängiger von anderen Ländern.
Mein zweiter Wunsch: Die Welt verändert sich, durch den Klimawandel aber auch den Krieg in der Ukraine. Wir leben in einer Zeit des Wandels und Politik muss sich daran anpassen. Die alten Denkweisen passen nicht mehr in die Welt, wie wir sie aktuell haben. Wir brauchen einen neuen Blick auf die Welt, auch in der Politik. Und drittens sollte Politik gerechter handeln. Das Wohl der Menschen in Deutschland, aber auch auf der ganzen Welt, sollte nicht mehr dem Profitstreben großer Konzerne untergeordnet werden!
KEAN: Wie denkst Du, können wir Dich dabei unterstützen?Julia: Dieses Interview und die Plattform, die die KEAN mir damit bietet, ist genau die Unterstützung, die ich mir wünsche. Das Problem von uns jungen Menschen ist, dass man uns oft nicht zuhört oder uns nicht ernst nimmt, weil wir noch nicht „erwachsen“ sind. Aber es ist vor allem unsere Zukunft, über die die Erwachsenen entscheiden. Unsere Gesellschaft muss offener werden. Jungen Menschen muss mehr zugehört und die Möglichkeit gegeben werden, sich einzubringen. Denn wir haben nur diese eine Welt und sie sollte uns wichtiger sein als Dinge wie ungebremstes Gewinnstreben oder Statussymbole.
KEAN: Was ist Deine Version von der „Welt von morgen“ – was wünscht Du Dir für die Zukunft?
Julia: Ich wünsche mir, dass jeder Mensch seinen Teil dazu beiträgt, dass wir in Zukunft alle ein gutes Leben auf unserer Erde leben können. Daher würde ich mir mehr Aktivität aller Generationen wünschen – Passivität finde ich fast so schlimm wie Ignoranz gegenüber dem Klimawandel.
Und auf jeder Schule sollte eine Solar-Anlage sein, damit die Schulen ihre Emissionen senken können. Als Klimabotschafterin weiß ich um die Gefahren der Klimakrise, aber auch die Chancen, junge Menschen oder auch mein direktes Umfeld für mehr Klimaschutz zu motivieren.
KEAN: Liebe Julia, vielen Dank für dieses Gespräch! Wir wünschen Dir viel Erfolg für Deine Einsätze als Klimabotschafterin. Mit engagierten jungen Menschen wie Dir sind wir uns sicher, dass hier eine Generation aufwächst, in der viele die Ernsthaftigkeit des Klimawandels erkannt haben und entsprechend handeln.
Projekt Schule·Klima·Wandel 2.0
Das Projekt „Schule·Klima·Wandel 2.0″ hat zum Ziel, eine (Klima-)gerechte Zukunft für alle zu schaffen und die Weichen für die kommenden Generationen zu stellen. Dabei werden junge Menschen angesprochen, gemeinsam mit Gleichaltrigen aktiv zu werden und ihre Schule und ihr Umfeld für eine nachhaltigere Zukunft mitzugestalten. Bundesweit wurden im Frühjahr 2022 in drei Schulungen 45 junge Freiwillige zu Klimabotschafterinnen und Klimabotschaftern ausgebildet. Sie geben nun ihr Wissen an Schulen weiter.
Für Lehrkräfte ab der siebten Klasse werden über das Projektteam individuelle Unterrichtseinheiten vermittelt, aber auch Inhalte und Themen für Projektarbeit. Auch Schülerinnen und Schüler können sich direkt beim Projektteam melden, wenn sie mehr über den Klimaschutz lernen wollen und Unterstützung bei konkreten Projekten brauchen.
Das Projekt „Schule·Klima·Wandel 2.0″ wird noch bis Ende Mai 2024 von der Bundesregierung über die Nationale Klimaschutzinitiative gefördert. Dadurch sind die Besuche der jungen Klimabotschafterinnen und Klimabotschafter für Schulen und andere Interessierte in diesem Zeitraum kostenlos. Koordiniert wird das Projekt vom Verein Bildungswerk für Schülervertretung und Schülerbeteiligung e.V. (SV-Bildungswerk).
Bildungsreferent Matthias Koning vom SV-Bildungswerk betont: „Den Lernort Schule nachhaltig zu verändern und Jugendliche zu ermutigen, Gestaltende einer klimafreundlichen Schule und Gesellschaft zu sein – das ist die Idee hinter und das Ziel von „Schule·Klima·Wandel“. Denn Jugendliche sind Expertinnen und Experten in eigener Sache – sie können und wollen Zukunft selbst gestalten. Nur oft werden sie noch nicht mal gefragt. Für uns als SV-Bildungswerk ist es deswegen besonders wichtig, dass wir Jugendliche darin bestärken, sich nicht nur damit zu befassen, wie die nächste Prüfung bestanden wird, sondern dass das gemeinsame Lernen für ihr Leben und ihre Mit- und Umwelt Sinn macht. Und wir beginnen da, wo Jugendliche mitunter die meiste Zeit verbringen, und es genug zu tun gibt: in der Schule“. Das SV-Bildungswerk bietet neben „Schule·Klima·Wandel“ auch langfristige Schulbegleitungen an, z.B. durch eine Klima-AG.
Quelle:
https://www.klimaschutz-niedersachsen.de/aktuelles/index/Als-Klimabotschafterin-das-Klimaschutz-Wissen-an-junge-Menschen-weitergeben-2460
Zu lesen unter:
https://www.klimaschutz-niedersachsen.de/themen/klimabildung/So-gelingt-Klimaschutz-in-Schulen.php
Kontakt: Ruth Märtin, Tel.: 0151 526 324 83
ruth.maertin@klimaschutz-niedersachsen.de
Anmerkung: die im Original publizierten Fotos habe ich aus Platzgründen weggelassen.
Der MgKw ist letztlich eine sozialistische Idee. Und der tiefste Kern der Sozialisten ist es, ALLES, und wirklich ALLES selber und möglichst zentral zu kontrollieren. Ein Wetter dass seine eigenen Gesetze hat und tut was es will, das geht gar nicht in deren Ideologie. Das Wetter hat sich ihnen unterzuordnen. Die Sozialisten lehnen einen Schöpfergott ab und beanspruchen dessen Position für sich.
„Wie der IPCC ein 38-jähriges Klimaimperium auf einem Lügengebäude errichtete“
Ein aufschlussreicher Artikel, der den Missbrauch der Physik mit dem Ziel, die Mehrheit von Physik Unkundigen hinter das Licht zu führen, beleuchtet. Die überwiegende Zahl von Menschen glaubt an eine Globaltemperatur, die es physikalisch absolut nicht geben kann. Es ist eine erfundene vollkommen sinnlose Größe.
Tatsächlich ist das Ganze nur eines:
Ein gewaltiger und international übergreifender krimineller Akt! Von wenigen ausgedacht, die sich mit Institutionen und Zusammentreffen bei Schampus und Kaviar daran bereichern. Es geht nie dabei um Klima oder Klima-Änderungen, sondern Täuschung und Bereicherung aufgrund von Vermögens-Umverteilungen ohne Leistungsaustausch.
„Schon 2010 sagte Ottmar Edenhofer, damaliger Direktor des Potsdam Instituts für Klimafolgenforschung, in der NZZ:
„Wir verteilen durch die Klimapolitik de facto das Weltvermögen um […]. Man muss sich von der Illusion frei machen, dass internationale Klimapolitik Umweltpolitik ist. Das hat mit Umweltpolitik fast nichts zu tun.“ (=> das „fast“ hätte er sich sparen können, es ist eine weitere Täuschung. Das hat mit Umweltpolitik gar nichts zu tun, wäre einzig richtig gewesen.)
Klarer kann die Beteiligung an einem kriminellen Akt nicht formuliert werden.
Wer notgedrungen die Qualitätsmedien verfolgt, dem fallen sofort genügend Personen ein, die zum persönlichen Vorteil dieser einmaligen Volksverblödung huldigen, und sei es nur als Erklärbär oder Wetterfrosch, der statt Wetter „Klima“ präsentiert. Greta und Luisa sind dabei nur die ganz kleinen Fische! Die größeren findet man in der Politik mit der besonderen Auslegung ihres Amtseids zum Wohle des Volkes!
Jede Macht- und Ausbeutungskonstellation bedient sich gern eines Narratives, mit einen Kollektivistischen lassen sich alle gesellschaftlichen Überschüssen sehr leicht in die gewünschte Richtung kanalisieren (De-facto-Enteignung), meist unter Verwendung von Zuckerbrot (irgendeinem Heilsversprechen zur Erreichung von Opferbereitschaft) und Peitsche (vom leichten Stupsen über Steuern, Abgaben, Druck bis zu Strafen).
Aus den Narrativen werden dann die Missionen abgeleitet, die zum Ende der Freiwilligkeit führen. Bei den Narrativen und Missionen bestimmt der erreichbare Konsens die Nützlichkeit, nicht der Wahrheitsgehalt.
Solche Narrative – egal ob religiös, politisch oder ökologisch – folgen einer fast identischen Strukturlogik. Man kann sie als „Säkulare Religionen“ bezeichnen, da sie die gleichen psychologischen und soziologischen Knöpfe drücken, um Massen zu bewegen.
Es lassen sich folgende wesentliche Gemeinsamkeiten beobachten:
Das Narrativ ist der Köder (Zuckerbrot), die Organisation ist die Falle (Peitsche/Struktur), und der Nutznießer ist derjenige, der am Ende die Beute verwertet.
Der Konsens ist dabei das Schmiermittel, das die Moral liefert, das dafür sorgt, dass die Maschine ohne allzu viel Reibungshilfe (Gewalt) läuft und alles machttechnisch stabil bleibt.
Wahrheiten werden sekundär, ob nun historisch und/oder wirtschaftlich und/oder physikalisch.
Ottmar Edenhofer Direktor vom PIK, ein Klimaguter, ein Klima-Hohenpriester, hat in 2010 genau das gemeint, Klimaschutz als ökonomisches Steuerungselement, die „Mission“ ist das Vehikel, aber das Ziel ist die systemische Kontrolle über die globalen Stoff- und Finanzströme und damit über die Menschen, oder?
PIK-Edenhofer sagte 2010: „Wir verteilen durch die Klimapolitik de facto das Weltvermögen um […]. Man muss sich von der Illusion frei machen, dass internationale Klimapolitik Umweltpolitik ist. Das hat mit Umweltpolitik nichts zu tun.“
So ist es, deshalb hab ich als aktiver Natur-und Umweltschützer, ausgezeichnet mit zig Umweltpreisen – ohne diese Aussage zu kennen- mich deutlichst dem Kampf gegen diese CO2-Klimalüge verschrieben. Wir müssen die Natur- und Umwelt schützen, Klimaschutz zersört vielfach die Natur und Umwelt. KLimaschutz ist ein Geschäftsmodell, das die Demokratie Deutschlands bedroht und unser Geld will.
Eine sehr gute Zusammenfassung der Lügen des IPPC. Wenn man die Physik ignoriert, die keine Beweise für den menschgemachten Klimawandel findet ist alles andere falsch gemäß 5×0=0.
Ja es ist richtig, mit Mathematik und mit dem Frisieren von Zahlen und Computermodellen kann man viel ausrechnen, aber es bleibt falsch weil es nicht die Physik beschreibt.
Auch Einstein hat sinngemäß schon gesagt, wenn eine Theorie an einem Punkt falsch ist, ist das gesamte Konstrukt falsch.
Der vorliegende Artikel/ Vortrag von Herrn Cohler sollte m.e. als Vorlage für eine Debatte im Bundestag und im EU-Parlament herangezogen werden um eine Änderung bezüglich der Energie-und Wirtschaftspolitik in Europa zu erreichen.
Der Glaube an den „menschengemachten Klimawandel“ ist stärker als alle Fakten, wir werden es erleben…
Kann man mal die diversen tiefgestellten 2 bereinigen?
Danke für diesen Beitrag, der die Realtät der Klimareligion exakt wiedergibt. Die hat nämlich gar nichts an Beweisen, dass CO2 der Haupttemperaturregler sein soll und in erster Linie auch noch das anthropogene CO2. Und deren Behauptung, man müsse das KLima wieder in den Griff kriegen durch Verminderung des CO2-Ausstoßes.
Was werden nun die Reaktionen sein, hier bei EIKE
1) Die Gläubigen mit physikalischem Hintergrund werden Nebengleise suchen im Artikel oder in Kommentaren und dann über diese Nebensächlichkeiten diskutieren, um den tatsächlichen Fakten des Artikels auszuweichen.
2) Die überzeugten Laien der Klimalüge, also mein mehr oder weniger überzeugter Umgebungskreis, die Medien, die NGOs uns Politiker?
Die kurzerhand sagen, alles schön und gut, was von Herrn Limburg geschrieben wurde, aber es wurde doch wärmer, die Gletscher schmelzen und früher war der Winter im Alpenvorland doch viel länger.
Und darüber sind sich nun alle einig und sehen allein diese richtige Beobachtungen als Beweis der menschenverschuldeten CO2-Erwärmung. Erfolge im Ausreden dieser Glaubensüberzeugung hatte ich stets mit der Argumentation mit dem stets steigenden Wärmeinseleffekt. Der Mensch macht das Klima wärmer in Deutschland, durch Bebauung, gestiegener Energieverbrauch, Bevölkerungszunahme und Trockenlegung der Landschaft. Dass die ständige WI-zunahme nur ein Grund von vielen für die Erwärmung seit 1987/88 ist, laß ich dann weg bis neue Frage entstehen.
Irgendwo muss man ansetzen, um für die Allgemeinheit das CO2-Lügengebäude zum Einsturz zu bringen. Jeder muss seinen Hebel selbst finden, aber eins müssen wir alle: Sofort mit dem Bekämpfen des CO2-Klimaglaubens beginnen, denn dieser ist eine glatte Lüge, auf der ein weltweites Geschäftsmodell errichtet wurde.
Also bitte beginnen.
Das Problem, Herr Kowatsch, für uns sind diese Widersprüche eine klare Sache, für die Apologeten der Klimakirche auch, sie werden es nur vehement abstreiten weil ihre Ideologie, oder ihre wirtschaftliche Abhängigkeit, es gebietet. Der große, ganz große, Rest versteht weder die Aussagen des IPCC noch die hier vorgebrachten Widerlegungen. Für die Masse der Menschen in Deutschland könnte man diese Diskussion auch in Mandarin führen ohne dass sich ihr Verständnis dadurch ändern würde. Sie können die Worte lesen aber niemals deren Sinn verstehen. Was bleibt ist der „Glaube“, die Frage wem glaubt man seine Geschichte und da haben die netten Damen und Herrn von ARD und ZDF noch immer 1 km Vorsprung vor jedem „Klimaleugner“. Die Deutschen werden es auf die harte Tour lernen müssen, erst der ökonomische Verfall wird die Fundamente der Klimakirche erodieren, Argumente haben da keine Chance.
Ganz ähnlich sehe ich das auch. Ich befürchte, dass erst beim völligen Zusammenbruch der Energieversorgung die Chance zur Vernunft zurück zu kommen besteht. Der größere Teil der Bevölkerung wird dann zwar immer noch kein Verständnis haben, aber man muss halt was anderes machen. Und weiter befürchte ich, dass es bei der ARD- und ZDF-Journaille plötzlich viele Wendehälse gibt, schließlich habe man ja über die Energiewende bloß (neutral) berichtet.
Natürlich, man wurde von bösen Mächten falsch informiert, sonst hätte man das Märchen der CO2 Klimakrise den Leuten ja nie erzählt…. 🤮
Natürlich werden die sich so rausreden, deshalb ist es nowendig, die bösen Mächte jetzt schon deutlich namentlich zu benennen: Das PIK und andere Voodoo-Wissenschaftler im Rundfunk und Fernsehen.
Schon wer wie Sven Plöger versichert, den Klimawandel gibt es wirklich, gehört am Rande zu dieser Kategorie, denn niemand behauptet das Gegenteil.
Herr Kowatsch, das machen wir doch hier schon die ganze Zeit. Aber wer kennt uns schon. Ist doch nur ein ganz kleiner Kreis. Auch bei tkp ist heute ein guter Artikel über die CO2 Lüge. Aber wer kennt auch tkp? Vielleicht müsste Tichy sich mehr des Themas annehmen, da TE einen größeren Kreis erreicht, vermute ich.
Die verblödungs-Orgie trägt neue Früchte. Frage mich schon ein paar Stunden mit welchem Wissen ich damals eigentlich praktiziert habe und wofür ich im Studium Biochemie hatte, wenn man das einfach mit einem Blick aus dem Fenster erledigen kann. :-O
https://www.forschung-und-wissen.de/nachrichten/medizin/co-konzentration-im-menschlichen-koerper-wird-bald-kritisch-133711139
Wer solchen Schwachsinn glaubt wird seelig? Seit Jahrtausenden lagen die CO2-Werte der Luft teilweise höher und trotzdem gab es Menschen und Tier und Pflanzen. Sicher ist das nur eine sinnlose Studie um weitere „Forschungsmittel“ abgreifen zu können. Als Biochemiker sollte Sie eigentlich auch wissen, dass mehr CO2 auch ein Wachstum der Vegetation ergibt und somit auch mehr O2 für Mensch und Tier.
Zeigen Sie bitte, dass die CO2-Konzentrationen in den letzten Jahrtausenden seit der Existenz des modernen Menschen höher waren (als heute) 🙂
Sehr geehrter Herr Steínmetz, wie bedauerlich, dass Sie Ihre kostbare Zeit mit Biochemiestudium und jahrelanger Praxis verschwendet haben! Sie hätten doch einfach Germanistik und Philosophie studieren und anschließend als Kinderbuchautor Weltbestseller schreiben sollen – selbstverständlich übersetzt auch in die Khoisansprachen mit ihren wunderbaren Klick- und Schnalzlauten, denn Bildung kennt ja bekanntlich keine Grenzen, Hauptsache sie bleibt schön flach.
Anschließend Mitglied bei den Grünen werden – und schon hätten Sie via blitzschneller Telepathie sämtliche naturwissenschaftlichen Kenntnisse und Fertigkeiten erworben, könnten mühelos Quantensprünge vollführen (ich meine ausdrücklich nicht die Füße) und wären geradezu prädestiniert, Wirtschaftsminister zu werden.
Denn wozu braucht man Biochemie, Physik oder jahrzehntelange Erfahrung im Bereich Forschung, wenn ein kurzer Blick aus dem Fenster – am besten bei Sonnenuntergang, mit einem fair gehandelten Kräutertee in der Hand – sämtliche wissenschaftlichen Erkenntnisse der letzten 300 Jahre mühelos ersetzt?
Die Verblödungs-Orgie, wie Sie es so treffend nennen, dankt Ihnen für Ihre Geduld. Sie haben sie offensichtlich nicht verdient.