PEINLICH: Klimawandel-Hysteriker beschwert sich beim PRESSERAT in Berlin!!

In diesen Tagen bemerkten wir auf Twitter folgenden Tweet vom 07.10.2017:Darin wurde auf zwei Seiten die Antwort des Presserats vom 14.09.2017 öffentlich gemacht. Der Presserat hat sich darin mit einer Beschwerde über einen WELT-ONLINE-MEINUNGS-Artikel von Prof. Josef H. Reichholf vom 28.05.2017 mit dem Titel „Schnell wird man als Klimaleugner abgestempelt“ befasst.

Zur besseren Lesbarkeit haben wir die Antwort des Presserates auch nochmal separat als .pdf-Datei zur Verfügung gestellt:

Die Indizien auf dem Twitter-Account von Andreas Lieb sprechen für die These, dass Andreas Lieb auch einer der beiden Beschwerdeführer der Presseratsbeschwerde gewesen ist, da die Fotos der beiden Antwortseiten des Presserates auch in seinem Twitter-Account hinterlegt sichtbar sind:

An dieser Beschwerde und der Antwort des Presserates sind nun mehrere Punkte interessant, weil die nun folgenden Kritikpunkte die Notwendigkeit auch früherer Blogtexte erneut bestätigen.

So führt der Beschwerdeführer folgende zwei Sätze von Prof. Reichholf an und es ist auch erkennbar, dass der Presserat diese zwei Sätze von Prof. Reichholf auch als den Kern der Beschwerde ansieht:

Die globale Temperatur steigt trotz wachsenden CO2-Ausstoßes nicht an.

und:

Die letzten eineinhalb Jahrzehnte lang stieg die globale Temperatur nicht mehr an.

Und der/die Beschwerdeführer argumentieren dann allen Ernstes, wie man in der Antwort vom Presserat vom 14.09.2017 lesen kann, wie folgt:

Ausschnitt aus Schreiben vom Presserat vom 14.09.2017

An dieser Begründung und den nachfolgenden Begründungen des Presserates wird erneut deutlich, wie seit Jahren und Jahrzehnten am eigentlichen Schwindel der Erderwärmung „vorbei-argumentiert“ wird, denn der Kern des globalen Temperaturschwindels bleibt jedesmal aussenvor. Kein Journalist, auch nicht der Presserat, hinterfragt den Absolut-Temperaturwert der Erderwärmung, obwohl der Chef-Redakteur von „DER WELT“ vom Presserat im Schreiben vom 14.09.2017 auf der Seite 2 wie folgt zitiert wird:

Sehe man im Internet nach, so würden die Spitzenwerte als Abweichungen vom Durchschnitt der Jahre 1961 – 1990 und nicht in Absolutwerten der Globaltemperaturen angegeben, was die Vergleichbarkeit sehr erschwere bzw. unmöglich mache.

Im Prinzip stimmt das, was er sagt, aber das ist trotzdem auch nur die halbe Wahrheit: Die WMO hat am 18.01.2017 sehr wohl einen Absolut-Globaltemperaturwert für das Jahr 2016 von 14,8(3) °C auf Basis von 1961 bis 1990 angegeben, was der ZDF-Wetterfrosch Benjamin Stöwe am 19.01.2017 – also einen Tag später – im „ZDF MORGENMAGAZIN“ eindrücklich präsentierte:

Video nicht mehr verfügbar

Das Problem ist nur – und dieses Problem verschweigen Politiker, Klima(folgen)forscher und auch Journalisten seit Jahren -, dass die angeblich gefährliche globale Erderwärmung vor und seit ca. 30 Jahren mit viel höheren Globaltemperaturen begründet worden ist, was die folgende 23-seitige Recherche-Liste dokumentiert:.pdf

Ein ganz grosses „Problem“ hat dabei „DER SPIEGEL„, was in dem folgenden 18-minütigen Video dokumentiert wird:

Aber nicht nur DER SPIEGEL. Auch die Journalisten bei ARD und ZDF können ihre Unwahrheiten aus der Vergangenheit offensichtlich nicht mehr verwalten, was in dem folgenden 18-minütigen Video insbesondere an dem ARD- (früher: ZDF-) Wissenschaftsjournalisten und Meteorologen Karsten Schwanke deutlich wird:

Wenn Sie den obigen Recherchen im Detail nachgehen, werden Sie feststellen, dass offensichtlich weder Klimafolgenforscher, noch Politiker, noch Journalisten begreifen, wie elementar-notwendig eine glaubwürdige globale Absolutmitteltemperatur ist, um überhaupt eine Globale Erderwärmung glaubwürdig auszuweisen.

Und vergleichen Sie ganz aktuell auch die folgende Grafik aus einem RBB-TV-Bericht über „25-Jahre PIK Potsdam“ vom 11.10.2017 bei Minute 2:49:
Sie erkennen: Es wird aktuell ein globaler Temperaturwert von ca. 14,5 °C ausgewiesen, jedenfalls erkennbar deutlich unterhalb von 15°C.

So, und nun schauen Sie, mit welchem globalen Temperaturwert für 1990 am 24.05.1990 die Enquete-Kommission des deutschen Bundestags in der Drucksache 11/8030 auf Seite 29 argumentiert hatte, um eine damals angeblich gefährliche Erderwärmung zu begründen, nämlich 15,5 °C :Und Hans Joachim Schellnhuber propagierte noch am 22.11.2009 (auf PHOENIX zeitversetzt ausgestrahlt einen Tag später am 23.11.2009) – auf der Bundespressekonferenz unmittelbar vor der Klimakonferenz von Kopenhagen – noch einen globalen Temperaturmittelwert von 15,3 °C:

Wer auch das nicht glaubt: Der O-Ton von Schellnhuber findet sich in diesem 5-minütigen Video !!

So kommt es, dass sogar in mehreren deutschen Schulbüchern Schulkindern die angebliche Notwendigkeit von Klimaschutz propagiert wird, obwohl man im gleichen Schulbuch durch Einsatz des gesunden Menschenverstandes feststellen kann, dass seit über 150 Jahren überhaupt keine gefährliche Erderwärmung existiert.

Glauben Sie nicht?

Dann schauen Sie auch noch das folgende, sehr informative 18-minütige Recherche-Video:

Die Argumentation, die in diesem aktuellen KLETT-GEOGRAPHIE-Schulbuch auf Seite 194 ausgewiesen wird, finden Sie auch in den Drucksachen der Enquete-Kommission des Deutschen Bundestages, die damals mit den gleichen Argumenten vor der Gefährlichkeit einer Erderwärmung Politiker und Öffentlichkeit gewarnt hatte, nur mit dem Unterschied, dass damals (1990) eine globale Absoluttemperatur von 15,5°C ausgewiesen worden ist. Sogar bis 1995 wurde nachweislich – und das belegen unsere eindrücklichen Recherchen in deutlicher Konsequenz – immer eine Globaltemperatur bei oberhalb von 15°C ausgewiesen. Und heutzutage werden für 2016 bekanntlich nur 14,8°C ausgewiesen, was wir oben im Blogtext dokumentiert haben.

Und damit ist auf einen Schlag die Gefährlichkeit der Erderwärmung als Schwindel entlarvt.

Ohne, dass wir und Sie dazu auch nur ein einziges vermeintlich klimaskeptisches Argument verwenden mussten: Das „unheilige Triumvirat“ aus Klimafolgenforschern, Politikern und Journalisten hat sich beim Thema „gefährliche Erderwärmung“ nach nunmehr 30 Jahren ganz alleine selbst „die Karten gelegt.“ Wirklich Pech, wenn man die eigenen Lügen nicht mehr verwalten kann.

Und ärgerlich wird es zusätzlich, wenn auch vermeintlich kritische Professoren diese Diskrepanz bei den globalen Temperaturwerten ebenfalls nicht erkennen (wollen).

Ähnlich agiert aber leider auch Prof. Josef Reichholf, der in seinem DIE WELT-Meinungsartikel am 28.05.2017 geschrieben hatte:

Die anscheinend nötigen Nachbesserungen bei den Berechnungen zur globalen Temperatur und die vielen Änderungen in den Vorhersagen zum Klimawandel drücken für mich als Wissenschaftler eines klar aus: Die letztgültige Weisheit gibt es nicht.

Auch Prof. Reichholf scheint die allzuvielen „Unschärfen“ der Klimafolgenforschung ebenfalls „weichzuspülen“, anstatt diese nachweisbaren Unschärfen konkret zu thematisieren und auf den Punkt zu bringen. Ärgerlich auch, dass Prof. Reichholf von „Vorhersagen zum Klimawandel“ spricht. Auch schreibt Prof. Reichholf:

Die globale Temperatur steigt trotz wachsenden CO2-Ausstoßes nicht an. Dies passt nicht in die Prognosen von Politik und Wissenschaft.

und

Die letzten eineinhalb Jahrzehnte lang stieg die globale Temperatur nicht mehr an. Diese Pause in der Erwärmung passte jedoch nicht zu den Prognosen.

Und dann schreibt auch noch der Presserat in der Beschwerdeablehnung am 14.09.2017 wortwörtlich:

Diese Forschungsergebnisse nimmt der Autor zum Anlass diese gängigen Klimaprognosen kritisch zu hinterfragen.

Denn es ist sogar in Schulbüchern nachzulesen, dass klimawirksame Prozesse nicht vorhersagbar sind und man deshalb von „Klimaprojektionen“ spricht und eben nicht von Prognosen:

Also, Fakt ist: Klimamodelle liefern gar keine Prognosen! Das wissen auch die Klima(folgen)forscher, was sich auch durch zahlreiche O-Ton-Nachweise belegen lässt. Denn die Klima(folgen)forscher werden wissen, dass man das komplexe und chaotische Atmosphärensystem der Erde nicht allein auf Basis von Daten der Vergangenheit vorhersagen lässt. Es funktioniert ja noch nicht mal die Ziehung der Lottozahlen oder den kommenden deutschen Meister der Fussball-Bundesliga auf der Datenbasis der Bundesliga-Vergangenheit vorherzusagen. Eine Vorhersage/Prognose auf Daten der Vergangenheit ist bei einem chaotischen System definitiv nicht möglich. Eine Prognose basiert zu 100% auf fixen, nicht-veränderbaren Daten aus der Vergangenheit, die dann linear in die Zukunft fortgeschrieben werden. Eine Prognose enthält also keine Zukunftsvariablen und keine zusätzlichen Annahmen über die Zukunft, im Gegensatz zu einer Projektion. Deshalb ist auch die „Sonntagsfrage“ über den Ausgang der Bundestagswahl KEINE Prognose, sondern eine Projektion, wie damals bei der Sonntagsfrage zur „Bremenwahl im 30. April 2015 in den „TAGESTHEMEN“, wo dem TV-Zuschauer deutlich zu verstehen gegeben wurde, dass dieser damalige „BremenTREND“ eben KEINE PROGNOSE darstellt:

und auch aktuell zur Bundestagswahl 2017 in den ARD „TAGESTHEMEN“ am 14.09.2017 um 22Uhr15 ein deutlicher Hinweis, dass das Ergebnis der „Sonntagsfrage“ eben KEINE PROGNOSE darstellt:

Rot-Markierungen durch KLIMAMANIFEST.CH

Und ein gutes #kurzerklärt-Video der TAGESSCHAU-Redaktion erklärt am 23.09.2017 – also unmittelbar vor der Bundestagswahl, wo es eigentlich schon für eine effektive Aufklärung zu spät ist – ebenfalls, dass die „Sonntagsfrage“ eben KEINE PROGNOSE (sondern per Definition eine PROJEKTION) ist:

und hier auch beim ZDF wird der korrekte Begriff „PROJEKTION“ (statt Prognose) verwendet:
Sie sehen, dass sogar die ZDF HEUTE+ Moderatorin Eva Maria Lemke den Unterschied zwischen „Projektion“ und „Prognose“ nun verstanden hat, denn zum Zeitpunkt der „Sonntagsfrage“ ist noch mindestens eine, nicht-fixe Variable vorhanden, denn die Wahllokale haben weder geöffnet gehabt, noch sind sie wieder geschlossen worden. Deshalb wird die erste (und einzige) Prognose (!) von ARD bzw. ZDF bei einer Landtags- und/oder Bundestagswahl erst 1 Sekunde nach 18Uhr erstellt, weil erst dann davon auszugehen ist, dass alle vorherigen Variablen fix sind und nicht mehr verändert werden können, weil u.a. die Wahllokale um Punkt 18Uhr geschlossen haben.

Und vergleichen Sie mal die obigen Werte der Projektion (!) des ZDF vom 20.07.2017 (!) über den damals angeblich „wahrscheinlichen“ Ausgang der Bundestagswahl mit dem vorläufigen amtl. Ergebnis der Bundestagswahl vom 24.09.2017 am 25.09.2017:


Dann verstehen Sie, was von Projektionen im Vergleich zu Prognosen zu halten ist, nämlich nix. Im Gegensatz zur Projektion vom 20.07.2017 war die 18-Uhr-Prognose des ZDF am 24.09.2017 im Vergleich zum Endergebnis dann relativ genau:

ZDF 18Uhr-Prognose zur BTW am 24.09.2017

Aber es kann auch eine definitive Prognose trotzdem beim Endergebnis vollends daneben liegen. Die Wahrscheinlichkeit aber, dass eine Projektion beim realen Endergebnis der Zukunft vollends daneben liegt, liegt bei einer Projektion bei weitem höher als bei einer Prognose.

Obwohl man bei der ARD eigentlich mittlerweile wissen müsste, dass die Klima(folgen)forscher mit ihren Szenarien/Projektionen keine Prognosen erstellen, behauptet die ARD „TAGESSCHAU“ trotzdem im Mai 2017 weiterhin FALSCH, der Meeresspiegelanstieg für das Jahr 2100 liesse sich angeblich „prognostizieren“:

Rot-Markierungen durch KLIMAMANIFEST.CH


Denn auch der Weltklimarat IPCC erstellt nachweislich KEINE „Prognosen“:

Wie oft sind die Worte „Projektion“, „Szenario“, „Prognose“ in den IPCC-Berichten (SPM) zu finden?

Denn auch der Weltklimarat IPCC weiss: ES KÖNNEN KEINE PROGNOSEN ÜBER DAS KLIMASYSTEM ERSTELLT WERDEN.

Warum?

Weil es sich um ein chaotisches Atmosphären-System handelt, was man nicht auf Basis historischer, fixer Daten vorhersagen kann. Das ist die ureigenste Eigenschaft eines chaotischen Systems. Auch die Ziehung der Lottozahlen, ein Billardspiel oder jedwede Fussball-Saison von Liga-Mannschaften sind chaotische Systeme, die definitiv nicht vorhersagbar sind.

Warum ärgert mich die Verwendung des Begriffs „Prognose“ so ausserordentlich?

Weil der Ausdruck „Prognose“ die Klima-Abschätzungen in ungerechtfertigter Weise wertschätzt und positiv überbewertet und eine angebliche Vorhersagbarkeit und Prognose-Fähigkeit suggeriert, die in Wirklichkeit bei einem solchen chaotischen System definitiv nicht existiert.

Deshalb müssen alle Behauptungen, die sich aus Klimacomputermodellberechnungen ergeben, abgeleitet und errechnet worden sind, konsequent als „szenarienbedingte Projektionen“ und/oder „Schätzungen“ oder „Abschätzungen“ bezeichnet werden, aber auf keinen Fall als „Prognose“ oder „Vorhersage“ tituliert werden. Denn das ist definitiv FALSCH.

Wenn Sie DAS dann alles wissen, welche Rolle auch Journalisten beim SPIEGEL und bei ARD und ZDF beim Schwindel mit der angeblichen Erderwärmung spielen, dann lesen Sie auch, wie der Presserat den WELT-Chefredakteur am 14.09.2017 ebenfalls zitiert:

Nochmals: In seinem [Reichholfs] Kommentar sei es darum gegangen, die Vorgehensweise im Umgang mit den Daten aufzuzeigen, und nicht um eine Infragestellung der globalen Klimaerwärmung.
(rot-Markierung www.klimamanifest.ch)

Was für eine scheinheilige Argumentation. Darin spiegelt sich auch deutlich die regelrechte Angst deutscher Journalisten wider, um die globale Klimaerwärmung überhaupt in Frage zu stellen.

Dabei stellen auch wir die globale Klimaerwärmung nicht in Frage, sondern wir stellen begründend in Frage, dass die globale Klimaerwärmung für irgendjemanden gefährlich ist.

Fragen Sie sich selbst einmal: Würden Sie sich selbst oder ihr Kind mit 36,8 °C Körpertemperatur zum Arzt schicken, weil angeblich erhöhtes Fieber vorliegen könnte?

Da durch historische Dokumente belegbar ist – was oben in diesem Blogtext umfangreich dokumentiert wurde – , dass eine gefährliche Erderwärmung seit 150 Jahren definitiv bis heute nicht stattgefunden hat, ist die Gefährlichkeit einer globalen Klimaerwärmung vehement in Frage zu stellen. Alle Thesen vom angeblichen Meeresspiegelanstieg, angeblich mehr Extremwettern, angeblich verstärkte Gletscherschmelze können nachweislich nicht auf eine gefährliche globale Erderwärmung zurückzuführen sein, weil die historischen Daten und Archive der Klima(folgen)forschung solche Thesen nicht stützen, sondern genau das Gegenteil dokumentieren.

Das liegt insbesondere auch daran, weil Klima(folgen)forscher, Journalisten und Politiker ihre Lügen nach ca. 30 Jahren nicht mehr verwalten konnten. Aber auch ein Presserat in Berlin und auch ein Prof. Reichholf weigern sich offenkundig, diese offensichtlichen Lügen (ohne Anführungszeichen) der Klimafolgenforschung – insbesondere beim PIK in Potsdam – zu thematisieren.

 
Zuerst veröffentlicht am 14.10.2017 auf www.klimamanifest.ch




Meeresspiegel: Steigen und fallen – Teil 2: Tidenmessungen

Wenn wir über SLR reden, müssen wir zunächst festlegen, was ,Meeresspiegel‘ überhaupt ist.

Was ist das, ,Meeresspiegel‘?

Wenn ich in diesem Beitrag den Begriff Meeresspiegel verwende, meine ich den lokalen, relativen Meeresspiegel – also das Niveau des Meeres dort, wo es an das Festland stößt, und zwar an jedem gegebenen Punkt. Falls wir von Meeresspiegel in New York City sprechen, meinen wir das Niveau der Meeresoberfläche, wo sie die Landmasse von Manhattan oder Long Island berührt, die Küsten von Brooklyn oder Queens. Dies ist der einzige Meeresspiegel von irgendeiner Bedeutung für irgendeine Stelle.

Es gibt ein zweites Konzept, ebenfalls Meeresspiegel genannt. Hierbei handelt es sich um einen globalen Standard, der zur Grundlage für Höhen des Festlandes genommen wird. Dies ist ein konzeptioneller Gedanke – ein standardisierter geodätischer Bezugspunkt – und hat nichts, aber auch gar nichts zu tun mit dem tatsächlichen Niveau des Wassers irgendwo in den Ozeanen der Erde. (Man mache sich nicht die Mühe, auf der Wiki-Seite für Meeresspiegel nachzusehen – dabei handelt es sich um ein Mischmasch von Missverständnissen. Es gibt dort auch einen 90 Minuten langen Film, in welchem die Komplexität der Höhenbestimmung aus modernen GPS-Daten erklärt wird – Informationen, die im nächsten Abschnitt dieses Beitrages eine Rolle spielen).

Und dann gibt es noch ein drittes Konzept mit der Bezeichnung absoluter oder globaler Meeresspiegel. Damit ist ein generalisierter Gedanke der mittleren Entfernung der Meeresoberfläche vom Erdmittelpunkt gemeint. Hierzu mehr in einem weiteren Beitrag dieser Reihe.

Da sich der Meeresspiegel in jedem Moment verändert infolge Tidenhub, Wellen und Wind gibt es in der Realität keinen einzelnen experimentellen Meeresspiegel, den wir den lokalen Meeresspiegel nennen können. Um diesem Wechsel Rechnung zu tragen, gibt es verschiedene Bezeichnungen wie Ebbe, Flut und in der Mitte den Mittleren Meeresspiegel. Es gibt weitere Termini für den Zustand der Meeresoberfläche, darunter Wellenhöhe und -frequenz sowie die Beaufort-Skala, welche sowohl die Windstärke als auch die zugehörigen Umstände der Wasseroberfläche beschreibt.

Das sieht so aus:

Eintägiger Gezeitenzyklus (links): Ein Gebiet erlebt einen eintägigen Gezeitenzyklus, falls es ein Hoch- und ein Tiefwasserstand an jedem Mondtag gibt (24 Stunden und 50 Minuten). An vielen Stellen im Golf von Mexiko ist diese Art Tidenwechsel zu erleben.

Halbtägiger Gezeitenzyklus (Mitte): Dieser liegt vor, wenn an einer Stelle im Laufe eines Mondtages zwei Hoch- und zwei Tiefwasserstände in etwa vergleichbarer Größenordnung auftreten. Diese Art Gezeitenzyklus tritt in vielen Gebieten an der Ostküste von Nordamerika auf.

Gemischter Gezeitenzyklus (rechts): Dieser tritt auf, wenn je zwei Hoch- und Niedrigwasserstände unterschiedlicher Größenordnung pro Mondtag auftreten. Diese Art Gezeitenzyklus tritt in vielen Gebieten an der Westküste von Nordamerika auf.

Das folgende Bild zeigt die Verteilung dieser unterschiedlichen Gezeitenzyklen:

Gezeiten werden hervorgerufen durch die Gravitationskräfte von Mond und Sonne auf die Ozeanoberfläche. Hierzu gibt es online viele gute, mehr oder weniger ausführliche Erklärungen, z. B. hier und hier.

Es gibt mehrere offiziell etablierte Zustände der Tide (welche einfach die numerischen mittleren relativen Wasserstände für jeden Zustand sind). Diese nennt man tidal datums und sind in Relation gesetzt zu einem Punkt auf dem Festland, normalerweise markiert durch ein in Fels oder Beton eingebettetes Schild, eine „bench mark”. Alle Gezeitenwerte für einen speziellen Tidenmesspunkt werden in Fuß über oder unter diesem Punkt gemessen. Hier folgt eine bench mark am Battery Park in New York, und ein Beispiel-Gezeitenwert für Mayport in Florida (repräsentativ für die Stadt Jacksonville, welche jüngst durch den Hurrikan Irma überflutet worden ist):



In Australien hat man etwas andere Bezeichnungen, wie die folgende Graphik zeigt (die US-Abkürzungen sind hinzugefügt):

Anmerkung zur Grammatik dieser Bezeichnungen: [Hier wird der Unterschied erklärt zwischen den englischen Begriffen ,datums‚ und ,data‚. Das lässt sich in deutscher Übersetzung aber nicht darstellen. Der Abschnitt lautet im Original: „They are collectively correctly referred to as “tidal datums” and not “tidal data”.  Data is the plural form and datum is the singular form, as in “Computer Definition. The singular form of data; for example, one datum. It is rarely used, and data, its plural form, is commonly used for both singular and plural.”  However, in the nomenclature of surveying (and tides), we say “A tidal datum is a standard elevation defined by a certain phase of the tide.“  and call the collective set of these elevations at a  particular place “tidal datums”.]

Die wesentlichen Punkt für die meisten Menschen sind die Hauptdaten [major datums] von oben nach unten:

MHHW [Mean High High Water] – mittlere Höhe des Hochwassers, also das Mittel des höheren der zwei Hochwasser pro Tag. An den meisten Stellen unterscheidet sich das kaum vom mittleren Hochwasser. Im Beispiel Mayport beträgt der Unterschied 8,5 cm. In einigen Fällen, wo gemischte Gezeitenzyklen auftreten, können die Unterschiede deutlich größer sein.

MSL [Mean Sea Level] – mittlerer Meeresspiegel, das Mittel von Hoch- und Niedrigwasser. Falls überhaupt keine Gezeiten auftreten, wäre dies einfach der lokale Meeresspiegel.

MLLW [Mean Low Low Water] – mittleres niedriges Niedrigwasser, das Mittel des niedrigeren der beiden täglichen Niedrigwasserstände. Im Beispiel Mayport beträgt der Unterschied 1,5 cm. Auch hier treten bei gemischten Gezeitenzyklen größere Unterschiede auf.

An einem Strand sieht das so aus:

An einem Strand wäre der Mittlere Meeresspiegel der vertikale Mittelpunkt zwischen MHW und MLW.

Die Hochwassermarke ist eindeutig erkennbar an diesen Pfosten eines Piers, wo nämlich das Wachstum von Muscheln und Seepocken aufhört:

Und Meeresspiegel? Im Moment ist der lokale relative Meeresspiegel offensichtlich – es ist die Wasseroberfläche. Es gibt nichts weiter Komplizierteres, wenn man jederzeit das Meer sehen und fühlen kann. Falls man die Hochwassermarke erkennt und das Wasser am niedrigsten Stand während des 12 Stunden und 25 Minuten langen Gezeitenzyklus‘ beobachtet, ist der Mittlere Meeresspiegel der Mittelpunkt zwischen beiden. Einfach!

(Unglücklicherweise ist Meeresspiegel in jeder anderen Hinsicht als Konzept erstaunlich komplizierter und komplexer). Im Moment wollen wir beim lokalen Relativen Mittleren Meeresspiegel bleiben (dem Niveau des Meeres, wo es das Festland berührt).

Wie wird der Mittlere Meeresspiegel an jeder Stelle gemessen oder bestimmt? Die Antwort lautet:

Tiden-Messgeräte.

Tidenmessung war früher ziemlich einfach – eine Skala, sehr ähnlich einem aus dem Wasser ragenden Lineal, an dem man die Wasserstände einfach ablesen konnte. Damit sollte vorüber fahrenden Schiffen gezeigt werden, wie viel Wasser sie noch unter dem Kiel haben in einer Bucht oder einem Hafen.

Aber Tidenmessgeräte sind inzwischen weiterentwickelt und anspruchsvoller geworden:

Das Bild oben zeigt schematisiert alte und neue Messverfahren. Die in den USA derzeit gebräuchlichen Verfahren hat die NOAA in einem PDF hier zusammengestellt. Bei den neuesten Geräten ergibt sich eine Unsicherheit von plus/minus 2 Zentimetern bei individuellen Messungen und plus/minus 5 Millimeter für monatliche Mittelwerte.

Um es so freundlich wie möglich auszudrücken, möchte ich darauf hinweisen, dass die Genauigkeit eines Monatsmittels ein mathematisches Phantasiegebilde ist. Falls jede Messung lediglich auf ± 2 cm genau ist, dann kann das monatliche Mittel nicht NOCH genauer sein – es muss die gleiche Fehler-/Unsicherheits-Bandbreite aufweisen wie die Originalmessungen, aus denen das Mittel gebildet wird. Eine Mittelung erhöht nicht Genauigkeit oder Präzision.

(Es gibt eine Ausnahme: Falls man 1000 Messungen des Wassersiegels durchführt an der gleichen Stelle zur immer gleichen Zeit, dann würde die Mittelung die Genauigkeit zunehmen lassen für jenen Zeitpunkt an jener Stelle, werden doch dann Zufallsfehler zwischen den Messungen reduziert, jedoch keine systematischen Fehler).

In praktischer Hinsicht erhalten wir also Messungen des Lokalen Mittleren Meeresspiegels mit den neuesten Messgeräten, die auf ± 2 cm genau sind. Dies ist weit genauer als notwendig für die ursprüngliche Absicht der Anwendungen von Tidenmessgeräten – mit welchen das Niveau der Wasseroberfläche zu verschiedenen Zeitpunkten der Tide bestimmt werden sollte. Dies sollte die Sicherheit für Schiffe und andere Wasserfahrzeuge erhöhen in Häfen und Flüssen mit Tidenhub. Die zusätzliche Genauigkeit ist nützlich für wissenschaftliche Bemühungen, Gezeiten und deren Bewegungen, Timing, Größenordnung und so weiter besser zu verstehen.

Ich möchte aber noch einmal betonen, dass dies später bedeutsam werden wird oder wenn wir Betrachtungen über die Verwendung dieser Daten anstellen, um den Globalen Mittleren Meeresspiegel zu ermitteln aus Daten von Tidenmessgeräten, obwohl behauptet wird, dass Zahlen über den Lokalen Monatlichen Mittleren Meeresspiegel auf ± 5 Millimeter genau sind. In Wirklichkeit sind sie begrenzt auf die Genauigkeit von ± 2 cm der Original-Messungen.

Wovon ist die Änderung des Lokalen Relativen Meeresspiegels abhängig?

Die von der Tidenmessstation am Battery Park gemessenen Änderungen des Lokalen Relativen Mittleren Meeresspiegels könnten auch eine Folge der Bewegung des Festlandes und nicht der steigende Meeresspiegel sein. In Wirklichkeit ist am Battery Park beides der Fall: das Land sinkt etwas ab, das Meer steigt ein wenig. Beide Bewegungen addieren sich zu einem wahrgenommenen Anstieg des lokalen Meeresspiegels. Ich ziehe das Beispiel Battery Park heran, wie ich es schon vielfach in Beiträgen bei WUWT beschrieben habe. Insgesamt sinkt die Landmasse mit Battery Park mit etwa 1,3 mm pro Jahr, also etwa 6 cm während der letzten 50 Jahre. Im gleichen Zeitraum ist der Meeresspiegel tatsächlich gestiegen, und zwar um ca. 8 cm – was sich addiert zu einem vermeintlichen Anstieg des lokalen mittleren Meeresspiegels am Battery Park um ca. 15 cm von 1963 bis 2015. In einem Bericht aus dem Jahr 2010 steht Näheres dazu.

Dies gilt für alle Tidenmesspunkte in der Welt, welche direkt auf einer Landmasse stehen (aber nicht für die ARGO-Bojen zum Beispiel). Die offenbare Änderung des lokalen relativen MSL ist die arithmetische Kombination der Änderung des tatsächlichen Meeresspiegels plus der Änderung durch die vertikale Bewegung der Landmasse.

Wir wissen durch die sorgfältige Arbeit der NOAA, dass der Meeresspiegel nicht überall gleichmäßig steigt:


(Anmerkung: Das Bild zeigt aus Satellitendaten abgeleitete Raten der Änderung des Meeresspiegels)
…und dass die Meeresoberfläche nicht überall glatt ist:

Dieses Bild zeigt eine maximale Differenz der Meeresoberfläche um über 2 Meter – sie liegt sehr hoch bei Japan und sehr niedrig nahe der Antarktis mit einer ziemlichen Zerstückelung im Atlantik.

Das NGS CORS-Projekt ist ein Netzwerk von Continuously Operating Reference Stations (CORS), die sich allesamt auf dem Festland befinden und die Daten des Global Navigation Satellite System (GNSS) liefern als Unterstützung einer dreidimensionalen Positionierung. Es repräsentiert den goldenen Standard einer geodätischen Positionierung einschließlich der vertikalen Bewegung von Landmassen an jedem Messpunkt.

Um die Daten der Tidenmesspunkte für die Bestimmung des absoluten SLR (nicht den relativen lokalen SLR) nutzbar zu machen – also das tatsächliche Steigen des Meeresspiegels relativ zum Erdmittelpunkt – müssen die Daten mit zuverlässigen Daten der Vertikalbewegungen des Festlandes an der gleichen Stelle gekoppelt werden.

Wie wir am Beispiel Battery Park in New York gesehen haben, die mit einer CORS-Station gekoppelt ist, ist die vertikale Bewegung des Landes von gleicher Größenordnung wie die tatsächliche Änderung der Höhe der Meeresoberfläche. An einigen Stellen einer deutlichen Landabsenkung wie etwa der Chesapeake Bay in den USA übertrifft das Absinken den steigenden Meeresspiegel (mehr hier und hier). An einigen Stellen der Küste von Alaska scheint der Meeresspiegel zu sinken, weil sich das Land nach 6000 Jahren Eisschmelze stärker hebt als der Meeresspiegel steigt.

Wer verfolgt den globalen Meeresspiegel mit Tiden-Messgeräten?

Der Permanent Service for Mean Sea Level (PSMSL) ist für die Zusammenstellung, Veröffentlichung, Analyse und Interpretation der Meeresspiegel-Daten verantwortlich, und zwar seit dem Jahre 1933 vom globalen Netzwerk von Tiden-Messgeräten. Im Jahre 1985 wurde das Global Sea Level Observing System (GLOSS) ins Leben gerufen, ein gut aufgemachtes, den Meeresspiegel in situ vermessendes Beobachtungs-Netzwerk hoher Qualität, um eine breite Plattform für Forscher und Nutzer zu bieten. Nahezu jede Studie zum Thema globaler Meeresspiegel bediente sich der Tidendaten des PSMSL. Man beachte, dass diese Daten aus der Ära vor Satelliten stammen – die Messungen der PSMSL-Datenbasis sind in situ-Messungen direkt an der Stelle des Messpunktes. Sie sind nicht aus Produkten der Satelliten-Altimetrie abgeleitet.

Diese Darstellung der PSMSL-Daten hat positive und negative Implikationen. Auf der Haben-Seite steht, dass die Daten direkt gemessen wurden und nicht anfällig sind für irgendwelche Verschiebungen und Fehler wegen Alterung der Instrumente. Gemessen werden sehr zuverlässige und genaue Daten (bis ± 2 cm) des Relativen Meeresspiegels – welches die einzigen Daten von Relevanz sind für die damit befassten Behörden vor Ort.

Auf der Soll-Seite steht, dass die Tiden-Messpunkte auf Landmassen stehen, von denen man weiß, dass sie sich heben und senken (oder sich auch horizontal verschieben). Diese Bewegungen sind konstant, wenn auch langsam. Gründe für diese Bewegungen sind u. A. isostatischer Ausgleich nach einer Vereisung, Absinken durch Abpumpen von Grundwasser, Gas- und Ölförderung sowie die natürlichen Prozesse der Ansammlung und des Setzens von Erde in Flussdeltas. Auch die Plattentektonik spielt eine Rolle.

Damit die PSMSL-Daten überhaupt brauchbar sind für die Bestimmung des absoluten SLR, müssen sie ganz offensichtlich um die vertikalen Landbewegungen korrigiert werden. Allerdings war es mir nicht möglich, auf der Website der PSMSL festzustellen, ob diese Korrekturen wirklich angebracht worden sind. Also sandte ich an PSMSL eine direkte E-Mail mit dieser einfachen Frage: Sind die PSMSL-Daten explizit korrigiert, um vertikalen Landbewegungen Rechnung zu tragen?

Die Antwort:

Die PSMSL-Daten werden zugeliefert bzw. heruntergeladen aus vielen Datenquellen. Darum lautet die kurze Antwort auf Ihre Frage: Nein. Allerdings fordern wir wo immer möglich, die PSMSL-Daten mit relevanten Abgleichungs-Informationen zu liefern, so dass wir die Stabilität des Messgerätes überwachen können“.

Man beachte: „Leveling“ bezieht sich nicht auf vertikale Landbewegungen, sondern auf den Versuch sicherzustellen, dass das Messgerät vertikal konstant bleibt hinsichtlich des assoziierten geodätischen Eckpunktes.

Falls die PSMSL-Daten korrigiert werden würden, um vertikalen Landbewegungen an dieser Stelle Rechnung zu tragen, dann könnten wir Änderungen der tatsächlichen oder absoluten Meeresoberfläche bestimmen, um damit dann etwas zu bestimmen, was man als wissenschaftliche Wiedergabe der Änderung des Globalen Meeresspiegels betrachten könnte. Ein derartiger Prozess würde sich komplizieren durch die Realität der geographisch unebenen Wasseroberfläche, geographischen Gebieten mit Änderungen mit entgegen gesetztem Vorzeichen und ungleichen Raten der Änderung. Unglücklicherweise kommen die PSMSL-Daten derzeit unkorrigiert daher, und nur sehr wenige (kaum mehr als eine Handvoll) Messpunkte sind assoziiert mit ununterbrochen operierenden GPS-Stationen.

Was all das bedeutet

Zusammengefasst lassen sich die in diesem Beitrag behandelten Punkte auf einige einfache Fakten bringen:

1. Die Daten von Tiden-Messgeräten sind unschätzbar für örtliche Gegebenheiten für die Bestimmung des Zustandes, der Meeresoberfläche relativ zum Festland und der Rate der Änderungen der Meeresoberfläche. Es sind die einzigen Daten zum Meeresspiegel, die für die lokale Bevölkerung von Belang sind. Allerdings sind diese Daten nur auf ±2 cm genau, das gilt sogar für die besten Stationsdaten des GLOSS-Netzwerkes. Alle aus diesen Daten abgeleiteten Mittelwerte, darunter tägliche, monatliche und jährliche Mittelwerte sind ebenfalls nur auf ±2 cm genau. Behauptungen einer Millimeter-Genauigkeit von Mittelwerten sind unwissenschaftlich und nicht zu unterstützen.

2. Die Daten von Tiden-Messgeräten sind wertlos zur Bestimmung des Globalen Meeresspiegels und/oder dessen Änderung, solange sie nicht explizit korrigiert worden sind hinsichtlich vertikaler Bewegungen des Festlandes, wie es bei den wenigen GPS-Referenzstationen der Fall ist. Da der gegenwärtige Standard der Daten von Tiden-Messgeräten, also PSMSL GLOSS, in dieser Hinsicht nicht korrigiert ist, beruhen die Ergebnisse aller Studien auf der Grundlage dieser unkorrigierten PSML-Daten zum Thema globaler SLR – Größenordnung oder Änderungsrate – auf nicht für diesen Zweck geeigneten Daten und können uns nicht zuverlässig Aufschluss geben über den Globalen Meeresspiegel und dessen Änderung.

Link: https://wattsupwiththat.com/2017/10/07/sea-level-rise-and-fall-part-2-tide-gauges/
Übersetzt von Chris Frey EIKE




Diesel-Verteu­felung: Krieg gegen das eigene Volk Diesel: Die Lücken­medien im Glashaus (6)

In den bisherigen Teilen dieses Aufsatzes wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in den Städten auf im Prinzip unbedeutende Werte zurückgegangen ist. Wichtiger Grund hierfür ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Auch wurde aufgedeckt, wie fragwürdig die Messmethoden sind und welche Tricks und Manipulationen zum Einsatz kommen. Im dritten Teil wurden die teils grotesk übertriebenen Behauptungen über die gesundheitlichen Auswirkungen von Stickstoffdioxid sowie die offensichtliche Parteilichkeit sowohl der öffentlich-rechtlichen Medien als auch industriefeindlicher Behörden behandelt. Im vierten Teil wurde festgestellt, dass das Auto auch in der Stadt der Zukunft unverzichtbar bleibt und Elektromobilität zurzeit nicht realisierbar ist. Außerdem wurden Widersprüche in den Aussagen des Umweltbundesamtes beleuchtet und anrüchige Querverbindungen zwischen der Deutschen Umwelthilfe sowie Ministerien und Behörden aufgedeckt. Im fünften Teil wurde gezeigt, dass an der angeblichen Gesundheitsgefährdung selbst durch geringste NO2-Konzentrationen nichts dran ist und die Horror-Stories über zigtausende Tote durch Dieselabgase nicht wissenschaftlich fundiert sind. Zahlreiche Studien basieren sogar auf gefälschten Zahlenwerten. Die jetzt folgenden Teile untersuchen grobe Mängel bei den Studien, mit denen behauptete Gesundheitsgefahren von Stickoxiden „belegt“ werden sollen.
Auch unter Gleichen sind nicht alle gleich
Um Manipulationen mit Zahlen über angebliche „Todesfälle durch Stickstoffdioxid“ entgegentreten zu können, muss man sich zunächst ein wenig mit der Ermittlung von Lebenserwartungen beschäftigen. Die Bevölkerung ist kein einheitlicher Block identischer Individuen, die allesamt ein gesundes Leben bis zum Todestag führen und dann friedlich und ohne Leid entschlafen. Jeder Mensch ist unterschiedlich, zudem besteht die Gesellschaft aus unterschiedlichen Gruppen, die sich bezüglich Lebenserwartung, Gesundheitszustand, Lebensstil, Wohnort, Einkommen etc. von anderen Gruppen unterscheiden. Statistisch gesicherte Aussagen sind daher nur möglich, wenn man möglichst große und zugleich in sich einheitliche Gruppen selektiert und versucht, diese mithilfe statistischer Verfahren zu charakterisieren. Am bekanntesten ist sicherlich die Tatsache, dass Frauen in Deutschland durchschnittlich fast fünf Jahre älter werden als Männer. Es gibt jedoch noch viele weitere Einflussfaktoren. So scheint vordergründig der Wohnort erheblichen Einfluss auf die Lebenserwartung der jeweiligen Einwohner zu haben, Bild 2.

Bild 2. Unterschiede in der Lebenserwartung von neugeborenen Jungen und Mädchen in den verschiedenen Regionen Deutschlands (Grafik: [BBSR])

Die Unterschiede sind wesentlich größer als man als Laie erwarten würde: So haben neu geborene Jungen in Pirmasens (73,6 Jahre), Emden (74,1 Jahre) und Eisenach (74,3 Jahre) die geringste Lebenserwartung. Mit einem besonders langen Leben können dagegen Mädchen im Kreis Breisgau-Hochschwarzwald (85,0 Jahre), Dresden (84,9 Jahre) und München (84,8 Jahre) rechnen. Ein in Pirmasens geborener Junge stirbt demnach im Mittel mehr als elf Jahre vor einem zum gleichen Zeitpunkt im Breisgau zur Welt gekommenen Mädchen. Anders ausgedrückt liegt dessen Lebenserwartung um mehr als 15 % über der des Jungen.
Natürlich interessiert angesichts dieser doch recht erheblichen Unterschiede die Frage nach den Ursachen für diese regionalen Unterschiede. Der Blick auf Bild 2 zeigt sofort, dass Luftverschmutzung als Ursache ausscheidet, denn die kürzesten Lebenserwartungen findet man häufig in ländlichen Regionen mit wenig Industrie, mit einem deutlichen Schwerpunkt in den neuen Bundesländern. Umgekehrt leben die Menschen dort am längsten, wo die Luft, wenn man den Panikmachern der „Umwelt“-Verbände und ihren Verbündeten in Parteien, Ministerien und Medien Glauben schenken darf, am schmutzigsten und giftigsten ist, nämlich in Großstädten wie Stuttgart, München oder Frankfurt, Bild 3.

Bild 3. Entwicklung der Lebenserwartung von Einwohnern verschiedener deutscher Großstädte sowie für Deutschland insgesamt für die Geburtsjahrgänge 1995 und 2010 (Daten: [LEBE], Statista)

Der Blick auf Bild 3 offenbart zweierlei: Zum einen gibt es kein Absinken, sondern sogar einen erheblichen Anstieg der Lebenserwartung mit höherer Schadstoffbelastung der Luft. Die Lebenserwartung hat gerade in den Ballungszentren in den letzten Jahrzehnten noch stetig weiter zugenommen, obwohl uns die Presse und Herr Resch von der Deutschen Umwelthilfe (DUH) mitsamt seinen grünen Gesinnungsgenossen pausenlos einzureden versuchen, dass wir uns und unsere Kinder einem frühen Tod ausliefern, wenn wir nicht schnellstens unsere Autoindustrie vor die Wand fahren. Zum zweiten kann man daraus lernen, dass bei der Aufstellung von Statistiken Sorgfalt die erste Wissenschaftlerpflicht sein sollte. Rein mathematisch könnte man beispielsweise aus der Statistik herauslesen, dass gute Landluft schlecht für die Gesundheit ist und Abgase dagegen das Nonplusultra. Dass dies Unsinn ist, kann man den Zahlen selbst nicht entnehmen: Dazu muss man den gesunden Menschenverstand hinzuziehen, und hieran scheint es dem einen oder anderen Professor aus dem Lager der Epidemiologen etwas zu mangeln.
Um nicht falsch verstanden zu werden: Abgase fördern sicherlich nicht die Gesundheit, und ihre Reduzierung ist eine Aufgabe, die den Schweiß des Edlen wert ist. Hier sollte man den Hut vor dem ziehen, was die Entwickler der Automobilbranche in den letzten Jahren vollbracht haben, statt sie als Scharlatane und Betrüger darzustellen. Der Gegensatz von Bild 2 und Bild 3 beweist eindeutig, dass die Verhältnisse wesentlich komplizierter sind, als dies von den Medien dargestellt wird. Bei Studien über die Auswirkungen von Abgasen muss man daher sehr sorgfältig aufpassen, um nicht Äpfel und Birnen miteinander zu vergleichen und zu Pseudo-Zusammenhängen zu kommen.
Wer arm ist, stirbt früher…
Die Ursache für die unterschiedlichen Lebenserwartungen, die Bild 2 zeigt, ist schon sehr lange bekannt: Es ist die soziale Stellung der Betreffenden, charakterisiert durch z.B. Einkommen, Beschäftigungssituation, Lebensstil und Gesundheitsvorsorge. Der zusammenfassende Begriff hierfür lautet „sozioökonomische Faktoren“. Diese sind die mit Abstand wichtigsten Einflussgrößen auf die Lebenserwartung. Wirtschaftliches Wohlergehen und soziale Stellung sind eng miteinander verknüpft. Das trifft nicht nur auf Individuen zu, sondern auch auf der Ebene größerer Bevölkerungsgruppen. Eine schlechte wirtschaftliche Lage wirkt sich stark nachteilig auf Gesundheit und Lebensdauer aus. Dies ist beispielsweise in Pirmasens der Fall, das in seiner wirtschaftlichen Entwicklung deutlich hinterherhinkt. Gleiches gilt auch für das Ruhrgebiet sowie für viele Regionen in den neuen Bundesländern. Kurz gesagt: Wer arm ist, stirbt früher. Fachleute in zuständigen Stellen wie Sozial- und Gesundheitsämtern, Krankenkassen usw. wissen darum. So schreibt das Bundesinstitut für Bau-, Stadt- und Raumforschung: „Analysen des BBSR zeigen jedoch, dass sich die Lebenserwartung regional ähnlich verteilt wie die Bildungschancen, die qualifizierte Beschäftigung sowie ökonomische Belastungen und soziale Benachteiligung. Die Lebenserwartung ist in den Regionen höher, in denen der Anteil sozial und ökonomisch schwacher Bevölkerungsgruppen gering und der Arbeitsmarkt günstig und attraktiv für hoch qualifizierte und kreative Arbeitnehmer ist. Dieser Zusammenhang ist bei Männern deutlicher ausgeprägt als bei Frauen [BBSR]“. Warnend wird allerdings hinzugefügt, dass sich diese Zusammenhänge kleinräumig – auf Stadt- oder Kreisebene – nicht leicht ermitteln lassen: Dafür seien die Einflüsse auf die Lebenserwartung zu komplex und die regionalstatistischen Daten zu begrenzt. Im weiteren Verlauf dieses Beitrags wird noch deutlich werden, dass viele Verfasser epidemiologischer Studien diesbezügliche Hinweise entweder nicht verstanden oder nicht ernst genug genommen haben.
Die Wirkung dieser sozioökonomischen Faktoren im Zusammenhang mit der Arbeitsplatzsituation ist vielfach belegt, Bild 4, Bild 5 und Tabelle 1.

Bild 4. Gesundheitszustand von Männern in Abhängigkeit vom Beschäftigungsverhältnis (Grafik: [ARB])

Bild 5. Besonders erschreckend ist die starke Zunahme der Sterblichkeit bei lang dauernder Arbeitslosigkeit (Grafik: [ARB])

Tabelle 1. Lebenserwartung in Abhängigkeit vom Einkommen (Daten: [GBE])

Die Grafiken sowie die Tabelle zeigen anschaulich, dass vor allem Männer mit geringem Einkommen oder prekärer bis gar keiner Beschäftigung einen deutlich schlechteren Gesundheitszustand haben und bis zu mehr als 10 Jahre früher sterben als ihre Geschlechtsgenossen mit einem höheren sozioökonomischen Status. Würde man dies mit den Methoden quantifizieren, die bei manchen epidemiologischen Studien zur Beurteilung von Abgasen angewandt werden, so käme man voraussichtlich zu dem Schluss, dass Armut in Deutschland jährlich Millionen Tote verursacht. Das traut sich natürlich niemand zu sagen. Zunächst stellt sich jedoch die Frage, wie es denn überhaupt zu diesen drastischen Unterschieden bei Gesundheit und Lebenserwartung kommt.
lebt ungesünder…
Auch dieser Frage wurde natürlich schon seit langem sehr akribisch nachgegangen. Die Antworten sind eindeutig: Menschen mit schlechterem sozioökonomischem Status leben ungesünder, treiben weniger Sport und gehen seltener und später (d.h. wenn eine Erkrankung schon weit fortgeschritten ist) zum Arzt als diejenigen, die einen höheren Status haben. Auch hierzu gibt es zahlreiche statistische Unterlagen, Bild 6 und Tabelle 2.

Bild 6. Bei langzeitarbeitslosen Männern über 45 ist die Raucherquote mehr als doppelt so hoch wie bei Gleichaltrigen mit sicherer Beschäftigung (Grafik: [GESU])

Tabelle 2. Menschen mit niedrigerem sozialem Status verhalten sich deutlich weniger gesundheitsbewusst (Adipositas = Fettleibigkeit) (Daten: [GESU])

Die Gründe liegen einerseits in teils deutlich ungesünderer Lebensführung wie Rauchen, Bewegungsmangel, ungesunde Ernährung oder Alkoholkonsum sowie geringerer Bereitschaft, bei Beschwerden ärztlichen Rat einzuholen. Zudem informieren sich diese Personengruppen weniger über Gesundheitsgefahren und werden auch vom eigenen Umfeld wie Familie und Bekanntenkreis weniger zu gesundheitsförderlichem Verhalten angeregt.
und ist entsprechend kränker
Erwartungsgemäß wirkt sich diese Lebensweise entsprechend nachteilig auf die Gesundheit aus, wobei bestimmte Krankheitsbilder mit besonderer Häufigkeit auftreten. So berichtet z.B. die „Welt“, dass Mecklenburg-Vorpommern – eines der ärmsten Bundesländer – mit 9,6 % die zweithöchste Arbeitslosigkeit aufweist. Zugleich belegt das Land bei gleich fünf Krankheiten, darunter Diabetes, Asthma und Leberschäden, den schlechtesten Platz in der Statistik [WELT]. Eine qualitative Übersicht über die gerade bei Menschen aus unteren sozialen Schichten besonders häufig auftretenden Krankheitsbilder zeigt Tabelle 3.

Tabelle 3. Bei Menschen mit niedrigem Einkommen ist das Risiko für bestimmte Erkrankungen teils deutlich höher (Quelle: [GBE])

Betrachtet man mit diesem Wissen jetzt noch einmal die Karte (Bild 2) mit den regionalen Unterschieden der Lebenserwartungen, so versteht man, warum es nicht die Luftqualität ist, welche zu krassen Unterschieden der Lebenserwartung führt, sondern in erster Linie der Unterschied in der Prosperität und damit im sozialen Status erheblicher Teile der Bevölkerung. Der ungesündere Lebensstil der sozial schwächeren Schichten hat eine markante Häufung ganz bestimmter Krankheitsbilder zur Folge, welche zu einem früheren Tod führen. Dazu gehören auf den deutlich höheren Tabakkonsum zurückzuführende Krebsarten wie Lungen- und Darmkrebs, aber auch Diabetes und Tuberkulose sowie Herz-Kreislauf-Erkrankungen [RAUCH]. Hinzu kommen noch chronische Bronchitis, chronische Lebererkrankungen sowie Bluthochdruck mit allen damit verknüpften Risiken wie Schlaganfällen und Herzinfarkt.

Bild 7. Entlang stark befahrener Straßen bilden sich schmale Linienghettos (Foto: Pixabay)


Linienghettos entlang der Hauptverkehrswege
Bereits in früheren Folgen dieser Untersuchung wurde darauf hingewiesen, dass sich in großen Städten entlang der stark befahrenen Hauptverkehrsstraßen ein deutliches soziales Gefälle ausbildet. Dies betrifft insbesondere Wohnbebauungen, wo Häuser in mehrstöckiger geschlossener Front ohne Vorgärten direkt an der Straße stehen, so dass eine mehr oder weniger ausgeprägte „Straßenschlucht“ vorliegt. Hier ist die Wahrscheinlichkeit sehr groß, dass sich mehr oder weniger ausgeprägte „Linienghettos“ speziell entlang der am stärksten befahrenen Straßen ausbilden, in denen sich bevorzugt Menschen aus unteren sozialen Schichten ansiedeln. Grund hierfür ist die starke Beeinträchtigung des Wohnumfelds u.a. durch Verkehrslärm, Gerüche und die geringe Attraktivität von Ausblick und Umgebung. In Abhängigkeit von der Entfernung des Wohnorts zur Hauptverkehrsader wird man dann markante Zunahmen insbesondere der Krankheiten finden, die in der obigen Aufzählung enthalten sind.
Stellt man dem jetzt die Liste der Erkrankungen gegenüber, die von Epidemiologen dem NO2 zugeschrieben werden, so entdeckt man wesentliche Übereinstimmungen, Tabelle 4.

Tabelle 4. Auslösende Faktoren von typischerweise häufiger auftretenden Erkrankungen bei sozial schwächeren Bevölkerungsgruppen im Vergleich zu den von Epidemiologen behaupteten Folgen selbst geringer Gehalte von NO2 in der Atemluft (Angaben: [GBE], [HOSHO])

Um besser verstehen zu können, warum die in Tabelle 4 aufgeführten Angaben der Epidemiologen Mißtrauen erwecken sollten, muss man zunächst wissen, dass sich mögliche nachteilige Wirkungen von NO2 ausschließlich auf die Lunge beschränken. Bei der Absorption in der Lunge wird das NO2 über Zwischenstufen in Nitrat umgewandelt und mit dem Blut abtransportiert. Die dabei gebildete Nitratmenge ist zwar nachweisbar, fällt jedoch gegenüber derjenigen, die mit der Nahrung aufgenommen wird, kaum ins Gewicht [STICK]. Es gibt deshalb keinerlei Wirkzusammenhang, der eine Schädigung solcher Organe wie Herz, Adern, Leber oder Bauchspeicheldrüse (Diabetes) etc. durch NO2 erklären könnte. Auch Lungenkrebs kann nach bisherigem Kenntnisstand der Toxikologie nicht auf eine Belastung mit NO2 zurückgeführt werden. Deshalb ist NO2 in der offiziellen Liste krebserregender Substanzen gar nicht erst aufgeführt [TRGS]. Epidemiologische Untersuchungen, die NO2 mit Lungenkrebs in Verbindung bringen, sind daher eher unglaubwürdig.

NO2 wird zum Universal-Sündenbock gemacht

Eine Erklärung dafür, wieso bei vielen epidemiologischen Studien Effekte „gefunden“ werden, die toxikologisch nicht erklärbar sind, liefert ein Beitrag aus dem Tropen- und Public-Health-Institut der Schweiz. Dieses Institut arbeitet eng mit der WHO zusammen und berät sowohl die Schweizer Regierung als auch die EU. Dieses tritt auch als Sprachrohr der automobil-und dieselfeindlichen Kräfte in Deutschland auf [SMCE]. In der von seinem Institut erstellten Studie findet sich eine äußerst aufschlussreiche Passage: „Wichtige Erkenntnisse zur Beurteilung gesundheitlicher Wirkungen von Schadstoffen auf die Bevölkerung stammen aus epidemiologischen Studien[….]Dabei muss beachtet werden, dass die statistischen Zusammenhänge, welche zwischen Gesundheitsgrössen und Schadstoffbelastungen gefunden werden, isoliert kaum Aussagen über ursächliche Beziehungen zulassen[…..]Gefundene Zusammenhänge mit einem Schadstoff können daher ein Hinweis sein auf direkte (kausale) Wirkungen oder sie stehen stellvertretend für Schadstoffe, welche die gleiche Quelle haben und mit ihm korrelieren. Oftmals sind NO oder NO2 Indikatoren für das verkehrsbedingte Schadstoffgemisch. In diesem Sinne ist NO2 auch als Leitschadstoff in der Luftreinhalteverordnung reguliert“ [LUDOK]. Auf gut Deutsch gesagt: Wenn man die Wirkung von z.B. karzinogenen Luftschadstoffen aus älteren Benzinern statistisch nicht von derjenigen des NO2 aus Dieseln unterscheiden kann, schiebt man alle Wirkungen der anderen Schadstoffe dem NO2 in die Schuhe. In der EPA-„Bibel“ [EPA2] ist immer wieder der Satz „Effect of NO2 independent from traffic-related copollutants is uncertain….“ zu finden. Mehr ist dazu nicht zu sagen. Als Begründung für eine Kampagne, die darauf abzielt, eine deutsche Spitzenbranche zu vernichten, ist das eigentlich recht dünn.

Die Zweifelhaftigkeit vieler epidemiologischer Studien…

Zählt man Zwei und Zwei zusammen, so ergibt sich ein sehr begründeter Verdacht: Bei epidemiologischen Studien zum NO2, welche als Hauptkriterium die räumliche Entfernung zu stark frequentierten Straßen verwendet haben, ist die eigentlich unbedingt erforderliche Trennschärfe zwischen den unterschiedlichen Belastungsfaktoren nicht gegeben. Vielfach hat man es weder geschafft, die wichtigen sozioökonomischen Faktoren aus der Statistik herauszufiltern, noch die Wirkung der unterschiedlichen Schadstoffe sauber voneinander zu trennen. Vermutlich liegt dies daran, dass man diese Aspekte schon bei der Auswahl der jeweils untersuchten Gruppe sowie bei der Art der vorgenommenen Messungen nicht ausreichend beachtet hat. In diesem Fall ist es unwahrscheinlich, dass diese Studien selbst bei Neubearbeitung überhaupt belastbare Ergebnisse liefern können. Zweifelhaft sind generell alle Untersuchungen, die angeblich Auswirkungen von NO2 auf innere Organe festgestellt haben. Diese sollte man grundsätzlich mit einem Fragezeichen versehen und einer eingehenden und kritischen Nachprüfung bezüglich Methodik und Sauberkeit der Selektionskriterien der Probanden unterziehen. Auch bei den dann noch übrig bleibenden Arbeiten ist eine genaue Überprüfung empfehlenswert, was die Erfassung und korrekte Berücksichtigung sozioökonomischer Hintergrundinformationen der untersuchten Personengruppen angeht. Und last but not least sind geographische Aspekte zu beachten. Untersuchungen in der Luftschadstoff-Hölle vieler Millionenmetropolen der 2. und 3. Welt voller Abgasschwaden von zweitaktgetriebenen Tuk-Tuks wie in Indien oder mit Kraftwerkssmogverhältnissen wie in Beijing lassen sich nicht zwanglos auf mitteleuropäische Verhältnisse übertragen. Auch in Europa oder den USA durchgeführte Analysen älteren Datums können vermutlich nur in begrenztem Umfang herangezogen werden, da die Zusammensetzung der Abgase heutzutage nicht mehr die gleiche ist wie vor 10 oder gar 20 Jahren.
betrifft auch die daraus zusammengestellten „Bibeln“ von WHO und EPA
Aus den gleichen Gründen ist sicherlich auch ein Großteil der diversen Metaanalysen zum Thema nur bedingt vertrauenswürdig. In der Regel beziehen sich die Verfechter von Dieselverboten auf zwei Kompendien, in denen der „Stand der Wissenschaft“ bezüglich der Gefährdung der menschlichen Gesundheit durch NO2 zusammengeführt sein soll: Die Studien der WHO sowie der US-amerikanischen EPA [WHO2], [EPA2]. Beide Werke stützen sich jedoch bei ihren Schlussfolgerungen auf zahlreiche Arbeiten, die im Lichte der hier dargelegten Erkenntnisse nur als bedingt tauglich eingestuft werden können. So findet sich in der WHO-Studie beispielsweise eine Untersuchung mit 1,26 Mio. Teilnehmern in Rom (Cesaroni et al., 2013), bei der nicht einmal das Rauchverhalten der Probanden systematisch erfasst, sondern geschätzt wurde. Die 1148 Seiten dicke EPA-Studie führt gerade einmal 13 Untersuchungen mit einigermaßen realistischen Zielsetzungen auf, bei denen sozioökonomische Faktoren einbezogen wurden. Auch dürften nach aktuellem Stand der Erkenntnisse sogar direkt gefälschte Daten eingeflossen sein [DUKE]. Von daher sind auch bezüglich der Fundiertheit der in beiden Dokumenten getroffenen Schlussfolgerungen Zweifel geboten. Als nicht mehr verhandelbare „settled Science“ sind sie nicht glaubwürdig. In den nächsten Folgen werden noch andere methodische Fehler thematisiert, welche die Glaubwürdigkeit zahlreicher weiterer epidemiologischer Studien erschüttern dürften.
Fakten und „Faktenfinder“
Die bisherige Analyse der von den „Faktenfindern“ von NDR und Tagesschau präsentierten Aussagen lässt erkennen, dass man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Immissionen der Stadtluft beschäftigt hat. Stattdessen übernimmt man einfach die Positionen von Hendricks und dem UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung von Daten und Hintergründen ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Mehrzahl der Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichtet. Statt um Ausgewogenheit und Sorgfalt bemüht man sich offenkundig eher darum, das Thema so darzustellen, wie bestimmte Bundesbehörden sowie die etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Medien, Journalisten oder Bloggern werden als unglaubwürdig hingestellt. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Die Vernichtung der deutschen Automobilindustrie wird anschließend auch beim Benziner weitergehen, und zwar alternativlos.
Fred F. Mueller
Demnächst folgt Teil 7
Quellen
[ARB] Gesundheitsberichterstattung des Bundes Heft 13 Arbeitslosigkeit und Gesundheit. Robert Koch Institut
[BBSR] http://www.bbsr.bund.de/BBSR/DE/Home/Topthemen/lebenserwartung.html

[DUKE] http://dailycaller.com/2017/07/03/epa-funded-research-lab-accused-of-fabricating-data-on-respiratory-illnesses/

[EPA2] U.S. EPA (2016): Integrated Science Assessment for Oxides of Nitrogen –Health Criteria. Final Report.

https://cfpub.epa.gov/ncea/isa/recordisplay.cfm?deid=310879

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html
[GBE] GBE Kompakt 5/2010, Zahlen und Trends aus der Gesundheitsberichterstattung des Bundes, Robert Koch Institut
[GESU] https://www.lzg.nrw.de/ges_foerd/ges_chanc_gl/arbeitslosigkeit_gesundheit/gesundheitsverhalten/index.html

[HOSHO] https://www.uni-duesseldorf.de/home/fileadmin/redaktion/Oeffentliche_Medien/Presse/Pressemeldungen/Dokumente/Kurzstellungnahme_Experten_Umweltepidemiologie.pdf

[LEBE] http://www.lebenserwartung.info/index-Dateien/ledeu.htm

[LUDOK] Kutlar Joss M, Dyntar D, Rapp R: Gesundheitliche Wirkungen der NO2-Belastung auf den Menschen: Synthese der neueren Literatur auf Grundlage des WHO-REVIHAAP Berichts. Basel

[RAUCH] https://www.krebsgesellschaft.de/onko-internetportal/basis-informationen-krebs/bewusst-leben/rauchen-zahlen-und-fakten.html

[SMCE] https://www.sciencemediacenter.de/alle-angebote/rapid-reaction/details/news/diesel-skandal-wissenschaftler-widersprechen-schlussfolgerungen-der-abgeordneten-zu-gesundheitlich/

[STICK] Bundesgesundheitsblatt 1/98, S. 9-12.
[TRGS] Technische Regeln für Gefahrstoffe, Verzeichnis krebserzeugender, erbgutverändernder oder fortpflanzungsgefährdender Stoffe, TRGS 905.
[WELT] https://www.welt.de/gesundheit/article144337205/So-krank-ist-Deutschland.html

[WHO2] WHO (2013): Review of evidence on health aspects of air pollution – REVIHAAP Project, Technical Report




Trump beendet Umweltregulierungen, während Deutschland sich für das Klimaziel verstümmelt

Die grünen Aktivisten scheinen zu ignorieren, was in Europa passiert, wo deutsche Beamte eingestanden haben, dass sie ihrem Klimaziel nirgendwo nahe kommen, obwohl sie 800 Milliarden Dollar für grüne Energie ausgegeben haben.
Deutschlands Energieministerium warnte, dass das Land auch das Ziel verfehlen kann, die Treibhausgas – Emissionen bis 2020 um 40 Prozent unter das Niveau von 1990 zu drücken. Das Ministerium sagte, das Land wird die Emissionen nur um etwa 31,7-32,5 Prozent reduzieren, nach einem Bericht von Clean Energy Wire.
Das Scheitern könnte ein „bedeutender Schlag für die deutsche Klimapolitik“ und „eine Katastrophe für Deutschlands internationale Reputation als Klimaführer“ sein, warnten die Behörden.
Nachrichten über Deutschlands Probleme mit der globalen Erwärmungspolitik kamen, als die Trumpf-Regierung anfingt, den Clean Power Plan (CPP) aufzuheben, eine Verordnung der Umweltschutzbehörde (EPA), um Kohlendioxidemissionen von Kraftwerken zu begrenzen.
Die Obama-Regierung hat den CPP in 2015 abgeschlossen und Präsident Barack Obama plante, die Regulierung zu nutzen, um die US-Emissionen gemäß dem Pariser Klimaabkommen zu senken.
Umweltaktivisten kritisierten Trumps jüngste Entscheidung, den CPP aufzuheben, doch Deutschlands Erfahrungen mit der bundesweiten Klimapolitik sollten den Aktivisten eine Atempause geben.
Die Energieprobleme Deutschlands gehen noch weiter. Die New York Times berichtete am Samstag [08, dass Deutschlands grüne Energiewende ein „De-facto-Klassensystem“ geschaffen habe, bei dem „eine Gruppe von Nichtmitgliedern durch höhere Stromrechnungen die Installation von Solarzellen und Windkraftanlagen anderer Investoren subventionieren“.
Lukrative Subventionen für Solar- und Windkraft haben das Wachstum von Green-Energy-Projekten in ganz Deutschland angeheizt, aber auch die Strompreise stiegen auf etwa das Dreifache, was der Durchschnittsamerikaner zahlt. Die Heizung ist so teuer, dass sie “ die zweite Miete “ genannt wird.
Der Großteil des Preisanstiegs geht auf die Steuern und Steuern auf Abgaben zurück, die auf die Energie und dazu auf Nebenkosten für den Anschluss und die Ausregelung der Erneuerbaren Elektrizität aufgeschlagen sind. Große Industrieunternehmen sind davon zum Teil befreit. Die Times berichtete: „Die Emissionen sind auf einem Niveau von etwa 2009 und sind im vergangenen Jahr weiter gestiegen, da Kohlekraftwerke die Lücke füllen, die die Entscheidung Deutschlands, die Kernkraft abzuschalten, hinterlassen hat“.
Steigende Energiepreise und keine Erreichung der gesteckten Ziele hatten auch politische Konsequenzen. Die Times berichtete, dass die rechtgerichtete Partei AfD – Alternative für Deutschland, bei den jüngsten Wahlen zum Parlament genügend Unterstützung erhalten hat. Die AfD fordert einen“ sofortigen Austritt „von der Energiewende.
Erschienen auf Tha Daliy Caller am 12.10.2017
Übersetzt durch Andreas Demmig
http://dailycaller.com/2017/10/12/trump-terminates-epa-regs-as-germanys-global-warming-scheme-runs-into-trouble/
 
Ergänzung durch Clean Energy Wire
Deutschland wird die Klimaziele weit verfehlen, warnt das Umweltministerium
….
Die meisten Experten glauben, dass in Deutschland nur die eine Möglichkeit hat, seine Emissionen drastisch zu senken, indem es kurzfristig seine schmutzigsten Braunkohlekraftwerke schließt. Dies ist einer der Hauptpunkte der Grünen bei den kommenden Koalitionsgesprächen mit Merkels Konservativen und der FDP.
„Das 40-Prozent-Ziel ist nur erreichbar mit weniger Kohleverstromung“  sagte Umweltministerin Barbara Hendricks in einer Erklärung. „Wir haben einen so großen Stromüberschuss, dass unser Energiesystem einen großen Schritt in Richtung einer kohlefreien Versorgung nehmen kann.“
….




Zu einigen Irrtümern der offiziellen Klimawissenschaft

Zunächst einmal: Wir alle haben Sinnesorgane für Wetterphänomene. Wir fühlen ob es warm oder kalt, nass oder feucht oder gar trocken ist. Wir können den Wind fühlen, oder auch ob es ein Sturm ist. Kurz, für die Wetterwahrnehmung sind wir auf beste ausgestattet, was auch unserem erfolgreichen Überleben in einer rauen, sich ständig ändernden Umwelt ein großer Vorteil ist. Der olle Darwin hatte auch hier recht: Survival oft the fittest!
Also haben alle Sinnesorgane für Wetterphänomene, doch keiner hat eines für das Klima. Damit hat uns die Natur nicht ausgestattet. Und deswegen wird fast immer Wetter mit Klima verwechselt. Was Wetter ist, weiß also jeder,. Und das erklärt auch, warum wir so bereitwillig glauben, dass die „Extremwetter“ dank des Klimawandels“ zugenommen hätten. Aber das stimmt nicht! Wir haben aber eben ein Gefühl für Wetter und glauben daher das einschätzen zu können.
Und es dürfte auch nach der offiziellen Treibhaushypothese gar nicht so sein. Denn nach dieser Hypothese erwärmen sich die polaren Gebiete stärker als die Tropen. Was bedeuten würde, dass die Temperaturunterschiede kleiner werden müssten. Die sind aber die Hauptantriebe für unser Wetter, auch für Extremwetter. Je größer, desto mehr Extremwetter. Doch da sie laut Hypothese kleiner werden sollen –würden auch die Antriebskräfte des Wetters schwächer = weniger Wetterextreme. Das weiß auch das IPCC . Denn, sowohl vom IPCC, als auch in der meteorologischen Fachliteratur ist das bis heute gültige Statement zu finden, welches sinngemäß lautet:
Es konnten keine Zunahmen in Stürmen, Hurrikanen, Extremniederschlägen, Dürren usw. aufgefunden werden, oft fand man sogar Abnahmen[1]. Die Entwarnung ist absolut eindeutig, maßgebende Veränderungen von Extremereignissen über 30 Jahre gibt es nicht, und ein Einfluss des Menschen ist schon gar nicht auffindbar.
Eine weitere Behauptung betrifft die Meeresspiegel: Richtig ist; Sie steigen seit der letzten Eiszeit an. Die Anstiegsgeschwindigkeit wird aber immer kleiner. Seit vielen Jahrhunderten liegt sie bei grob 1 bis 2 mm pro Jahr, ein zivilisatorisch völlig unkritischer Wert. Belege dafür sind viele tausend Pegelmessungen, in jüngerer Zeit auch Satellitenwerte.
Kommen wir zu den Alpen-Gletschern: In der überwiegenden Zeit der letzten 10.000 Jahre waren die Alpengletscher nachgewiesen kleiner als heute. Das erneute Schmelzen der Alpengletscher nach der langen Kaltzeit des 17./18. JH begann bereits Mitte des 19. Jahrhunderts, als es noch gar kein nennenswertes menschgemachtes CO2 gab. Die Eismassen außerhalb beider Polarzonen, dazu zählen u.a. die Alpen, umfassen im übrigen nur 2% des globalen Gesamteises. Generell gilt, auf der Nordhalbkugel wird es zur Zeit leicht wärmer, auf der Südhalbkugel dagegen leicht kälter. Daher schmilzt der grönländische Eispanzer ein wenig und das Eis am Südpol nimmt zu. Die Wissenschaft spricht von einer Klimaschaukel. Warum das CO2 sich diese merkwürdige – und der Treibhaushypothese völlig widersprechenden- Verteilung aussuchen sollte, bleibt eines der vielen ungelösten Rätsel dieser Hypothese.
All das – und das wird oft übersehen- sind jedoch übliche Wetter- und/oder Klimaphänomene. Allein ihre Existenz belegt überhaupt nicht, dass sie in irgendeiner Weise mit dem Anstieg der durch den Menschen verursachten CO2 Emission ursächlich verknüpft sind. Aber so wird es uns verkauft.
Doch was ist Klima? Klima ist ein künstlich erschaffener, nur statistisch ermittelbarer Begriff, und ist definiert als langjähriger Mittelwert lokaler Wetterdaten (also Temperatur, Niederschlag, Feuchte, Wind etc. etc etc) über mindestens 30 Jahre, besser länger z.B. 60 oder 100 Jahre. Alles andere ist Wetter, oder wenn es länger dauert, Witterung. Eine Klimaperiode umfasst per Definition der Weltorganisation für Meteorologie (WMO) also mindestens 30 Jahre. Erst nach 90 Jahren können wir z.B. drei Klimaperioden, und damit Unterschiede, beurteilen. Allein schon aus dieser von der WMO gemachten Definition lässt sich erstens ableiten, dass die Verengung des Begriffs auf ein einziges Weltklima Unsinn ist und zweitens. jeder der das Klima schützen will, dies zuerst mit seinem Wetter tun müsste. Ein offensichtlich absurder Gedanke.
Schon diese Feststellungen bedeuten, und das ist belegbar : „Climate Science is not settled. Wenn ein Obama öffentlich behauptet, dass 97 % aller Wissenschaftler im Sinne der „offiziellen“ Klimawissenschaft diese als „ settled“ ansehen, dann ist das falsch. Und sie wurde auch sofort widerlegt. Und sie bedeuten auch, dass man auf Grund unsicherer – und jeden Tag sich als mehr falsch herausstellender Prognosen – auch nicht bei verständlicher Anwendung des Vorsorgeprinzips- eine ganze Volkswirtschaft „transformieren“ darf. Das aber ist hierzulande offizielle Staatsdoktrin. Das Wort „Transformation“ kommt im Klimaschutzplan 2050 mehr als 40 x vor. Meiner Meinung nach ist das eine Fahrt ins Ungewisse mit voraussehbar bösem Ende. Und das soll im Folgenden noch ausführlicher belegt werden.
Doch abgesehen davon ist entscheidend, dass Wissenschaft kein demokratischer Prozess ist, in der die Mehrheit bestimmt, was wahr oder falsch ist. Es zählt allein der Beweis , der durch Beobachtungen und Messungen der realen Welt erbracht wird. Und dieser liegt trotz dreißigjähriger, viele Zehner-Milliarden kostende Forschung, nicht vor.
Denn, ob Sie es glauben oder nicht: In keinem der bisher 5 IPCC Berichte – in keiner der dort zitierten begutachteten Studien- und es werden dort leider nicht nur begutachteten Studien ausgewertet und zitiert, sondern auch jede Menge ideologisch gefärbter Artikel von z.B. Greenpeace, WWF oder einer ihrer unzähligen Hilfsorganisationen- ist ein solcher Beweis erbracht worden. Und es kommt noch dicker: es gibt aber weltweit tausende von fähigen und seriösen Wissenschaftlern, die genau das sagen, in begutachteten Fachartikeln auch schreiben und gut begründen, was wir soeben festgestellt haben. Sie kamen aber bislang nur selten zu Wort. Und so gut wie nie in den öffentlichen Medien und damit der öffentlichen Wahrnehmung. Das ändert sich nun gerade und nicht nur in Deutschland. Bleibt festzuhalten: Es gibt kein Signal, keinen Befund, kein Experiment, dass die Behauptung stützt, dass anthropogenes CO2 einen erkennbaren Einfluss auf unsere Lufttemperatur hätte.
Diese Behauptung stützt sich also allein auf eine Hypothese, die – über den Umweg komplizierter Computer-Klima-Modelle- den Rang eines objektiven Beweises beansprucht. Doch diese Computer-Klima-Modelle können nicht einmal die Klimavergangenheit richtig nachbilden, noch die bereits begonnene Klimazukunft. Sie liegen chronisch daneben! Die letzten 20 Jahre prognostizierten sie im Mittel um glatte 0,4 Grad zu hoch. Das ist immerhin die Hälfte der Erwärmung des vorigen Jahrhunderts!
Und sie liegen nicht nur deswegen chronisch daneben, weil Klima- als chaotisches System-sich grundsätzlich einer Prognose entzieht, wie es das IPCC in seinem 3. Bericht (TAR) selber feststellte, sondern weil sie außerdem für ihre Durchrechnung Annahmen – Parameter, Anfangsbedingungen etc.- bedürfen, die kein Wissenschaftler wirklich kennt. Man muss sich nicht mit den Feinheiten dieser komplexen, man kann sogar sagen, schwarzen Kunst, im Detail auseinandersetzen, es genügen zwei relativ einfache Fakten die erläutern, warum man zum Schluss kommen muss, dass die Klimaforschung erst ganz am Anfang steht und daher Prognosen mit dem Unterton absoluter Wahrheiten tunlichst unterlassen sollte.
Schauen wir uns dazu zunächst die sog. Weltmitteltemperatur an.
Wer erinnert sich nicht – und jüngst ging es wieder durch fast alle Medien- 2016 war das heißeste Jahr seit Beginn der Aufzeichnungen! Landauf, landab wurde uns diese Meldung um die Ohren gehauen und von den „führenden“ Klimaforschern des Landes, ehrenwerten Männern wie Mojib Latif, Hans-Joachim Schellnhuber, oder Stefan Rahmstorf – ernst nickend, sogleich dem menschgemachten Klimawandel zugeschoben.
Doch was hat es mit der „hottest temperature ever“ auf sich? Wie hoch ist sie?
Nun, sie wurde mit 14,8 ° gemeldet“ In Worten: vierzehn komma acht Grad!
Ich zumindest, und vermutlich die Mehrzahl der Leser auch, würde bei dieser Temperatur eher eine warme Jacke anziehen, so warm ist das im täglichen Leben jedenfalls doch wieder nicht, aber es ist auch nicht so warm, wenn man diese „hottest temperature ever“ mit früheren Angaben, tlw. derselben „führenden“ Klimaforscher aus den dafür zuständigen Instituten vergleicht.
Nur gut 20 Jahre früher -also 1995[2]– wurde ebenfalls lautstark, das heißeste Jahr seit Beginn der Aufzeichnungen ausgerufen! Und wieder wurde es uns landauf, landab wurde als Menetekel um die Ohren gehauen. „Führende“ Klimaforschern, durften , dies im SPIEGEL ausführlich dem menschgemachten Klimawandel anlasten – verbunden mit schrillen Warnungen vor einer schrecklichen Katastrophe, der durch sofortiges Handeln – das Kyotoprotokoll sollte unbedingt abgeschlossen werden- begegnet werden müsse.
Und wissen Sie, wie hoch die 1995 genannte Weltmitteltemperatur – hottest ever- war? Nun gut, ich verrate es Ihnen: es waren sage und schreibe 15,4 °C
Immer noch ein bisschen kühl meiner Meinung nach, aber eindeutig wärmer als die von 2016! Oder? Und zwar um 0,6 °C. Das sind immerhin ¾ der gesamten Erwärmung des vorigen Jahrhunderts von 0,8 ° und setzt daher ein gewaltiges Fragezeichen.
Die globale Maximaltemperatur ist also gesunken! Nicht gestiegen!!
Aber haben Sie darüber jemals etwas gelesen oder gehört? Hatte das irgendeinen Einfluss auf die Pariser Verhandlungen? Nein, dass hatte es nicht.
Und damit komme ich zum zweiten wichtigen Wert, der etwas über die Geschwindigkeit und das Potenzial der denkbaren Erwärmung aussagt. Denn – ohne, dass es explizit im Pariser Text erwähnt wird-, basiert die 1,5°/2° Grenze, bzw. davon abgeleitet, die Menge an CO2, die die Menschheit noch emittieren darf, auf einer einzigen Zahl: der sog. Klimasensitivität! ECS oder Equilibrium Climate Sensitivity.
Das ist die wichtigste theoretische Größe der Treibhaushypothese, die bestimmt, um wie viel Grad Celsius – oder genauer Kelvin- die Temperatur zunehmen würde, wenn das CO2 verdoppelt wird. Also von vorindustriell vermuteten 0,02 Vol. %, oder in einer anderen Maßeinheit 200 ppm (part per million), auf heute ca. 0,04 Vol. % bzw. 400 ppm. Oder zukünftig auf vielleicht 0,08 % = 800 ppm. Und die ist deshalb so extrem wichtig, weil man glaubt, damit die noch zulässige CO2 Emissionsmenge bestimmen zu können, die es uns erlaubt, eine bestimmte Temperatur-Obergrenze – z.B. das nebulöse Pariser 2 Grad Ziel nicht zu überschreiten.
Und diese Größe, bzw. die Versuche sie zu bestimmen, ist seit vielen Jahren Gegenstand intensiver weltweiter Forschung.
Das IPCC setzt für die CO2-Klimasensitivität seit Jahrzehnten den Wert von 3,2 °C an, also bei Verdopplung von z.B. 0,04 % auf 0,08 % würde die Temperatur nach der Treibhaushypothese um rd. 3 ° C von 14,8 auf rund 18,0 ° steigen, wenn wir 2016 als Basis nehmen.
Und das IPCC rechnet mit diesen 3 oder 3,2 °, obwohl es in der Summary for Policy Makers (SPM), allerdings nur in einer von fast allen überlesenen Fußnote, frei übersetzt schrieb.
„Wir können keinen aktuellen Wert für die ECS angeben, weil wir uns nicht auf einen gemeinsamen Wert verständigen konnten!“
Der Grund für dieses versteckte Eingeständnis ist, dass sich dieser Wert in den wiss. Publikationen im freien Fall befindet. Von ehemals 3 ° über 2 ° dann 1 ° jetzt auf 0,3 -also eine ganze Größenordnung geringer. Eine echte Dezimierung.
Sie ahnen vielleicht nicht so richtig, was das bedeutet?
Selbst wenn wir alle vorhandenen fossilen Brennstoffe aufspüren, fördern und verbrennen würden, ist eine Verdopplung der gegenwärtigen CO2 Konzentration unrealistisch hoch. Und jede Absenkung dieses ECS-Wertes – und wie gesagt, er ist derzeit nahezu ein Zehntel des bisherigen- lässt die Gefahr einer Klimakatastrophe rapide verschwinden. Sie wird zum NoProblem!!!
Deshalb, so meine ich, haben wir allen Grund, an der Behauptung vom menschgemachten Klimawandel zu zweifeln. Wir sollten, nein wir müssen daher die hochriskante Therapie der Dekarbonisierung für die an der Menschheit erkrankten Erde sofort absetzen, weil deren Basis, die CO2-Hypothese nicht nur hochumstritten bleibt, sondern jeden Tag auf Neue ad absurdum geführt wird.
Was aber unbestritten gilt ist: Das Spurengas Kohlenstoffdioxid (CO2) ist kein Schadstoff, sondern eine unverzichtbare Voraussetzung für alles Leben. Es ist der beste Dünger für Pflanzen und sorgt dafür, dass die Erde in den vergangenen jahrzehnten deutlich grüner wurden. Die Welternährung wurde spürbar besser.
Wir sollten uns der beabsichtigten nationalen wie weltweiten Dekarbonisierung auch deshalb verweigern, weil sie weder geo- noch sozialpolitisch- denkbar ist und Deutschlands Anteil an einer Weltklimarettung – so oder so- mikroskopisch und damit vernachlässigbar klein bleiben wird.
 
Hier noch ein paar Meinungen und Motive der führenden Personen der Politik & offiziellen Klimawissenschaft.




[1] Wörtlich lautet es in der Zusammenfassung des IPCC von 2013 im AR5, WGI, Kapitel 2.6 auf Seite 219 in dem bekannt verklausuliertem IPCC-Originalton “There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century.”
[2] Eigentlich schon seit 1988 von James Hansen! Quelle http://iridl.ldeo.columbia.edu/SOURCES/.Indices/.HANSEN/.Global/figviewer.html?plottype=oneline&variable=Annual+.Temperature, und dann immer wieder bis 1995. Siehe z.B. auch Schönwiese „Klima im Wandel“ 1992 Seite 73 Liste der Quellen hier https://www.klimamanifest-von-heiligenroth.de/wp/wp-content/uploads/2016/06/Bundesregierung_Klimaschutz_hat_Prioritaet_20150226_DerWahreGrund_Stand20150623_15_5Grad.pdf