Zurück in die grüne Welt des Mittelalters

Erstens gäbe es keine Massenerzeugung von Stahl ohne die Verbrennung von Kohle, um den Sauerstoff aus dem Eisenerz zu entfernen. Die Menschen könnten Bäume in den Wäldern fällen, um Holzkohle herzustellen, mit welcher sie dann Roheisen und Rohstahl herstellen können, aber die Wälder wären dann bald verschwunden.Kohle hat die Wälder vor diesem Schicksal bewahrt.

Wir könnten Gold und Silber gewinnen ohne den Verbrauch von Kohlenwasserstoffen, und mit unserem Erfindungsgeist können wir vielleicht unraffiniertes Kupfer herstellen sowie Blei und Zinn sowie weitere Produkte wie Bronze und Messing. Aber die Herstellung großer Mengen Kernbrennstoffe, Zement, Aluminium, veredelter Metalle, Plastik, Nylon, synthetischer Stoffe, Petro-Chemikalien und Druckrohrleitungen wäre dann unmöglich.

Auch die Herstellung von Windturbinen und Solarpaneelen wäre ohne fossile Treibstoffe unmöglich. Eine Windturbine benötigt massenhaft Stahl und Beton, Fiberglass und Glas-Polymere ebenso wie viele andere veredelte Metalle – Kupfer, Aluminium, seltene Erden, Zink und Molybdän. Solarpaneele und Batterien benötigen Silikon, Blei, Lithium, Nickel, Kadmium, Zink, Silber, Mangan und Graphit – alles in hoher Reinheit, und alles kaum im Hinterhof mit Holzkohle zu machen. Transport, Aufstellung und Wartung von Wind- und Solarparks plus die erforderliche Infrastruktur an Straßen und Leitungen erfordert viel mit Diesel betriebene Motorkraft.

Jede Maschine der Welt benötigt Kohlenwasserstoffe für Motoröl, Getriebeöl, Bremsflüssigkeit, Hydrauliköl und Fett. Natürlich können wir Öle von Seelöwen, Bienenwachs und Walen zum Ölen benutzen – aber die Erfindung von Petroleum bewahrte die Wale vor diesem Schicksal.

Straßen wären eine Herausforderung ohne auf Öl basierendem Teer. Die antiken Römer bauten ziemlich gute Straßen aus Pflastersteinen (dies würde das Problem der Arbeitslosigkeit eindämmen). Aber harte Arbeit wäre nichts für alternde Baby-Boomer oder die elektronische Ära. Autos, Eisenbahnen, Motoren, Schiffe, Handys, Fernsehen und Computer-Tomographie wären out. Pferde, Ochsen, hölzerne Ruderboote, Segelschiffe, Pflanzen-Medizin und semaphore würden eine gewaltige Renaissance erleben. Einige mit Holz befeuerte Dampf-Traktoren könnten immer noch funktionieren, und Holz-Gas-Generatoren könnten Benzin in einigen alten Autos ersetzen.

Das würden wir mit den „Null-Emissionen“ bekommen, welche die Grün-Extremisten für uns vorgesehen haben.

Aber unser heutiges modernes Leben kann nicht mit einer Vor-Kohle/Öl-Ökonomie bestehen. Ohne zuverlässige Stromversorgung und benzinbetriebene landwirtschaftliche Fahrzeuge sind Städte nicht nachhaltig bewohnbar. In Grün-Utopia müssten 90% von uns Menschen gehen.

Aber die Grünen sollten nicht erwarten, dass wir heimlich, still und leise gehen.

Link: https://www.iceagenow.info/back-to-the-medieval-green-world/

Übersetzt von Chris Frey EIKE




Stickoxid, Ethanol, Strahlung — Wie giftig sind diese Gifte?

Grundsätzliches: Was ist ein Gift?

Wenn man eine Substanz auf deren Schädlichkeit für Lebewesen untersuchen will, macht man damit Tierversuche, indem man die Tiere hohen Konzentrationen der Substanz aussetzt. Es wird der NOAEL-Wert (No Observed Adverse Effect Level) festgestellt: oberhalb dieses Wertes gibt es schädliche Einflüsse auf das Leben der Tiere, unterhalb des Wertes ist kein Schaden feststellbar, siehe folgende Darstellung:

Aus dem NOAEL-Wert leiten Toxikologen den MAK-Wert ab, das ist die Maximale Arbeitsplatz Konzentration der Substanz in der Luft für 1600 Arbeitsstunden im Jahr. Der MAK-Wert gilt für Menschen, und dabei wurde ein Sicherheitsabstand zum NOAEL berücksichtigt. In der MAK-Liste findet man dazu Einzelheiten.

Bei einer Dosis unterhalb von NOAEL – also beim MAK-Wert bzw. tiefer – muss der Organismus des Menschen den Schadstoff ebenfalls bekämpfen, das gelingt, denn es ist kein Schaden bemerkbar. Durch dieses Bekämpfen des Schadstoffes wird die Abwehrkraft des Organismus gegen den Fremdstoff gestärkt und das ist dann ein Nutzen für den Organismus. In der Medizin nennt man dieses „adaptive Antwort“, bei Strahlung hat man dazu ein extra Wort erfunden, man sagt „Hormesis“ dazu [1]. Den Nutzen kann man an Versuchstieren mit kurzer Lebensdauer nachweisen. Bei Menschen gelingt das wegen ihrer langen Lebensdauer selten, nur in Sonderfällen ist die nützliche Wirkung durch Stärkung des Immunsystems zu beobachten.

Ein gutes Beispiel für den beschriebenen Mechanismus ist die Tatsache, dass bei Kindern von Bauernhöfen weniger Allergien als bei Stadtkindern beobachtet werden. Die Kinder von Bauernhöfen kommen häufiger mit vielerlei Keimen in Berührung, daher ist deren Immunsystem besser gegen Angriffe gewappnet.

Man muss abwägen zwischen nützlicher Hygiene und übertriebener Jagd auf Bakterien, Viren, Sporen, körperfremder Substanzen…. Die Stärkung der körpereigenen Abwehr ist ein gutes Mittel gegen Schadstoffe.

Aspirin ist in der Dosis 30 bis 50 mg ein Blutverdünner, bei 0,5 bis 2g schmerzstillend, bei 2 bis 5g entzündungshemmend und bei 30 bis 40g tödlich [2]. Auch jede Schutzimpfung ist ein Beispiel für eine adaptive Antwort des Organismus.

Toxikologen haben viele Dosis-Wirkungsbeziehungen gemessen und den J-förmige Verlauf gefunden mit Schaden bei großer Dosis und Nutzen bei kleiner Dosis. Beispiele sind Substanzen wie Natriumhypochlorit, Methanol, Penicillin, Fluridone, Quecksilber, Aluminium, 4-Chloro-2-methylphenoxyacetic Acid, Ethanol, Phosfon, Cadmium, Kupfer, Na-Arsenate, Retinoesäure, Phenobarbital, Cadmiumchlorid, 1,4-Dioxan, Dioxin, 3-Methylcholanthrene, Saccharin, Lindan, dazu auch Strahlung von Neutronen und Gammastrahlung [3].

Zur Diskussion von Risiken durch Fremdstoffe sollen zwei Substanzen und Strahlung behandelt werden.

Beispiel 1, Stickoxide in der Luft:

Der NOAEL-Wert liegt bei 20 000µg/m³ Luft [4], dazu passend erscheint der MAK-Wert von 9000µg/m³ Luft, der bis 2009 in Deutschland galt. Heute gilt bei uns der MAK-Wert 950µg/m³ Luft, in der Schweiz gilt 6000µg/m³ Luft. Zu allen Änderungen in der MAK-Liste geben die Toxikologen eine Begründung, die man nachlesen kann. In dem Beispiel von NO2 fehlt in den Medien jegliche Stellungnahme zu der Änderung. Der heute geltende Jahresmittelwert von 40µg/m³ Luft erscheint bedeutungslos für die Gesundheit von Lebewesen. Eine nützliche, aber an Menschen nicht nachweisbare Wirkung des NO2 könnte im Bereich von einigen 1000µg/m³ liegen.

Beispiel 2, das beliebte Gift Ethanol ( = Alkohol), logarithmische Abszisse:

Ethanol – meist sagt man nur Alkohol dazu – ist ein Gift, dennoch ist es den Menschen lieb geworden und wird viel konsumiert. Daher sagt man nicht „Gift“ dazu. In Abhängigkeit von Menge des Konsums gibt es viele negative Eigenschaften: es ist giftig, kanzerogen, teratogen, brennbar, explosiv, hat Suchtpotential.

Vom Gesetzgeber wurde ein Grenzwert von 0,5‰ als Konzentration im Blut festgelegt, das kann man als NOAEL-Wert sehen. Als MAK-Wert wurde 380mg/m³ Luft festgelegt, das sind bei normalem Atemvolumen auf das Jahr hochgerechnet rund 300g Alkohol als zugelassene Jahresdosis. Die Zahl der Überschreitungen des MAK-Wertes in Deutschland wird auf 10 Milliarden pro Jahr geschätzt, allein beim Münchner Oktoberfest sind es Millionen Überschreitungen. Die Zahl der Todesfälle infolge Alkoholkonsum geht in die Tausende, die Zahl der Suchtkranken in die Millionen.

In Deutschland liegt der mittlere Alkoholkonsum bei etwa 10 Litern reinem Alkohol pro Jahr. Damit trinkt im Mittel jeder Mensch in unserem Lande im Jahr rund 40 tödliche Dosen. In meinem Supermarkt in der Nähe stehen in den Regalen immer etwa 1000 tödliche Giftdosen zum Verkauf.

Ethanol ist auch nützlich für die Gesundheit, sonst würden es die Menschen nicht so häufig konsumieren. Die Grenze zwischen Schaden und Nutzen ist variabel, hängt von vielen Faktoren ab. Wer seinen Körper auf die Bekämpfung des Giftes trainiert, macht ihn fit dazu, den irgendwann folgenden nächsten Angriff abzuwehren. Das Training ist nützlich für die Gesundheit und ein weiteres Beispiel für das Schutzsystem des Körpers.

Beispiel 3, Strahlung von radioaktiven Substanzen, logarithmische Abszisse:

Die letale Ganzkörperdosis liegt bei etwa 4 Sievert und ist als Dosis in kurzer Zeit zu verstehen, so wie es bei Alkohol und allen anderen Substanzen bei der Giftwirkung verstanden wird.

Im Gegensatz zu den ersten zwei Beispielen NO2 und Alkohol macht man bei Strahlung die Annahme, daß die Wirkung unabhängig von der Zeitdauer ihres Einwirkens ist und sich die Dosis und damit auch das Risiko mit der Zeit summiert (LNT-Hypothese). Das ist in der obigen Darstellung beachtet: Die Grenzwerte sind summierte Dosen über ein ganzes Jahr, dsgl. die als nützlich angegebenen Empfehlungen. Nach Krebs-OP wird täglich mit einer Organdosis von 2 Sv bestrahlt, in der Summe werden ca. 60 Sv gegeben [5].

Die Strahlenschutzgesetze gelten nur für den Umgang mit Kernbrennstoffen, nicht für Höhenstrahlung, Bodenstrahlung und nicht in der Medizin. Daraus ergeben sich Widersprüche [6]. Was in der Kerntechnik verboten ist, wird in den anderen Bereichen toleriert.

Die Existenz der nützlichen Wirkung ist bei Strahlung vielfach bewiesen. Es gibt mehrere tausend Veröffentlichungen und gute Bücher dazu: Henriksen [7], Allison [8], Sanders [9], Hiserodt [10]. In Deutschland folgt man der LNT-Hypothese, man findet nur wenig zur nützlichen Strahlenwirkung. Die deutschen Professoren Klaus Becker und Ludwig Feinendegen haben sich oft darüber beklagt, wenn Forschungsergebnisse unterdrückt wurden, die der LNT-Hypothese widersprachen.

Um von der nützlichen Wirkung von Strahlung zu profitieren, sollte die Dosisleistung im Bereich von 15µSv/h bis 800µSv/h liegen [7, 8, 9, 10]. In der Internationalen Raumstation ist das der Fall, der Strahlenpegel – also die Dosisleistung – ist rund 1000-fach höher als unten auf der Erde, und das ist keinesfalls schädlich [11].

Was sollen solche Vergleiche bewirken?

Es läuft einiges falsch in der Beurteilung von körperfremden Substanzen / Strahlung. Um das zu erkennen, sind Vergleiche ein nützliches Instrument.

  • So wie man bei Strahlung aus der Dosis-Wirkungsbeziehung virtuelle Opfer nach der LNT-Formel berechnet, so sollte man aus der bekannten Dosis-Wirkungsbeziehung bei Alkohol ebenso eine LNT-Formel ableiten und daraus die virtuellen Opfer des Alkohols berechnen. Das Ergebnis wären einige Millionen Todesopfer durch Alkohol jedes Jahr in Deutschland, und die gibt es nicht.
    Die Berechnung virtueller Todesopfer ist unsinnig, bei Strahlung, und bei Alkohol. Und auch bei NO2 und Feinstaub, wie es zur Zeit in der aktuellen Diskussion geschieht.

Was sollte getan werden?

Das Prinzip der „adaptive Antwort“ bzw. der „Hormesis“ ist ein universelles Prinzip in der belebten Natur. Lebewesen müssen trainieren um fit zu werden, wir wissen das vom Lernen der Vokabeln aus der Schulzeit und vom Sport. Dasselbe gilt auch für die Abwehr von körperfremden Substanzen und Strahlung, diese Abwehr macht den Körper fit und das dient der Gesundheit. Strahlenbiologen erklären den Mechanismus, wie die biopositive Wirkung der Strahlung funktioniert [12]. Die öffentliche Meinung zu Strahlung wurde seit nahezu einem ganzen Jahrhundert fehlgeleitet mit katastrophalen Folgen für die Menschheit.

Es gibt heutzutage keine Möglichkeit, in den Genuß der nützlichen Strahlenwirkung zu gelangen, wie es oben in Beispiel 3 von Luckey, Doss, Allison, Sanders angedeutet wird. Nur Einzelpersonen wie Alexander Gerst hatten in der ISS die Möglichkeit. Man weiß aber nicht, wie lange diese Positivwirkung für Herrn Gerst anhält. Um für die Erdenbürger hier unten eine Dauerbestrahlung wie in der ISS zu erreichen, braucht man künstliche Gamma-Quellen, wie es sich beim Co-60-Ereignis von Taiwan zum Glück ergeben hatte [13]. Mit Hilfe einer Co-60-Punktquelle der Aktivität im Bereich von 107 bis 108 Bq und Abstand kleiner als einem Meter ist der erforderliche Strahlenpegel zu erreichen – die Strahlen-„Schutz“-Gesetze verbieten das.

Die Strahlenschutzregeln gemäß der LNT-Hypothese und dem ALARA-Prinzip sind der folgenreichste wissenschaftliche Irrtum der Neuzeit (Prof. Walinder). Sie verhindern nicht nur die Versorgung der Menschheit mit billiger und unerschöpflicher Kernspaltungsenergie, sondern sie verhindern auch die Nutzung von ionisierender Strahlung um beste Gesundheit für die Menschen zu erreichen. Was heute an Arbeit zur Minimierung von Strahlendosen aufgewendet wird, sollte in Forschungsarbeiten zur nützlichen Strahlenwirkungen am Menschen investiert werden. Dazu sind zunächst die Strahlenschutzregeln ein Hindernis, eine 180-Grad-Wende ist erforderlich. Zuerst beim Gesetzgeber, dann bei der öffentlichen Meinung.

Die Obrigkeit hat kein Recht, den Menschen die für eine optimale Gesundheit erforderliche Strahlendosis zu verweigern. Jeder Mensch sollte die Möglichkeit haben, in freier Entscheidung selber zu bestimmen, um sein Strahlendefizit durch eine Zusatzdosis auszugleichen. Es ergibt sich die Frage, ob die heutigen Strahlenschutzgrundsätze nicht gegen die in Art. 1 und 2 GG garantierten Grundrechte „Würde des Menschen“ und „körperliche Unversehrtheit“ verstoßen.

Literatur

[1] Richard Friebe, „Hormesis, Wie Stress und Gift uns stärker machen“, ISBN 978-3-446-44311-2, 21,50 EURO

[2] Römpp-Chemielexikon, Wikipedia

[3] https://www.ncbi.nlm.nih.gov/pubmed/12195028 Calabrese et.al. “Hormesis The Dose-Response Revolution”

[4] Mitteilung von Prof. Dr. Hans-Günter Appel, naeb

[5] Deutsches Ärzteblatt Heft 17, 26.4.2013 auf Seite 720

[6] https://www.eike-klima-energie.eu/2018/06/24/die-widerspruechlichkeiten-beim-strahlenschutz/

[7] T. Henriksen et.al., „Radiation and Health“, 2012, kostenlos unter http://tinyurl.com/nlsm4wm

[8] W. Allison, “Nuclear is for Life, A Cultural Revolution”, 280 Seiten, 25,50 EURO

[9] Charles L. Sanders „Radiation Hormesis and the Linear-No-Threshold Assumption“, 210 Seiten, 171,- EURO

[10] Hiserodt, “Underexposed, What if Radiation is actually GOOD for You?” ISBN 0-930073-35-5, 249 Seiten

[11] DIE WELT vom 2.2.2017 „Nasa entdeckt Jungbrunnen-Effekt bei Weltraumreisen“ auf Seite 1

[12] https://www.ncbi.nlm.nih.gov/pubmed/15673519

[13] http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2477708/




Kritik an der Treibhaus-Klimawandel­hypothese, Teil 1 Durch „Tuning“ zu passenden Modellen

Wir wollen deshalb hier einmal versuchen, möglichst klar und prägnant die Kernthesen der Treibhaus-Klimawandel-Hypothese herauszuarbeiten – und warum sie falsch sind. Was also sind die konkreten Behauptungen der Klimawandel-Industrie? Prinzipiell kann man den von ihr postulierten Prozess des vermeintlichen menschlich verursachten “Klimawandels” in zwei Stufen einteilen:

Eventuell könnte man dann noch als dritte Stufe die Auswirkungen dieser postulierten Erwärmung auf spezifische klimatische Ereignisse einführen, welche bekanntlich in den grellsten Farben ausgemalt werden – massiver Anstieg des Meeresspiegels, mehr Stürme und so weiter.

Alle diese Behauptungen basieren jedoch einzig und allein auf den berühmt-berüchtigten Klima-Modellen. Dafür, dass diese “Modelle” in der Lage sind, das real existierende Klima auf der Erde vorherzusagen gibt es jedoch keinerlei Beleg. Ganz im Gegenteil: Sie versagen bereits bei der Aufgabe, auch nur vergangene Klimaentwicklungen zu reproduzieren.

Während der Entwicklungsphase werden die Eigenschaften globaler Klimamodelle auf vielfältige Art und Weise so eingestellt oder getunt, dass sie möglichst gut dem bekannten Zustand des klimatischen Systems der Erde entsprechen. Diese gewünschten Eigenschaften sind beobachtbare Größen wie das Strahlungsgleichgewicht an der Grenze zum Weltall, die weltweite Durchschnittstemperatur, Meereis, Wolken und Windfelder. Das Tunen erfolgt üblicherweise durch die Anpassung nicht genau bekannter, oder sogar nicht beobachtbarer, Parameter von Prozessen, welche nicht explizit im Modell repräsentiert werden.”

Im Klartext: Wir haben zwar keine Ahnung, was diese klimatischen Prozesse eigentlich tun, aber wir stellen sie einfach einmal so ein, dass die Abweichungen (oder zumindest ein Teil der Abweichungen) in unserem Modell zum tatsächlich beobachteten Klima ausgeglichen werden. Das ist natürlich keine wirkliche Verbesserung gegenüber den Flusskorrekturen, weshalb es nicht verwundert, dass man es auch hier vermeidet, das Vorgehen an die große Glocke zu hängen. In einer anderen Veröffentlichung (Hourdin et al., “The art and science of climate model tuning”)ii wird der nicht gerade offene Umgang mit der Tuning Problematik vorsichtig thematisiert:

“Obwohl die Notwendigkeit des Parametertunens in bahnbrechenden Arbeiten anerkannt (z.B. Manabe und Wetherald 1975) und als wichtiger Aspekt in erkenntnistheoretischen Studien der Klimamodellierung behandelt wurde (Edwards 2001), wird die Bedeutung des Tunens vermutlich nicht so deutlich kommuniziert wie es sollte. Es wird oftmals ignoriert, wenn die Leistungen von Klimamodellen in Multi-Modell Analysen verglichen werden. Die Tuning-Strategien waren nicht einmal Teil der erforderlichen Dokumentation der CMIP5 Simulationen. [Ein Vergleich von Klimamodellen, welcher die Basis für einen wesentlichen Teil der Berichte des IPCC bildet] … Warum ein solcher Mangel an Transparenz? … Es mag auch Bedenken geben, dass eine Erklärung der Tatsache, dass die Modelle getunt sind, die Argumente derer stützen würde, welche die Korrektheit der Prognosen des Klimawandels in Zweifel ziehen. Das Tunen kann durchaus als verstohlene Methode gesehen werden, Fehler in den Modellen zu kompensieren.”

Etwas weiter wird dann eingestanden, dass diese Funktion des Tunings als Fehlervertuschung nicht nur so gesehen werden kann, sondern schlichtweg eine Tatsache ist:

Sobald eine Modellkonfiguration festgelegt ist, besteht das Tunen darin, Parameterwerte so zu wählen, dass die Abweichung der Modellausgaben von Beobachtung oder Theorie minimiert oder auf ein akzeptables Maß reduziert wird. Wenn man es so definiert, wird Tuning in anderen Anwendungsbereichen komplexer numerischer Modelle gewöhnlich als Kalibrierung bezeichnet (Kennedy und O’Hagan 2001). Einigen Klimamodellierern widerstrebt es jedoch, diesen Begriff zu verwenden, da sie wissen, dass sie durch die Parameteranpassungen, absichtlich oder nicht, auch (oft unbekannte) Defekte in der Modellformulierung selbst kompensieren.”

Dieselbe Veröffentlichung enthält auch eine Umfrage unter Klima-Modellierungsgruppen, welche die Notwendigkeit des Tunings eindringlich unterstreicht – von den 23 Befragten geben 22 an, dass sie ihre Modelle tunen. Die einsame Ausnahme lässt sich wohl mit der Tatsache erklären, dass unter die ganzen Klimamodelle auch eines für die Wettervorhersage geraten war – dort hat man im Gegensatz zur Klimagemeinde nicht den Luxus, nachträglich noch Schummelkorrekturen anwenden zu können, hier werden korrekte Vorhersagen erwartet.

Als Stellschrauben zur Klima-”Korrektur” werden insbesondere Parameter im Zusammenhang mit Wolken und Konvektion, der Interaktion beim Auftreffen von Wind auf Bergen, der ozeanischen Wassermischungsverhältnisse und der Reflektivität von Schnee und Meereis verwendet. So führt beispielsweise eine Erhöhung der Rate, mit der beim konvektiven Aufsteigen von Wolken deren Feuchtigkeit als Niederschlag ausfällt, zu weniger Wolken, was weniger Rückreflektion der Sonneneinstrahlung ins Weltall bedeutet und damit zu einer höheren Temperatur. Hier Mauritsen et al. mit einem konkreten Beispiel:

“An diesem Punkt war klar, dass das neue gekoppelte Modell im Vergleich zu der von uns angepeilten vorindustriellen Temperatur zu warm war. Verschiedene Maßnahmen zur Senkung der globalen Durchschnittstemperatur durch Änderung der konvektiven Entrainment Raten, des Anteils überschießender Konvektion und der Wolkenhomogenitätsfaktoren wurden getestet. Letztendlich wurde entschieden, vorwiegend einen von 0,70 auf 0,77 erhöhten Homogenitätsfaktor für flüssige Wolken kombiniert mit einer leichten Reduzierung des Anteils der überschießenden Konvektion von 0,22 auf 0,21 zu verwenden, was eine Erhöhung der Wolkenreflektivität in niedrigeren Höhen und damit eine Reduzierung der Abweichung der Oberflächentemperatur-bewirkte. Jetzt war die weltweite Durchschnittstemperatur genügend nahe an unserem Zielwert und das Abdriften nur mehr sehr schwach ausgeprägt.”

iv Als Retter in der Not kommen nunmehr die Aerosole zum heldenhaften Tuningeinsatz – ihre vermeintlich kühlende Wirkung auf das Klima soll die fehlende Erwärmung erklären:

Einer der wenigen Tests, welchen wir Klimamodelle unterziehen können, ist ob sie in der Lage sind den beobachteten Temperaturverlauf seit dem Beginn der Industrialisierung bis hin zur Gegenwart zu reproduzierten. Die Modelle schneiden hierbei überraschend gut ab (Räisänen, 2007), wenn man die breite Spanne an Klimasensitivitäten bedenkt – ein Verhalten welches auf eine Kompensation durch anthropogenen Einfluss im zwanzigsten Jahrhundert zurückgeführt wird (Kiehl, 2007): Modelle mit einer hohen Klimasensitivität tendieren dazu, einen schwachen anthropogenen Einfluss zu haben und umgekehrt. Weiterhin wurde als Ursache für einen Großteil der Abweichungen zwischen den Modellen unterschiedliche Aerosoleinflüsse bestimmt.”

v Es ist nicht einmal sicher, dass insofern die Aerosole überhaupt einen Einfluss ausüben, dieser tatsächlich, wie behauptet, abkühlend ist – es gibt auch Aerosole die die Sonneneinstrahlung nicht reflektieren, sondern absorbieren und damit erwärmend wirken.

“Dieses Tunen des Energiegleichgewichts ist von entscheidender Bedeutung, da eine Änderung um 1 W/m2 des Energiegleichgewichts in globalen Klimamodellen, je nach Sensitivität des jeweiligen Modells, typischerweise zu einer Änderung um 0,5 bis zu 1,5 K in der weltweiten Durchschnittstemperatur führt.”

“Jedoch beträgt die Spanne zwischen dem kältesten und dem wärmsten Modell fast 3 Grad Kelvin, mit gleichem Abstand nach Oben und Unten zu den tatsächlichen Werten, wobei die Mehrheit der Modelle nach Unten tendieren. Obwohl die Spanne nur ein Prozent relativ zum absoluten Nullpunkt beträgt, ist dies kaum ein Grund zur Beruhigung. Relativ zu der Erwärmung im 20igsten Jahrhundert ist die Spanne um den Faktor vier größer, während sie in etwa unserer besten Abschätzung der klimatischen Auswirkung einer Verdoppelung der Kohlendioxidkonzentration und etwa der Hälfte des Unterschieds zwischen dem letzten eiszeitlichen Maximum und der Gegenwart entspricht.”

Dem ist wohl nichts hinzuzufügen. Dennoch regen sich nur vereinzelt Stimmen in der Modellierungsgemeinde, welche die Konsequenzen ziehen und es wagen, wie hier, prinzipielle Kritik an der Praxis des Tunings zu üben (Dommenget und Rezny, “A Caveat Note on Tuning in the Development of Coupled Climate Models”)vi:

Tatsächlich macht das Tunen das Modell nur noch schlechter, da beim Tunen eines Teilbereichs des Modells auch andere Teilmodelle von den dadurch verfälschten Werten beeinflusst werden:

Tatsächlich erschwert das Tunen die Modellentwicklung (und Verbesserung): Das Tunen von Klimamodellen führt zu Kompensationsfehlern, welche effektiv alle Teilmodelle des globalen Modells voneinander abhängig machen. Deshalb ist es so gut wie sicher, dass das Ersetzen oder Austauschen von Teilmodellen die Simulation des Gesamtklimas verschlechtern wird und weitere Optimierung notwendig ist. Die Optimierung wird dann (ein weiteres Mal) die Modellphysik von der “Wahrheit” entfernen.”

Durch Tunen mag man es zwar so hintricksen, dass das die von einem Modell gelieferten Resultate für ein ganz bestimmtes Szenario zumindest halbwegs mit dem real beobachteten Klima übereinstimmt. Die Wahrheit kommt aber spätestens dann ans Licht, wenn man versucht, das Modell für eine andere Situation einzusetzen als für die, für welche es “optimiert” wurde:

Damit hat der Optimierungsansatz es zwar geschafft den indirekten Fehler zu reduzieren, hat aber gleichzeitig die direkten Fehler für die Reaktion zu einer CO2 Verdopplung erhöht. Er hat Kompensationsfehler erzeugt, die nur sichtbar werden, wenn er auf ein Problem angewandt wird, das sich wesentlich von dem unterscheidet für das er getunt wurde. … Der Tuning Prozess wird die Verlustfunktion reduzieren, aber die Physik die wir dadurch erhalten, ist nicht näher an der “wahren” Physik. Danach scheint es zwar so, als ob die Modelle das Klima besser reproduzieren können, aber wenn eine detaillierte Analyse auf Basis der physikalischen Prozesse oder unter anderen klimatischen Szenarios (z.B. erdgeschichtlich weiter zurückliegend oder zukünftige Klimawandelszenarien), so werden gravierende Modellierungsfehler auftreten.”

Die Autoren kommen deshalb zu dem Schluss, man solle doch besser wieder mit offenem Visier schummeln und zu den heute verpönten Flusskorrekturen zurückkehren:

“Flusskorrekturen sind eine nützliche Alternative: Sie bewirken keine Veränderung der Modellphysik, weshalb keine Optimierung notwendig ist. Weiterhin tritt keine Fehlerkompensation aufgrund des Tuning Prozesses auf. Ein weiterer Vorteil ist, dass Flusskorrekturen leicht zu dokumentieren und zu quantifizieren sind – die Korrektur ist einfach ein Eingabewert für das Modell (und kann abgeschaltet werden).”

Flusskorrekturen sind insofern das kleinere Übel, weil sie zumindest deutlich signalisieren, wo die Fehler im Modell liegen, während Tuning diese nur vertuscht aber nicht nur nicht löst, sondern sogar noch vermehrt. Natürlich setzt dies voraus, dass man wirklich an der “wahren” Physik des Klimas interessiert ist – etwas, was bei der heutigen Treibhaus-Klimaindustrie in der Regel mit Fug und Recht bezweifelt werden darf.

Es muss betont werden, dass selbst nach dem “Tunen” immer noch genügend Abweichungen zwischen den Modellen und der Realität übrigbleiben (Schmidt et al., “Practice and philosophy of climate model tuning across six U.S. modeling centers”)vii:

Für die Beantwortung der Frage der Korrektheit der Treibhaus-Klimawandelhypothese spielt das aber keine Rolle. Um diese zu widerlegen benötigen wir keine Modelle, sondern lediglich die empirischen Beobachtungen des irdischen Klimas. Das soll das Thema des nächsten Artikels sein.

Mauritsen et al. 2012, „Tuning the climate of a global model“

Hourdin et al. 2017, „The Art and Science of Climate Model Tuning“

Dommenget und Rezny 2017, „A Caveat Note on Tuning in the Development of Coupled Climate Models“

Schmidt et al. 2017, „Practice and philosophy of climate model tuning across six U.S. modeling centers“

Anmerkung: Dieser Beitrag erschien auch hier.




Eisheiligen 2019, Teil 2: In der freien Fläche besonders kalt

Als Gegenwart nehmen wir den Zeitraum ab 1997. Die Grafik der Stadt Potsdam sieht so aus:

Grafik 1: Die fünf Eisheiligentage in der Landeshauptstadt Potsdam. Sie werden deutlich kälter. 2019 ist aber nicht der tiefste Punkt der Grafik. In Potsdam war der Schnitt der fünf Eisheiligentage 2005 und 2010 noch etwas kälter als der Gesamtschnitt der Eisheiligentage 2019

Die Klimastation Potsdam ist eine typisch städtische Station, die kalten Nordwinde der Eisheiligen haben in einer Stadt keinen Zutritt. Außerdem werden die kalten Tage/Nächte rausgeheizt. Zudem befindet sich nördlich von Potsdam die deutsche Hauptstadt Berlin. Was soll da noch an kalten Nordwinden bei der Wetterstation ankommen?

Grafik 2: Bad Kreuznach in der Oberrheinischen Tiefebene, die Trendlinie der Gegenwart ist für die Eisheiligen leicht fallender als in Potsdam.

Dresden/Klotzsche:

Die DWD- Wetterstation befindet sich im Vorort Klotzsche am Flughafen nördlich der sächsischen Landeshauptstadt. Nördlich bedeutet, dass die kalten Winde der fünf Eisheiligentage aus nördlicher Richtung zumindest erst bei der Wetterstation ankommen, bevor sie in der Stadt aufgewärmt werden oder durch die Häuserzeilen ganz abgebremst sind.

Grafik 3: DWD-Station Dresden Klotzsche. Eisheilgen in der Gegenwart. Die Trendlinie ist etwas fallender als Potsdam und die Eisheiligen 2019 sind die kältesten seit 1997.

Goldbach bei Bischofswerda im Osten Sachsens: Der kleine Vorort hat knapp 500 Einwohner.

Grafik 4: Die Eisheiligen 2019 sind deutlich die kältesten, Quelle der Daten: Stationsleiter Dietmar Pscheidt.

Schneifelforsthaus: Diese DWD-Wetterstation befindet sich in der Eifel, nahe der belgischen Grenze, in unmittelbarer Nähe ist allerdings die Kreuzung 2-er größerer Fernstraßen.

Grafik 5: Auch ganz im Westen Deutschlands sind die Eisheiligen außerhalb der Städte deutlich kälter geworden. Allerdings ist der Schnitt der fünf kalendarischen Eisheiligentage 2019 mit 6,36 C innerhalb des Gegenwarts-Betrachtungszeitraum nicht der tiefste. Jedoch waren die Eisheiligen 2019 im Westen Deutschlands nicht so kalt wie im Osten Deutschlands

Nürnberg/Netzstall

Die DWD Station Netzstall befindet sich bei einem Aussiedlerhof im SO Nürnbergs, deutlich außerhalb der Stadt. Aber immerhin werden die kalten Nordwinde der Eisheiligen durch die Stadt abgemildert. Der fehlende Wert des Jahres 2000 wurde nach den benachbarten Stationen Nürnberg und Nürnberg-Roth interpoliert.

Grafik 6: Der Aussiedlerhof Netzstall bei Nürnberg zeigt in der Gegenwart bereits eine bedenklich fallende Trendlinie der fünf Eisheiligentage.

Eine Klimastation vollkommen in der freien Fläche, weit weg von irgendwelche Wärmeinseln haben wir keine gefunden. Stationen bei unbeheizten Klöstern, bei Forsthäusern am Waldrand, solche Standorte gibt’s einfach nicht mehr.

Anhand der sechs ausgesuchten Wetterstationen konnte gezeigt werden, dass die Eisheiligen der Gegenwart selbst in einer Landeshauptstadt und in unmittelbarer Nähe zur Großstadt Berlin eine fallende Trendlinie haben, aber außerhalb der Städte eben noch deutlicher negativ (kälter) sind. Wie es weitergeht weiß niemand, denn CO2 hat auf das Klima der Erde keine wärmende Wirkung. Kein einziger Versuch kann diesen Erwärmungsglauben bei einer Verdopplung von CO2 beweisen. Meistens werden auch noch falsche Strahlungsquellen bei Konzentrationen von 100% CO2 verwendet, und der Versuch zeigt halt irgendwas an. Meistens jedoch gar nichts.

Der Verfasser hat für seine jahrelangen Versuche am Ende den Erdboden selbst als Bestrahlungsquelle verwendet. Die beiden Versuchsaufbauten – 100% CO2 im Vergleich zu Luft- hingen an meiner Terrasse, 4m vom Haus entfernt, in Augenhöhe.  Weder bei Sonnenbestrahlung, noch im Schatten, weder über den Tag, noch in der Nacht und auch nicht während den verschiedenen Jahreszeiten gab es irgendwelche Temperaturunterschiede. Beide Thermometer zeigten immerfort konstant gleiche Temperaturen. Die Bodenrückstrahlung konnte keinen von beiden Behältern mehr erwärmen, CO2 mag zwar infrarote Bodenrückstrahlung absorbiert haben, das Gas wurde jedoch nicht wärmer. Folge: den Treibhauseffekt gibt es nicht oder nur in einer nicht messbaren Größe

Der einzig menschengemachte Anteil an den Temperaturen ist der jährlich zunehmende Wärmeinseleffekt bei den DWD-Stationen aufgrund der ständigen weiteren Bebauung.

Aber bedenklich stimmen die deutlich fallenden Trendlinien für die Wald- Land- und Weinbauwirtschaft schon, schließlich wachsen die wärmeliebenden Eschen und die blühenden Apfelbäume der Streuobstwiesen nicht vor den Rathäusern der Großstädte.

Die aktuellen Erklärungsirrversuche der CO2-Erwärmungsgläubigen über die bedenklich kälter werdenden Eisheiligen findet man in diesem EIKE-Artikel von Helmut Kuntz.

Gesamt: Da die beiden ländlichen Vergleichsstationen DD-Klotzsche und Schneifelforsthaus 500 km auseinander liegen und in der Gegenwart ebenso wie Potsdam, Netzstall und Goldbach deutlich kälter werden, gehen wir davon aus, dass der Deutsche Wetterdienst keine einzige Wetterstation finden wird, die „in der Gegenwart“, „in den letzten Jahren“, in „jüngster Zeit“ positive Steigungen hat, zumal der Gesamtmonat Mai trotz des wärmsten Jahres 2018 seit 30 Jahren auch eine leicht fallende Trendlinie zeigen wird.

Nach vielen Falschmeldungen der Medien in den letzten Jahren über „Eisheiligen werden zu Heißheiligen“ erwarten wir vom DWD Vorstand Friedrich folgende Eisheiligenpressemitteilungen: „ Der Monat Mai wird in der Gegenwart kälter, aber die Eisheiligen werden noch kälter.“ Und als Ergänzung: „Die Eisheiligen werden in der freien Fläche Deutschlands bald wieder so kalt sein wie zur kleinen Eiszeit. Die starke Abkühlung der Eisheiligen in der Gegenwart konnte auch durch die Zunahme der CO2-Konzentration nicht aufgehalten werden.“

Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher




Ein Experiment zur Ozean-Versauerung

Wird der Luft über der Wasseroberfläche CO2 hinzugefügt, wird erwartet, dass sich die Chemie des Wassers ändert, und der Schwerpunkt liegt beim pH-Wert des Säuregehaltes. Ich denke, dass die Änderung des pH-Wertes, wenn dieser sich im Gleichgewicht befindet, ziemlich leicht erfasst werden kann mit einem billigen, tragbaren pH-Meter mit einer Auflösung von 0,01, aber die gemessene Größenordnung des Effektes scheint signifikant geringer als in der neueren wissenschaftlichen Literatur genannt. In diesem Beitrag geht es zumeist um die Art der Durchführung des Experimentes nebst dessen Ergebnissen.

Aufbau des Experimentes

Eine schematische Übersicht des Experiment-Aufbaus zeigt die folgende Abbildung. Ein luftdichter 2-Liter-Vorratsbehälter enthält Luft und Meerwasser sowie tragbare, batteriebetriebene Instrumente zur Messung des pH-Wertes und des atmosphärischen CO2-Niveaus. Letzteres kann verändert werden mittels Einleitung von zusätzlichem CO2. Ein magnetischer Rührapparat mischt beides fortwährend.

Den tatsächliche Experiment-Aufbau zeigt das folgende Foto. Der pH-Messer ist weiß und der CO2-Messer grau. Dessen Röhrchen zur Einleitung von Luft ist unmittelbar über der Wasseroberfläche erkennbar. Die Technologie der Einlagerung von Lebensmitteln bietet der luftdichte 2-Liter-Container, der Plastik-„Tisch“ hält den CO2-Messer gerade über CO2 Wasseroberfläche, und eine Schutzhülle verhindert, dass der CO2-Messer nass wird. Ein Loch darin stellt die Luftzufuhr sicher. Weitere Details am Ende des Beitrags.

Der ursprüngliche Plan war, einen kleinen tragbaren Elektro-Ventilator zur Durchmischung der Luft einzusetzen, doch stellte sich heraus, dass die Batterien nach einer Stunde leer waren. Diese Zeit reichte nicht, um ein pH-Gleichgewicht zu erreichen, was etwa 10 Stunden dauert.

CO2-Herstellung und -Zuführung

CO2 wurde erzeugt mittels Hinzufügen von Essig zu Natron in einem Becher (mit Spritzschutz). Dann wurde es mittels einer ungebrauchten Spritze in die Apparatur injiziert:

In einem zugfreien Raum kann man sich das im Becher erzeugte CO2 als eine relativ dichte Flüssigkeit vorstellen, welche dort verbleibt. Es kann in eine geeignete Vorrichtung gesaugt und dem 2-Liter-Glascontainer hinzugefügt werden. Ziel ist eine Anreicherung der Luft mit etwa 1000 ppm CO2, also ein Teilchen pro Tausend, d. h. 2 ml CO2 bei atmosphärischem Luftdruck, welcher einfach hergestellt und eingefangen werden kann.

Meerwasser

Meerwasser-Stichproben von jeweils etwa 450 ml wurden an der Küste nahe Weymouth in Dorset geschöpft, das liegt an der Südküste von England. In der Brandungszone gab es einigen Seetang, was den pH beeinflussen könnte. Jede Stichprobe wurde im „Labor“ eine Nacht lang in einer versiegelten, 500 ml fassenden Glasflasche gelagert, um das Meerwasser auf die Lufttemperatur dortselbst zu bringen.

Vorläufige Ergebnisse

Jedes Experiment erstreckte sich über 12 Stunden, was in etwa der beobachteten Zeit entspricht, die zur Erreichung eines pH-Gleichgewichtes erforderlich ist. Dabei wurde alle 15 Minuten eine Messung durchgeführt. Die Läufe begannen am Vormittag bis etwa 22 Uhr, über einen Zeitraum also, in welchem die Lufttemperatur im Labor ziemlich konstant bleibt.

Die folgende Graphik zeigt frühe Ergebnisse für 3 Läufe, einen ohne Zuführung von CO2 (oberste Kurve), eine mit Zufügung von CO2 bis zu einer Anreicherung von etwa 820 ppm (dargestellt in blau mit einer konstanten +0,2-Verschiebung aller pH-Werte, und schließlich das Ergebnis für eine Anreicherung bis etwa 1500 ppm:

Diskussion

Falls die gegenwärtige Rate der CO2-Zunahme in der Atmosphäre von etwa 2,4 ppm pro Jahr andauert, dann wird der Gehalt zum Ende des 21. Jahrhunderts etwa 600 ppm betragen mit einer Änderung des pH-Wertes von Meerwasser um etwa 0,15. Das ist deutlich weniger als die in der wissenschaftlichen Literatur angeführten Werte. Man beachte, dass die pH-Änderung um 0,15 im Meerwasser mit einem pH von 8,8 ermittelt worden ist, was sich am oberen Ende der beobachteten Bandbreite befindet. Die Wasserstoff-Ionen-Konzentration bei einem pH von 7,8 ist zehnmal höher als bei einem pH von 8,8, so dass die Änderung in Meerwasser mit einem pH von 7,8 sogar niedriger liegen kann als 0,15.

EQUIPMENT DETAILS

· pH meter: Hanna Instruments HI 98108

· CO2 meter: Kane-alert- CO2

· Magnetic Stirrer: Hanna Instruments HI 190M

Anmerkung

Wasser in einem geschlossenen Behälter ergibt 100% Relative Feuchtigkeit, und Kondesation könnte eventuell die Leitfähigkeit des Messinstruments beeinflussen. Daher wurde alles nach jeder Messung sorgfältig getrocknet.

Weitere Informationen

Auf dieser Website kann man die Entwicklungen verfolgen und auch Kommentare abgeben.

Link: https://wattsupwiththat.com/2019/05/17/an-ocean-acidification-experiment/

Übersetzt von Chris Frey EIKE