Die Ignoranz der Führer der Welt bzgl. Klima­wandel geht weiter – trotz einfacher, offensicht­licher Beweise

Wir sind weit entfernt von Toynbees letztem Erzeugnis der Zivilisation. Schlimmer, wir entfernen uns mit jedem Tag weiter davon. Was kann man von Amerika sagen, vermeintlich die fortschrittlichste Zivilisation der Welt, mit einem regulären Fernsehprogramm über 300-kg-Menschen zur besten Sendezeit? Was kann man folgern, wenn westliche Führer dem schwedischen Teenager Greta Thunberg lauschen und – schlimmer noch – diese beachten, wenn sie sagt, dass sie Kohlendioxid in der Luft sehen kann? Diese Fähigkeit kann dem Umstand geschuldet sein, dass sie ein 16-jähriges Kind ist, die bedauerlicherweise unter Zwangsneurosen und dem Asperger-Syndrom leidet. Wir wissen, dass das so ist, weil ihre Mutter, die offenbar das Bedürfnis nach Kindesmissbrauch verspürt, uns genau das gesagt hat, und zwar in dem Familienbuch mit dem Titel „Scenes from the heart. Our life for the climate“. Historisch gesehen war es ein Kind, welches darauf hinwies, dass der Kaiser nackt war. Jetzt weisen die falsch informierten, benutzten und missbrauchten Kinder darauf hin, dass der Kaiser einen grünen Umhang trägt.

Nichts davon kommt überraschend, gleitet die Welt doch aus einem Zustand der Verrücktheit in den Zustand der Geisteskrankheit. Eine US-Senatorin, Elizabeth Warren, bewirbt sich als Präsidentin. Und das, nachdem sie zugegeben hatte, einen nicht existenten natürlichen Anspruch zu haben, an der Harvard Law School zu studieren und als Anwältin berufen zu werden. Dann gibt es da noch einen anderen Senator, nämlich Richard Blumenthal, ebenfalls Rechtsanwalt, der im Rechtsausschuss sitzt, wo er zynisch die Aussagen und die Glaubwürdigkeit anderer Menschen beurteilen muss. Er behauptete, am Vietnamkrieg beteiligt zu sein, obwohl er das Land niemals besucht hatte. Wie können sich derartig bloßgestellte und überführte Lügner in Machtpositionen halten? Traurigerweise ist das sehr einfach, wenn man die Debatten und Vorgehensweisen in jedem gesetzgebenden Gremium verfolgt, vom US-Kongress bis zum britischen Parlament und darüber hinaus. Es ist ein Zoo kindischer Einfalt und kleinlicher Beschimpfungen, aber was alles noch viel schlimmer macht ist der Umstand, dass diese Herrschaften genau dieses Verhalten für clever halten. Kein Wunder, dass alle diese Gremien in der Bewertung seitens der Öffentlichkeit so weit unten rangieren.

Die Hauptursache des Problems schlechter Führerschaft ist, dass sie als Führer geboren sind, diese aber nicht gelehrt bekommen, und ihr Wissen, dass die Bevölkerung noch nicht bereit ist, geführt zu werden. Sie wissen auch, dass jeder, der Schritte zur sofortigen Übernahme der Führung unternimmt, zur Zielscheibe der Medien wird, welche glauben, dass es deren heilige Funktion ist, alles und jeden zu zerstören. Verständlicherweise sind sie nicht darauf vorbereitet, ihre Köpfe unter das Fallbeil der Medien zu legen. Die Auswirkung auf die Gesellschaft geht über den Verlust der Führerschaft hinaus. Dies erzeugt ein Vakuum, das fast augenblicklich von Leuten ausgefüllt wird, die führen wollen, aber keine Ahnung haben, wie man führt. Diese Leute wollen den Job haben, ohne zu wissen, wie man ihn ausfüllt. Sie sagen, was immer man hören will oder was sie glauben, dass andere hören wollen. Die Ernsthaftigkeit ist genauso dünn wie die Fähigkeit. Die meisten dieser Menschen sind von einem Typ, welchen Daniel Boorstin als berühmt dafür identifiziert, berühmt zu sein. Sie sind so oberflächlich, dass sie für Falschinformationen anfälliger sind als die meisten anderen Menschen, so dass diese Falschinformationen dann zur Grundlage einer politischen Kampagne ihrerseits werden. Die größte dieser Kampagnen dreht sich um den vom Menschen verursachten Klimawandel. Sie verstehen ihn nicht, genau wie alle anderen auch nicht, aber sie beuten es vorsätzlich aus. Jedermann dachte, dass Klimawandel ein Problem sei, aber den Führern war das egal, weil es eine ausgezeichnete politische Gelegenheit war und ist.

Ein von der Yale University durchgeführter Test bzgl. Klima mit dem Titel „American’s Knowledge of Climate Change“ belegte dies. Der Test war konzipiert, um in Gestalt einer nationalen Studie herauszufinden, was Amerikaner darüber verstehen, wie das Klimasystem arbeitet, sowie hinsichtlich Ursachen, Auswirkungen und potentieller Lösungen bzgl. globaler Erwärmung.

Der Test, durchgeführt an 2030 Amerikanern, erbrachte katastrophale Ergebnisse. Ganze 77% erreichten dabei lediglich einen Grad D oder F (52%).* Ich weiß nach 50 Jahren der Gespräche und des Umgangs mit Politikern, dass sie es keineswegs besser wissen. In gewisser Weise ist es sogar noch schlimmer, weil Politiker stärkere, definitivere Haltungen einnehmen, die einen offenen Geist ausschließen.

[*Schulnoten in den USA sind nicht Ziffern wie bei uns, sondern Buchstaben von A bis D entsprechend bei uns die Noten 1 bis 5. Die Benotung E gibt es nicht, dafür aber die Benotung F für das Wort ,flunk‘ = durchgefallen. F entspricht der Note 6 bei uns. Oben gemeint sind also im Vergleich die Noten 5 und 6. Anm. d. Übers.]

Mit dieser Ignoranz, diesem Unwissen, setzten diese Führer eine Energie-, Umwelt- und Wirtschaftspolitik durch, die vollkommen unnötig und sehr teuer ist sowie durchweg auf Kosten des Kampfes gegen reale Probleme geht. Zum Beispiel wurde die Welt dazu gebracht zu glauben, dass sie überbevölkert und unfähig ist, sich selbst zu ernähren. Der Hauptschuldige dabei war das Buch von Paul Ehrlich aus dem Jahre 1968 mit dem Titel „The Population Bomb“, in welchem der Zusammenbruch der Versorgung mit Nahrungsmitteln, Massen-Hungersnöte und ein gesellschaftlicher Zusammenbruch zum Ende des 20. Jahrhunderts prophezeit worden waren. Dies lenkte uns ab von den realen Themen wie Lagerung und Verteilung, so dass wir uns jetzt damit befassen. Die Welt erzeugte genug Nahrungsmittel für eine dreimal so hohe Bevölkerung. In den meisten Gebieten der Welt schafften es nie mehr als 60% davon auf die Tische. Der Rest geht auf den Feldern und in den Lagerräumen verloren durch Insekten, Krankheiten und Fäulnis. Selbst wenn das Erzeugnis es bis an die Theken schaffte, wurde ein beachtlicher Prozentsatz davon, vielleicht um die 20%, niemals verteilt. Nahrungsmittel effektiver zu lagern und zu transportieren würde die meisten Probleme dieser Art lösen. Wir wissen das, weil Kühlung in entwickelten Ländern die Verluste um 30% sinken ließ.

Ignoranz ist für sich genommen schon ein Problem, aber es verschärft sich selbst, weil Menschen, vor allem Führer, lügen und betrügen, um diese Ignoranz zu verstecken. Als die Führer erfuhren, dass Kohlendioxid, ein Treibhausgas, zunahm und globale Erwärmung unvermeidlich war, wussten sie nicht einmal genug, um die richtigen Fragen zu stellen. Sie wussten nicht, dass es nur 4% aller Treibhausgase ausmacht und der menschliche Anteil daran lediglich 0,4% betrug. Sie wussten nicht, dass die Leute, welche diese Informationen absichtlich in die Welt gesetzt hatten, sich selbst darauf beschränkt haben, ausschließlich nach menschlichen Gründen für den Klimawandel zu suchen und folglich alle natürlichen, das heißt nicht menschlichen Ursachen ausblenden. Es ist wie der Kauf eines Autos, nachdem eine Werkstatt versichert hatte, dass es ein gutes Auto sei. Die Werkstatt verschwieg, dass sie nur eine Schraube am rechten Reifen betrachtet hatten, um diese Versicherung abzugeben.

Die Führer wussten nicht, dass sie von der grünen Hysterie der Umweltbewegung gefangen worden waren und dass Klimawandel nur ein kleiner Teil davon war. Allerdings wussten sie sehr wohl, dass es politischer Selbstmord war, nichts zu tun, was zur Rettung des Planeten als notwendig kolportiert worden ist. Die Verpackung war alles, der Inhalt der Information nichts. Unglücklicherweise ist diese Situation auf alle Aspekte der öffentlichen Wahrnehmung zum Thema Klimawandel anwendbar.

Die Führer wissen praktisch nichts über Klima, was sie jeden Tag nur zu deutlich offenbaren. Sie wissen nicht einmal, dass der Behauptung, dass CO2 vor allem aus menschlichen Quellen den Klimawandel verursacht, jede wissenschaftliche Grundlage vollständig fehlt. Sie wissen nicht, dass Wasserdampf zu 95% für den Treibhauseffekt ursächlich ist und dass dieser effektiv in allen offiziellen Studien außen vor gelassen wird, zusammen mit allen natürlichen Ursachen. Auch wissen sie nicht, dass der einzige Beleg, welcher die Behauptung stützen könnte, aus einem Computermodell stammt, dass absichtlich so programmiert worden ist, dass eine CO2-Zunahme eine Temperatur-Zunahme auslöst. Falls die Führer, welche Klimawandel als Begründung für ihre verheerende Politik anführen, auch nur oberflächlich einmal nachgeschaut hätten, hätten sie sofort erkannt, wie falsch das alles war. Sie würden dann wissen, dass buchstäblich jede Aussage jener Modelle falsch war. Falls sie sich mal den AR 3 der UN vorgenommen hätten, würden sie dort die folgende Aussage finden:

Bei der Klimaforschung und -modellierung sollten wir uns bewusst machen, dass wir es mit einem gekoppelten, nicht-linearen und chaotischen System zu tun haben und dass daher die langfristige Prognose zukünftiger Klimazustände nicht möglich ist.

Ich weiß, dass keiner der Führer der Welt das gelesen hat, denn wenn sie es gelesen hätten, würden sie nicht täglich ihr Unwissen zur Schau stellen. Wir werden geführt von unwissenden, uninformierten Personen, welche Gesetze und Vorschriften durchgesetzt haben, die Billionen kosten. Dabei ignorierten sie reale Probleme, so dass Millionen sterben und unnötig leiden. Das beste Beispiel hierfür ist die DDT-Lüge, in die Welt gesetzt von Rachel Carson, welche die Umwelthysterie auslöste. Sie behauptete, dass DDT verantwortlich war für die Krebserkrankung und den Tod ihres Ehemannes. Es gab dafür keinerlei Beweise, aber DDT, die Hauptquelle zur Bekämpfung von Malaria-Mücken, wurde weltweit geächtet. Seitdem sind mindestens 130 Millionen Menschen unnötig gestorben. Paul Driessen nannte es Öko-Imperialismus, als diese ignoranten Führer ihr Unwissen anderen Führern überstülpten.

Wir werden von Narren und Inkompetenten regiert, welche sich absichtlich dafür entscheiden, dumm zu bleiben, indem sie nicht einmal die einfachsten Informationen betrachten. Jetzt sind diese Informationen via Internet verfügbar, so dass als Einziges die persönliche Inkompetenz übrig bleibt.

Link: https://wattsupwiththat.com/2019/05/18/world-leaders-ignorance-about-climate-change-continues-despite-simple-obvious-evidence/

Übersetzt von Chris Frey EIKE




Zurück in die grüne Welt des Mittelalters

Erstens gäbe es keine Massenerzeugung von Stahl ohne die Verbrennung von Kohle, um den Sauerstoff aus dem Eisenerz zu entfernen. Die Menschen könnten Bäume in den Wäldern fällen, um Holzkohle herzustellen, mit welcher sie dann Roheisen und Rohstahl herstellen können, aber die Wälder wären dann bald verschwunden.Kohle hat die Wälder vor diesem Schicksal bewahrt.

Wir könnten Gold und Silber gewinnen ohne den Verbrauch von Kohlenwasserstoffen, und mit unserem Erfindungsgeist können wir vielleicht unraffiniertes Kupfer herstellen sowie Blei und Zinn sowie weitere Produkte wie Bronze und Messing. Aber die Herstellung großer Mengen Kernbrennstoffe, Zement, Aluminium, veredelter Metalle, Plastik, Nylon, synthetischer Stoffe, Petro-Chemikalien und Druckrohrleitungen wäre dann unmöglich.

Auch die Herstellung von Windturbinen und Solarpaneelen wäre ohne fossile Treibstoffe unmöglich. Eine Windturbine benötigt massenhaft Stahl und Beton, Fiberglass und Glas-Polymere ebenso wie viele andere veredelte Metalle – Kupfer, Aluminium, seltene Erden, Zink und Molybdän. Solarpaneele und Batterien benötigen Silikon, Blei, Lithium, Nickel, Kadmium, Zink, Silber, Mangan und Graphit – alles in hoher Reinheit, und alles kaum im Hinterhof mit Holzkohle zu machen. Transport, Aufstellung und Wartung von Wind- und Solarparks plus die erforderliche Infrastruktur an Straßen und Leitungen erfordert viel mit Diesel betriebene Motorkraft.

Jede Maschine der Welt benötigt Kohlenwasserstoffe für Motoröl, Getriebeöl, Bremsflüssigkeit, Hydrauliköl und Fett. Natürlich können wir Öle von Seelöwen, Bienenwachs und Walen zum Ölen benutzen – aber die Erfindung von Petroleum bewahrte die Wale vor diesem Schicksal.

Straßen wären eine Herausforderung ohne auf Öl basierendem Teer. Die antiken Römer bauten ziemlich gute Straßen aus Pflastersteinen (dies würde das Problem der Arbeitslosigkeit eindämmen). Aber harte Arbeit wäre nichts für alternde Baby-Boomer oder die elektronische Ära. Autos, Eisenbahnen, Motoren, Schiffe, Handys, Fernsehen und Computer-Tomographie wären out. Pferde, Ochsen, hölzerne Ruderboote, Segelschiffe, Pflanzen-Medizin und semaphore würden eine gewaltige Renaissance erleben. Einige mit Holz befeuerte Dampf-Traktoren könnten immer noch funktionieren, und Holz-Gas-Generatoren könnten Benzin in einigen alten Autos ersetzen.

Das würden wir mit den „Null-Emissionen“ bekommen, welche die Grün-Extremisten für uns vorgesehen haben.

Aber unser heutiges modernes Leben kann nicht mit einer Vor-Kohle/Öl-Ökonomie bestehen. Ohne zuverlässige Stromversorgung und benzinbetriebene landwirtschaftliche Fahrzeuge sind Städte nicht nachhaltig bewohnbar. In Grün-Utopia müssten 90% von uns Menschen gehen.

Aber die Grünen sollten nicht erwarten, dass wir heimlich, still und leise gehen.

Link: https://www.iceagenow.info/back-to-the-medieval-green-world/

Übersetzt von Chris Frey EIKE




Stickoxid, Ethanol, Strahlung — Wie giftig sind diese Gifte?

Grundsätzliches: Was ist ein Gift?

Wenn man eine Substanz auf deren Schädlichkeit für Lebewesen untersuchen will, macht man damit Tierversuche, indem man die Tiere hohen Konzentrationen der Substanz aussetzt. Es wird der NOAEL-Wert (No Observed Adverse Effect Level) festgestellt: oberhalb dieses Wertes gibt es schädliche Einflüsse auf das Leben der Tiere, unterhalb des Wertes ist kein Schaden feststellbar, siehe folgende Darstellung:

Aus dem NOAEL-Wert leiten Toxikologen den MAK-Wert ab, das ist die Maximale Arbeitsplatz Konzentration der Substanz in der Luft für 1600 Arbeitsstunden im Jahr. Der MAK-Wert gilt für Menschen, und dabei wurde ein Sicherheitsabstand zum NOAEL berücksichtigt. In der MAK-Liste findet man dazu Einzelheiten.

Bei einer Dosis unterhalb von NOAEL – also beim MAK-Wert bzw. tiefer – muss der Organismus des Menschen den Schadstoff ebenfalls bekämpfen, das gelingt, denn es ist kein Schaden bemerkbar. Durch dieses Bekämpfen des Schadstoffes wird die Abwehrkraft des Organismus gegen den Fremdstoff gestärkt und das ist dann ein Nutzen für den Organismus. In der Medizin nennt man dieses „adaptive Antwort“, bei Strahlung hat man dazu ein extra Wort erfunden, man sagt „Hormesis“ dazu [1]. Den Nutzen kann man an Versuchstieren mit kurzer Lebensdauer nachweisen. Bei Menschen gelingt das wegen ihrer langen Lebensdauer selten, nur in Sonderfällen ist die nützliche Wirkung durch Stärkung des Immunsystems zu beobachten.

Ein gutes Beispiel für den beschriebenen Mechanismus ist die Tatsache, dass bei Kindern von Bauernhöfen weniger Allergien als bei Stadtkindern beobachtet werden. Die Kinder von Bauernhöfen kommen häufiger mit vielerlei Keimen in Berührung, daher ist deren Immunsystem besser gegen Angriffe gewappnet.

Man muss abwägen zwischen nützlicher Hygiene und übertriebener Jagd auf Bakterien, Viren, Sporen, körperfremder Substanzen…. Die Stärkung der körpereigenen Abwehr ist ein gutes Mittel gegen Schadstoffe.

Aspirin ist in der Dosis 30 bis 50 mg ein Blutverdünner, bei 0,5 bis 2g schmerzstillend, bei 2 bis 5g entzündungshemmend und bei 30 bis 40g tödlich [2]. Auch jede Schutzimpfung ist ein Beispiel für eine adaptive Antwort des Organismus.

Toxikologen haben viele Dosis-Wirkungsbeziehungen gemessen und den J-förmige Verlauf gefunden mit Schaden bei großer Dosis und Nutzen bei kleiner Dosis. Beispiele sind Substanzen wie Natriumhypochlorit, Methanol, Penicillin, Fluridone, Quecksilber, Aluminium, 4-Chloro-2-methylphenoxyacetic Acid, Ethanol, Phosfon, Cadmium, Kupfer, Na-Arsenate, Retinoesäure, Phenobarbital, Cadmiumchlorid, 1,4-Dioxan, Dioxin, 3-Methylcholanthrene, Saccharin, Lindan, dazu auch Strahlung von Neutronen und Gammastrahlung [3].

Zur Diskussion von Risiken durch Fremdstoffe sollen zwei Substanzen und Strahlung behandelt werden.

Beispiel 1, Stickoxide in der Luft:

Der NOAEL-Wert liegt bei 20 000µg/m³ Luft [4], dazu passend erscheint der MAK-Wert von 9000µg/m³ Luft, der bis 2009 in Deutschland galt. Heute gilt bei uns der MAK-Wert 950µg/m³ Luft, in der Schweiz gilt 6000µg/m³ Luft. Zu allen Änderungen in der MAK-Liste geben die Toxikologen eine Begründung, die man nachlesen kann. In dem Beispiel von NO2 fehlt in den Medien jegliche Stellungnahme zu der Änderung. Der heute geltende Jahresmittelwert von 40µg/m³ Luft erscheint bedeutungslos für die Gesundheit von Lebewesen. Eine nützliche, aber an Menschen nicht nachweisbare Wirkung des NO2 könnte im Bereich von einigen 1000µg/m³ liegen.

Beispiel 2, das beliebte Gift Ethanol ( = Alkohol), logarithmische Abszisse:

Ethanol – meist sagt man nur Alkohol dazu – ist ein Gift, dennoch ist es den Menschen lieb geworden und wird viel konsumiert. Daher sagt man nicht „Gift“ dazu. In Abhängigkeit von Menge des Konsums gibt es viele negative Eigenschaften: es ist giftig, kanzerogen, teratogen, brennbar, explosiv, hat Suchtpotential.

Vom Gesetzgeber wurde ein Grenzwert von 0,5‰ als Konzentration im Blut festgelegt, das kann man als NOAEL-Wert sehen. Als MAK-Wert wurde 380mg/m³ Luft festgelegt, das sind bei normalem Atemvolumen auf das Jahr hochgerechnet rund 300g Alkohol als zugelassene Jahresdosis. Die Zahl der Überschreitungen des MAK-Wertes in Deutschland wird auf 10 Milliarden pro Jahr geschätzt, allein beim Münchner Oktoberfest sind es Millionen Überschreitungen. Die Zahl der Todesfälle infolge Alkoholkonsum geht in die Tausende, die Zahl der Suchtkranken in die Millionen.

In Deutschland liegt der mittlere Alkoholkonsum bei etwa 10 Litern reinem Alkohol pro Jahr. Damit trinkt im Mittel jeder Mensch in unserem Lande im Jahr rund 40 tödliche Dosen. In meinem Supermarkt in der Nähe stehen in den Regalen immer etwa 1000 tödliche Giftdosen zum Verkauf.

Ethanol ist auch nützlich für die Gesundheit, sonst würden es die Menschen nicht so häufig konsumieren. Die Grenze zwischen Schaden und Nutzen ist variabel, hängt von vielen Faktoren ab. Wer seinen Körper auf die Bekämpfung des Giftes trainiert, macht ihn fit dazu, den irgendwann folgenden nächsten Angriff abzuwehren. Das Training ist nützlich für die Gesundheit und ein weiteres Beispiel für das Schutzsystem des Körpers.

Beispiel 3, Strahlung von radioaktiven Substanzen, logarithmische Abszisse:

Die letale Ganzkörperdosis liegt bei etwa 4 Sievert und ist als Dosis in kurzer Zeit zu verstehen, so wie es bei Alkohol und allen anderen Substanzen bei der Giftwirkung verstanden wird.

Im Gegensatz zu den ersten zwei Beispielen NO2 und Alkohol macht man bei Strahlung die Annahme, daß die Wirkung unabhängig von der Zeitdauer ihres Einwirkens ist und sich die Dosis und damit auch das Risiko mit der Zeit summiert (LNT-Hypothese). Das ist in der obigen Darstellung beachtet: Die Grenzwerte sind summierte Dosen über ein ganzes Jahr, dsgl. die als nützlich angegebenen Empfehlungen. Nach Krebs-OP wird täglich mit einer Organdosis von 2 Sv bestrahlt, in der Summe werden ca. 60 Sv gegeben [5].

Die Strahlenschutzgesetze gelten nur für den Umgang mit Kernbrennstoffen, nicht für Höhenstrahlung, Bodenstrahlung und nicht in der Medizin. Daraus ergeben sich Widersprüche [6]. Was in der Kerntechnik verboten ist, wird in den anderen Bereichen toleriert.

Die Existenz der nützlichen Wirkung ist bei Strahlung vielfach bewiesen. Es gibt mehrere tausend Veröffentlichungen und gute Bücher dazu: Henriksen [7], Allison [8], Sanders [9], Hiserodt [10]. In Deutschland folgt man der LNT-Hypothese, man findet nur wenig zur nützlichen Strahlenwirkung. Die deutschen Professoren Klaus Becker und Ludwig Feinendegen haben sich oft darüber beklagt, wenn Forschungsergebnisse unterdrückt wurden, die der LNT-Hypothese widersprachen.

Um von der nützlichen Wirkung von Strahlung zu profitieren, sollte die Dosisleistung im Bereich von 15µSv/h bis 800µSv/h liegen [7, 8, 9, 10]. In der Internationalen Raumstation ist das der Fall, der Strahlenpegel – also die Dosisleistung – ist rund 1000-fach höher als unten auf der Erde, und das ist keinesfalls schädlich [11].

Was sollen solche Vergleiche bewirken?

Es läuft einiges falsch in der Beurteilung von körperfremden Substanzen / Strahlung. Um das zu erkennen, sind Vergleiche ein nützliches Instrument.

  • So wie man bei Strahlung aus der Dosis-Wirkungsbeziehung virtuelle Opfer nach der LNT-Formel berechnet, so sollte man aus der bekannten Dosis-Wirkungsbeziehung bei Alkohol ebenso eine LNT-Formel ableiten und daraus die virtuellen Opfer des Alkohols berechnen. Das Ergebnis wären einige Millionen Todesopfer durch Alkohol jedes Jahr in Deutschland, und die gibt es nicht.
    Die Berechnung virtueller Todesopfer ist unsinnig, bei Strahlung, und bei Alkohol. Und auch bei NO2 und Feinstaub, wie es zur Zeit in der aktuellen Diskussion geschieht.

Was sollte getan werden?

Das Prinzip der „adaptive Antwort“ bzw. der „Hormesis“ ist ein universelles Prinzip in der belebten Natur. Lebewesen müssen trainieren um fit zu werden, wir wissen das vom Lernen der Vokabeln aus der Schulzeit und vom Sport. Dasselbe gilt auch für die Abwehr von körperfremden Substanzen und Strahlung, diese Abwehr macht den Körper fit und das dient der Gesundheit. Strahlenbiologen erklären den Mechanismus, wie die biopositive Wirkung der Strahlung funktioniert [12]. Die öffentliche Meinung zu Strahlung wurde seit nahezu einem ganzen Jahrhundert fehlgeleitet mit katastrophalen Folgen für die Menschheit.

Es gibt heutzutage keine Möglichkeit, in den Genuß der nützlichen Strahlenwirkung zu gelangen, wie es oben in Beispiel 3 von Luckey, Doss, Allison, Sanders angedeutet wird. Nur Einzelpersonen wie Alexander Gerst hatten in der ISS die Möglichkeit. Man weiß aber nicht, wie lange diese Positivwirkung für Herrn Gerst anhält. Um für die Erdenbürger hier unten eine Dauerbestrahlung wie in der ISS zu erreichen, braucht man künstliche Gamma-Quellen, wie es sich beim Co-60-Ereignis von Taiwan zum Glück ergeben hatte [13]. Mit Hilfe einer Co-60-Punktquelle der Aktivität im Bereich von 107 bis 108 Bq und Abstand kleiner als einem Meter ist der erforderliche Strahlenpegel zu erreichen – die Strahlen-„Schutz“-Gesetze verbieten das.

Die Strahlenschutzregeln gemäß der LNT-Hypothese und dem ALARA-Prinzip sind der folgenreichste wissenschaftliche Irrtum der Neuzeit (Prof. Walinder). Sie verhindern nicht nur die Versorgung der Menschheit mit billiger und unerschöpflicher Kernspaltungsenergie, sondern sie verhindern auch die Nutzung von ionisierender Strahlung um beste Gesundheit für die Menschen zu erreichen. Was heute an Arbeit zur Minimierung von Strahlendosen aufgewendet wird, sollte in Forschungsarbeiten zur nützlichen Strahlenwirkungen am Menschen investiert werden. Dazu sind zunächst die Strahlenschutzregeln ein Hindernis, eine 180-Grad-Wende ist erforderlich. Zuerst beim Gesetzgeber, dann bei der öffentlichen Meinung.

Die Obrigkeit hat kein Recht, den Menschen die für eine optimale Gesundheit erforderliche Strahlendosis zu verweigern. Jeder Mensch sollte die Möglichkeit haben, in freier Entscheidung selber zu bestimmen, um sein Strahlendefizit durch eine Zusatzdosis auszugleichen. Es ergibt sich die Frage, ob die heutigen Strahlenschutzgrundsätze nicht gegen die in Art. 1 und 2 GG garantierten Grundrechte „Würde des Menschen“ und „körperliche Unversehrtheit“ verstoßen.

Literatur

[1] Richard Friebe, „Hormesis, Wie Stress und Gift uns stärker machen“, ISBN 978-3-446-44311-2, 21,50 EURO

[2] Römpp-Chemielexikon, Wikipedia

[3] https://www.ncbi.nlm.nih.gov/pubmed/12195028 Calabrese et.al. “Hormesis The Dose-Response Revolution”

[4] Mitteilung von Prof. Dr. Hans-Günter Appel, naeb

[5] Deutsches Ärzteblatt Heft 17, 26.4.2013 auf Seite 720

[6] https://www.eike-klima-energie.eu/2018/06/24/die-widerspruechlichkeiten-beim-strahlenschutz/

[7] T. Henriksen et.al., „Radiation and Health“, 2012, kostenlos unter http://tinyurl.com/nlsm4wm

[8] W. Allison, “Nuclear is for Life, A Cultural Revolution”, 280 Seiten, 25,50 EURO

[9] Charles L. Sanders „Radiation Hormesis and the Linear-No-Threshold Assumption“, 210 Seiten, 171,- EURO

[10] Hiserodt, “Underexposed, What if Radiation is actually GOOD for You?” ISBN 0-930073-35-5, 249 Seiten

[11] DIE WELT vom 2.2.2017 „Nasa entdeckt Jungbrunnen-Effekt bei Weltraumreisen“ auf Seite 1

[12] https://www.ncbi.nlm.nih.gov/pubmed/15673519

[13] http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2477708/




Kritik an der Treibhaus-Klimawandel­hypothese, Teil 1 Durch „Tuning“ zu passenden Modellen

Wir wollen deshalb hier einmal versuchen, möglichst klar und prägnant die Kernthesen der Treibhaus-Klimawandel-Hypothese herauszuarbeiten – und warum sie falsch sind. Was also sind die konkreten Behauptungen der Klimawandel-Industrie? Prinzipiell kann man den von ihr postulierten Prozess des vermeintlichen menschlich verursachten “Klimawandels” in zwei Stufen einteilen:

Eventuell könnte man dann noch als dritte Stufe die Auswirkungen dieser postulierten Erwärmung auf spezifische klimatische Ereignisse einführen, welche bekanntlich in den grellsten Farben ausgemalt werden – massiver Anstieg des Meeresspiegels, mehr Stürme und so weiter.

Alle diese Behauptungen basieren jedoch einzig und allein auf den berühmt-berüchtigten Klima-Modellen. Dafür, dass diese “Modelle” in der Lage sind, das real existierende Klima auf der Erde vorherzusagen gibt es jedoch keinerlei Beleg. Ganz im Gegenteil: Sie versagen bereits bei der Aufgabe, auch nur vergangene Klimaentwicklungen zu reproduzieren.

Während der Entwicklungsphase werden die Eigenschaften globaler Klimamodelle auf vielfältige Art und Weise so eingestellt oder getunt, dass sie möglichst gut dem bekannten Zustand des klimatischen Systems der Erde entsprechen. Diese gewünschten Eigenschaften sind beobachtbare Größen wie das Strahlungsgleichgewicht an der Grenze zum Weltall, die weltweite Durchschnittstemperatur, Meereis, Wolken und Windfelder. Das Tunen erfolgt üblicherweise durch die Anpassung nicht genau bekannter, oder sogar nicht beobachtbarer, Parameter von Prozessen, welche nicht explizit im Modell repräsentiert werden.”

Im Klartext: Wir haben zwar keine Ahnung, was diese klimatischen Prozesse eigentlich tun, aber wir stellen sie einfach einmal so ein, dass die Abweichungen (oder zumindest ein Teil der Abweichungen) in unserem Modell zum tatsächlich beobachteten Klima ausgeglichen werden. Das ist natürlich keine wirkliche Verbesserung gegenüber den Flusskorrekturen, weshalb es nicht verwundert, dass man es auch hier vermeidet, das Vorgehen an die große Glocke zu hängen. In einer anderen Veröffentlichung (Hourdin et al., “The art and science of climate model tuning”)ii wird der nicht gerade offene Umgang mit der Tuning Problematik vorsichtig thematisiert:

“Obwohl die Notwendigkeit des Parametertunens in bahnbrechenden Arbeiten anerkannt (z.B. Manabe und Wetherald 1975) und als wichtiger Aspekt in erkenntnistheoretischen Studien der Klimamodellierung behandelt wurde (Edwards 2001), wird die Bedeutung des Tunens vermutlich nicht so deutlich kommuniziert wie es sollte. Es wird oftmals ignoriert, wenn die Leistungen von Klimamodellen in Multi-Modell Analysen verglichen werden. Die Tuning-Strategien waren nicht einmal Teil der erforderlichen Dokumentation der CMIP5 Simulationen. [Ein Vergleich von Klimamodellen, welcher die Basis für einen wesentlichen Teil der Berichte des IPCC bildet] … Warum ein solcher Mangel an Transparenz? … Es mag auch Bedenken geben, dass eine Erklärung der Tatsache, dass die Modelle getunt sind, die Argumente derer stützen würde, welche die Korrektheit der Prognosen des Klimawandels in Zweifel ziehen. Das Tunen kann durchaus als verstohlene Methode gesehen werden, Fehler in den Modellen zu kompensieren.”

Etwas weiter wird dann eingestanden, dass diese Funktion des Tunings als Fehlervertuschung nicht nur so gesehen werden kann, sondern schlichtweg eine Tatsache ist:

Sobald eine Modellkonfiguration festgelegt ist, besteht das Tunen darin, Parameterwerte so zu wählen, dass die Abweichung der Modellausgaben von Beobachtung oder Theorie minimiert oder auf ein akzeptables Maß reduziert wird. Wenn man es so definiert, wird Tuning in anderen Anwendungsbereichen komplexer numerischer Modelle gewöhnlich als Kalibrierung bezeichnet (Kennedy und O’Hagan 2001). Einigen Klimamodellierern widerstrebt es jedoch, diesen Begriff zu verwenden, da sie wissen, dass sie durch die Parameteranpassungen, absichtlich oder nicht, auch (oft unbekannte) Defekte in der Modellformulierung selbst kompensieren.”

Dieselbe Veröffentlichung enthält auch eine Umfrage unter Klima-Modellierungsgruppen, welche die Notwendigkeit des Tunings eindringlich unterstreicht – von den 23 Befragten geben 22 an, dass sie ihre Modelle tunen. Die einsame Ausnahme lässt sich wohl mit der Tatsache erklären, dass unter die ganzen Klimamodelle auch eines für die Wettervorhersage geraten war – dort hat man im Gegensatz zur Klimagemeinde nicht den Luxus, nachträglich noch Schummelkorrekturen anwenden zu können, hier werden korrekte Vorhersagen erwartet.

Als Stellschrauben zur Klima-”Korrektur” werden insbesondere Parameter im Zusammenhang mit Wolken und Konvektion, der Interaktion beim Auftreffen von Wind auf Bergen, der ozeanischen Wassermischungsverhältnisse und der Reflektivität von Schnee und Meereis verwendet. So führt beispielsweise eine Erhöhung der Rate, mit der beim konvektiven Aufsteigen von Wolken deren Feuchtigkeit als Niederschlag ausfällt, zu weniger Wolken, was weniger Rückreflektion der Sonneneinstrahlung ins Weltall bedeutet und damit zu einer höheren Temperatur. Hier Mauritsen et al. mit einem konkreten Beispiel:

“An diesem Punkt war klar, dass das neue gekoppelte Modell im Vergleich zu der von uns angepeilten vorindustriellen Temperatur zu warm war. Verschiedene Maßnahmen zur Senkung der globalen Durchschnittstemperatur durch Änderung der konvektiven Entrainment Raten, des Anteils überschießender Konvektion und der Wolkenhomogenitätsfaktoren wurden getestet. Letztendlich wurde entschieden, vorwiegend einen von 0,70 auf 0,77 erhöhten Homogenitätsfaktor für flüssige Wolken kombiniert mit einer leichten Reduzierung des Anteils der überschießenden Konvektion von 0,22 auf 0,21 zu verwenden, was eine Erhöhung der Wolkenreflektivität in niedrigeren Höhen und damit eine Reduzierung der Abweichung der Oberflächentemperatur-bewirkte. Jetzt war die weltweite Durchschnittstemperatur genügend nahe an unserem Zielwert und das Abdriften nur mehr sehr schwach ausgeprägt.”

iv Als Retter in der Not kommen nunmehr die Aerosole zum heldenhaften Tuningeinsatz – ihre vermeintlich kühlende Wirkung auf das Klima soll die fehlende Erwärmung erklären:

Einer der wenigen Tests, welchen wir Klimamodelle unterziehen können, ist ob sie in der Lage sind den beobachteten Temperaturverlauf seit dem Beginn der Industrialisierung bis hin zur Gegenwart zu reproduzierten. Die Modelle schneiden hierbei überraschend gut ab (Räisänen, 2007), wenn man die breite Spanne an Klimasensitivitäten bedenkt – ein Verhalten welches auf eine Kompensation durch anthropogenen Einfluss im zwanzigsten Jahrhundert zurückgeführt wird (Kiehl, 2007): Modelle mit einer hohen Klimasensitivität tendieren dazu, einen schwachen anthropogenen Einfluss zu haben und umgekehrt. Weiterhin wurde als Ursache für einen Großteil der Abweichungen zwischen den Modellen unterschiedliche Aerosoleinflüsse bestimmt.”

v Es ist nicht einmal sicher, dass insofern die Aerosole überhaupt einen Einfluss ausüben, dieser tatsächlich, wie behauptet, abkühlend ist – es gibt auch Aerosole die die Sonneneinstrahlung nicht reflektieren, sondern absorbieren und damit erwärmend wirken.

“Dieses Tunen des Energiegleichgewichts ist von entscheidender Bedeutung, da eine Änderung um 1 W/m2 des Energiegleichgewichts in globalen Klimamodellen, je nach Sensitivität des jeweiligen Modells, typischerweise zu einer Änderung um 0,5 bis zu 1,5 K in der weltweiten Durchschnittstemperatur führt.”

“Jedoch beträgt die Spanne zwischen dem kältesten und dem wärmsten Modell fast 3 Grad Kelvin, mit gleichem Abstand nach Oben und Unten zu den tatsächlichen Werten, wobei die Mehrheit der Modelle nach Unten tendieren. Obwohl die Spanne nur ein Prozent relativ zum absoluten Nullpunkt beträgt, ist dies kaum ein Grund zur Beruhigung. Relativ zu der Erwärmung im 20igsten Jahrhundert ist die Spanne um den Faktor vier größer, während sie in etwa unserer besten Abschätzung der klimatischen Auswirkung einer Verdoppelung der Kohlendioxidkonzentration und etwa der Hälfte des Unterschieds zwischen dem letzten eiszeitlichen Maximum und der Gegenwart entspricht.”

Dem ist wohl nichts hinzuzufügen. Dennoch regen sich nur vereinzelt Stimmen in der Modellierungsgemeinde, welche die Konsequenzen ziehen und es wagen, wie hier, prinzipielle Kritik an der Praxis des Tunings zu üben (Dommenget und Rezny, “A Caveat Note on Tuning in the Development of Coupled Climate Models”)vi:

Tatsächlich macht das Tunen das Modell nur noch schlechter, da beim Tunen eines Teilbereichs des Modells auch andere Teilmodelle von den dadurch verfälschten Werten beeinflusst werden:

Tatsächlich erschwert das Tunen die Modellentwicklung (und Verbesserung): Das Tunen von Klimamodellen führt zu Kompensationsfehlern, welche effektiv alle Teilmodelle des globalen Modells voneinander abhängig machen. Deshalb ist es so gut wie sicher, dass das Ersetzen oder Austauschen von Teilmodellen die Simulation des Gesamtklimas verschlechtern wird und weitere Optimierung notwendig ist. Die Optimierung wird dann (ein weiteres Mal) die Modellphysik von der “Wahrheit” entfernen.”

Durch Tunen mag man es zwar so hintricksen, dass das die von einem Modell gelieferten Resultate für ein ganz bestimmtes Szenario zumindest halbwegs mit dem real beobachteten Klima übereinstimmt. Die Wahrheit kommt aber spätestens dann ans Licht, wenn man versucht, das Modell für eine andere Situation einzusetzen als für die, für welche es “optimiert” wurde:

Damit hat der Optimierungsansatz es zwar geschafft den indirekten Fehler zu reduzieren, hat aber gleichzeitig die direkten Fehler für die Reaktion zu einer CO2 Verdopplung erhöht. Er hat Kompensationsfehler erzeugt, die nur sichtbar werden, wenn er auf ein Problem angewandt wird, das sich wesentlich von dem unterscheidet für das er getunt wurde. … Der Tuning Prozess wird die Verlustfunktion reduzieren, aber die Physik die wir dadurch erhalten, ist nicht näher an der “wahren” Physik. Danach scheint es zwar so, als ob die Modelle das Klima besser reproduzieren können, aber wenn eine detaillierte Analyse auf Basis der physikalischen Prozesse oder unter anderen klimatischen Szenarios (z.B. erdgeschichtlich weiter zurückliegend oder zukünftige Klimawandelszenarien), so werden gravierende Modellierungsfehler auftreten.”

Die Autoren kommen deshalb zu dem Schluss, man solle doch besser wieder mit offenem Visier schummeln und zu den heute verpönten Flusskorrekturen zurückkehren:

“Flusskorrekturen sind eine nützliche Alternative: Sie bewirken keine Veränderung der Modellphysik, weshalb keine Optimierung notwendig ist. Weiterhin tritt keine Fehlerkompensation aufgrund des Tuning Prozesses auf. Ein weiterer Vorteil ist, dass Flusskorrekturen leicht zu dokumentieren und zu quantifizieren sind – die Korrektur ist einfach ein Eingabewert für das Modell (und kann abgeschaltet werden).”

Flusskorrekturen sind insofern das kleinere Übel, weil sie zumindest deutlich signalisieren, wo die Fehler im Modell liegen, während Tuning diese nur vertuscht aber nicht nur nicht löst, sondern sogar noch vermehrt. Natürlich setzt dies voraus, dass man wirklich an der “wahren” Physik des Klimas interessiert ist – etwas, was bei der heutigen Treibhaus-Klimaindustrie in der Regel mit Fug und Recht bezweifelt werden darf.

Es muss betont werden, dass selbst nach dem “Tunen” immer noch genügend Abweichungen zwischen den Modellen und der Realität übrigbleiben (Schmidt et al., “Practice and philosophy of climate model tuning across six U.S. modeling centers”)vii:

Für die Beantwortung der Frage der Korrektheit der Treibhaus-Klimawandelhypothese spielt das aber keine Rolle. Um diese zu widerlegen benötigen wir keine Modelle, sondern lediglich die empirischen Beobachtungen des irdischen Klimas. Das soll das Thema des nächsten Artikels sein.

Mauritsen et al. 2012, „Tuning the climate of a global model“

Hourdin et al. 2017, „The Art and Science of Climate Model Tuning“

Dommenget und Rezny 2017, „A Caveat Note on Tuning in the Development of Coupled Climate Models“

Schmidt et al. 2017, „Practice and philosophy of climate model tuning across six U.S. modeling centers“

Anmerkung: Dieser Beitrag erschien auch hier.




Eisheiligen 2019, Teil 2: In der freien Fläche besonders kalt

Als Gegenwart nehmen wir den Zeitraum ab 1997. Die Grafik der Stadt Potsdam sieht so aus:

Grafik 1: Die fünf Eisheiligentage in der Landeshauptstadt Potsdam. Sie werden deutlich kälter. 2019 ist aber nicht der tiefste Punkt der Grafik. In Potsdam war der Schnitt der fünf Eisheiligentage 2005 und 2010 noch etwas kälter als der Gesamtschnitt der Eisheiligentage 2019

Die Klimastation Potsdam ist eine typisch städtische Station, die kalten Nordwinde der Eisheiligen haben in einer Stadt keinen Zutritt. Außerdem werden die kalten Tage/Nächte rausgeheizt. Zudem befindet sich nördlich von Potsdam die deutsche Hauptstadt Berlin. Was soll da noch an kalten Nordwinden bei der Wetterstation ankommen?

Grafik 2: Bad Kreuznach in der Oberrheinischen Tiefebene, die Trendlinie der Gegenwart ist für die Eisheiligen leicht fallender als in Potsdam.

Dresden/Klotzsche:

Die DWD- Wetterstation befindet sich im Vorort Klotzsche am Flughafen nördlich der sächsischen Landeshauptstadt. Nördlich bedeutet, dass die kalten Winde der fünf Eisheiligentage aus nördlicher Richtung zumindest erst bei der Wetterstation ankommen, bevor sie in der Stadt aufgewärmt werden oder durch die Häuserzeilen ganz abgebremst sind.

Grafik 3: DWD-Station Dresden Klotzsche. Eisheilgen in der Gegenwart. Die Trendlinie ist etwas fallender als Potsdam und die Eisheiligen 2019 sind die kältesten seit 1997.

Goldbach bei Bischofswerda im Osten Sachsens: Der kleine Vorort hat knapp 500 Einwohner.

Grafik 4: Die Eisheiligen 2019 sind deutlich die kältesten, Quelle der Daten: Stationsleiter Dietmar Pscheidt.

Schneifelforsthaus: Diese DWD-Wetterstation befindet sich in der Eifel, nahe der belgischen Grenze, in unmittelbarer Nähe ist allerdings die Kreuzung 2-er größerer Fernstraßen.

Grafik 5: Auch ganz im Westen Deutschlands sind die Eisheiligen außerhalb der Städte deutlich kälter geworden. Allerdings ist der Schnitt der fünf kalendarischen Eisheiligentage 2019 mit 6,36 C innerhalb des Gegenwarts-Betrachtungszeitraum nicht der tiefste. Jedoch waren die Eisheiligen 2019 im Westen Deutschlands nicht so kalt wie im Osten Deutschlands

Nürnberg/Netzstall

Die DWD Station Netzstall befindet sich bei einem Aussiedlerhof im SO Nürnbergs, deutlich außerhalb der Stadt. Aber immerhin werden die kalten Nordwinde der Eisheiligen durch die Stadt abgemildert. Der fehlende Wert des Jahres 2000 wurde nach den benachbarten Stationen Nürnberg und Nürnberg-Roth interpoliert.

Grafik 6: Der Aussiedlerhof Netzstall bei Nürnberg zeigt in der Gegenwart bereits eine bedenklich fallende Trendlinie der fünf Eisheiligentage.

Eine Klimastation vollkommen in der freien Fläche, weit weg von irgendwelche Wärmeinseln haben wir keine gefunden. Stationen bei unbeheizten Klöstern, bei Forsthäusern am Waldrand, solche Standorte gibt’s einfach nicht mehr.

Anhand der sechs ausgesuchten Wetterstationen konnte gezeigt werden, dass die Eisheiligen der Gegenwart selbst in einer Landeshauptstadt und in unmittelbarer Nähe zur Großstadt Berlin eine fallende Trendlinie haben, aber außerhalb der Städte eben noch deutlicher negativ (kälter) sind. Wie es weitergeht weiß niemand, denn CO2 hat auf das Klima der Erde keine wärmende Wirkung. Kein einziger Versuch kann diesen Erwärmungsglauben bei einer Verdopplung von CO2 beweisen. Meistens werden auch noch falsche Strahlungsquellen bei Konzentrationen von 100% CO2 verwendet, und der Versuch zeigt halt irgendwas an. Meistens jedoch gar nichts.

Der Verfasser hat für seine jahrelangen Versuche am Ende den Erdboden selbst als Bestrahlungsquelle verwendet. Die beiden Versuchsaufbauten – 100% CO2 im Vergleich zu Luft- hingen an meiner Terrasse, 4m vom Haus entfernt, in Augenhöhe.  Weder bei Sonnenbestrahlung, noch im Schatten, weder über den Tag, noch in der Nacht und auch nicht während den verschiedenen Jahreszeiten gab es irgendwelche Temperaturunterschiede. Beide Thermometer zeigten immerfort konstant gleiche Temperaturen. Die Bodenrückstrahlung konnte keinen von beiden Behältern mehr erwärmen, CO2 mag zwar infrarote Bodenrückstrahlung absorbiert haben, das Gas wurde jedoch nicht wärmer. Folge: den Treibhauseffekt gibt es nicht oder nur in einer nicht messbaren Größe

Der einzig menschengemachte Anteil an den Temperaturen ist der jährlich zunehmende Wärmeinseleffekt bei den DWD-Stationen aufgrund der ständigen weiteren Bebauung.

Aber bedenklich stimmen die deutlich fallenden Trendlinien für die Wald- Land- und Weinbauwirtschaft schon, schließlich wachsen die wärmeliebenden Eschen und die blühenden Apfelbäume der Streuobstwiesen nicht vor den Rathäusern der Großstädte.

Die aktuellen Erklärungsirrversuche der CO2-Erwärmungsgläubigen über die bedenklich kälter werdenden Eisheiligen findet man in diesem EIKE-Artikel von Helmut Kuntz.

Gesamt: Da die beiden ländlichen Vergleichsstationen DD-Klotzsche und Schneifelforsthaus 500 km auseinander liegen und in der Gegenwart ebenso wie Potsdam, Netzstall und Goldbach deutlich kälter werden, gehen wir davon aus, dass der Deutsche Wetterdienst keine einzige Wetterstation finden wird, die „in der Gegenwart“, „in den letzten Jahren“, in „jüngster Zeit“ positive Steigungen hat, zumal der Gesamtmonat Mai trotz des wärmsten Jahres 2018 seit 30 Jahren auch eine leicht fallende Trendlinie zeigen wird.

Nach vielen Falschmeldungen der Medien in den letzten Jahren über „Eisheiligen werden zu Heißheiligen“ erwarten wir vom DWD Vorstand Friedrich folgende Eisheiligenpressemitteilungen: „ Der Monat Mai wird in der Gegenwart kälter, aber die Eisheiligen werden noch kälter.“ Und als Ergänzung: „Die Eisheiligen werden in der freien Fläche Deutschlands bald wieder so kalt sein wie zur kleinen Eiszeit. Die starke Abkühlung der Eisheiligen in der Gegenwart konnte auch durch die Zunahme der CO2-Konzentration nicht aufgehalten werden.“

Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher