Aus weiß macht schwarz — Mogeleien zum Erhalt der Strahlenangst!

Die radioaktiven Stoffe wurden vor etwa einem Jahrhundert entdeckt. Dabei gab es Unfälle mit Todesfolge durch eine hohe Strahlendosis. Also legte man Grenzwerte fest und machte strenge Gesetze. Man wusste, daß ein Photon der Kernstrahlung millionenfach mehr Energie transportiert als ein Photon des Sonnenlichtes, aber die Zusammenhänge mit der Wirkung auf lebende Zellen kannte man noch nicht. Später wurden die ursprünglichen Grenzwerte vermindert, die Gesetze immer strenger. Es wurde das Wort „Strahlenschutz“ erfunden, obwohl gar nicht klar war vor welcher Strahlendosis ein SCHUTZ erforderlich ist. Und es wurde das Wort „Strahlenbelastung“ erfunden, obwohl Strahlung nur bei hoher Dosis in kurzer Zeit eine BELASTUNG bedeutet. Der Satz des Paracelsus „Allein die Dosis macht das Gift“ wurde ignoriert.

So geht das seit einem guten halben Jahrhundert. Strahlenbiologen haben inzwischen erkannt, daß Strahlung von Radioaktivität im Niedrigdosisbereich sehr nützlich für Lebewesen sein kann. Diese Erkenntnisse werden nicht beachtet. Manchmal wird mit offensichtlicher Absicht verschwiegen und gemogelt, wie im Folgenden an einem Beispiel gezeigt werden soll. Die Politik fragt in Sachen Strahlen die hauptamtlichen Strahlenschutzauthoritäten, die von der Gültigkeit überstrenger Gesetze leben. Und so bleiben die vom fachunkundigen Gesetzgeber formulierten Gesetze bestehen, es ist ein Teufelskreis.

Das Kobalt-60-Ereignis von Taiwan: Chen et.al., [1]

In Taiwan gab es ein ungeheuer wichtiges Ereignis zur Wirkung von Strahlung radioaktiver Stoffe auf Menschen, es wurde in EIKE mehrfach darüber berichtet, (hier), (hier). Dort enthielt der Baustahl von Gebäuden Kobalt-60, einen Gammastrahler mit hoher Intensität. Es wurden dort in einem unfreiwilligen Testversuch ca. 10 000 Personen über 9 bis 20 Jahre einer Gamma-Langzeitbestrahlung ausgesetzt, wie es noch nie geschehen war. Die Folge war, daß die exponierten Personen nicht durch die Strahlung geschädigt wurden. Sie war im Gegenteil sehr nützlich für die Gesundheit der Menschen. In einem normalen Kollektiv ohne zusätzliche Strahlung durch Co-60 hätte es in Taiwan unter den Erwachsenen 186 Krebstodesfälle geben müssen. Nach der im Strahlenschutz weltweit geltenden Lehrmeinung, daß jede noch so kleine Strahlendosis Krebs erzeugen kann (LNT-Modell), hätte es durch Strahlung weitere 56 Krebstodesfälle geben müssen. Bisher wurden tatsächlich aber nur 5 Krebstodesfälle beobachtet. Dieses Ereignis ist einzigartig auf der Welt, ein einzigartiger Nachweis zur Nützlichkeit von Niedrigdosisstrahlung. Und es ist ein Versuch an Menschen, der weltweit verboten ist! An den Nukleararbeitern in der Anfangszeit wurde ähnliches gefunden, allerdings nicht so deutlich wie jetzt in Taiwan.

Wie ist diese Strahlenwirkung zu verstehen?

Die Entstehung von Krebs ist eine komplizierte Sache, das meiste davon ist unbekannt, auch wenn oft das einfache Modell von der Erzeugung eines Doppelstrangbruches der DNA durch Strahlung und der daraus folgenden Tumorentwicklung genannt wird. Dieses Modell ignoriert die körpereigenen Reparatursysteme, die durch Strahlung gefordert werden und so deren Reparaturfähigkeiten trainiert. Man kennt heute den Zellzyklus, einen Mechanismus zur ständigen Erneuerung der Zellen im Körper. Durch Fehler bei dieser Erneuerung kann Krebs initiiert werden, daher tritt Krebs besonders bei hoher Zellteilungsrate auf. Bei der Regulierung vom Zellzyklus spielen viele Stoffe eine Rolle, so auch das Protein p53. Es ist ein „tumor suppressor gene“, es kann Krebs verhindern. p53 wird in den Zellen durch Bestrahlung vermehrt, seine Wirkung kann das Kobalt-60-Ereignis von Taiwan zwanglos deuten. Wegen seiner überragenden Eigenschaften wurde p53 im Jahre 1993 zum „Molekül des Jahres“ gewählt. Eine sehr zu empfehlende Darstellung „Radiation and Health“ wurde von einer Gruppe norwegischer Biophysiker gegeben [2]. Bücher und Veröffentlichungen von deutschen Verfassern sollte man sehr kritisch lesen, denn es gibt dazu oft „politische“ Betrachtungen.

Es gibt Gegendarstellungen zum Kobalt-60-Ereignis von Taiwan: Hwang et.al., [3] [4]

Diese Berichte kommen zu dem Schluß, daß die Strahlung vom Co-60 schädlich sei, wie es schon die Lehrmeinung besagt (LNT-Modell). Es wird die Inzidenz von Krebs untersucht, aber dabei wird gemogelt.

Die erste Mogelei

Chen et.al. berichten über ein Kollektiv von ca. 10 000 Personen mit einer mittleren über die gesamte Zeit kumulierten Dosis von 400 mSv pro Person. Hwang et.al. berichten nur von 6246 Personen mit einer mittleren über die gesamte Zeit kumulierten Dosis von 48 mSv pro Person, dazu wird der Medianwert von 6,3 mSv angegeben.

Das passt nicht zusammen. Es folgt aus diesen Zahlen, daß Hwang die Personen mit der höchsten Strahlenexposition nicht in die Untersuchung einbezogen hat. Dieses sind aber gerade diejenigen, bei denen dank regelmäßigem Training des Immunsystems ein positiver Effekt zu erwarten ist. Es wurden hingegen im wesentlichen nur die Personen des Teilkollektives mit der niedrigsten Exposition von 1 bis 5 mSv pro Jahr beachtet. Der Medianwert von 6,3 mSv bedeutet, daß die Hälfte der Personen nahezu KEINE zusätzliche Strahlung erhalten hat. Dann können natürlich auch keine positiven Effekte durch Strahlung aufgetreten sein.

Die zweite Mogelei

Hwang et.al. geben Zahlenwerte für die standarisierte Inzidenzrate SIR an; SIR < 1 bedeutet weniger Krebsfälle als normal, SIR > 1 bedeutet mehr Fälle als normal. In den Überschriften und Zusammenfassungen beider Arbeiten wird von Krebs durch gamma-Strahlen gesprochen [3] [4], aber in der ersten Arbeit [3] findet man in Tabelle III auf Seite 854 genau das Gegenteil, nämlich SIR = 0,7 für „solid cancers“. Das bedeutet weniger Krebs bei Bestrahlung, wie es Chen et.al. berichtet haben (wird im Text erst ganz hinten erwähnt). In der zweiten Arbeit [4] wird ein Risikofaktor >1 für „all solid cancers“ (table 2 auf Seite 145) angegeben, es ist also die ursprünglich niedrigere Krebsrate zu einer höheren Krebsrate geworden. Woher kommt diese gigantische Änderung innerhalb von 2 bis 3 Jahren? – Das wird nicht erläutert. Mohan Doss hat vorgerechnet, daß diese Änderung vorgetäuscht wurde [5].

Die dritte Mogelei

Hwang et.al. haben in der Tabelle III auf Seite 854 [3] die Daten für die Krebse an vielen Organen aufgeführt. Als Mittel über alle Krebse liegt SIR < 1, dennoch wurde bei einigen Organen SIR > 1 gefunden. Unter diesen Fällen mit SIR > 1 sind einige mit einer zur geltenden Lehrmeinung passenden Dosisabhängigkeit. Nur diese Fälle werden als Ergebnis genannt, die anderen werden verschwiegen. Die Zahl der beobachteten Fälle war dabei klein, so lässt sich z.B. bei 4 Fällen keine Statistik begründen, auch wenn das relative Risiko mit 9,0 berechnet worden ist.

Und noch etwas

Es wird nicht diskutiert, aus welchen Grunde die Arbeit von Chen et.al. falsch sei. Es wird dazu gesagt „Chen et.al. (2004) reported a primitive analysis on a similar cohort population…“ [3]. Die Worte „primitive analysis“ lassen nicht den Willen zu einer sachlichen wissenschaftlichen Diskussion erkennen.

Es wurde gemogelt, das ist klar, das kann nur mit voller Absicht geschehen sein. Besonders deutlich sind die Mogeleien aus den Tabellen der ersten Arbeit [3] zu sehen. In der zweiten Arbeit [4] fehlen diese Tabellen, damit ist dort nur die erste Mogelei erkenntlich. Es ergibt sich der Eindruck, daß die follow-up-Arbeit geschrieben wurde, um die besonders offensichtlichen Mogeleien in der ersten Arbeit zu verstecken. Im Internet sind nur die Zusammenfassungen beider Arbeiten frei verfügbar, auch das nährt den Verdacht auf Absicht.

Was ist zu tun?

Es gilt das Ergebnis von Chen et.al. : Ganzkörper Gammabestrahlung ist nützlich, sie kann vor Krebs bewahren. Natürlich muß das Kollektiv der Bewohner in Taiwan weiter beobachtet werden, das sollte ein ganzes Menschenalter lang geschehen. Dabei ist die Inzidenz wie auch die Mortalität bei Krebs zu beachten. Da aber unter den Bewohnern viele junge Menschen sind, kann man nicht ein Menschenalter bis zu endgültigen Ergebnissen warten. Das Handeln sollte schon viel früher beginnen, und zwar sofort. Dieses einzigartige Experiment mit Co-60 in Taiwan sollte wiederholt werden. Dazu müssen die geltenden Verbote der Exposition von Menschen mit Strahlung gemäß der Strahlen“schutz“regeln weg, eine Aufgabe des Gesetzgebers.

Man sollte sich auch daran erinnern, was schon in den 1980-er Jahren von Luckey gefordert wurde:

„Es wird allmählich Zeit, daß sich die für die Volksgesundheit verantwortlichen Stellen darüber Gedanken zu machen beginnen, wie sichergestellt werden kann, daß jeder die Dosis, die er zur Erhaltung seiner Vitalität und Gesundheit benötigt, auch immer erhält.“

Luckey hatte in den 1980-ern 1200 Arbeiten zur biopositiven Wirkung von Strahlung ausgewertet, inzwischen ist deren Anzahl auf 3000 gestiegen. Und es gibt mit „dose-response“ eine Zeitschrift, die sich nur mit der gesundheitsfördernden Wirkung von Strahlung befasst. Zur Gesundheitsvorsorge hat Luckey 60mSv/Jahr als optimale Dosis vorgeschlagen. Es gehört auch das ALARA-Prinzip (as low as reasonable available) auf den Müllhaufen für wissenschaftliche Irrtümer. Alles Schrifttum mit der Überschrift „Nuclear Safety & Security“ muß korrigiert werden, dazu sind die internationalen Organisationen UNSCEAR, IAEA, ICRP und ebenfalls die nationalen Strahlenschutzauthoritäten gefordert. Seit den 1980-er Jahren ist jedoch nichts geschehen, zum Nachteil von Millionen Menschen [6].

In Deutschland sterben jährlich etwa 210 000 Menschen an Krebs, die Inzidenz liegt bei etwa 460 000 jährlich. Es wird also mehr als jeder zweite Bürger bei uns irgendwann mit dem Schrecken „Krebs“ konfrontiert. Das Ereignis in Taiwan lässt hoffen, daß allein in Deutschland jedes Jahr einigen 100 000 Menschen geholfen werden könnte, wenn es die Gesetze erlauben würden. Dringendes Handeln ist erforderlich!!!!

Literatur

[1] W.L. Chen et.al. , “Effects of Cobalt-60 Exposure on Health of Taiwan Residents Suggest New Approach Needed in Radiation Protection” http://tinyurl.com/pjychll oder http://tinyurl.com/yzzdu9p, oder “Is Chronic Radiation an Effective Prophylaxis Against Cancer?”  http://tinyurl.com/9jwnnc3

[2] Thormod Henriksen et.al., „Radiation and Health“, 2012, http://tinyurl.com/nlsm4wm

[3] S.-L. Hwang et.al. , “Cancer risks in a population with prolonged low dose-rate g-radiation exposure in radiocontaminated buildings, 1983 – 2002”, Int. J. Radiat. Biol., Vol. 82, Dec 2006, pp. 849 – 858

[4] S.-L. Hwang et.al. , “Estimates of relative risks for cancers in a population after prolonged low-dose-rate radiation exposure: A follow-up assessment from 1983 to 2005”, Radiation Research 170, 143 – 148 (2008)

[5] M. Doss, “An Analysis of Irradiated Taiwan Apartment Residents’ Cancer Incidence Data”, http://taiwan-apt-cancer-data-analysis.blogspot.de

[6] M. Doss, “Linear no-threshold Model vs. radiation hormesis” dose-response, 11, 2013, 495 – 512

Die Arbeiten von Hwang [3] und [4] können bei Interesse gern über die admin von EIKE angefordert werden.

Related Files




Ein weiteres Narrenschiff? Mehr Verrücktheit über das Antarktische Eis

Mens Journal schreibt:

„Globale Erwärmung erschließt antarktische Wasserstraßen – Am 13. Februar befuhr eine Yacht, die 67-Fuß-Schaluppe[ rd.20m] Selma mit einer Crew aus Polen in der Antarktis die Bucht der Wale. Diese ist traditionell gefroren und in dem Breitengrad nur durch Eisbrecher schiffbar. Es war hundert Meilen weiter südlich als je ein Boot gesegelt ist. Die Temperaturen schwebten um Null Grad Fahrenheit [minus 18°C](es ist der Höhepunkt des Sommers am Südpol), als die Mannschaft abwechselnd die schwere Reifschicht vom Schiffsdeck und den Segeln hackte. Ein Sturm schickte kurze sechs-Meter-Wellen in den Weg, aber die Oberfläche war ruhig, als Selma endlich aufs [freie] Meer lief. „Wir berührten das Eis der Antarktis“, erzählte Skipper Piotr Kuniar Radio Polen. „Wir können nicht weiter segeln.“

Zwei aktuelle Studien erklären, warum es mehr Meer [= weniger Eis] um die Antarktis gibt als je zuvor.

http://www.mensjournal.com/adventure/outdoor/global-warming-opens-up-antarctica-waterways-20150319 [Global Warming erschließt antarktische Wasserstraßen]

Das Traurige über diese Art von hysterischem Gruppendenken ist, dass immer wenn eine Gruppe von Grünen überzeugt ist, dass das Eis geschmolzen ist, sie bis in die Antarktis fahren, um selbst nachzusehen ohne die richtige Vorbereitung. Ein paar von ihnen haben Glück – aber zumindest in einigen Fällen müssen normale Menschen ihr Leben riskieren und fragile wissenschaftliche Zeitpläne unterbrechen, um Gruppen von Idioten zu retten, die es für sinnvoll halten, in die Antarktis ohne richtige Ausrüstung und Vorbereitung zu segeln.

http://wattsupwiththat.com/2014/01/13/akademic-shokalskiy-makes-it-back-to-port-spirtofmawson-fools-still-stuck-in-antarctica/

[Akademik Shokalskiy schafft es zurück zum Hafen, Das Narrenschiff „Spirit of Mawson“ steckt noch in der Antarktis fest]

Erschienen am 20. März 2015 auf WUWT

Link : http://wattsupwiththat.com/2015/03/20/another-ship-of-fools-more-craziness-about-antarctic-ice/

Übersetzt durch Andreas Demmig für Eike




Moskau’s europäische Gas-Strategie funktioniert nicht länger

Unter Berufung auf "Transitrisiken" durch den Transport von Erdgas durch "unzuverlässige Länder", wollen die Russen die Ukraine umgehen und ein System aufbauen, wie es als Turk-Stream durch das Schwarze Meer durch Anatolien bis zum Balkan bekannt ist. Westeuropa, das etwa 30% seines Erdgases aus Russland bekommt, müsse nun mit der Entscheidung leben, wurde Mr. Sefcovic mitgeteilt. "Turk Stream ist jetzt die einzige Pipeline" erklärte Mr. Miller gegenüber Reportern. "Unsere europäischen Partner sind hiervon unterrichtet worden und ihre Aufgabe ist es nun, die notwendige Infrastruktur für Gastransporte ab den Grenzen der Türkei und Griechenlands zu etablieren."

Dennoch wissen Mr. Sefcovic und andere Experten, dass die europäischen Verbraucher keinen wirklichen Grund zur Sorge haben. Mr. Millers polternder Ton reflektiert wenig mehr als die Zwielichtigkeit der plumpen Pipeline-Politik von Gazprom, Tatsache ist, dass der Griff des russischen Energieriesen auf Preise und die Verteilung schwächer wird, wenn die Gas- und Ölpreise sinken und der Wettbewerb steigt.

Viele Europäer haben schlechte Erinnerungen, als Gazprom wegen der Meinungsverschiedenheiten mit der Ukraine über Preise die Lieferungen während der Winter von 2006 und 2009 unterbrochen hatte. Ein Gefühl der Verwundbarkeit wurde durch russische Bemühungen verschärft, mehr Liefersysteme zu entwickeln, die es Moskau erlauben, den Gasfluss in bestimmte Länder direkt steuern zu können: Die Blue-Stream-Pipeline in die Türkei, die Jamal-Pipeline nach Polen und Deutschland sowie Nord Stream nach Deutschland. Dieses erweiterte Netzwerk war Teil von Moskaus kommerzieller und politischer Strategie, eine Strategie, die die Position der Ukraine als wichtigstes Transitland in den Westen aushöhlt; Kiew und die kleineren Staaten Osteuropas verlieren Transitgebühren und ermöglichen es damit Moskau, Lieferungen ungestraft zu beschneiden.

Aber die Strategie der Verwendung von Rohrleitungen als Hebel, um Märkte zu steuern, funktioniert nicht mehr. Seit 2009 ist die Europäische Union bemüht, ihre Energiesicherheit zu verbessern, vor allem durch Aktivitäten, einen einzigen offenen Markt mit Rohrleitungssystemen und neuen Bezugsquellen zu entwickeln. Wird einer der Mitgliedstaaten der Europäischen Union durch Gazprom der Gashahn zugedreht wird, kann Gas einfach von einem anderen Mitgliedsland aus fließen. Die Schwächung von Russlands Einfluss auf die Energiepolitik wurde im Dezember deutlich, als Präsident Wladimir Putin das viel beschworene South-Stream-Projekt aufkündigte, das eine Unterwasser-Pipeline von Russland nach Bulgarien enthielt. Europäische und amerikanische Sanktionen gegen Russland, verbunden mit finanziellen und rechtlichen Problemen, hatte das 40-Milliarden-Dollar-Projekt zur Umgehung der Ukraine unhaltbar gemacht. Anstatt nur die Akte zu schließen, hat Putin Pläne für Turk Stream angekündigt.

Auf den ersten Blick scheint der Schwenk wie ein cleverer Versuch, Ankara näher an Moskau zu bringen, während Europa weiter von russischem Gas abhängig ist und um Kiew für den Bruch mit dem Kreml zu bestrafen. Doch bei näherer Betrachtung sieht es aus wie ein Akt der Verzweiflung.

Im vorigen Jahr, als die Krise um die Krim und die Region Donbass überkochte, sperrte Russland die Gasströme nach Kiew unter Berufung auf Preisstreitigkeiten fast ein halbes Jahr lang. Auch wenn EU-Beamte Moskaus Zusicherung haben, dass der [Energie-]Fluss in diesem Jahr weiterhin sicher erhalten bleibt, öffnet sich der europäische Markt zunehmend anderen Quellen. Norwegen ist nun ein Rivale Russlands um den Titel des größten Gasexporteurs in andere Länder auf dem Kontinent. Auch Algerien ist in der Lage, mehr Gas zu liefern; die ersten Importe von verflüssigtem Erdgas aus Amerika sind nur ein Jahr her, während die Anfänge der Schiefergas-Entwicklung in Polen und Großbritannien zu sehen sind. Darüber hinaus werden Fernleitungsnetze nach Italien und zum Balkan von der Türkei und Aserbaidschan gebaut.

Für Russland, durch taumelnde Öleinnahmen und andere Leiden getroffen, wird die Suche nach Investoren für neue Rohrleitungssystemen bestenfalls schwierig sein. South Stream ist mit vielen Hürden konfrontiert, einschließlich rechtlicher Hindernisse. Die neuen Regeln der Europäischen Union zur Marktliberalisierung erfordern die Trennung der Übertragungsnetze vom Gaslieferanten. Grundsätzlich kann Gazprom sowohl die Rohrleitungen und das Gas nicht legal besitzen, sie hätten sonst die Rohrleitungen durch Osteuropa bis in den wichtigsten Handelsknotenpunkt in Österreich gekauft. Auch wenn Brüssel eine Ausnahme gewähren würde, würde das Unternehmen immer noch aufgefordert werden, Dritten Zugang zu seiner Pipeline zu gewähren. Auch würde Brüssel eine transparente Preisgestaltung für die Nutzung des Systems durch andere Unternehmen fordern. Ein solcher Eingriff wäre ein Gräuel für Moskau.

In gewisser Weise ist das Turk-Stream-Projekt noch problematischer als South Stream. Der russische Vorschlag sieht die Vermeidung von Konflikten mit dem europäischen Recht vor, indem die Kunden von Gazprom die Lieferung an der europäischen Grenze annehmen. Aber diese Hoffnung könnte leicht nach hinten losgehen. Ist das russische Gas einmal in Europa, könnte es überall hin dirigiert werden. Ein Hauptspeicherpunkt, speziell im Sommer, würden die großen Einrichtungen in der Westukraine sein. Turk-Stream könnte den Einfluss von Gazprom weiter verringern, indem ein weiterer Erdgasspeicher eingerichtet wird, der gegen eine russische Sperre immunisiert.

Zuerst erschienen am 13.02. 2015, National Post

Gelesen auf : The Global Warming Policy Forum

Link: http://www.thegwpf.com/moscows-european-gas-strategy-is-no-longer-working/

Übersetzt durch Andreas Demmig für das EIKE

Zusatz des Übersetzers: Ich habe beruflich auch mit Pipeline Projekten zu tun gehabt. Sofern auch der Kunde seine Zusagen (Geld) einhält, haben sowohl die Russen, als auch z.B. die Iraner ihre Verpflichtungen immer sorgfältig eingehalten. Selbst während der politischen „Eiszeit“.

Ob es tatsächlich sinnvoll und wirtschaftlich ist, eine weitere teure Infrastruktur aufzubauen , nur um „unabhängig“ zu sein, ist sicherlich näherer Betrachtung wert.

Unabhängigkeit würde bedeuten, auch die eigenen Lagerstätten zu nutzen.

A. D.




Anatomie eines kollabierenden Klima-Paradigmas

Paradigma:

Ein Rahmen, der die grundlegenden Hypothesen, die Denkweise und die Methodik enthält, die allgemein von den Mitgliedern einer wissenschaftlichen Gemeinschaft akzeptiert werden.

Paradigma-Verschiebung:

Diese Beispiele weisen auf den dritten und grundlegendsten Aspekt der Unvergleichbarkeit miteinander im Wettbewerb stehender Paradigmen hin. In einer Weise, die näher auszuführen ich nicht in der Lage bin, praktizieren die Befürworter ihres jeweiligen Paradigmas dieses in verschiedenen Welten. Eines enthält überstrapazierte Inhalte, die allmählich zusammenfallen, die anderen wiederholen ihre Pendelschläge wieder und immer wieder. In dem einen Paradigma sind Lösungen fest gefügt, in anderen sind es Mixturen. Eines ist eingebettet in eine flache, das andere in eine gekrümmte Matrix im Raum. Da sie in verschiedenen Welten operieren, sehen die beiden Wissenschaftler-Gruppen verschiedene Dinge, wenn sie von der gleichen Stelle aus in die gleiche Richtung blicken. Auch hier heißt das nicht, dass sie irgendetwas sehen, das ihnen gefällt. Beide schauen auf die Welt, und auf was sie blicken hat sich nicht verändert. Aber in manchen Bereichen sehen sie unterschiedliche Dinge, und sie sehen diese in unterschiedlichen Relationen zueinander. Das ist auch der Grund dafür, dass ein Gesetz, das nicht einmal der einen Wissenschaftler-Gruppe demonstriert werden kann, für die andere Gruppe intuitiv offensichtlich aussieht. Und es ist auch der Grund dafür, warum die eine oder die andere Gruppe erst eine Verschiebung des Paradigmas vornehmen muss, um in voller Breite kommunizieren zu können. Nur weil es ein Übergang zwischen Unvergleichbarkeiten ist, kann der Übergang zwischen gegeneinander stehenden Paradigmen nicht mit einem Schritt zu einer bestimmten Zeit erfolgen, erzwungen durch Logik und neutrale Erfahrung. Wie die Gestaltänderung muss der Übergang vollständig (wenngleich auch nicht notwendigerweise sofort) erfolgen, oder er erfolgt überhaupt nicht.

Thomas Kuhn, 1962. The Structure of Scientific Revolutions. Vol. II, No. 2 p. 150

Wie lautet das derzeitige Paradigma?

● Menschliche Aktivitäten, hauptsächlich deren Kohlendioxid-Emissionen, waren der primäre Grund der beobachteten globalen Erwärmung während der letzte 50 bis 150 Jahre.

● Die atmosphärische CO2-Konzentration betrug zu Beginn des Holozäns 270 bis 280 ppmv. Dieser Anteil blieb vor Mitte des 19. Jahrhunderts konstant, bevor fossile Treibstoffe zur primären Energiequelle der industriellen Revolution wurden.

● Anthropogene CO2-Emissionen sorgen dafür, dass die atmosphärische Konzentration gefährlich rasch zunimmt auf Niveaus, wie sie während der letzten 100erten von Tausend bis zu Millionen Jahre beispiellos sind.

● Die Klimasensitivität bei einer Verdoppelung des CO-Gehaltes im Vergleich zu vor der industriellen Revolution „liegt wahrscheinlich im Bereich zwischen 2°C und 4,5°C mit einem Best Estimate von 3°C. Es ist sehr unwahrscheinlich, dass sie unter 1,5°C liegt“ (hier). Vielleicht sind es auch über 4,5°C.

● Sofortige und starke Reduktionen der Treibhausgasemissionen sind notwendig, um eine katastrophale Klimaänderung zu vermeiden.

● Der wissenschaftliche Konsens hinsichtlich dieses Paradigmas ist überwältigend (~97%).

Warum bricht dieses Paradigma zusammen?

● Seit Ende des 20. Jahrhunderts ist die mittlere Temperatur der Erde nicht mehr gestiegen.

● Jede Messung des vorindustriellen CO2-Gehaltes, der nicht aus antarktischen Eisbohrkernen abgeleitet worden ist (hier), zeigt eine höhere und variablere atmosphärische Konzentration (hier).

● Das totale Versagen (hier) der AGW-Klimamodelle.

● Eine rasch wachsende Anzahl von Studien auf der Grundlage von Beobachtungen zeigt, dass die Klimasensitivität im Bereich von 0,5°C bis 2,5°C mit einer Best Estimate von 1,5°C bis 2°C liegt. Es ist sehr unwahrscheinlich, dass sie mehr als 2°C beträgt.

● Eindeutige Beweise, dass das dogmatische Bestehen auf wissenschaftlicher Einigkeit im besten Falle arrangiert und im schlimmsten Falle betrügerisch ist.

Das Paradigma bricht primär aufgrund der Tatsache zusammen, dass das Klima weitaus weniger sensitiv auf Änderungen des atmosphärischen CO2-Gehaltes reagiert als der so genannte wissenschaftliche Konsens es haben wollte.

Eine Gruppe von Wissenschaftlern hat dem CO2-getriebenen Paradigma standhaft widerstanden: Geologen, besonders Petroleum-Geologen. Kuhn schrieb dazu [siehe oben]:

Da sie in verschiedenen Welten operieren, sehen die beiden Wissenschaftler-Gruppen verschiedene Dinge, wenn sie von der gleichen Stelle aus in die gleiche Richtung blicken. Auch hier heißt das nicht, dass sie irgendetwas sehen, das ihnen gefällt. Beide schauen auf die Welt, und auf was sie blicken hat sich nicht verändert. Aber in manchen Bereichen sehen sie unterschiedliche Dinge, und sie sehen diese in unterschiedlichen Relationen zueinander. Das ist auch der Grund dafür, dass ein Gesetz, das nicht einmal der einen Wissenschaftler-Gruppe demonstriert werden kann, für die andere Gruppe intuitiv offensichtlich aussieht.

Petroleum-Geologen tendieren dazu, Sediment-Geologen zu sein, und die Sediment-Geologie ist im Wesentlichen eine Kombination von Paläogeographie und Paläoklimatologie. Abgelagerte Schichten werden definiert durch physikalische Geographie und Klima. Wir operieren buchstäblich in einer anderen Welt, nämlich der Vergangenheit. Geologen sehen die Prozesse der Erde intuitiv als zyklisch an und tendieren auch dazu, die Dinge aus der Sicht sehr langer Zeiträume [„deep time“] zu betrachten. Für jene von uns, die wir im Golf von Mexiko arbeiten, „gehen wir in einer Welt an die Arbeit“, die durch glazio-eustatische und halokinetische Prozesse definiert werden. Und – offen gesagt – die meisten von uns sehen nichts Anomales in jüngsten Klimaänderungen.

Es sollte also keine Überraschung sein, dass Geowissenschaftler durchweg sehr viel mehr der Denkweise folgten, dass Klimaänderungen in moderner Zeit in überwältigender Weise durch natürliche Prozesse getrieben waren…

APEGA ist die Organisation, die für die Zertifizierung und Lizenzierung professioneller Geowissenschaftler und Ingenieure in Alberta, Kanada, verantwortlich ist.

Diese Studie ist sehr interessant, weil sie die Differenz-Rahmen analysiert (Kuhns „unterschiedliche Welten“), in der sich Meinungen bilden. Skeptische Geologen werden höchstwahrscheinlich Klimaänderungen als fast eindeutig natürlichen Ursprungs ansehen. Skeptische Ingenieure werden sie wahrscheinlicher als eine Sache der Ökonomie oder des Fatalismus‘ ansehen. Die Kosten der Dekarbonisierung würden jedwede Vorteile bei Weitem übertreffen und/oder hätten keinen messbaren Einfluss auf Klimaänderung.

Die Besessenheit bzgl. des Konsens‘

Während nahezu 40 Jahre als Erdwissenschaftler habe ich noch nie eine solche Besessenheit bzgl. eines Konsens‘ gesehen. In der Geologie gibt es viele Bereiche, in der es miteinander in Konkurrenz stehende Hypothesen gibt; aber trotzdem gibt es keine Besessenheit hinsichtlich Konformität zu einem Konsens.

Die Akzeptanz der Plattentektonik war relativ neu, als ich noch ein Student war. Dieses Paradigma hatte sich erst kurz zuvor von der geosynklinalen Theorie zur Plattentektonik verschoben. Wir haben immer noch die geosynklinale Theorie im Fach Historische Geologie gelernt, und sie hat auch heute noch einen gewissen Wert. Allerdings kann ich mich an keine einzige veröffentlichte Studie erinnern, in der für eine der beiden Theorien ein Konsens in Anspruch genommen wurde.

Die meisten Geologen glauben, dass Granit vulkanischen und Petroleum organischen Ursprungs ist. Und trotzdem werden Theorien der Granitisierung und der abiotischen Kohlenwasserstoff-Bildung nicht lächerlich gemacht; und deren Anhänger sind auch nicht Gegenstand von „Hexenjagden“.

Eine der am häufigsten angewendeten Verfahren zu versuchen, den so genannten Konsens zum Klimawandel zu quantifizieren und zu rechtfertigen, war die abstrakte Forschung (Meinungen aus zweiter Hand). Ich werde mir nur die Mühe machen, eine dieser Übungen zu begutachten, nämlich den logischen Trugschluss von Cook et al. 2013.

Meinungen aus zweiter Hand

Diese Art von Studien besteht aus abstrakten Begutachtungen. Die Autoren erfassen dann tabellarisch ihre Meinungen, ob die Abstracts das AGW-Paradigma unterstützen oder nicht. Wie Legates et al. 2013 gezeigt haben, hat Cook den Konsens definiert als „die meiste Erwärmung seit 1950 ist anthropogen“. Cook stützte sich dann auf drei verschiedene Niveaus der „Befürwortung“ dieses Konsens‘ und schloss 67% aller betrachteten Abstracts aus, weil der Konsens weder abgelehnt noch befürwortet wurde.

„Die größte Befürworter-Gruppe wurde kategorisiert als „implizite Zustimmung zu AGW, ohne diese zu minimieren“. Sie nannten folgendes Beispiel einer implizierten Befürwortung:

…Kohlenstoff-Abscheidung in der Erde ist wichtig, um eine globale Klimaänderung abzuschwächen.

„Die Kohlenstoff-Abscheidung in der Erde, in Kalkformationen, Meerwasser, maritimen Kalkablagerungen und vielen anderen Dingen waren immer wichtig für die Abschwächung einer großen Vielfalt natürlicher Prozesse. Ich zweifle nicht daran, dass ich implizit den so genannten Konsens auf der Grundlage dieses Beispiels befürwortet habe“, [hieß es aus dieser Gruppe].

Die zweitgrößte Befürworter-Gruppe wurde kategorisiert als „implizit zustimmend, aber ohne sie zu quantifizieren oder minimieren“. Man entschuldige meine Beschränktheit, aber wie in aller Welt kann jemand explizit ohne Quantifizierung die Auffassung befürworten, dass „der größte Teil der Erwärmung seit 1950 anthropogenen Ursprungs ist“? Cook nannte dafür das folgende Beispiel:

Emissionen einer großen Vielfalt von Treibhausgasen über verschiedene Zeiträume tragen zur globalen Klimaänderung bei.

Wow! Ich habe zu ,Romney als Präsident‘ beigetragen… Trotzdem kam die meiste Munition für seinen Wahlkampf nicht von mir. Nach diesem subjektiven Standard habe ich möglicherweise ein paar Mal AGW befürwortet.

Kein Schiefer, Sherlock

Einer der häufigsten Refrains ist die Beteuerung, dass „Klimawissenschaftler“ den so genannten Konsens stärker befürworten als andere Disziplinen und dass das Niveau der Befürwortung proportional zum Umfang der Veröffentlichungen jener Klimawissenschaftler ist. Nun… kein Schiefer, Sherlock! Ich würde eine Flasche guten Weines verwetten, dass die umfangreichsten Veröffentlicher auf UFOs unverhältnismäßig oft dazu tendieren zuzustimmen, dass der Film Close Encounters of the Third Kind [,unheimliche Begegnung der dritten Art‘] eine Dokumentation sei. Eine oberflächliche Suche nach „abiotischen Kohlenwasserstoffen“ auf den Datenseiten von AAPG könnte mich zu der Schlussfolgerung verleiten, dass es ein höheres Niveau der Befürwortung abiotischen Öls gibt unter jenen, die zu diesem Thema etwas veröffentlichen, als unter jenen Petroleum-Geologen, die nichts veröffentlichen.

Diese Machenschaften von Experten-Rosinenpickerei sind ziemlich weit verbreitet. Ein klassisches Beispiel dafür waren Doran and Kendall Zimmerman 2009. Diese Umfrage-Testprobe war begrenzt auf Erdwissenschaftler in Akademien und bei der Regierung. Alle in privaten Bereichen arbeitende Erdwissenschaftler waren ausgeschlossen. Die zwei Schlüsselfragen lauteten:

1. Im Vergleich mit dem Niveau vor dem 19. Jahrhundert – glauben Sie, dass die mittleren globalen Temperaturen allgemein gestiegen, gefallen oder gleich geblieben sind?

2. Glauben Sie, dass menschliche Aktivitäten einen bedeutenden Beitrag zur Änderung der mittleren globalen Temperatur geleistet haben?

Ich würde Frage 1 mit „ja“ beantworten. Meine Antwort auf Frage 2 würde davon abhängen, welche Bedeutung „menschliche Aktivitäten sind ein wesentlicher beitragender Faktor“ hat. Falls ich bemerken würde, dass es eine „Push Poll“* war, würde ich mit „nein“ antworten.

[*Eine angebliche Meinungsumfrage, in der die wirkliche Objektive dazu gedacht ist, die Wähler durch tendenziöse Fragen zu beeinflussen. Quelle]

Interessanterweise waren Wirtschaftsgeologen und Meteorologen die Personen, die am wahrscheinlichsten Frage 2 mit „nein“ beantwortet hätten…

Die beiden Fachbereiche in der Umfrage mit dem geringsten Prozentsatz der Teilnehmer, die Frage 2 bejahten, war ökonomische Geologie mit 47% (48 von 103) und Meteorologie mit 64% (23 von 36)

Die Autoren warfen die Meinungen der Geologen und Meteorologen verächtlich hinaus…

Es scheint, dass die Debatte um die Authentizität der globalen Erwärmung und die Rolle menschlicher Aktivitäten dabei weitgehend nicht existent ist unter jenen, die die Nuancen und die wissenschaftliche Basis langzeitlicher Klimaprozesse verstehen.

Keine Disziplin versteht besser die „Nuancen“ als Meteorologen, und keine Disziplin versteht besser die „wissenschaftliche Basis langzeitlicher Klimaprozesse“ als Geologen.

Die Autoren schließen mit einer „Kein-Schiefer, Sherlock“-Balkengraphik:

Das jüngste Beispiel von Experten-Rosinenpickerei waren Stenhouse et al. 2014.

Der 52%-Konsens unter den Mitgliedern der American Meteorological Society wurde als „wahrgenommener wissenschaftlicher Konsens“, als „politische Ideologie“ und dem Fehlen von „Expertise“ hinweg erklärt…

Während wir herausfanden, dass größere Erfahrung assoziiert war mit einer größeren Wahrscheinlichkeit, die globale Erwärmung als real und schädlich einzustufen, war diese Relation weniger stark als für politische Ideologie und wahrgenommener Konsens. Zumindest für die von uns benutzte Definition des Grades an Erfahrung könnte einen weniger bedeutenden Einfluss zu der Ansicht bzgl. der globalen Erwärmung als vom Menschen verursacht spiegeln im Vergleich zu politischer Ideologie oder dem Konsens sozialer Normen. Mehr als jedes andere Ergebnis der Studie wäre dies ein starker Beweis gegen den Gedanken, dass die Ansichten erfahrener Wissenschaftler zu politisch kontroversen Themen vollkommen objektiv sein können.

Schließlich fanden wir auch, dass der wahrgenommene Konflikt bei der AMS zusammenhing mit einer geringeren Sicherheit hinsichtlich der Ansichten zur globalen Erwärmung als vom Menschen verursacht sowie geringerer Einschätzung der Schäden durch die globale Erwärmung.

Also … eindeutig würden 97% der AMS-Mitglieder den so genannten Konsens befürworten, falls sie liberaler, mehr Akzeptanz gegenüber Einstimmigkeit zeigen und mehr Studien zur Verteidigung der scheiternden Klimamodelle veröffentlichen würden. Kein Schiefer, Sherlock!

Was genau ist ein Klimawissenschaftler?

Vor 35 Jahren war Klimatologie ein Zweig von Physikalischer Geographie. Heutige Klimawissenschaftler können alles sein, von atmosphärischen Physikern und Chemikern über Mathematiker, Computer-Wissenschaftler, Astrophysiker, Ozeanographen, Biologen Umweltwissenschaftler, Ökologen, Meteorologen, Geologen, Geophysiker, Agronomen, Soziologen bis hin zu öffentlichen Politologen [und Eisenbahningenieuren, wenn man an Pachauri denkt. Anm. d. Übers.]

Der oberste Klimawissenschaftler der NASA James Hansen ist Astronom. Der jetzige Gavin Schmidt ist Mathematiker.

Es scheint mir, dass die Klimawissenschaft derzeit dominiert wird von Computer-Modellierern mit wenig Wissen über die natürlichen Klimazyklen, die das Klima während des gesamten Holozäns getrieben haben.

Klimawissenschaftler scheint genauso nebulös wie Cooks Definition von Konsens.

Wie lautet der aktuelle Konsens?

Die vorläufigen Ergebnisse der AMS-Umfrage (hier) sagen uns, dass alles, was wir wissen müssen über den so genannten Konsens…

89% × 59% = 52%… Ein kleiner Abklatsch des oftmals behaupteten 97%-Konsens‘.

Auf der Grundlage der BAMS-Definition findet globale Erwärmung statt. Also wäre ich unter den 89%, die Frage 1 mit „ja“ beantwortet hatten, und unter den 5% die sagten, dass der Grund hauptsächlich natürlich war.

Wenn selbsternannte „Klimawissenschaftler“ und Meteorologen/Atmosphären-Wissenschaftler gesondert betrachtet werden, werden die Ergebnisse sogar noch interessanter…

Nur 45% der Meteorologen und Atmosphärenwissenschaftler befürworten den so genannten Konsens. Im Vergleich zum Jahr 2009 und der Umfrage der American Geophysical Union ragt das kollabierende Paradigma heraus wie ein Polarwirbel…

In Wirklichkeit würden etwa die Hälfte der relevanten Wissenschaftler zustimmen, dass die Menschen verantwortlich waren für >50% der jüngsten Klimaänderungen. Und es könnte sogar einen 97%-Konsens geben, dass menschliche Aktivitäten zu jüngsten Klimaänderungen beigetragen haben

Allerdings gibt es in Wirklichkeit keinen wissenschaftlichen Konsens, wenn man ihn so definiert:

Also – warum ist man so besessen von einem 97%-Konsens? Meine Vermutung lautet, dass der Grund die Ermöglichung einer solchen Demagogie ist.

Link: http://wattsupwiththat.com/2015/03/18/anatomy-of-a-collapsing-climate-paradigm/

Übersetzt von Chris Frey EIKE




Klima – Monitoring

Von einer Veröffentlichung der sich daraus ergebenden Zahlenwerte wurde jedoch abgesehen, da diese suggerierten, dass der Klimawandel selbst in den ersten Jahren des 21. Jahrhunderts mit einer kontinuierlichen durchschnittlichen Erwärmungsrate von 0,015 K noch voll im Gange sei, was im Widerspruch zu der aktuellen Datenlage steht. Darüber verunsichert wandte sich der Verfasser an den DWD (Geschäftsbereich KU).

Dort gab man ihm den Rat, anstelle der 30-jährigen gleitenden globalen Temperaturmittel künftig im Einklang mit dem IPCC 10-jährige gleitende globale Temperaturmittel zu berechnen. Diese sind in der Tabelle aufgeführt.

                     

Dabei hatte sich jedoch eine kleine Komplikation ergeben, die darin bestand, dass die Fortschreibung des Zahlenwerkes über das Jahr 2013 hinaus nicht mehr möglich war, wenn man denn die Angaben der HadCrut4-, der GISS- und der NCDC-Reihen mittelte. Bei der erstgenannten Reihe wurde nämlich das Datenformat so radikal geändert, dass daraus die globalen Mitteltemperaturen nicht mehr direkt entnommen werden konnten. Es wurde deshalb eine Beschränkung auf die beiden US-Reihen der NASA und der NOAA vorgenommen. 

Wie man aus dem vorstehenden Zahlenwerk unschwer erkennen kann, ist der Klimawandel in den letzten Jahren fast zum Stillstand gekommen, was allerdings in der meteorologischen Wissenschaft hinlänglich bekannt ist.

Der im 20. Jahrhundert beobachtete Anstieg der globalen Mitteltemperatur von fast 1 K, der in der letzten Dekade des 20. Jahrhunderts ziemlich ausgeprägt war, kommt in diesen gleitenden Mittelwerten ebenfalls gut zum Ausdruck.

          Keine Korrelation zwischen Temperatur und CO2

Außerdem räumt dieses Zahlenwerk mit dem Irrglauben eines vermeintlichen Zusammenhangs zwischen dem Kohlendioxyd-Gehalt der Atmosphäre und der globalen Erwärmung gründlich auf.

Obwohl sich nämlich der jährliche Kohlendioxydeintrag in die Atmosphäre in den ersten 15 Jahren dieses Jahrhunderts gegenüber den in den letzten Jahren des vergangenen Jahrhunderts beobachteten Werten verdreifacht hat, wurde aktuell keine signifikante Änderung der bisherigen Gleichmäßigkeit der Zunahme des atmosphärischen CO2-Gehaltes beobachtet – geschweige denn eine diesem Tatbestand entsprechende Temperaturzunahme.

Abb. (eingefügt von der Redaktion): Vergleich Anstieg der fossil erzeugten CO2 Emissionen (oben) mit der CO2 Gesamtkonzentration unten.


Es erhebt sich deshalb die Frage nach dem Verbleib des vermehrt freigesetzten Kohlendioxyds. Diese Frage wird neuerdings von der Ozeanographie dahingehend beantwortet, dass das CO2 teilweise vom Ozean aufgenommen wird, wodurch die Meere zunehmend versauern.

Auch für die Frage nach der Ursache für die in den letzten Jahren ausgebliebene globale Erwärmung scheint es jetzt Antworten zu geben : 

Im DWD wurde nämlich erklärt, dass die in den Klimamodellen vorhergesagte Erwärmung gar nicht mehr für die Atmosphäre zur Verfügung stehe, sondern in tiefere Schichten des Ozeans abgeflossen sei. Dort wird man sie allerdings schwerlich nachweisen können.

Der Verfasser, der schon seit geraumer Zeit den anthropogen CO2-bedingten Klimawandel in Zweifel gezogen hatte, vertrat bisher die Meinung, dass die globale Erwärmung durch das ENSO-Phänomen moduliert werde. So hatte er in Anbetracht der sich im Jahr 2014 anbahnenden ENSO-Warmphase (El Nino) ein Ende der gegenwärtigen Erwärmungspause erwartet.

Allerdings zeigt sich der allmählich in den monatlichen Werten deutlich werdende Anstieg der globalen Mitteltemperatur im Jahr 2014 noch wenig überzeugend im 10-jährigen gleitenden globalen Mittel. Dies ist jedoch nicht verwunderlich, da bisher die in Gang gekommene ENSO-Warmphase nur sehr schwach ausgeprägt war.

Abgesehen davon war der Verfasser sehr erstaunt über das Verhalten des Hurrikans ANA im Oktober 2014. Dieser schwächte sich nach der Überquerung der geographischen Breite des Hawaii-Archipels zunächst auf seiner nach Norden gerichteten Zugbahn infolge abnehmender Wasser-Temperaturen zum tropischen Sturm ab, verstärkte sich aber in einem mehr als 1000 km nördlich von Hawaii gelegenen Seegebiet erneut kurzzeitig zum Hurrikan und wurde selbst auf dem 40. Breitengrad noch als tropischer Sturm geführt. Dieses Verhalten ist für tropische Wirbelstürme über dem mittleren Nordpazifik recht ungewöhnlich; es ist auf eine große Ausdehnung eines Gebietes mit erhöhten Wassertemperaturen über weiten Teilen des Nordpazifiks zurückzuführen. Der Verfasser konnte sich zunächst keinen rechten Reim daraus machen, denn er konnte keinen unmittelbaren Zusammenhang mit der sich anbahnenden ENSO-Warmphase erkennen.

                     Problem-Lösung: PDO und IPO

Der Schlüssel zur Lösung des Problems fand sich am 24. Februar 2015. An diesem Tag erschien in dem Blog des Direktors der privaten  Meteorologie-Firma Wunderground, Dr. Jeff Masters, ein Beitrag von Bob Henson zur Pazifischen Dekadischen Oszillation (PDO = Pacific Decadal Oscillation) und der Interdecadal Pacific Oscillation (IPO).

Dabei handelt es sich um Perioden von 10 oder mehr Jahren, in denen großflächig über dem Pazifik Areale mit positiven Wassertemperaturanomalien auftreten bei gleichzeitiger Häufung von starken ENSO-Warm-Phasen, denen entsprechende Zeitabschnitte mit Arealen großflächiger negativer Anomalien folgen, begleitet von nur schwach ausgeprägten ENSO-Warmphasen. Gerade sei eine solche Periode mit einer negativen Anomalie zu Ende gegangen. Deshalb werde sich nunmehr auch der bisher von der Atmosphäre zum Ozean gerichtete Wärmefluss umkehren, weshalb künftig wieder von einer verstärkt einsetzenden globalen Erwärmung auszugehen sei. Eine Erklärung für den Antrieb dieser Modulationen sei jedoch noch nicht gefunden worden.

Es bleibt abzuwarten, ob sich diese Erkenntnisse verifizieren lassen.

Jedenfalls weisen auch sie darauf hin, dass der Klimawandel nicht anthropogen bedingt sein kann und die Bemühungen der Weltgemeinschaft um einen “Klimaschutz“ der Lächerlichkeit preisgegeben sind.

Gegenwärtig hat es den Anschein, dass es in Politik und Gesellschaft weniger um das Klima geht, sondern vielmehr um die Verminderung des Kohlendioxydeintrags in die Atmosphäre. Dabei erhebt sich die Frage, wie diese Denkweise überwunden werden kann, also wer für den Transport der aktuellsten wissenschaftlichen Erkenntnisse in die Politik und in die Gesellschaft in Frage kommen kann. Dies könnten die 4 nachstehenden Player sein :

a) Einzelkämpfer    b) Verbände    c) Parteien   d) Lobbies

Wahrscheinlich läuft alles letzten Endes auf d) hinaus. Eine andere Frage ist dabei noch, ob Politik und Gesellschaft überhaupt willens – oder besser gesagt – fähig sind, sich diese Erkenntnisse anzueignen.

Nicht zuletzt einer verfehlten Bildungspolitik, bei der die heran wachsende Generation mit einer Vielzahl von Sachverhalten konfrontiert wird, die bereits im kindlichen und jugendlichen Alter zu Streß-Situationen führt, ist es zu verdanken, dass die Auseinandersetzung mit dem Stoff weitgehend auf der Strecke bleibt. Damit wird die Gesellschaft zur Manipulations-Masse erzogen. Die wenigen einsamen Rufer in der Wüste haben dann nur geringe Chancen, die Gesellschaft aus ihrer Lethargie und der damit einher gehenden Daten-Blindheit zu erlösen.

—————————————————————————————————————

)* Dr. Horst Walter Christ ist Vorsitzender des Verbandes Deutscher Meteorologen (VDM); Der vorstehende Aufsatz ist erschienen in den MITTEILUNGEN des VDM, Heft 197 (68. Jg.), 21.März 2015, S. 3-10 ;

Wir danken Dr. Christ und dem VDM für die Genehmigung des ungekürzten Nachdruckes;

EIKE-Redaktion.

===================================================