Deutsche Journalisten verstellen sich! Isländischer Genforscher berichtet über seine Erfahrungen
geschrieben von H.m. Broder | 24. Oktober 2011
Neugierig sein, heißt auch hartnäckig sein. Beispielsweise um ein Interview mit dem isländischen Genforscher Kári Stefánsson zu bekommen. Denn der hat von deutschen Journalisten die Nase gestrichen voll. Mit gutem Grund. Das Interview hier für Achgut-Leser als kleiner Appetitmacher auf das Neugier.de Island-Heft, das Sie hier bestellen können. Darin gibts noch viel mehr für Freunde unkonventionellen Denkens. Ein weiteres streitbares Interview mit dem isländischen Walfänger Kristiján Loftsson und eine Fotoreportage vom (live erlebten) Ausbruch des Vulkans Grimsvötn. Schriftsteller Bernhard Lassahn begab sich mit Käptn Blaubär auf eine Island-Kreuzfahrt und der Architekt Einar þorsteinn Ásgeirsson erklärt das Gehemnis seiner Kugelhäuser.
Und hier das Interview von Henryk Broder mit Kári Stefánsson über seine Erfahrungen mit deutschen Journalisten, die Genforschung und den Lieben Gott.
Pieces of Shit
Neugier.de : Kári, Sie können deutsche Journalisten nicht ausstehen. Trotzdem sprechen Sie mit uns, was wir wirklich zu schätzen wissen. Warum ist Ihnen unsere Truppe so unsympathisch?
Kári Stefánsson: Das liegt einfach daran, dass sie offensichtlich andere Anstandsregelnhaben als die Journalisten im Rest der Welt. Deutsche Journalisten verstellen sich. Sie haben keine Skrupel zu täuschen und zu verschleiern, auf was sie in Wahrheit hinauswollen. Das widerspricht völlig den ethischen Grundsätzen des professionellen Journalismus. Wenn Sie mit einem angelsächsischen oder einem skandinavischen Journalisten sprechen, wird er Ihnen immer klar sagen, was er wissen will, worauf er hinaus will, was der Fokus seiner Geschichte ist. Deutsche Journalisten sind leider in kultureller Hinsicht ignorant. Ihre Geschichten sind immer sehr germano-zentrisch und sie machen ihre deutsche Weltsicht zum alleinigen Maßstab für die Beurteilung von Sachverhalten. Ich erinnere mich an einen Artikel, den einer Ihrer deutschen Journalisten-Kollegen über Island geschrieben hat. Er trug den Titel „Peepshow im Land der Wikinger“. Doch wo war die Peepshow? Die Leidenschaft der Isländer in Sachen Genealogie wurde kurzerhand zur Peepshow gemacht. Island führt einen Stammbaum der ganzen Nation – und dies wurde als Peepshow abqualifiziert. Aus der Tatsache, dass unsere Nation es in Ordnung findet, zu wissen, wer mit wem verwandt ist, wurde eine exhibitionistische Zurschaustellung gemacht. In meiner Erfahrung mit deutschen Journalisten gab es leider keine einzige Ausnahme. Ich habe mit Journalisten aller großen deutschen Tageszeitungen und fast aller Fernsehsender gesprochen. Und wirklich jeder einzelne von ihnen verhielt sich gleich.
Sie wissen wenig und wissen dabei alles besser?
Ich will mir kein Urteil über das Fachwissen deutscher Journalisten erlauben. Ich möchte nur sagen, dass sie alle ohne Ausnahme Arschlöcher („Pieces of shit“) sind. Vielleicht sind sie sehr gebildete Arschlöcher, aber das ist mir gleich.
Und Ihnen ist noch nie jemand begegnet …
Ich habe noch keinen anständigen deutschen Journalisten kennengelernt! Das ist wirklich seltsam …
Könnte das etwas mit dem deutschen Nationalcharakter zu tun haben?
Es ist eigenartig. Wenn Sie die deutsche Kultur betrachten – wir haben ihr so viel zu verdanken. Wir haben ihr unsere Weltanschauung zu verdanken. Wenn wir die erste Hälfte des vergangenen Jahrhunderts betrachten – da gab es diese ungeheuere Kreativität in den Wissenschaften. Im Grunde haben die Deutschen unser heutiges Weltbild erschaffen. Ihnen haben wir einen großen Teil der musikalischen Werke zu verdanken und einiges an guter Literatur. Deutschland hat viel Gutes hervorgebracht. Natürlich gab es auch einige weniger glückliche, von Arroganz und Selbstgerechtigkeit geprägte Beiträge zu unserer Kultur, einige Weltkriege zum Beispiel. Heute gibt es viel Positives in Deutschland. Die Kunstszene in Berlin. Berlin ist die Kunsthauptstadt der Welt geworden und hat damit New York und London abgelöst. Ihr seid also nicht ohne Vorzüge. Obwohl mir die Welt ohne Euch besser gefallen würde.
Na toll. Gibt es noch was Gutes über die Deutschen zu sagen?
Die Deutschen haben sehr viel isländische Literatur übersetzt. Sie sind sehr angetan von unserer Literatur. Und in Deutschland gibt es ebenso viele Islandponys wie in Island. Vielleicht sogar mehr. Wenn man sich eine Nation wie die Deutschen ansieht – eine sehr gebildete Nation relativ kluger Menschen –, so lebt sie immer noch im Schatten des zweiten Weltkrieges. Deshalb ist jeder so bemüht, sich politisch korrekt zu verhalten. Sie möchten der Welt zeigen, dass sie eigentlich nicht das Volk waren, das die Juden ausrotten wollte, dass sie eigentlich nicht das Volk waren, das in Polen einmarschiert ist, dass sie eigentlich nicht das Volk waren, das so gewaltsam vorging. Deswegen wirkt das Verhalten der Deutschen in vielerlei Hinsicht so unnatürlich. Sie sind katholischer als der Papst und ziemlich verklemmt. Adolf hat sie immer noch fest im Griff. Es ist interessant zu sehen, wie die schönen Künste es auf verschiedene Art und Weise schaffen können, die Menschen aus dieser Misere zu befreien.
Hat diese Einstellung auch einen Einfluss auf die Wissenschaft in Deutschland?
Eigentlich hat die Wissenschaft in Deutschland ihre Krise überwunden. Lange Zeit konnte gerade in meiner Disziplin, der Genetik, nicht gearbeitet werden, weil Genetik ein Schimpfwort war. Jahrelang haben die Deutschen Ethikkonferenzen abgehalten, die einzig und allein dazu dienten, mich einzuladen und dann mit faulen Eiern zu bewerfen. Aber jetzt sind sie bereit und beginnen, im Bereich Humangenetik zu forschen. Trotzdem belastet sie dieses Thema immer noch. Und das ist eigentlich merkwürdig, weil Humangenetik im Prinzip eine rein deskriptive Disziplin ist. Man verändert nichts, man beschreibt nur, wie der Mensch aufgebaut ist – basierend auf den Informationen, die im Genom enthalten sind. Trotzdem furchten sich die Deutschen immer noch ein wenig vor diesem Thema. Es gibt fünf, sechs verschiedene Forschergruppen in Deutschland, die vernünftige Arbeit leisten.
Manche nennen Sie den Einstein des 21. Jahrhunderts. Andere behaupten, Sie wären kein Einstein, sondern Frankenstein. Wie sehen Sie sich selbst?
Das meiste davon hat nichts mit mir zu tun. Es hat mit den Kontroversen um das Thema Genetik zu tun. Während man vor 14, 15 Jahren darüber stritt, ob man Populationsgenetik betreiben soll, haben wir einfach begonnen, auf diesem Gebiet zu forschen. Ich habe vorgeschlagen, Populationsgenetik in einer Großstudie zu erforschen. Das hat vorher außer uns noch keiner getan und seitdem auch nicht.
Ist niemand in Ihre Fußstapfen getreten?
Jetzt versuchen es viele – auf der ganzen Welt versuchen sie zu reproduzieren, was wir hier geleistet haben. Aber als ich das Projekt vorschlug, hielten es die Leute für eine Zukunftsvision von George Orwell. Man befürchtete, dass Menschen ausgebeutet würden, dass Menschen damit geschadet werden könnte, dass wir die Privatsphäre von Menschen ausspionieren und sie ausnutzen würden. Nichts davon hat sich in den letzten 15 Jahren bewahrheitet. Im Gegenteil, die Hälfte aller wichtigen Erkenntnisse in der Humangenetik stammt aus dieser Zeit und unser Beitrag ist wahrscheinlich so groß wie der des Rests der Welt zusammengenommen. Deshalb fangen die Leute an, unsere Arbeit jetzt als eine sehr produktive Sache zu betrachten, die relativ harmlos ist.
Wie viele Menschen haben an der Studie teilgenommen?
Ungefähr 130.000 Menschen – ein Grossteil der isländischen Erwachsenen. 95 Prozent der Personen, die wir zur Teilnahme eingeladen hatten. Wir haben ausreichend Material für unsere Untersuchungen gewonnen. Wir sammeln keine Moleküle, sondern Informationen über das menschliche Leben. Wir betreiben solide Forschung. Wir sind einfach Wissenschaftler. Und eines dürfen Sie nicht vergessen: Wissenschaft floriert eher im Chaos und nicht durch rationale Überlegungen. Sie hängt eher von Intuition als von logischer Analyse ab.
Haben Sie herausgefunden, warum es uns gibt?
Nein. Ich bin weit davon entfernt, das zu begreifen. Es bereitet mir schweres Kopfzerbrechen, herauszufinden, warum wir existieren. Ich könnte Ihnen viele Gründe nennen, warum es uns nicht geben sollte … Bedenken Sie einmal: Was Ihnen die Fähigkeit zu denken verleiht, sind heute, 65 Jahre nach Ihrer Geburt, die Informationen, die zusammengefügt wurden, als die Eizelle Ihrer Mutter mit Hilfe Ihres Vaters befruchtet wurde und dieses neue Genom, diese neue Konstellation
von Chromosomen entstand. Das ist der Grund, warum Sie sind, wer Sie sind. Was könnte also wichtiger sein, als herauszufinden, wie diese Informationen uns zu dem machen, was wir sind.
Welchen Einfluss hat die Erziehung, die Umwelt …
Die Art und Weise, wie Sie auf Ihre Umwelt reagieren, wird von Ihren Genen gesteuert. Natürlich hat die Umwelt einen Einfluss auf Sie. Aber wie Umfeld A sich auf Mensch B auswirkt – im Gegensatz zu der Wirkung von Umfeld C auf Mensch D –, liegt am Unterschied in den Genomen. Man kann nicht vor sich selbst fliehen. Die Tatsache, dass Ihr Leben nicht vorhersehbar ist, bedeutet aber nicht, dass es Willensfreiheit gibt.
Das bedeutet?
Wenn Sie das genetische Profil eines Menschen im Kindesalter analysieren, können Sie im Prinzip auf dieser Basis ein personalisiertes Gesundheitsvorsorge- Programm erstellen, das darauf abzielt, zu verhindern, dass eine wahrscheinliche Krankheit tatsächlich ausbricht.
Sie arbeiten mit …
Wir arbeiten mit ungefähr 150 Universitäten weltweit, wir haben Mitarbeiter in jeder Großstadt in Europa, wir haben eine bedeutende Anzahl von Kooperationen in Deutschland, für die Erforschung von allen möglichen Krankheiten, unsere Forschungspartner sind die Universitäten.
Wie sieht es mit Designer-Babys aus?
Das ist ein extrem kompliziertes Thema, weil es hier um Selektion geht. Es geht um die Frage, ob es richtig ist, eine Meinung darüber zu haben, wie Menschen zu sein oder nicht zu sein haben. Wir sind sehr zielstrebig darin, wie wir die Umwelt nutzen wollen, damit sie einen Einfluss auf die Entwicklung von Menschen hat. Deshalb können wir nicht behaupten, dass wir keine Meinung dazu haben, wie unsere Kinder werden sollen. Aber der Gedanke, Erkenntnisse aus der Genforschung zur Verbesserung von Menschen einzusetzen, beunruhigt uns. Der Begriff der Eugenik wurde von Galton geprägt, der ein Schüler Darwins war. Dann kam Herr Adolf daher und veränderte die Art und Weise, wie man diesen Begriff betrachtete. Ich finde die „Zucht“ von Menschen geschmacklos. Und ich denke, dass es gewisse biologische Gründe dafür gibt, keine an die heutige Welt hervorragend angepasste Herrenrasse zu züchten – weil sich die Welt verändert. Einmal angenommen wir würden den perfekten Menschen definieren …
… einen Allzweckmenschen, in Einheitsgrösse …
Ja, das gab es schon. Es ist klar, dass man den perfekten Menschen über die Umwelt, wie sie heute ist, definieren würde. Ein Mensch, der in der heutigen Umwelt funktionieren und überleben könnte. Und dann würde es so einen Vulkanausbruch geben, der alles verändert. Wenn alle Menschen gleich wären, dann wären wir schlecht auf die nächste Katastrophe vorbereitet. Weil man Katastrophen nicht vorhersagen kann. Der beste Weg, uns Menschen, unsere Spezies, auf das Überleben der nächsten Katastrophe vorzubereiten, ist, uns auf dem gesamten Globus zu verteilen. Uns so vielen verschiedenen Umweltbedingungen wie möglich auszusetzen. Wenn man an das Überleben der Gattung Mensch denkt, sollte man davon absehen, den perfekten Menschen definieren zu wollen. Und wir sollten alle Versuche vermeiden, den perfekten Menschen zu erschaffen und aus allen Menschen dieses perfekte Wesen machen zu wollen. Um die Wahrscheinlichkeit zu erhöhen, die nächste Katastrophe zu überleben, sollten wir so viel Vielfalt wie möglich schaffen. Der perfekte Mensch würde eine unglaublich langweilige Welt hervorbringen. Stellen Sie sich einmal vor, alle Menschen wären so wie Sie, das wäre die Hölle! Aber wir sollten alle uns zur Verfügung stehenden Mittel nutzen, um die Wahrscheinlichkeit zu erhöhen, ein langes Leben in Gesundheit zu führen.
Glauben Sie an Gott?
An Gott zu glauben, ist keine Lösung für mich. Wenn ich durch den Glauben an Gott eine Antwort auf die Frage nach dem Ursprung hätte – das wäre natürlich sehr praktisch. Selbst wenn ich einer der Glücklichen wäre, die an Gott glauben, die glauben, dass Gott das Universum erschaffen hat, dann würde es mir trotzdem nicht bei der Beantwortung der Frage helfen, wer Gott erschaffen hat. Woher wir kommen und wohin wir gehen, das sind sehr schwierige Fragen, auf die es keine Antworten gibt. Die Frage, wie alles anfing, ist ein erkenntnistheoretischer Albtraum.
Wir können uns das Nichts nicht vorstellen. Wir können uns nicht vorstellen, wie aus Nichts etwas werden konnte. Deshalb ziehe ich es vor, im Rahmen meiner Arbeit das Leben zu erforschen, nachdem es entstanden ist und nicht zu untersuchen, was geschehen ist, bevor Leben entstand oder, wenn Sie an Gott glauben, bevor das Leben erschaffen wurde.
Warum sind Sie nach Island zurückgekehrt, nachdem Sie lange Zeit in den USA gearbeitet und geforscht haben?
Meine Familie lebt seit 1.100 Jahren hier. Und meine Familie ist einigermaßen gut
an diesen Ort angepasst. Das bedeutet nicht unbedingt, dass ich diesen Ort liebe.
Ich gehöre einfach hierher. Ich könnte Ihnen lang und breit erklären, was mir an
Island alles missfällt. Dies ist eine popelige, kleine Nation.
Auch nicht popeliger als größere Nationen.
Durch die Nähe zueinander kann man sich schlecht verstecken. Und es ist sehr
schwer, über gewisse Dinge hinwegzusehen, wenn man so dicht beieinander lebt.
Auszug aus der Zeitschrift “Neugier.de” (http://www.neugier.de), ein Projekt des Autoren-Blogs “Die Achse des Guten” (http://www.achgut.com ) unter anderen mit Henryk M. Broder, Dirk Maxeiner und Michael Miersch. Neugier.de wurde soeben mit dem renommierten internationalen red dot-Designpreis als “best of the best” ausgezeichnet. Die jüngste Ausgabe „Made in Iceland“ wurde auf dem Island-Pavillon der Frankfurter Buchmesse präsentiert.
Mit freundlicher Genehmigung. Der Beitrag erschien zuerst auf ACHGUT
Nachtrag – aus eigener Erfahrung:
Nach einem Telefoninterview mit einer gewissen Frau Jeanne Rubner von der Süddeutschen Zeitung erschien von ihr der Artikel
Überflüssig darauf einzugehen, was in dieser journalistischen Jauche meinen tatsächlichen Antworten am Telefon entsprach. Die nicht stubenreine Bezeichnung von Kári Stefánsson "piece of …" wird von mir zwar in Erinnerung an eine gute Kinderstube nicht gebilligt, ist aber verständlich. Eine ähnliche Erfahrung machte ich mit dem ZEIT-Journalisten Reuter, der nach vielen sehr freundlichen und höflichen Kontakten den gehässigen Artikel
verfasste. Dieser Beitrag hatte wenigstens einen hübschen Stil und war kein plump-dummes Machwerk. Darum sei ihm vergeben, einem guten Stil lasse ich fast alles durchgehen. Man macht schon so seine lehrreichen menschlichen Erfahrungen als Anfangsopfer von Schreiberlingen – allerdings nicht lange.
Prof. Dr. Horst-Joachim Lüdecke
EIKE-Pressesprecher
Das menschliche Geschlechterverhältnis nach den Atombombentests in der Atmosphäre, nach Tschernobyl und in der Umgebung von Kernkraftwerken: ein Kommentar
geschrieben von Walter Krämer | 24. Oktober 2011
Einführung und Zusammenfassung
Dieser Kommentar bezieht sich auf ein vor Kurzem veröffentlichtes Papier von Scherb und Voigt (2011), und die darin aufgestellten Behauptungen stellen eine Kausalrelation her zwischen ionisierender Strahlung und sekundärem Geschlechterverhältnis her. Während es statistische Hinterzimmergewerbler gibt, hauptsächlich in Deutschland, welche Dutzende Blätter Papier zu diesem Thema hinauswerfen, ist keine dieser Behauptungen haltbar, wenn man sie ohne Vorurteile und sorgfältige Statistiken überprüft. Zunächst einmal, die heran gezogenen Beispiele – Nähe zu Kernkraftwerken, Zeitzeugen nuklearer Atomversuche [in der Atmosphäre] und die Tschernobyl-Katastrophe – sind ziemlich ungenaue Messorte der menschlichen Exposition zu ionisierender Strahlung. Im Besonderen ist die menschlich erzeugte Strahlung in den meisten Regionen der Erde winzig im Vergleich zu natürlichen Quellen wie kosmische Strahlen, Gammastrahlung aus der Erde, Zerfallsprodukte von Radon in der Luft und verschiedene Radionukleide, die man im Essen und Trinken findet. (Wissenschaftliches Komitee zu den Auswirkungen atomarer Strahlung der UN – UNSCEAR 2000: „Für die meisten Individuen ist diese natürliche Strahlungsbelastung größer als alle menschlichen Quellen zusammen“; S. 84).
Und selbst wenn man anthropogen erzeugte Strahlung als den Übeltäter sieht, medizinische Röntgenstrahlen sind sicher stärker als der nukleare Fallout von Atombombentests oder Strahlung aus Kernkraftwerken bei normalem Betrieb. Wenn also jemand ernsthaft daran interessiert sein sollte, einen kausalen Zusammenhang zwischen dieser Exposition und den Geschlechtseigenheiten bei der Geburt zu finden, sollte man vielleicht ermitteln, wie oft sich die Eltern vor der Empfängnis einer Röntgenuntersuchung unterzogen haben oder berufsbedingt stärkerer Strahlung ausgesetzt sind: Es ist wohlbekannt, dass Verkehrspiloten einer fortgesetzten höheren Strahlungsbelastung ausgesetzt sind, und es wäre sicher von Interesse zu ermitteln, ob diese Belastung Auswirkungen auf das Geschlecht ihrer Kinder hat.
Dann gibt es eine eindrucksvolle Liste von Faktoren, von welchen tatsächlich Auswirkungen auf Geschlechtseigenheiten bei der Geburt bekannt sind (siehe z. B. Jacobsen et al. 1999 oder Mathews and Hamilton 2005, sowie viele andere): Volkszugehörigkeit und das Einkommen der Eltern, die Reihenfolge bei der Geburt, das Alter der Mutter, Altersunterschiede der Eltern, Essgewohnheiten der Eltern, Körpertemperatur zur Zeit der Empfängnis und so weiter. All diese Dinge nicht zu betrachten macht eine solche Statistik von vornherein ungültig. Zum Beispiel, gab es je schon mal für die hier betrachteten Daten eine Untersuchung darüber, ob das mittlere Alter der Mütter konstant mit Zeit und Gebiet war?
Das Scheitern, diese beitragenden Faktoren zu berücksichtigen wird erweitert durch verschiedene, den Statistiken innewohnende Abkürzungen und Inkonsistenzen in der Literatur, die vor einigen Jahren dazu übergegangen ist, wie es der schottische Poet Andrew Lang ausdrückte – Statistiken zu benutzen wie ein Betrunkener Laternenpfähle – zur Unterstützung und nicht zur Erhellung. In einer kürzlichen Studie (Krämer und Arminger 2011) habe ich gezeigt, dass die populäre Behauptung, in der Nähe von Kernkraftwerken sei die Leukämie bei Kindern deutlich vermehrt, andere wichtige beitragende Faktoren vollständig ausgeblendet. Tatsächlich und ceteris paribus scheint es so zu sein, dass in einigen Ländern die Leukämiefälle bei Kindern in der Nähe von Kernkraftwerken geringer sind als im übrigen Land. Und dieser Kommentar argumentiert, dass die Behauptung von Scherb und Voigt (2011) über nachteilige Auswirkungen von anthropogen erzeugter Strahlung nicht von den Daten gestützt wird, wenn man erst einige Verzerrungen bei der Datenmodellierung entfernt.
Zunächst haben Scherb und Voigt (2011) die Ergebnisse von Signifikanztests falsch interpretiert. Ein Signifikanztest bedeutet: Falls die Null-Hypothese stimmen würde – ein großes ‚falls’ – würde die Wahrscheinlichkeit des beobachteten Ereignisses geringer sein als ein vorab gewähltes Signifikanzlevel. Und diese ziemlich gemäßigte Behauptung wird sogar durch die extreme Abhängigkeit von der Größe und der Herstellung des Datensatzes sowie durch die verbreitete Praxis, die Ergebnisse multipler Tests zu verschleiern, noch weiter abgeschwächt. Das heißt, es werden eine Menge Tests durchgeführt, aber berichtet wird nur von den „signifikantesten“ Ergebnissen und der Untertreibung der Fehlerwahrscheinlichkeit der ersten Art. Dies wird in Abschnitt 2 unten weiter ausgeführt. Siehe auch Ziliak und McCloskey (2008) oder Krämer (2011).
Noch wichtiger ist, was ich anderswo (Krämer 2011) einen Fehler der dritten Art genannt habe. Damit meine ich, dass eine nicht bestätigte Null als Beweis missbraucht wird, dass das Gegenteil richtig ist. „Der Fallout durch die atmosphärischen Atombombentests beeinflusst die menschlichen Geschlechtseigenheiten bei der Geburt überall, und der Fallout aus Tschernobyl hatte einen vergleichbaren Einfluss in Europa und Teilen von Asien“ (S. 698). Eine derartige Behauptung kann niemals einfach auf einem statistischen Signifikanztest aufbauen!
Mein Hauptpunkt ist jedoch einer, der nicht einmal in der statistischen Signifikanz enthalten ist. Im Einzelnen sind die eindrucksvollen p-Werte bei Scherb und Voigt (2011) alle falsch. Man nehme den „signifikanten“ Abwärtstrend des Geschlechterverhältnisses in den USA vor dem vertraglichen Verbot solcher Tests im Jahr 1963. Anders als Scherb und Voigt behaupten, ist dieser Trend nicht „uniform“, und die Neigung des Graphen der Schätzzahlen basiert nicht auf Millionen von Datenpunkten, sondern auf genau 13. Und warum sollte man den Datensatz auf die Jahre 1950 bis 1963 dagegen abgrenzen? Atmosphärische Kernwaffentests gingen noch bis 1974 (Frankreich) und 1980 (China). Nimmt man alternative Unterperioden zur Hand, kann sogar ein positiver Trend gewonnen werden, wie ich in Abschnitt 2 zeige.
Der zweite von Scherb und Voigt analysierte Datensatz überdeckt 39 europäische Länder von 1975 bis 2007. Und wieder, wenn man eine Null-Hypothese wählt, die jeder gleich zurückweisen würde, können viele statistische „Effekte“ mit hoher Signifikanz gezeigt werden. Nimmt man Tabelle 1 bei Scherb und Voigt (2011, S. 702) als Startpunkt, gibt es zum Beispiel einen stark positiven Effekt, wenn man an den Küsten des Mittelmeeres lebt, unabhängig von jeder Exposition ionisierter Strahlung: Das mittlere Geschlechterverhältnis liegt hier bei 1,070, was hoch signifikant größer ist als anderswo (<0,01). Andererseits ergibt die Regression des Geschlechterverhältnisses im Vergleich zur Anzahl der Buchstaben im Namen des Landes ein negativer Effekt, und so weiter. Tatsächlich scheint es überhaupt keine natürliche Grenze hinsichtlich der Anzahl von Effekten zu geben, die mit ausreichenden Bemühungen und unter Verwendung des gleichen Datensatzes ans Licht gebracht werden können.
…
Schlussfolgerung
Der statistische Beweis bei Scherb und Voigt (2011), um ihre Behauptung zu stützen, das anthropogen erzeugte ionisierte Strahlung das Geschlechterverhältnis bei der Geburt beeinflusst, ist nicht überzeugend. Vielmehr scheint es so zu sein, dass Standards der statistischen Nachweise verzerrt worden sind, um die Daten zur vorher geäußerten Hypothese passend zu machen.
Die gesamte Arbeit kann hier heruntergeladen werden.
Ebenso ein Beitrag desselben Autors über "Piercing ist riskanter als Kernkraft" aus dem FOCUS
Prof. Walter Krämer; Department of Statistics, TU Dortmund D-44221 Dortmund
Übersetzt von Chris Frey für EIKE.
Bemerkung des Übersetzers: bei dieser Übersetzung handelt es sich um eine Rückübersetzung eines vordem deutschen Textes, dessen Original jedoch nicht mehr aufzufinden war. Ich bin ziemlich sicher, dass der Autor mit einem Internet-Übersetzer gearbeitet hat.
Grundsätzlich gilt aber für diesen Text und für alle anderen, für EIKE übersetzten Texte von mir, dass ich prinzipiell niemals einen solchen Übersetzer verwende, sondern allenfalls ab und zu nach bestimmten Vokabeln suche.
Brandneu: Offenbar hat das IPCC eine Nebelkerze gezündet, um Beratungen des IPCC vor dem FOIA zu verstecken
geschrieben von Chris Horner | 24. Oktober 2011
UPDATE:
Die Anfrage von FOI wurde veröffentlicht, von der unten ein Link gepostet ist.
CEI bekam Kenntnis von einem UN-Plan, der kürzlich eingeführt worden ist, um die offizielle Korrespondenz mit Nicht-Regierungsorganisationen zu verstecken. Ein regierungsamtlicher Generalinspekteur hat bereits bestätigt, dass diese Korrespondenz Gegenstand einer Anfrage des FOIA ist. Dieser ‚Nebel’ soll als Sargnagel dienen, um keine Gründe für Diskussionen unter Mitarbeitern der US-Regierung zu liefern, und zwar hinsichtlich des nächsten Berichts vom skandalgebeutelten IPCC, welcher mit Millionen von US-Steuergeldern gefördert wird.
[*Abkürzungen: CEI = Competitive Enterprise Institute, ein Blog, der sich den freien Wettbewerb auf die Fahnen geschrieben hat. FOIA: Freedom Of Information Act, ein Gesetz, das offizielle Institutionen zur Freigabe von Informationen verpflichtet.]
Text:
Nicht nur, dass dieses Vorgehen zu jeder Zeit schäbig und ungesetzlich ist, sondern auch, dass das Timing denkbar schlecht gewesen ist. Oder auch gutes Timing, je nachdem, von welcher Seite man es betrachtet.
Gerade als in einem brandneuen Buch [die Machenschaften des] IPCC weiter offen gelegt wurden (was ich hier und mit noch mehr verstörenden Details hier analysiert habe), und auf den Spuren der Wochenend-Überraschung eines Memo aus dem Jahr 2005, in dem Präsident Obamas Erwärmungs-/Abkühlungseiferer und ‚Wissenschaftszar’ John Holdren die Art von Menschen ist, an die sich Mitt Romney wendet, um seine ‚Umwelt’-Politik zu entwickeln, haben wir offen gelegt, dass die Obama-Administration und das IPCC kooperiert haben, um die US-Gesetze zur Transparenz zu unterlaufen, was intern aus Holdrens Büro im Weißen Haus nach außen gedrungen war.
Mit der Anforderung des FOIA muss die erforderliche Erklärung damit beginnen, dem Steuerzahler gewisse Aufzeichnungen zugänglich zu machen – einschließlich, aber nicht beschränkt auf, Username und Passwort – um den Nebel zu lichten, der die Beratungen des IPCC vor dem FOIA verschleiern soll.
Sie erinnern sich, das IPCC hat 2007 zusammen mit Al Gore den Friedensnobelpreis erhalten. Und der Gegenstand zahlreicher Skandale einschließlich frisierter und verdrehter Daten; von Thesen, die einfach von irgendwelchen Sudenten und aus Presseveröffentlichungen grüner Gruppen übernommen worden waren; und natürlich des infamen „hide the decline“ bei der Temperatur. Allerdings ist dies hier nicht einfach nur ein weiterer Skandal.
Hier folgen Auszüge aus der Anforderung des FOI:
CEI bekam Kenntnis von einem UN-Plan, der kürzlich eingeführt worden ist, um die offizielle Korrespondenz mit Nicht-Regierungsorganisationen zu verstecken. Ein regierungsamtlicher Generalinspekteur hat bereits bestätigt, dass diese Korrespondenz Gegenstand einer Anfrage des FOIA ist. Dieser ‚Nebel’ soll als Sargnagel dienen, um keine Gründe für Diskussionen unter Mitarbeitern der US-Regierung zu liefern, und zwar hinsichtlich des nächsten Berichts vom skandalgebeutelten IPCC, welcher mit Millionen von US-Steuergeldern gefördert wird.
Wie unsere Anforderung im Rahmen des FOIA auflistet, haben die UN Teilnehmer darüber informiert, dass dies durch die Bekanntmachung früherer empörender Diskussionen (unter denen „Klimagate“ eine Schlüsselposition eingenommen hatte) ausgelöst worden ist, und um das Problem zu umgehen, dass nationale Gesetze zur Transparenz Druck auf die Gruppe ausüben.
Das CEI erinnert das OSTP [Office of Science and Technology Policy, ein amerikanisches Regierungsbüro, Quelle: hier A. d. Übers.] daran, dass diese Praxis beschrieben wurde als „Nicht-Regierungs-Positionen für offizielle Zwecke“, „Nutzung von regierungsfremden Haushaltsmitteln, um eine Aufzeichnung der Gespräche zu verhindern“, und zwar in einer kürzlichen analogen Situation um den Lobbyisten Jack Abramoff. Das CEI erwartet einen ähnlichen Aufschrei im Kongress und in den Medien zu dieser ähnlichen Praxis zur Umgehung der anzuwendenden Gesetze zur Aufzeichnung.
Diese Bemühungen wurden offenbar mit Teilnahme – und damit direkter Assistenz und Ermöglichung – durch das Weiße Haus Obamas vorgenommen, der kurz nach seinem Amtsantritt die führende Rolle für Holdren für die Arbeit des IPCC aus dem Wirtschaftsministerium beanspruchte. Danach wurde der Plan, im Geheimen eine FOIA-freie Zone zu bilden implementiert.
Dies bedeutet, dass die Politik dem IPCC dabei hilft, es den Bürokraten von UN, EU und USA sowie deren Erfüllungsgehilfen zu ermöglichen, offizielle Kanäle für spezifische Informationen trotz des hohen öffentlichen Interesses zu meiden, auch wenn diese Informationen zu Bürozeiten und mit Hilfe regierungsamtlicher Computer ausgetauscht werden – also weg von den Argusaugen zunehmend skeptischer werdender Steuerzahler.
Das CEI erinnert das OSTP auch an eine ähnliche und immer noch stattfindende Bemühung zu behaupten, dass Aufzeichnungen auf Computern der US-Regierung dem IPCC gehören und daher nicht in der Zuständigkeit des FOIA liegen. Diese Praxis wurde früher in diesem Jahr in einem Bericht des Generalinspektors im Wirtschaftsministerium (hier) bestätigt.
Wenn im nächsten Monat die Gespräche zum Schmieden eines Nachfolgers des gescheiterten Kyoto-Protokolls wieder aufgenommen werden, erwartet das CEI, dass das OSTP diese ungesetzlichen Aktivitäten zurücknimmt und den sofortigen Zugang zu den verlangten Aufzeichnungen ermöglicht, so dass der Steuerzahler erfährt, was sie und das IPCC vorhaben.
Also haben wir heute Vormittag alle relevanten Aufzeichnungen unter dem FOIA angefordert, die sich auf jenem Server befinden, so wie sie den Beschäftigten der US-Regierung für offizielle Zwecke zugänglich gemacht worden waren. Sie wurden auf OSTP-Kanälen von dem umstrittenen ‚Wissenschaftszaren’ und, wie wir jetzt wissen, früheren ‚Klima’-Berater von Mitt Romney John Holdren versandt. Der Steuerzahler hat ein Anrecht darauf zu erfahren, wie diese koordinierten Bemühungen zwischen OSTP und IPCC zu den US-Gesetzen passen.
Möglicherweise wird ein republikanischer [Präsidentschafts-]Kandidat als nächstes ein Ende der US-Zuwendungen an das IPCC fordern, von dem jetzt bekannt ist, dass es (zusammen mit dem Weißen Haus Obamas) die US-Gesetze umgehen will. Genug ist genug ist genug! Vielleicht könnte Gov. Romney Holdren und das IPCC verteidigen.
Inzwischen schauen wir auf den Republikaner Henry Waxman und seine Empörung über Abramoff, um zu beweisen, dass die Forderung nach Erhaltung der Aufzeichnungen, die drohenden Vorladungen, überhaupt die ganzen Machenschaften auch nicht politischer Natur waren. Er ging hart ins Gericht mit dieser Praxis (hier). Mit unserer Forderung haben wir genau das auch getan, und wir begrüßen die Unterstützung. Du auch, NPR [NPR = eine amerikanische Medienorganisation. Auch das Anklicken des Links gab keinen Aufschluss, für was die Abkürzung steht. A. d. Übers.]
Natürlich könnten die Medien daran kein Interesse haben, weil lediglich ungesetzliche Händel enthüllt werden, um Bemühungen zu verschleiern, die unsere gesamte Wirtschaft beeinflussen, und die Voraussetzung für jene „fundamentale Transformation“ von Amerika sind, mit den UN als dem schändlichen Organ zur Ausführung dieser Lobbyarbeiten. Wir warten auf die Antwort des OSTP und erhoffen das Beste vom [Capitol] Hill und den republikanischen Kandidaten.
Update: In eigener Sache: Fragen & Antworten zur Problematik globaler Lufttemperaturmessungen.
geschrieben von Michael Limburg | 24. Oktober 2011
Update 22.10.11
Aus der soeben veröffentlichten BEST Studie (Berkeley Earth Surface Temperature) erläutert ihr Inititator der Physiker Richard Muller soeben im Wall Street Journal:
Auszüge:
Die Qualität der Temperatur-Mess-Stationen ist weitgehend schrecklich. Die wichtigsten Stationen in den USA sind in der Energie-Ministeriums GHCN (Global Historical Climate Network) aufgenommen. Eine sorgfältige Untersuchung dieser Stationen durch ein Team von Meteorologen Anthony Watts geführt hat gezeigt, dass 70% dieser Stationen eine derart schlechten Standort habe, nach Standards wie sie die US-Regierung selbst aufstellte um zu messen, dass sie zu Unsicherheiten bei der Temperatur Messung zwischen zwei und fünf Grad Celsius oder mehr führen müssen. Wir wissen nicht, um wie viel schlimmer die Stationen in der Dritten Welt sind…..Anhand der Daten aus all diesen schlechten Stationen, schätzt das UN Intergovernmental Panel on Climate Change IPCC einen durchschnittlichen globalen Temperaturanstieg in den letzten 50 Jahren von 0,64°C , "der größte Teil davon", wie das IPCC sagt, ist durch den Menschen verursacht. Doch die Fehlerquote für diese Stationen ist mindestens dreimal größer als die geschätzte Erwärmung.
Ergänzung: Weitere Details und einige Kritik aus Sicht eines Statistikers finden Sie hier. (Wird fortgesetzt). Bevor einige Leser jubeln, dass Muller feststellt: "Global Warming is real" sei hier angemerkt, dass das niemand bestritten hat. Seit der kleinen Eiszeit ist die Erde an vielen Stellen zum Glück etwas wärmer geworden.
Ich will daher ihre Fragen versuchen zu beantworten. Aufgrund der Bedeutung dieser Fragen für das Verständnis der Ermittlung der globalen Mitteltemperatur und deren Bewertung und den beschränkten Auszeichnungsmitteln die im Kommentarbereich verfügbar sind, widme ich diesen Fragen & Antworten einen eigenen Beitrag. Auf die Gegeneinreden des Multibloggers Nico Baecker lohnt es sich nicht einzugehen. Sie tragen nicht zur Aufklärung bei
Vorab sei festgestellt, dass es in diesem Beitrag nicht um die Sinn- oder Unsinnhaftigkeit einer globalen Mitteltemperatur bzw. deren Trendverlauf geht. An anderer Stelle habe ich diese Größe – der Vergleich stammt allerdings nicht von mir- mit der Durchschnittstelefonnummer von Berlin verglichen. Auch die kann – wahrscheinlich viel genauer als die globale Durchschnittstemperatur- ermittelt werden, aber ob aus ihr vernünftige Erkenntnisse gewonnen werden können, ist nicht mal zweifelhaft. Ähnlich sieht es m.E.n. mit der globalen Durchschnittstemperatur aus, die aus völlig heterogenen Gebieten und Jahreszeiten der unterschiedlichsten Klimate -dazu noch höchst unvollständig und mit hoher Unsicherheit behaftet – gewonnen wird, und auch als Trendverlauf mehr verdeckt, als an Erkenntnisgewinn verspricht. Wenn die Mitteltemperaturen der definierten Klimazonen zwischen +30 °C und -35 °C liegen, also eine Spanne von ca. 65 °C abdecken, mit Extremen von + 70 ° und – 90 ° C, dann muss die Frage erlaubt sein, was dann eine Änderung von winzigen 0,7 °C im letzten Jahrhundert, die überdies – nicht nur meiner Meinung nach- völlig im Rauschen verschwindet, für einen Bedeutung habe sollte. Sehen Sie im Anhang dazu als pdf eine hübsche Erläuterung zu diesem Phantom globale Mitteltemperatur: "Does a Global Temperature Exist?"
Nun zu den Fragen/Kommentaren:
Leser Zuber schreibt:
Als die einfachste Methode, den ganzen AGW Hokuspokus zu beenden erscheint mit Ihr Approach, die Methode der Errechnung einer "globalen Mitteltemperatur" ins grelle Licht zu zerren und dabei wirklich allen (IPPClern, Klimarealisten, Medien, Politikern, Bevölkerung) klar zu machen, welch unvorstellbare methodische Luderei bei der Errechnung der globalen Mitteltemperaturen der Jahre 1850, 1851, 1852, 1853, 1854, 1855, 1856, 1857, 1858, 1859, 1860, 1861, …….1986, 1987, 1988, 1989, 1990, 1991, 1992, 1993, 1994, 1995, 1996, 1997, 1998, 1999, 2000, 2001, 2002, 2003, 2004, 2005, 2006, 2007, 2008, 2009, 2010, und 2011 angewendet wurde.
Antwort: Das war – wenn auch vornehmer formuliert- meine Erwartung. Es war mir dabei von Anfang an völlig klar, dass die wenigen vorhanden Messdaten dieser Zeitspanne in Nachhinein nicht mehr verbessert werden konnten. Also mussten irgendwelche Methoden oder andere Verfahren eingesetzt worden sein, die es erlauben zu behaupten (meine Basis war 2009, inzwischen sind die nach Brohan 06 angegebenen Unsicherheitsbereiche etwas vergrößert worden), dass der Vertrauensbereich für den berechneten Mittelwert (nach [Brohan et al. 2006]) von 95 % für die Unsicherheit der gezeigten Hauptkurve von -0,09 bis +0,11 °C 1905 bis ± 0,08 °C bis 2005 liegen. Meine Aufgabe war nun diese Verfahren zu überprüfen, mit den Rohdaten und ihren Unsicherheiten – vorzugsweise systematischer Art- zu vergleichen und zu bewerten, inwieweit die dokumentierte Unsicherheit sich unter Anwendung objektiver Methoden und nach den anerkannten Regeln der Messtechnik und Fehlerstatistik erreichen lässt.
Update: Leser Hader bemerkt dazu:
An anderer Stelle heisst es, das Problem, die globale Mitteltemperatur zu ermitteln, ist nicht lösbar. Aber auch hier vermisst man eine genauere Betrachtung, was man überhaupt lösen will. Also was will man eigentlich erreichen? Vermutlich sind erstmal die Randbedingungen wichtig, in welcher Höhe vom Erdboden man messen möchte, welche geographischen und landschaftlichen Aspekte berücksicht werden sollen, Stadtgebiete, Waldgebiete, offenes Feld, Seen, Meere usw….
Antwort:
Dies ist korrekt, es ist nicht lösbar! Siehe dazu auch im Detail hier „The Elusive Absolute Surface Air Temperature (SAT)“[1]
Nach guter wissenschaftlicher Praxis sollte man erst mal definieren, wonach man eigentlich sucht. Die Meteorologen suchen zuerst eine Lufttemperatur, die als Maß für die physikalischen Eigenschaften der Atmosphäre dienen kann. Assmann auf Seite 120 (6) [Assmann, 1892] der Erfinder des Standardthermometers schreibt dazu in seinem Aufsatz „Das Aspirations-Psychrometer; Ein Apparat zur Ermittlung der wahren Temperatur und Feuchtigkeit der Luft“ : Koeppen [Köppen, 1913] dagegen sagt in seiner Abhandlung »Studien über die Bestimmung der Lufttemperatur und des Luftdrucks« auf S. I: »Was ist Lufttemperatur ? Die Antwort lautet einfach: Die Temperatur der Luft, zunächst derjenigen, welche wir unmittelbar der Prüfung unterwerfen und weiterhin die Temperatur anderer, größerer Luftmassen, als deren Repräsentantin die erstere dienen kann«. Wie man sieht, ist Koeppens Definition die weitere, von einer Höhenangabe über dem Erdboden gänzlich absehende, während Sprung’s Definition dem für die beobachtende Meteorologie allerdings wesentlich maßgebenden Begriffe der »klimatischen Temperatur« nahe kommt. Koeppen unterscheidet aber ferner gewissermaßen zwei verschiedene Arten der Lufttemperatur, deren erste man die physikalische nennen könnte, während die letztere auf das praktische Bedürfnis klimatologischer Untersuchungen Rücksicht nimmt…Man könnte deshalb vielleicht auch sagen, dass wir als Lufttemperatur diejenige Temperatur anzusehen haben, welche eine beliebige, der Untersuchung unterworfene Luftmenge unter dem Zusammenwirken der jeweiligen sie treffenden Einflüsse der Ein- und Ausstrahlung direkter wie reflektirter Wärme jeder Wellenlänge, ferner der Leitung und Konvektion von Wärme wirklich besitzt. …….Der Einzelapparat selbst aber kann nur Angaben liefern, welchen die Definitition der physikalischen Lufttemperatur« zu Grunde gelegt wird.
Und Weischet [Weischet, 1995] S115 – S 109 ff schreibt zur Temperaturerfassung für diesen Zweck:
„Das international verwendete Standardinstrument ist das Assmannsche Aspirationpsychrometer. Psychrometer deshalb, weil neben einem normalen noch ein sog. feuchtes Thermometer eingebaut ist… Die Aspiration wird durch einen kleinen Uhrwerksmotor besorgt, der einen Luftstrom mit 2,5 m/s an dem Thermometergefäss vorbeisaugt. Die aus dem Wärmeleitungsgleichgewicht mit strahlungsgeschützten Thermometern gewonnenen Temperaturangaben für die Luft werden als" wahre Lufttemperatur" bezeichnet. Mit den reinen Messvorkehrungen allein ist es aber noch nicht getan. Um die Vergleichbarkeit von Angaben der wahren Lufttemperatur untereinander zu gewährleisten, müssen noch andere international vereinbarte Normen beachtet werden, die je nach dem Verwendungsziel der Angaben verschieden sein können.“
Hinter diesen klaren Worten verbirgt sich ein weiteres Problem. Die Meteorologen messen niemals die „wahre“ Lufttemperatur im Freien. Sie definieren deshalb lt. WMO die Hütteninnentemperatur als „wahre“ Temperatur. Damit umgehen sie – qua Definition- das Problem für die Meteorologen, aber nicht für die Klimatologen. Denn die Hüttentemepratur ist – von sehr wenigen Ausnahmen abgesehen- fast immer zu hoch. Die Schätzungen liegen im Mittel bei ca. 0,5 bis mehrere Grad- Meine Schätzung liegt bei 1,0 bis 1,5 K. Das hat zur Folge- da man das nicht korrigiert hat- dass die auf irgendeine Weise geschätzte globale Mitteltemperatur, um diesen Wert zu hoch ist. Und beeinflusst damit die Energiebilanz erheblich.
Sehen Sie hierzu ein interessantes Video, dass die Irnisse & Wirnisse der aktuellen globalen Mitteltemperatur benennt. Mit Dank an R. Hoffmann.
Die Klimatologen hingegen, zuvorderst die Modellierer, suchen die Temperatur u.a. am oberen Rand der Atmosphäre (TOA Top of Atmosphäre), die Sie zur Berechnung des „Strahlungsgleichgewichtes“ benötigen, oder direkt an der Oberfläche des Wassers um Energieaustausch zwischen Ozeanen und Luft zu bestimmen.
Das sind also mehrere paar Schuhe!
Eine Definition der Randbedingungen -verbindlich für alle- existiert auch bisher nicht. Es besteht wohl das Bestreben dies zu vereinheitlichen aber bezüglich der historischen Daten geht das nicht mehr. Dort findet man einen unglaublichen Wildwuchs. Auch die WMO hat es bis heute nicht geschafft einheitliche Bedingungen allein für die Konstruktion der Messhütten, der Art der Sensoren, ihre Anbringung (z.B. die Höhe über Grund) und Pflege, sowie Eichung und Ableseregime, weltweit in allen bereichen zu definieren. Man behilft sich mit Spannen, die zulässig sind. Z.B. die Sensorhöhe in einer irgendwie gestalteten Messhütte soll heutzutage zwischen 1,5 bis 2 m über Grund liegen. Aber das nur für die meteorologisch interessante Lufttemperatur an Land.
Leser Hader schreibt weiter
… Aber was ich aus Sicht der Statistik und Datenanalyse viel interessanter finde ist, kann man nicht empirisch ermitteln, wie hoch diese Temperaturunterschiede bei unterschiedlichen Höhen sind, unter Berücksichtigung natürlich der Boden- und Windverhältnisse? Und eine weitere Frage quasi vom interessierten Laien an den Experten gerechnet, stellen die unterschiedlichen Höhen tatsächlich ein Problem dar, wenn man eigentlich nur die Anomalien ermitteln will, d.h. Differenzen zu einem Referenzwert? Kann man nicht mit diesen unterschiedlichen Bedingungen leben? Denn wenn global eine Klimaerwärmung stattfindet, dann sicher nicht nur auf einer Bodenhöhe von 2 Meter, sondern sicher auch bei 1m oder 5m.
Antwort: Dazu gibt es nur wenige Untersuchungen, z.B. Assman 1892, Hellmann/Potsdam 1922; Ramanathan/Agra 1929, Nawa/Obanazawa 1965 Über Schneedecke 30 bis 150 cm dick
sie alle zeigen eine starken Einfluss der Höhe über Grund, sehr unterschiedlich je nach Wetterlage und Klimazone. Hier die Ergebnisse eine Feldversuches von Assmann 1989.
Hüttenvergleich nach Assman mit 10 minütiger Messfolge am 31.8.1889, Ort Berlin Lichterfelde. Man erkennt deutlich für diesen Strahlungstag in recht nördlicher Breite (52°) die starke Abweichung trotz sonst gleicher Bedingungen von rd. 1,5 °C zwischen wahrer Lufttemperatur (blau, No. 210) und Hüttentemperatur (No 554a grün). Außerdem kann auch gut die Höhendifferenz der Lufttemperatur zwischen 1,5 m (no. 239, rot) und 1,9 m (No 210, blau) von bis zu 0,6 °C beobachtet werden.
Update: Leser Hader bemerkte weiter:
Aber angenommen man hätte das alles mal festgelegt, ist auch die Frage, wie genau soll der Wert sein. Sieht man die Bestimmung der Durchschnittstemperatur als gescheitert an, wenn man sie in einer Genauigkeit von sagen wir mal 0,1°C angibt. Oder ist das schon ausreichend, um vernünftige Aussagen bzgl. klimatologischen Entwicklungen geben zu können?..
..Herr Limburg schreibt, dass es sich bei den Meßfehlern um "oft völlig unbekannten systematischen Fehler" handeln würde. Zuvor wurde allerdings aufgelistet, wie diese Fehler entstehen können. Also soooo unbekannt scheinen die Fehlerarten nicht zu sein.
Antwort: Dies ist nicht korrekt. Nichts war festgelegt. Das macht es ja im Nachhinein auch so schwierig. Ich selbst habe eine Liste von 40 systematischen Fehlern aufgestellt, kleinen wie großen, die ständig, oder sporadisch, schleichend oder sprunghaft auftreten. Nur ein Bruchteil davon ist untersucht (tlw. zusammengefasst z.B. u.a. bei Brohan 06) und ein weiteren Bruchteil hat man versucht zu korrigieren. Darunter den UHI mit läppischen 0,05 K.
Zudem muss eine globale Mitteltemperatur zuvor mit ihren Randbedingungen definiert werden, bevor man den Versuch unternehmen kann, sie aus Messdaten zu bestimmen. Diese Definition der Randbedingungen existieren auch bisher nicht. Selbst die WMO hat es bis heute nicht geschafft, einheitliche Bedingungen allein für die Konstruktion der Messhütten, der Art der Sensoren, ihre Anbringung (z.B. die Höhe über Grund) und Pflege, sowie Eichung und Ableseregime, weltweit in allen Bereichen zu definieren. Man behilft sich mit Spannen, die zulässig sind. Z.B. die Sensorhöhe in einer irgendwie gestalteten Messhütte soll heutzutage zwischen 1,5 bis 2 m über Grund liegen. Dies hat aber direkt und auch kräftige Auswirkungen auf die Messwerte. Es gibt einige wenige Untersuchungen darüber. Bei deren Verdichtung der Messwerte zu Mitteln und Bestimmung der Anomalien hat das auch auf diese [2],[3] unmittelbaren Einfluss.
Zudem ist die erzielbare Genauigkeit, wie schon des öfteren ausgeführt, durch unvermeidbare und vor allem unkorrigierbare systematische Fehler wesentlich geringer als bisher angegeben. Frank hat zwei dieser Unsicherheiten bei 2 σ mit minimal ± 0,98 K bestimmt. Meiner Erhebung nach – ebenso geschätzt, wie bei allen anderen- kommt mindestens nochmals derselbe Wert, auf Grund der anderen Fehler hinzu.
Wie soll bei ± 1 bis 2 k Unsicherheit eine Änderung von 0,7 K sicher erkennbar sein? Sie verschwindet zwangsläufig in diesem Band zumal auch der gesuchte Trend nicht immer mittig liegen kann.
Seetemperaturen:
Regelrecht düster sieht es auf See aus. Da werden 3 Arten von Temperaturen sehr ungenau und dürftig über die Seefläche verteilt, gemessen. Die MAT Marine Air Temperature, die NMAT die Night Marine Air Temperature und die SST SeaSurface temperature. Die ersten beiden wurden auf Schiffen (nur wenige fest verankert) bestimmt, wo die Wetterhütte, oft ein Stevenson Screen auf der Brücke steht. Also sind Ort und Messhöhe ständig veränderlich. Das bekommt der Verwertbarkeit nicht, abgesehen davon, dass der Prozess aus ortsveränderlichen Temperaturbestimmungen genaue Vergleichswerte zu gewinnen, seine eigenen Tücken hat. Sie sind daher sehr erratisch und werden deshalb vom MetOffice nur zu bestimmten Vergleichszwecken herangezogen. Statt ihrer verwendet man das Surrogat oder Proxy der SST SeaSurface temperature. Diese soll, so ist die Vermutung, zumindest in den eisfreien Gegenden der Meere, ein guter Ersatz und wg. der thermischen Trägheit des Wassers, auch wesentlich stabiler reagieren, als die Lufttemperatur. Sie soll so jedenfalls glaubt es Jones, in etwa der Lufttemperatur in 10 m Höhe entsprechen. Beweise dafür gibt es wenige und nur von ausgesuchten Orten, genauso wie es Gegenbeweise gibt. Über SST und deren Unsicherheiten, darüber wie man damit umgeht, gibt es eine umfangreiche Literatur [4]. Aber mit mehreren Schönheitsfehlern – u. a. dem – dass nirgendwo erläutert wird, wie denn das Tagesmittel von dem alles ausgeht, bestimmt wird.
Die Unsicherheit der grundlegenden Einzelmessungen (vermutlich für 1 σ) wird angegeben:
A single SST measurement from a ship has a typical uncertainty of around 1-1.5K. (Kent and Challenor (2006), 1.2±0.4K or 1.3±0.3K; Kent et al. (1999), 1.5±0.1K; Kent and Berry (2005), 1.3±0.1K and 1.2±0.1K; Reynolds et al. (2002), 1.3K; Kennedy et al. (2011a), 1.0K; Kent and Berry (2008) 1.1K. These analyses are based on the more modern portion of the record. No studies have been done to see if there are systematic changes in the size of these errors through time. It should also be noted that not all measurements are of identical quality. Some ships and buoys take much higher quality measurements than others.
Hinzu kommt in ungelöstes und für die Vergangenheit auch unlösbar bleibendes Problem dürftigen Abddeckung der Seeoberfläche durch Messung. Obwohl hunderte von Millionen Messdaten vorliegen sind sie fast alle auf die Hauptschifffahrtsrouten konzentriert und decken damit nur wenige % der Seefläche ab.
Abbildung 2: Darstellung der gemeldeten SST´s für die Woche vom 2. bis 8. Januar 2000. Sie zeigt die dünne messtechnische Abdeckung der Wasserfläche der Erde. Frühere Abdeckungen der Wasserfläche sind mit großer Wahrscheinlichkeit noch deutlich schlechter gewesen. Aus [REYNOLDS, R. W. & RAYNER,, 2002] Seite 1611
Update: Leser Hader bemerkte weiter:
Soweit ich das überschaue, beruft sich Herr Limburg auf die hohe Unsicherheit, aus den bisherigen Meßergebnissen absolut gesehen, den korrekten globalen Durchschnittswert zu ermitteln. Also quasi ob nun 15,1°C oder 15,7°C oder sonstwas vorliegt. Aber mal ganz "ketzterisch" gefragt, ist das wirklich entscheidend? Wenn die Klimatologen letztendlich mit Temperaturdifferenzen weiterarbeiten, dann wäre ein Sensor ausreichend, der diese Differenzen sehr genau mißt. Ich selbst habe mich bisher mit Temperaturmessung nie beschäftigt, aber aus Sicht der Datenanalyse ist das ein interessantes Feld. Und da denke ich, dass der absolute Meßwert gar nicht entscheidend ist, sondern der relative (bezogen auf einen Referenzwert). Wichtig ist, dass die Messung 14,7°C im Jahr 1961 auch dasselbe bedeutet, wie die 14,7°C im Jahr 2011. Okay, das wirklich nur mal ein paar angerissene Gedanken, zu dem Thema.
Antwort: Dazu hatte ich bereits Stellung genommen. Einmal geht es um die Bestimmung (irgend-) einer globalen Mitteltemperatur der Luft. Diese ist in ihren Randbedingungen bisher nicht sauber definiert und für die Vergangenheit schon gar nicht. GISS schätzt sie zudem auf irgendwo zwischen 12.8 und 14.4 °C. Allein diese Differenz hat eine stärkere Wirkung auf die Energiebilanz als alles CO2. Aber selbst die ist nirgendwo einigermaßen sicher greifbar.
Frage Leser Zuber:
Haben sie in Ihrer Dissertation für jedes dieser Jahre die exakte Anzahl der zugrunde liegenden Messstationen, deren Messhäufigkeiten pro Tag, Angaben über systematische Messfehler, Standortewechsel über die Jahre, Thermometerwechsel über die Jahre, Heat Island Entwicklungen an den Standorten (Flugplätze, zubetonierte Städte, etc.) erhoben?
Ganz einfach gefragt, kann man denn die Methoden zur Errechnung eines "globalen Mittelwerts" zum Beispiel der Jahre 1892, 1942, 1991, 2005 sinnvoll vergleichen?
Antwort: Ich hatte anfangs die Erwartung, dies in größerem Umfang tun zu müssen, durfte dann aber im Laufe der Arbeit schnell feststellen, dass die Fülle der verfügbaren Daten samt Literatur, in Bezug auf Messverfahren, -Algorithmen, zufällige und systematische Fehler, incl, Standort- und Messinstrumentenwechsel, aber auch Wechsel des Anstrichs der Wetterhütten, Einfluss des UHI (Urban Heat Island Effekt) völlig ausreichend ist, diese herauszuziehen und einer neuen methodischen aber kritischen Bewertung zu unterziehen. Dabei bin ich einem „Bottom Up“ Prinzip gefolgt, habe also bei den Grundlagen begonnen. Was ist Temperatur, was wird gemessen, wie wird gemessen, wo wird gemessen, wie oft wird gemessen, etc. etc. Besonders auffällig war dabei die Erkenntnis, dass alle Autoren sich der vielfältigen Qualitätsmängel ihrer Rohdaten sehr bewusst waren. Und obwohl diese Daten in jeder Hinsicht überaus lückenhaft und mit großen Fehlern behaftet waren, wurde und wird – wenn auch „highly sophisticated- fast immer bei der Bestimmung der Unsicherheiten mit unüberprüfbaren Annahmen gearbeitet. Die so gewonnenen Erkenntnisse sind dann eben auch „Annahmen“!
Besonders hilfreich in Bezug auf die Bestimmung der Qualität terrestrischer Daten war die Arbeit von Anthony Watts und seiner Freiwilligen Truppe zur Untersuchung des US-amerikanischen Klimanetzwerkes „Surface Station Project“ . Dies wurde bis zu Watts als Inbegriff eines qualitativ hochwertigen Netzwerkes gesehen. Zum Beispiel schreiben Peterson et. al [Peterson, 1997] in ihrer Bewertung der US- amerikanischen Messstationen auf S. 2845 „…One thousand two hundred twenty-one homogeneity adjusted stations in the United States were computedusing a different technique. These are high qualityrural stationstaken directly from the U.S. HistoricalClimatology Network (U.S. HCN; Easterling et al.1996a), a sister project to GHCN. These data were adjusted using a metadata approach as part of the creationof the U.S. HCN and their adjusted time series weredirectly incorporated into GHCN. For climate analysis confined to the United States, the U.S. HCN is thepreferred dataset becauseits stations are well distributed, mostly rural stations that were selected basedupon their location and their station history metadata.“ (Hervorhebungen vom Autor)
Diese Aussagen haben sich nach den Untersuchungen von Watts leider als völlig falsch erwiesen. Es handelt sich in der großen Mehrzahl weder um „high qualityrural stations“, noch können sie„homogeneity adjusted“ sein. Wie stark sich die oben geschilderten Fehlermöglichkeiten auf die Messergebnisse auswirken, zeigt Watts [Watts, 2009] sehr ausführlich. Da diese Stationen sozusagen als „Goldstandard“ der Klimatologen angesehen wurden, konnte der Rest der Welt – von einigen wenigen Ausnahmen in Europa, Australien und Japans nur schlechter sein.
Frage Leser Zuber:
Gibt es bei der Berechnung einer "globalen Mitteltemperatur" nicht das Problem, dass es beinahe unendlich viele Punkte auf der Erdoberfläche gibt, bei deren Lufttemperaturmessung 2m über der Oberfläche im gleichen Augenblick unterschiedliche Werte zustande kommen? (Nur schon in meinem Garten könnte ich Hunderttausende unterschiedliche Thermometerstandorte definieren)
Ändert sich denn nicht auch an einem konkreten Thermometerstandort in jeder Sekunde die Temperatur, und was bedeutet dies hinsichtlich einer Mittelwertserrechnung?
Antwort: Dieses Problem gibt es und es ist auch nicht gelöst. Das Goddard Institute of Space Science (GISS)[5] z.B. umgeht die Bestimmung der Mitteltemperatur aus Messwerten und verweist nur auf Modelle. Es schreibt dazu. „The Elusive Absolute Surface Air Temperature (SAT)“ in deutsch:“ Die schwer fassbare absloute Oberflächentemperatur“… „For the global mean, the most trusted models produce a value of roughly 14 Celsius, i.e. 57.2 F, but it may easily be anywhere between 56 and 58 F (12.8ºC to 14.4ºC ) and regionally, let alone locally, the situation is even worse.“
Dem ist nicht viel hinzufügen. Jones [6] hat zwar auch versucht eine absolute globale Mitteltemperatur zu berechnen, aber wie er die o.a. Schwierigkeiten vermieden hat, vermochte ich nicht zu erkennen.
Aber darum geht es erst in zweiter Linie, nämlich dann, wenn man die so errechnete Globaltemperatur zur Bestimmung von Energiebilanzen einsetzen will, was allerdings eine unabdingbare Voraussetzung bei allen Modellen ist.
In erster Linie suchen die Klimatologen nicht die absolute Temperatur zu ermitteln, sondern so früh wie möglich eine Temperaturdifferenz, zu einer von der WMO definierten Normaltemperatur der jeweiligen Station zu ermitteln. Diese Differenz wird nach statistischem Sprachgebrauch als "Anomalie" bezeichnet und durch Differenzbildung der zuvor errechneten absoluten Jahres- auch Monatstemperatur mit dem fest definierten Stationsnormal – das ist derzeit die mittlere Temperatur dieser Station über die Jahre von 1961 -1990- gebildet. Und nur mit diesen Anomalien wird weitergearbeitet.
Der Grund dafür ist einleuchtend. Die Anomalien auch entfernter Stationen ändern sich sehr häufig -aber eben nicht immer und überall- im Gleichklang. Wird es im Frühjahr in London wärmer, kann man das vielfach auch in Paris oder Berlin beobachten. Die Anomalien sind also viel weniger den erratischen Schwankungen des jeweiligen Wetters am Messort unterworfen, als die absoluten Temperaturen. Dies muss auch bei der Bestimmung der Unsicherheiten berücksichtigt werden. Die Anomalien sind dann aber keine Temperaturen im physikalischen Sinne mehr. Sondern irgendwelche Indizes.
Auch gleicht die Mittelwertberechnung einen großen Teil der täglichen, wie saisonalen Schwankungen aus, allerdings nicht die systematischen Unsicherheiten der Messungen, oder anderen Einflussgrößen, wie die verwendeten Messregime etc. wie oft von diesen Leuten fälschlich angenommen wird.
Frage Leser Zuber:
Wie gross sind die Temperaturunterschiede, wenn man genau am Boden einer Messstation misst, verglichen mit der Temperatur in 2m Höhe am genau gleichen Standort?
Antwort: Dies ist nur eine aus einer Riesenfülle von Fehler- oder Unsicherheitsquellen, die zwar punktuell in der Literatur untersucht wurden, aber nicht systematisch behoben werden können.
Zur Frage selber: So schreibt die WMO einen Thermometerstandort in einer Wetterhütte zwischen 1,5 m bis 2,0 m vor. Historische Tatsache aber ist, die DWD Messnetze haben Messfühler in 2 m Höhe über dem Boden; der international verbreitete Stevenson Screen mit Ableitungen [SPARKS, 1972] zeigt(e) Höhen von 1,1 m (Ghana, 1,25 m India, 1,41 m Madagaskar), 1,5 bis 2 m hat Wild´sche Hütte sogar bis 4,5 m (frühe ehemalige Sowjetunion) später dann 2,0 m. Auf Schiffen reicht die Hüttenaufstellung von wenigen Metern über Meeresspiegel bis > 30 m.
Die höhenbedingte Abweichung der Temperaturmessungen zu Lande, auf Grund verschieden hoher Messhütten, bei unbeeinflusster windstiller Lage, folgt, nach Geiger [GEIGER, 1950] (und K. Brocks) einem doppelt logarithmischen Gradienten. In Mitteleuropa kann er, für sich allein genommen, je nach Mittelwert- und Anomalienbildung, ein Differenz von ca. -0,05 bis -0,5 °C erzeugen. Je tiefer eine Messstation, bezogen auf den Boden, liegt, desto höher i.A. die Temperatur. Jedoch ist er zusätzlich stark von der sich u.U. schleichend verändernden, meist gegenläufig wirkenden Bodenbeschaffenheit abhängig und kann deshalb leicht einen Wert von + 1K und darüber haben.
Auf See ist er von der lokalen Höhe der Messstation abhängig. Anders als bei Landstationen ist diese nicht fest, sondern von der Schiffsgröße und -Beladung abhängig. Bei nicht ungewöhnlichen 20 m Brückenhöhe betrüge er dann ca. -0,1 °C. Über die Brückenhöhe sagen die verfügbaren Metadaten wenig bis nichts aus. Messhöhen von 20 m und her sind heute keine Seltenheit mehr. Die fast ausschließliche Verwendung der SST (Sea Surface Temperature) als Proxy für die gesuchte Lufttemperatur, verschiebt diesen Fehler im Durchschnitt weiter ins Positive, weil die SST im Mittel etwa 0,2 °C wärmer sein sollte als die Luft. Bei Lufttemperaturen unter -2°C, normal bei (den wenigen) Wintertemperaturmessungen in höherer nördlicher und südlicher Breite, liefert die SST deutlich zu hohe Werte (evtl. ein Grund für den Anstieg der SST). Das heißt bei Verwendung der SST werden die Temperaturwerte ins Positive verschoben.
Frage Leser Zuber:
Wenn die AGWler schon Hundertstel Grad Erwärmung als "Signal" eines anthropogenen CO2 Einflusses postulieren: geben die Temperaturmessmethoden der Vergangenheit, die Anzahl und Verteilung der Thermometer über allen Teilen der Erdoberfläche diese geforderte Genauigkeit zur Feststellung eines CO2 Effekts überhaupt her (unter der sowieso irrigen Annahme, dass alle übrigen Faktoren, die die Temperaturen der Luft bestimmen, besonders der Bewölkung an einem konkreten Ort, und der Entwicklung der Bewölkung an all den Thermometerstandorten über die letzten 160 Jahre, gleich geblieben sind).
Kurze Antwort: Nein! Meine Ergebnisse zeigen deutlich, dass die nicht korrigierbaren, weil in ihrer Verbreitung und Größe, oft völlig unbekannten systematischen Fehler, das Unsicherheitsband der globalen Mittel-Temperatur, welches jede gerechnete Anomalie und deren Trend umgeben muss, ein Vielfaches der am Anfang erwähnten Grenzen bedeuten. Damit verliert sich die gesamte Änderung des letzten Jahrhunderts im Rauschen und lässt keinerlei Ursachenzuordnung zu. Alle Angaben dazu sind demnach spekulativ!
Es ist deshalb nicht möglich, die Aussage (Abbildung 3) aufrecht zu halten, dass die Zeitreihe der Globaltemperatur nach Hadley (und IPCC) mit einer Genauigkeit, ausgedrückt als Rest-Unsicherheit im 95 % Bereich, bei nur ± 0, 1 °C (von -0,09 bis +0,11 °C, bis Jahr 1905 bis ± 0,08 °C bis Jahr 2005) liegt. Viel wahrscheinlicher ist ein Fehler von mindestens der Größenordnung des gesamten Temperaturanstiegs, also ca. 0,5 – 0,7 °C. Es spricht sehr viel dafür, dass er sogar noch deutlich größer ist.
Am Beginn der Zeitreihe dürfte der Fehler wiederum noch deutlich höher liegen, um dann in Richtung heutiger Zeit leicht abzunehmen. Diese Fehlerspanne wird noch dadurch vergrößert, dass die Korrekturen, die z.B. die NASA auf Grund ihrer Beobachtungen der beschriebenen systematischen Fehler durchgeführt hat, überwiegend nach oben, also in Richtung größerer Erwärmung [7], wirkten. Sie waren aber bereits vorher zu hoch. Richtig wäre deshalb eine Korrektur nach unten gewesen[8].
Auch ist nicht zu erwarten, wegen der erfolgten Richtungsänderungen einiger grober und systematischer Fehler über die Zeitreihe, dass die wahrscheinlichste Globaltemperatur T* immer mittig im Fehlerband liegt. Sie kann sehr wohl sowohl nach oben, als auch nach unten verschoben verlaufen.
Frage Zuber:
Hat denn das IPCC auch nur eine einzige der oben gestellten Fragen in den IPCC Berichten mit der nötigen Detailliebe und Kritik der Methodologie der "Gobalen Mitteltemperaturerrechnung" zur Diskussion gestellt?
Antwort: In der von mir untersuchten Literatur, sie ist überwiegend vom IPCC angegeben, sind diese Fragen oft sehr gründlich behandelt worden. Als Referenz beim Metoffice wird dazu jedoch immer Brohan 06[4] genannt. Auch dort sind viele dieser Fragen ausführlich behandelt worden. Manche Schlussfolgerungen darin sind jedoch falsch, insbesondere die Hauptaussage der engen Fehlergrenzen, weil dazu Annahmen gemacht wurden, die nicht haltbar sind. Siehe u.a. dazu auch meine Beiträge zu den Arbeiten von Pat Frank [9], [10].
Die Messungen der Temperatur über See – immerhin 71 % der Erdoberfläche bedeckend – und damit dominant für jede Berechnung einer Globaltemperatur, ist dazu noch ein Extra-Kapitel für sich. Dort sind die Daten noch sehr viel schlechter und von der Abdeckung noch wesentlich dünner. Vergleichbares gilt für den globalen Meeresspiegel. Vielleicht gehe ich bei passender Gelegenheit mal darauf ein.
[6] [Jones et al. (1999) report the 1961-1990 reference period means for the globe, northern hemisphere, and southern hemisphere as 14.0°C, 14.6°C, and 13.4°C, respectively.]
[7] Siehe auch: Positive and Negative Urban Adjustments by Steve McIntyre on March 1st, 2008, http://www.climateaudit.org/?p=2815
[8] Die verantworliche CRU verweigerte den Zugriff externer Wissenschaftler auf seine Daten und Methoden mit der offiziellen Begründung: Some of the information was provided to Professor Jones on the strict understanding by the data providers that this station data must not be publicly released and it cannot be determined which countries or stations data were given in confidence as records were not kept. Und einer privat nachgeschobenen Begründung von P. Jones an W. Hughes: .. Even if WMO agrees, I will still not pass on the data. We have 25 or so years invested in the work. Why should I make the data available to you, when your aim is to try and find something wrong with it.“ Quelle: http://wattsupwiththat.com/2009/07/24/uk-met-office-and-dr-phil-jones-pay-no-attention-to-that-man-behind-the-curtain/#more-9546. Inzwischen hat man sich aber bereit erklärt, ausgewählte „Subsets“ dieser Daten zur Verfügung zu stellen.
Die Energie, die sie innerhalb von zehn Jahren erzeugen können, gleicht sich: Acht Windturbinen mit 2,5 Megawatt (die mit grob geschätzt 25% ihrer Kapazität arbeiten) erzeugen in den ersten zehn Jahren in etwa genauso viel Energie wie die Erbohrung eines mittleren Schiefergasvorkommens in Pennsylvania (übertragen auf Strom mit einer Effizienz von 50%).
Fällt Ihnen die Wahl schwer? Lassen Sie es mich einfacher machen! Der Bohrturm der Schiefergas-Bohrung kann in einer Senke oder hinter einer Hecke verborgen werden. Die acht Windturbinen müssen auf Hügelkuppen stehen, weil nur dort der Wind richtig weht, und sind bis zu 40 Meilen [ca. 64 km] weit sichtbar. Und sie erfordern den Bau neuer Überlandleitungen in die Städte; das Gas aus dem Bohrloch wird in einer unterirdischen Pipeline transportiert.
Noch nicht überredet? Windturbinen zerschmettern jedes Jahr tausende Raubvögel, einschließlich Seeadlern in Norwegen, Steinadler in Kalifornien und Keilschwanzadler in Tasmanien. Auf YouTube gibt es ein Video, wie ein Gänsegeier in Kreta in einer Windturbine erschlagen wird. Einer Studie aus Pennsylvania zufolge würde ein Windpark mit acht Windturbinen etwa 200 Fledermäuse pro Jahr töten. Die Druckwelle eines vorbei sausenden Rotorblatts lässt einfach die Lungen dieser kleinen Lebewesen implodieren. Sie und ich können für die Jagd auf Fledermäuse oder Adler ins Gefängnis kommen; die Betreiber von Windturbinen sind dagegen immun.
Können Sie sich immer noch nicht entscheiden? Der Windpark erfordert acht Tonnen eines Elementes mit der Bezeichnung Neodymium, welches nur in der Inneren Mongolei angetroffen wird, und zwar durch das Kochen von Erz in Säure, was Seen radioaktiver Hinterlassenschaften erzeugt, so giftig, dass kein Lebewesen auch nur in die Nähe kommt.
Nicht überzeugt? Die Gasbohrung erfordert keine Subventionen – tatsächlich bringt es der Regierung saftige Steuereinnahmen – während Windturbinen für Sie substantielle Zusatzkosten zu Ihrer Stromrechnung verursachen, wovon ein Teil an reiche Grundbesitzer geht, auf deren Land die Turbinen stehen. Windstrom kostet dreimal so viel wie aus Gas erzeugter Strom. Machen Sie daraus neunmal mehr, wenn sich der Windpark auf See befindet. Hinzu kommt noch, dass die Kosten der Außerbetriebnahme des Windparks Ihren Kindern aufgebürdet werden – nur wenige werden sich länger als 25 Jahre drehen.
Haben Sie sich entschieden? Ich habe noch etwas vergessen. Wenn Sie sich für die Gasbohrung entscheiden, das ist es, Sie können sie haben. Wenn Sie sich für den Windpark entscheiden, brauchen Sie das Gas immer noch. Und zwar weil Sie eine Backup-Stromerzeugung für eine verlässlichere Stromquelle brauchen, wenn der Wind mal nicht weht. Aber der Kerl, der Gasturbinen baut, ist nicht glücklich, wenn sie nur bei schwachem Wind läuft, und ruft nun ebenfalls nach Subventionen.
Was sagen Sie? Die Gasvorräte gehen zur Neige? Haben Sie keine Nachrichten gehört? Das stimmt nicht! Bis vor fünf Jahren glaubte jeder, dass Gas als erster fossiler Treibstoff zu Ende gehen würde, noch vor Kohle und Öl. In Amerika machte man sich so große Sorgen, dass selbst Alan Greenspan den USA gesagt hat, dass sie Terminals für den Gasimport bauen sollten, was sie auch getan haben. Sie werden jetzt wieder eingemottet oder in Export-Terminals verwandelt.
Ein Typ namens George Mitchell hat die Gasindustrie auf den Kopf gestellt. Indem er die richtige Kombination horizontaler Bohrungen und hydraulischem Brechen (fracking) nutzte – beides ausgereifte Technologien – fand er heraus, wie man das Gas aus dem Schiefer holt, und zwar dort, wo es am meisten vorhanden ist, und nicht dort, wo es sich in (konventionell) porösem Gestein manchmal sammelt. Das Barnett-Feld mit Schiefer in Texas, auf dem Mitchell arbeitete, wurde zu einer der größten Gasreserven in Amerika. Dann wurde es vom Haynesville-Feld in Louisiana noch weit in den Schatten gestellt. Als noch größer erwies sich das Marcellus-Schieferfeld in Pennsylvania, wo man mit unglaublichen 500 Trillionen Kubikfuß Gas rechnet, größer als jedes bisher gefundene Ölfeld und auf der Schwelle zum größten Markt der Welt.
Die Auswirkungen von Schiefergas in Amerika sind schon jetzt erheblich. Gaspreise haben sich von den Ölpreisen abgekoppelt und liegen nur noch etwa halb so hoch wie in Europa. Chemische Industrien, die Gas als Ausgangsmaterial nutzen, eilen vom Persischen Golf zurück zum Golf von Mexiko. Städte rüsten ihre Busse auf Gasbetrieb um. Kohlebasierte Projekte werden auf das Abstellgleis geschoben, kernkraftbasierte Projekte werden abgebrochen.
Das ländliche Pennsylvania wird von den Abgaben durch das Schiefergas umgestaltet (Lancashire, pass auf!). Die Bohrstelle, die ich besucht habe, lag versteckt in einer Waldlichtung, unsichtbar bis zu dem Punkt, an dem ich um die letzte Ecke gebogen war, wo eine Horde wilder Truthähne die Straße überquerte. Bohrutensilien gab es an der Stelle fünf Wochen lang, gefolgt einige Wochen später von Lastwagen mit den Fracking-Werkzeugen. Als sie alle wieder weg waren, waren als einziges ein „Weihnachtsbaum“-Bohrturm und ein paar Speichertanks übrig geblieben.
Die Internationale Energieagentur EIA rechnet vor, dass es weltweit Vorräte von billigem Schiefergas für ein Viertel des Milleniums gibt. Eine Firma namens Cuadrilla hat ein Loch in Blackpool gebohrt in der Hoffnung, einige Trillionen Kubikfuß Gas zu finden. Im vorigen Monat gab sie den Fund von 200 Trillionen Kubikfuß bekannt, fast halb so viel wie im gigantischen Marcellus-Gasfeld. Das reicht, um die gesamte britische Wirtschaft mehrere Jahrzehnte lang am Laufen zu halten. Und es war gerade mal das erste Feld, das erbohrt worden war.
Jesse Ausubel ist ein akademischer Ökologe an der Rockefeller University in New York, der die sanften Töne liebt und der jeder Übertreibung abhold ist. Als ich ihn nach der Zukunft von Gas fragte, war ich überrascht durch den Nachdruck seiner Antwort. „Sie ist unendlich“, sagt er einfach. Gas, sagt er, wird der dominante Treibstoff des nächsten Jahrhunderts auf der ganzen Welt sein [wohl mit Ausnahme von Deutschland, A. d. Übers.]. Kohle und Erneuerbare werden dem weichen müssen, während Öl hauptsächlich für Transportzwecke gebraucht wird. Selbst Kernenergie könnte in den Startlöchern noch warten müssen.
Und er spricht nicht hauptsächlich über Schiefergas. Er erkennt eine womöglich noch größere Sache, die darauf wartet, bekannt zu werden, nämlich das Offshore-Gas aus den so genannten cold seeps [etwa: Austrittslöchern von Erdgas] rund um die Kontinentalsockel. In Israel hat man gerade ein riesiges Vorkommen entdeckt, und man plant den Bau einer Pipeline nach Griechenland, sehr zur Irritation der Türkei. Die Brasilianer werden plötzlich reich. Der Golf von Guinea ist ein heißer Favorit. Selbst unser eigenes Rockall-Ufer sieht vielversprechend aus. Asubel glaubt, dass viel von diesem Gas nicht einmal „fossiles“ Gas ist, sondern ursprüngliches Methan aus dem Weltall, dass tief im irdischen Gestein eingefangen worden war – ähnlich den Methanseen auf dem Saturnmond Titan.
Das Beste am billigen Gas ist jedoch zu betrachten, wen das ärgert. Die Russen und die Iraner hassen es, weil sie gehofft hatten, während der nächsten Jahrzehnte im Brennpunkt des Gasmarktes zu stehen. Die Grünen hassen es, weil es ihre Argumentation zunichte macht, dass fossile Treibstoffe immer teurer werden, bis selbst Wind- und Solarenergie damit wettbewerbsfähig sind. Dies gilt auch für die Nuklearindustrie. Die Kohleindustrie wird ein großer Verlierer sein (als jemand, der ein gewisses Einkommen aus Kohle bezieht, erkläre ich hiermit, dass das Schreiben dieses Artikels gegen meine berechtigten Interessen ist).
So ist es kein Wunder, dass heftige Attacken auf den Ruf von Schiefergas im Gange sind, getrieben durch eine unheilige Allianz von big green, big coal, big nuclear und Erzeuger von konventionellem Gas. Die Umweltbedenken gegen Schiefergas sind auf fast schon komische Weise gefälscht oder übertrieben. Hydraulisches Brechen oder Fracking verbraucht zu 99, 86% Wasser und Sand. Der Rest ist eine verdünnte Lösung von ein paar Chemikalien von der Art, die man auch unter dem Abwaschbecken in der Küche findet.
Staatliche Begutachter in Alaska, Colorado, Indiana, Louisiana, Michigan, Oklahoma, Pennsylvania, South Dakota, Texas und Wyoming haben übereinstimmend festgestellt, dass es keinerlei verifizierte oder dokumentierte Fälle einer Grundwasserverseuchung als Folge des hydraulischen Fracking gegeben hatte. Diese flammenden Austrittslöcher in dem Film „Gasland“ hatten buchstäblich nichts mit Bohrungen nach Schiefergas zu tun, und der Filmemacher wusste das auch, bevor er das Drehbuch geschrieben hatte. Die Behauptung, dass die Gasproduktion mehr Treibhausgase erzeugt als Kohle basiert auf falsch verstandenen Hypothesen über die Rate von Gaslecks und auf bewusst gewählten Zeiträumen, um den Einfluss der Treibhausgase zu errechnen.
Genau wie die japanischen Soldaten, die sich noch Jahrzehnte nach Kriegsende im Dschungel versteckt hatten, haben unsere politischen Führer die Nachrichten offensichtlich nicht gehört. David Cameron und Chris Huhne bestehen immer noch darauf, dass die Zukunft den Erneuerbaren gehört. Sie unterschreiben immer noch Verträge, die den Landbesitzern und Stromgesellschaften auf Ihre Kosten riesige Einnahmen garantieren und die damit einhergehend Landschaften zerstören und Arbeitsplätze vernichten. Die „grünen“ Subventionen der Regierung kosten einem mittleren kleinen Betrieb etwa 250 000 Pfund pro Jahr. Das sind zehn Arbeitsplätze pro Firma. Die Verbilligung von Energie ist – wie die industrielle Revolution bewiesen hatte – der schnellste Weg, Arbeitsplätze zu schaffen; die Verteuerung von Energie ist der schnellste Weg, diese Arbeitsplätze wieder zu verlieren.
Erneuerbare sind nicht nur erheblich teurer, unzuverlässiger und Ressourcen fressender (die Erfordernis von Stahl und Beton ist gigantisch) als Gas, sondern sie schädigen auch in erheblich größerem Maß die Umwelt, weil sie so landhungrig sind. Windräder töten Vögel und verderben Landschaften; Solarpaneele bedecken Wüsten; Tidenkraftwerke löschen die Ökosysteme von Zugvögeln aus; Biodiesel macht die Armen immer hungriger und zerstört den Regenwald, Wasserkraftwerke unterbrechen die Wanderung von Fischen. Wenn Sie das nächste Mal von irgendjemandem hören, dass all das „saubere“ Energie ist, lassen Sie ihm das nicht durchgehen!
Die Windkraft kann nicht einmal helfen, Kohlenstoffemissionen zu reduzieren, weil sie Kohlekraftwerke als Backup braucht, was verschwenderisch ineffizient ist, wenn die Kraftwerke hoch- und herunter gefahren werden (Kernkraftwerke können nicht so ohne Weiteres hoch- und herunter gefahren werden). Selbst Deutschland und Dänemark sind damit gescheitert, ihre Kohlenstoffemissionen durch die Errichtung großer Windparks zu verringern.
Das Hinwenden zu Gas würde die Dekarbonisation dagegen sehr beschleunigen. In einer kombinierten Turbine wird Gas mit höherer Effizienz in Strom verwandelt als andere fossile Treibstoffe. Und wenn man Gas verbrennt, oxidiert man vier Wasserstoffatome für jedes Kohlenstoffatom. Das ist ein besseres Verhältnis als bei Öl, viel besser als bei Kohle und sehr viel besser als bei Holz. Ausubel berechnet, dass wir dank des Gases unaufhaltsam von Kohlenstoff zum Wasserstoff als unsere Energiequelle kommen, ohne die Erneuerbaren zu brauchen.
Das Bestehen auf einer Politik, die subventionierte erneuerbare Energie mitten in einer schlimmen Rezession zu einer Zeit, in der plötzlich riesige Mengen billigen und kohlenstoffarmen Gases verfügbar sind, weiter zu verfolgen ist so pervers, dass es schon an Geisteskrankheit grenzt. Nichts als bürokratische Trägheit und erworbenes Recht kann dies erklären.