Weltklimarat IPCC: Wirklich Expertengremium oder nur ungezogener Teenager?

Was hier wie eine maßlose Übertreibung klingt, ist nach Ansicht der Journalistin Donna Laframboise eine reale Umschreibung der Beziehung zwischen der Weltstaatengemeinschaft und ihrem klimawissenschaftlichen Wunschkind, dem Intergovernmental Panel on Climate Change (IPCC).

Ihr neues Buch „The Delinquent Teenager  who was mistaken for the world’s top climate expert“ führt seine Leser durch die weithin unbekannten Details der Organisation, Arbeitsweise und Politik des IPCC. Kritikfähigkeit? Fehlanzeige. Expertise?

So mancher verantwortlicher Autor hat erst die Gelegenheit ergriffen ganze Gutachtenkapitel beim IPCC abzuliefert bevor er die Muße hatte sein Universitätsstudium mit dem Master abzuschließen oder erste Forschungserfahrungen beim Verfassen einer Doktorarbeit zu sammeln. Politische Korrektheit, Herkunft und Geschlecht sind mindestens ebenso wichtige Auswahlkriterien wie der „richtige“ Standpunkt zu Klima- und Umweltfragen.

Weltbekannten Fachleuten mit langjähriger Forschungsreputation wird dagegen die Tür gewiesen, wenn nur der Verdacht besteht, sie könnten wissenschaftlich unabhängig sein oder konträre Positionen zur herrschenden Meinung der Klimaforschung einnehmen.

Interessenkonflikte? Nicht wenige Autoren sind Umweltaktivisten oder haben langjährige und intensive Verbindungen zu Umweltschutzverbänden in ihrer Vita. (Details dazu auch hier "Wie der WWF das IPCC unterwandert hat; Anmerkung der Redaktion)

Im durch und durch politisierten Klimarat wird nur das akzeptiert, was die Botschaft von der Klimakatastrophe untermauert. Dafür sorgt die handverlesene Autorenschaft schon selbst und die verantwortlichen Politikvertreter erledigen zum Schluß den Rest. Am Ende stehen politische Pamphlete, die sich hinter dem Deckmäntelchen der Wissenschaftlichkeit verbergen. Das alles wäre weniger ein Problem, wenn wenigstens Medien und Öffentlichkeit immer wieder einen kritischen Blick hinter diese Kulissen des IPCC gewagt hätten. Doch hier herrschte lange Jahre Fehlanzeige. Stattdessen regnete es Lobhudelei, wurden jedem noch so spekulativen Bericht des Gremiums uneingeschränkte wissenschaftliche Autorität zugewiesen und Kritiker reflexartig mundtot gemacht. Ein Friedensnobelpreis sollte dem dann schließlich die Adelskrone der Unfehlbarkeit aufgesetzen.

Seit geraumer Zeit, dank der unermüdlichen Aktivitäten der Blogosphäre und der akribischen Recherche von Autoren wie Donna Lafromboise, hat die Öffentlichkeit aber auch die Gelegenheit ihre Blicke hinter die Kulissen der politischen Entstehungsgeschichte der Klimakatastrophe zu werfen. Höchste Zeit, denn der Preis für eine kritiklose Akzeptanz rigider Klimapolitik, die sich sehr gern über den Verweis auf die wissenschaftliche Verkündung des IPCC legitimiert, geht schon jetzt Milliardenhöhe.

Autor Steffen Hentrich;  zuerst erschienen im Denken für die Freiheit 

Das sehr lesenswerte Buch von Donna Framboise " The Delinquent Teenager Who Was Mistaken for the World’s Top Climate Expert [Kindle Edition]" ist als  Kindle Ausgabe bei Amazon erschienen und kann für 4,88 € heruntergeladen werden. 




Endlager für atomare Abfälle am Beispiel des Salzstocks Gorleben

1. Vorwort

Vor einiger Zeit wurde ich angefragt, ob ich bereit wäre, die unten aufgeführten Artikel von Bräuer (2009) [12] und Bornemann et al. (2008) [10] zu kommentieren bzw. für eine breitere Leserschaft aufzuarbeiten. Mit meiner Antwort zögerte ich etwas bezüglich einer Zusage, weil mir bewusst war, wie verantwortungsvoll eine solche Aufgabe ist. Letztendlich sagte ich zu, weil mich schon allein der Sachverhalt dazu bewog, dass bei allen öffentlichen Debatten über das Für und Wider von Endlagern wie z. B. jenes von Gorleben das Wort von allen möglichen Personen geführt wird, jedoch sehr selten von den dafür prädestinierten Spezialisten. Für meine Zusage sprach also weiter, dass die genannten Spezialisten größtenteils meine Berufskollegen sind, so dass eine Stellungnahme meinerseits unter der Bedingung der Wahrung des Respekts gegenüber geleisteter Arbeit Dritter nur recht und billig ist, was immerhin besser wäre, als wenn dies von von Hause aus fachlich inkompetenten Journalisten, Philosophen, Schriftstellern o. ä. Personen bewerkstelligt werden würde. Schnell wurde mir klar, dass die Auseinandersetzung mit den o. g. Arbeiten natürlich bei weitem nicht ausreichend ist, um sich einen umfassenden Überblick über die Problematik der Endlagerung zu verschaffen. Insofern stellen die beiden Arbeiten nur die Spitze des Eisberges dar.

Das Ansinnen des vorliegenden Artikels besteht vor allem darin, anhand des bestehenden riesigen Informationsfundus hinreichend kurz und verständlich relevante Sachverhalte der Endlagerung im tiefen geologischen Untergrund einem erweiterten Kreis von Interessenten zugänglich zu machen. Das ist keineswegs eine leichte Aufgabe. Es erweist sich als äußerst schwierig, sich hierfür in kurzer Zeit ein objektives Bild zu machen und sich dementsprechend ein kompetentes Urteilsvermögen zu erarbeiten. In wie weit mir die Bewältigung dieser Aufgabe gelang, mag u. a. auch der Leser beurteilen.

Im Zuge der fachlichen Auseinandersetzung mit dem Thema stößt man zwangsläufig auf die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR), welche von Beginn an federführend für die Untersuchungsarbeiten u. a. am Salzstock Gorleben verantwortlich zeichnet. Die aktuellen Kenntnisse über die Salzstruktur von Gorleben basieren auf einer weit über 30 Jahre währenden Geschichte, die mit hochkomplexen Projekten vieler Untersuchungsetappen, entsprechenden Untersuchungsarbeiten und Phasen der Berichterstattung und mit anderen zahlreichen Nebenprojekten im Zusammenhang stehen. Dabei zeigt sich, dass die Bearbeitung vorliegender Problematik ein Werk vieler Fachleute hauptsächlich geowissenschaftlicher Disziplinen ist wie der Geophysik (komplexe Oberflächenmessungen, Messungen in Bohrungen und bergbaulichen Hohlräumen u. a.), Ingenieurgeologie (Standsichherheitsfragen, mechanisches Langzeitverhalten, thermische Eigenschaften u. a.), Hydrogeologie (Einfluss von Grundwässern, Langzeitbetrachtung der Grundwasserdynamik u. a.), allgemeine Geologie (geologische Struktur, Stratigraphie, Genese u. a.), um hier nur die wichtigsten zu nennen. Selbstredend basieren die Arbeiten auf den modernsten naturwissenschaftlichen Herangehensweisen  und auch gesellschaftswissenschaftlichen Erkenntnissen. Als selbstverständlich ist dabei der Einsatz modernster Laboranalytik, Bohrtechnik, Rechentechnik (Hard- und Software) anzusehen. Ganz deutlich tritt zu Tage, dass die Aufgaben im Zusammenhang mit der Untersuchung von potentiellen Endlagerstandorten keinesfalls von einer kleineren Gruppe von Bearbeitern weder fachlich noch physisch zu bewältigen sind.

Bei der Erarbeitung des Artikels wurden natürlich die Möglichkeiten des Internets genutzt so auch die Internetenzyklopädie Wikipedia. Dies erwies sich auch als sehr hilfreich, so dass sich somit Informationen sowie deren Vollständigkeit beispielsweise über die potentiellen Möglichkeiten der Endlagerung atomarer Abfälle erlangen bzw. gewährleisten ließen. Hinsichtlich Fragen der Endlagerung von Atommüll, der Kernkraft usw. zog sich jedoch durch jeden Artikel wie ein roter Faden die Handschrift der strikten Gegnerschaft gegen Kernkraft und die ins Auge gefassten Varianten der Endlagerung atomaren Abfalls, trotz des ersten Anscheins von Ausgewogenheit so, als wenn die objektive Wahrheit per se auf der Seite der kritischen Verfasser läge.

Was die Möglichkeit dessen betrifft, dass sich die übernommene Aufgabe als undankbar erweisen könne, spreche ich hier aus ureigener Erfahrung. Sehr oft zeigte sich diesbezüglich das Phänomen, dass Menschen mit ganz zweifellos hohen moralischen und intellektuellen Ansprüchen sich selbst und ihrer Umgebung gegenüber besonders aus der nicht naturwissenschaftlichen Sphäre nicht mehr in ihrer weiteren Meinungsbildung beeinflussbar sind und dabei äußerste Resistenz gegenüber naturwissenschaftlich basierten Argumenten zeigen.

2. Über die Notwendigkeit der Einrichtung von Endlagern

Im Zeitraum von 1957 bis 2004 wurden auf dem heutigen Territorium der Bundesrepublik insgesamt ca. 110 kerntechnische Anlagen errichtet und in Betrieb genommen. Zu diesen Anlagen zählen Kraftwerke wie auch Forschungsreaktoren , welche nicht der Energiegewinnung dienen. Zum jetzigen Zeitpunkt sind davon in Deutschland noch 17 Anlagen in Betrieb (9 Kernkraftwerke, 8 Forschungsreaktoren) [5]. Durch diesen Betrieb fallen zwangsläufig radioaktive Abfälle an. Diese Abfälle stuft man vorrangig nach ihrem Gehalt an radioaktiven Stoffen und der damit verbundenen Wärmeentwicklung ein. International werden radioaktive Abfälle in schwach-, mittel- und hochradioaktive Abfälle klassifiziert. Wärmeentwickelnd sind vor allem Abfälle aus der Wiederaufarbeitung, in denen hohe Konzentrationen hochaktiver Spaltprodukte enthalten sind. In Atomkraftwerken der Bundesrepublik Deutschland wurden bisher jährlich ca. 450 Tonnen Abfall in Form abgebrannter Brennelemente (stark radioaktiv) erzeugt [1].

Ganz unabhängig davon, wie man sich zur Rolle der Kernkraft bei der Energiegewinnung verhalten mag, müssen alle Seiten letztendlich den Fakt anerkennen, dass im Lande einerseits beträchtliche Mengen radioaktiver Abfälle angefallen sind, auch künftig noch anfallen werden und andererseits ihre dauerhafte sichere Endlagerung der bisher praktizierten Alternative ihrer Zwischenlagerung auf unbestimmte Zeit vorzuziehen ist.

3. Anforderungen an Endlager

Die Kriterien für die Einrichtung und Nutzung von Endlagern für radioaktive Abfälle beruhen auf ihren für die Biosphäre schädlichen Eigenschaften, die hauptsächlich mit den langen Halbwertzeiten einiger radioaktiver Elemente bzw. ihrer Isotope in Zusammenhang stehen. Deshalb muss bei der Endlagerung dieser Abfälle ein direkter oder indirekter Kontakt mit der Biosphäre weitgehend bzw. am besten gänzlich verhindert werden. Nach neuerlichen Äußerungen von politischer Seite [2] wird die Gewährleistung einer effektiven Abschirmung über die Dauer von einer Million Jahren gefordert.

Die gesetzlichen Anforderungen an Endlager für radioaktive Abfälle aus kerntechnischen Anlagen basieren auf dem Atomgesetz (AtG) [3]. In einem Dokument des BMU sind die „Sicherheitsanforderungen an die Endlagerung wärmeentwickelnder radioaktiver Abfälle“ (Stand 30. September 2010) [4] dargelegt. Darin sind u. a. die Sicherheitsprinzipien für die Einrichtung und den Betrieb entsprechender Endlager formuliert:

                  „Der dauerhafte Schutz von Mensch und Umwelt ist unter Beachtung folgender Sicherheitsprinzipien zu erreichen:

4.1        Die radioaktiven und sonstigen Schadstoffe in den Abfällen müssen im         einschlusswirksamen Gebirgsbereich konzentriert und eingeschlossen und damit möglichst lange von der Biosphäre ferngehalten werden.

4.2        Die Endlagerung muss sicherstellen, dass Freisetzungen radioaktiver Stoffe aus dem Endlager langfristig die aus der natürlichen Strahlenexposition resultieren den Risiken nur sehr wenig erhöhen.

4.3        Die Endlagerung darf die Artenvielfalt nicht gefährden. Dabei wird davon ausgegangen, dass auch terrestrische Ökosysteme sowie andere Spezies in ihrer Art geschützt werden, wenn der Mensch als Individuum vor ionisierender Strahlung geschützt ist.

4.4        Die anderweitige Nutzung der natürlichen Ressourcen darf nicht unnötig eingeschränkt werden.

4.5        Die Auswirkungen der Endlagerung auf Mensch und Umwelt dürfen außerhalb der Grenzen Deutschlands nicht größer sein als innerhalb Deutschlands zulässig. Zur Vermeidung unzumutbarer Lasten und Verpflichtungen für zukünftige Generationen sind folgende Sicherheitsprinzipien zu beachten:

4.6        Das Endlager ist so zu errichten und so zu betreiben, dass für den zuverlässigen langfristigen Einschluss der radioaktiven Abfälle im einschlusswirksamen Gebirgsbereich in der Nachverschlussphase keine Eingriffe oder Wartungsarbeiten erforderlich werden.

4.7        Es ist eine möglichst zügige Errichtung des Endlagers zu realisieren.

4.8        Für Errichtung und Betrieb einschließlich Stilllegung des Endlagers müssen die erforderlich werdenden finanziellen Mittel zeitgerecht zur Verfügung stehen.“

4. Praktiken und Möglichkeiten der Entsorgung und Endlagerung radioaktiver Abfälle

 An dieser Stelle seien kurz die Praktiken und Möglichkeiten der Entsorgung und Endlagerung radioaktiver bzw. anderer schädlichen Abfälle [5] aufgeführt. Eine Kommentierung dieser Möglichkeiten erübrigt sich z. T. von selbst.

Endlagerung im Eisschild der Antarktis

Bei dieser Idee wird davon ausgegangen, dass durch den mächtigen Eispanzer der Antarktis dort verbrachte radioaktive Stoffe wirksam von der Biosphäre isoliert gelagert werden können. Dem widerspricht jedoch die Wärmeentwicklung der Abfälle sowie die nach international verbindlichen Verträgen hohen Umweltauflagen für diese Region.

Entsorgung in den Weltmeeren

Bis 1994 konnten feste radioaktive Abfälle legal in den Meeren verklappt werden. Bisher ist es nach internationalem Recht noch legal, radioaktiv belastete Wässer in die Meere einzuleiten (Wiederaufbereitungsanlage La Hague, Nuklearkomplex Sellafield).

Lagerung unter freiem Himmel

Diese Variante der Lagerung radioaktiver Stoffe wird in großen Flächenländern wie Russland und in einigen GUS-Staaten bis heute praktiziert, weil man dort über relativ große unbesiedelte Territorien verfügt. Diese Herangehensweise birgt ganz ohne Zweifel ein hohes Gefahrenpotential für die Biosphäre.

Entsorgung im Weltraum

Entsprechend dieser Idee wird vorgeschlagen, atomaren Abfall mit Hilfe von Raketen auf andere Himmelskörper (Planeten, Asteroiden) und auch in Richtung Sonne zu transportieren. Dieser Lösungsvorschlag ist jedoch mit hohen Risiken (Gefahren in der Startphase im Bereich des Einflusses des Gravitationsfeldes der Erde) und extrem hohen Kosten verbunden.

Wiederverwertung

Im Falle der weiteren Energiegewinnung mittels Kernspaltung kann als atomarer Abfall angesehenes Material nach entsprechender Aufarbeitung einer industriellen Kernenergiegewinnung wieder zugeführt werden. Den atomaren Müll kann man insofern auch als wertvollen künftigen Rohstoff für die Gewinnung von Kernbrennstoffen ansehen.

Dieser Kategorie ist auch die Nutzungsart zuzuordnen, bei der Anreicherung und Energiegewinnung angefallenes abgereichertes Material (Uran) zur Herstellung von Uranmunition mit militärisch gewollter erhöhter Durchschlagskraft, erhöhter Toxizität und negativen Spätfolgen der Radioaktivität zu verwenden.

Transmutation

Bei diesem Verfahren sollen aus hochaktiven langlebigen Nukliden durch Neutronenbeschuss kurzlebige Nuklide hergestellt werden, womit die notwendige Dauer ihrer Abschirmung von der Biosphäre erheblich verkürzt werden würde. Forschungen dazu sind jedoch noch in ihren Anfängen, so dass derzeit auf der Basis der Transmutation noch keine industriell betriebenen Anlagen existieren.

Endlagerung im tiefen geologischen Untergrund

Entsprechend dieser Variante der Endlagerung wird die Deponierung radioaktiver Abfälle in geologisch stabilen Gesteinsschichten vorgesehen. In Deutschland wird in fachlich kompetenten Kreisen die Endlagerung radioaktiver Abfälle im tiefen geologischen Untergrund unter dem Vorzug von Salzstöcken als beste Entsorgungsvariante favorisiert. Neben der Endlagerung in Salzstöcken fasst man diese auch in Graniten, tonigen Gesteinen u. a. als so genannte Wirtsgesteine ins Auge. Beispielsweise konzentriert man sich in Frankreich auf die Suche von für die Endlagerung geeigneten Strukturen mit tonigen Gesteinen. Dies ist vor allem der Tatsache geschuldet, dass auf dem Territorium von Frankreich nur wenige, anders genutzte oder für eine Endlagerung ungeeignete Salzstöcke existieren!

Konditionierung

An dieser Stelle soll kurz auf die so genannte Konditionierung von radioaktiven Abfällen eingegangen werden. Mit der Konditionierung werden die Abfälle so behandelt, dass sie in einen chemisch inerten Zustand versetzt werden und beispielsweise in Wasser unlöslich sind. Zum Beispiel werden hochradioaktive Abfälle dazu in Glas eingeschmolzen und wasserdicht in Edelstahlbehältern verpackt.

……………….

11. Fazit

Wahrlich, es hat den Anschein, dass der Standort Gorleben vorrangig aus politischen Gründen zur Auswahl kam. Man sehe sich nur die geografische Lage von Gorleben an! In den 1970-er Jahren „tobte“ noch der kalte Krieg…In diesem Zusammenhang wäre vorstellbar, dass der Standort Gorleben nicht die erste Wahl hätte darstellen können. Dem ist jedoch nicht so (s. Tab. 2). Dies ist außerdem keinesfalls ein ernsthaftes Kriterium für eine generelle Nichteignung des Standorts als atomares Endlager. Andererseits wurden immerhin für die Erkundung des Standorts Milliardenausgaben aus Rücklagen der Atomenergieerzeuger getätigt. Auch das Moratorium hatte über 10 Jahre lang seinen jährlichen Preis von ca. 22 Millionen Euro.

Selbst wenn sich erwiese, dass der Standort Gorleben als atomares Endlager nicht optimal wäre (was keineswegs heißen sollte, dass er generell nicht geeignet sei), so scheint m. E. das Prinzip, dass es für alle sachlichen Probleme eine optimale ingenieurtechnische Lösung gibt, im Fall Gorleben wenig bzw. nicht erschöpfende Anwendung zu finden. Hiermit sind vor allem die Möglichkeiten der Herstellung verschiedenster technischer Barrieren gemeint, wie es beispielsweise in der bundesdeutschen Abfallwirtschaft z. B. bei der Errichtung von Sondermülldeponien bisher geübte Praxis war und auch im internationalen Maßstab als äußerst vorbildlich gilt.

Bei intensiverer Beschäftigung mit der vorliegenden Materie unter ständigen Bemühungen Neutralität zu wahren, eigene Voreingenommenheit zu unterdrücken, gelang es mir jedoch nicht, mich des Eindrucks zu erwehren, dass bestimmte Personen, bestimmte Kreise wahrscheinlich aus persönlichem Profilierungsdruck heraus sowie auf jeden Fall aus Gründen politischen Kalküls mit dem Ziel politischer Machtausübung und Einflussnahme, objektiv betrachtet, auf meist unkonstruktive Weise permanent bestrebt sind, ganz fadenscheinig und häufig fachlich absurde „Haare in der Suppe“ aufzuzeigen. Das Fatale besteht hier darin, dass mit dieser demagogischen Art und Weise auf gesellschaftlicher Basis ganz offensichtlich erfolgreich politische Mehrheiten zu erringen sind.

Das letzte Wort über die Eignung oder Nichteignung des Standorts Gorleben sollte hierzu jedoch den Spezialisten – den Projektanten, den Erkundern, den Auswertern der Untersuchungsergebnisse usw. gehören unter der Bedingung, dass dazu eine sachliche Aufklärung der Öffentlichkeit erfolgte und auch sachlich möglich wäre, infolge derer ein weitgehender gesellschaftlicher Konsens erzielt werden könnte. Aber dies scheint in Deutschland gegenwärtig eine utopische Idealvorstellung zu sein…

Mit der Erarbeitung des vorliegenden Aufsatzes innerhalb der gegeben Zeit tat ich mich vor allem deshalb schwer, weil sich die Materie als sehr vielschichtig und umfangreich erwies. Außerdem hatte ich ständig das Gefühl im Nacken, einer Verantwortung, einem quasi Versprechen nicht gerecht werden zu können, ohnmächtig zu sein, einerseits angesichts der von anderen über einige Jahrzehnte geleisteten Detailarbeiten, den dabei angehäuften immensen Datenmengen, die mühevoll zu einem plausiblen Großen und Ganzen zusammengesetzt werden müssen. Andererseits dachte ich ständig an die sich in der Mehrheit befindenden Opponenten, wie schwer man sich dort wohl erfahrungsgemäß ernsthaften Argumenten gegenüber täte..?

Der gesellschaftliche Hintergrund ist besonders in Deutschland von politischen Weichenstellungen der nationalen Energiepolitik und einer paradoxerweise damit im Einklang stehenden vorherrschenden öffentlichen Meinung geprägt, die fast hoffnungslos von einer absurden, eigentlich perfiden Ideologie der Dekarbonisierung sowie einer aktionistisch betriebenen Politik physikalisch unsinnig so genannter erneuerbarer Energien indoktriniert scheint. Gleichzeitig grassiert weltweit eine Finanz- und Wirtschaftskrise. Das ist die Ausgangssituation, in der weitere Untersuchungsarbeiten am Salzstock Gorleben und damit zusammenhängende grundlegende Entscheidungen in naher Zukunft bevorstehen. Wie werden die Würfel fallen? Es ist abzuwarten! Bleibt zu hoffen übrig, dass in der Zukunft, was in der Menschheitsgeschichte schon vorgekommen sein soll, die Nüchternheit über die Benommenheit, die Sachlichkeit über die Verbohrtheit, die Offenheit über die Beschränktheit, die Vernunft über die Dummheit, Wissen über Glauben letztendlich die Oberhand gewinnt.

Glück Auf!

Dr. Bernd Hartmann für EIKE

Lesen Sie den ganzen Beitrag 

als pdf im Anhang

Related Files




Langzeit-Temperaturreihen, Stalagmiten und Baumringe widersprechen einer maßgebenden anthropogenen Erwärmung

Die von uns als pdf beigefügte Version des Artikels, inzwischen auch in ArXiv veröffentlicht, ist gegenüber der E & E Originalversion geringfügig erweitert und um neuere Literatur ergänzt, denn zwischen dem Einreichen der Arbeit und der Veröffentlichung durch E & E lag etwa ein halbes Jahr. Der Aufsatz ist, wie praktisch alle naturwissenschaftlichen Fachaufsätze, in Englisch. Wir geben hier nur eine kurze deutsche Zusammenfassung an. Englisch ist heute bekanntlich die „lingua franca“ der Wissenschaft, es gibt so gut wie keine wissenschaftlichen Fachaufsätze mit weiterer Verbreitung mehr in individuellen Landessprachen. Da die fachlichen Inhalte des Aufsatzes vorwiegend Physiker ansprechen, denen ohnehin Fachenglisch geläufig ist, verzichten wir auf eine Übersetzung ins Deutsche und bitten weiter interessierte Leser den Aufsatz im Original heranzuziehen. 

Übersicht und Inhaltszusammenfassung

Politik und Medien, gestützt durch das IPCC, betonen eine ungewöhnliche, rezente Temperatursteigerung der Erde, die maßgeblich durch anthropogenes CO2 verursacht sein soll. Zur Abhilfe weiterer Temperatursteigerungen, es wird sogar ein nur politisch als relevant anzusehendes Ziel von max. 2 °C angegeben, werden volkswirtschaftlich einschneidende CO2-Reduktionen propagiert (Energiewende). Treffen die Verlautbarungen vom gefährlichen Temperaturanstieg aber überhaupt zu? Können uns ferner Vergangenheitstemperaturen etwas über den gegenwärtigen Trend aussagen?

Bis höchstens 250 Jahre zurück gibt es nur fünf verlässliche lokale Monatsreihen der Nordhemisphäre, d.s. Hohenpeissenberg, Prag, München, Wien und Paris. Noch weiter in die Vergangenheit zurück stehen rekonstruierte Temperaturen zur Verfügung, vorwiegend aus Stalagmiten und Baumringen, meist als „Proxies“ bezeichnet. Die fünf Langzeit-Thermometerreihen zeigen im 19. Jahrhundert einen etwa gleich starken Temperaturabfall wie den sehr viel bekannteren Anstieg im 20. Jahrhundert. Nimmt man anthropogenes CO2 als Ursache des Anstiegs im 20. Jahrhundert an, entsteht ein Ursachenproblem für das 19. Jahrhundert. Tatsächlich sind die Ursachen beider Jahrhundert-Fluktuationen bis heute ungeklärt.

Die Arbeit unternimmt die Trendanalyse der fünf Langzeit-Thermometerreihen und ferner einer hochqualitativen Stalagmiten- sowie Baumring-Temperaturkurve. Ein Trend wird in üblicher Weise an Hand linearer Regression definiert. Die Größe ∆ [°C] (in dieser Arbeit, von einer Ausnahme abgesehen, stets über den Zeitraum von 100 Jahren) ist dabei der Temperatur-Anstieg bzw. -Abfall der Regressionsgeraden. Die relative Temperatur­änderung ∆/s, mit s als der Standardabweichung um die Regressionsgerade herum, ermöglicht schließlich den sinnvollen Vergleich unterschiedlicher Reihen und die Trendanalyse.

Der Vergleich der Thermometer- mit den rekonstruierten Reihen zeigt, dass letztere über rund 2000 Jahre lang oft weit stärkere ∆/s Maxima- bzw. Minima als die Thermometerreihen aufweisen. Die relativen 100-Jahres-Trends des 19. und 20. Jahrhunderts sind daher im langzeitlichen Vergleich völlig normal. Dieses Teilergebnis widerspricht bereits der Behauptung, die Erwärmung im 20. Jahrhundert sei ungewöhnlich.

Die allen Temperaturreihen innewohnende Autokorrelation (Persistenz) bewirkt, dass größere ∆/s Werte mit entsprechend höherer Wahrscheinlichkeit auf ganz natürliche Weise auftreten können. Damit sind sie aber nicht mehr von einem externen Trend zu unterscheiden, wie er z.B. durch UHI oder anthropogenes CO2 verursacht sein könnte. Mit der Detrended Fluctuation Analysis (DFA), mit Monte-Carlo-Simulation und mit Hilfe synthetischer Reihen ist es jüngst gelungen, aus dem ∆/s und dem sog. HURST-Exponenten einer Temperaturreihe quantitativ anzugeben, wie natürlich (zufällig) der gemessene ∆/s Wert der Reihe ist. Liegt die Wahrscheinlichkeit für Zufälligkeit unter einer definierten Vertrauensschwelle, wird ein externer Trend angenommen. Damit liegt erstmals ein quantifizierbares Unterscheidungskriterium zwischen „Zufall“ und „Trend“ vor. Es ist zu betonen, dass über Ursache und Art des evtl. vorhandenen Trends das Verfahren, das auch in der vorliegenden Arbeit verwendet wird, nichts aussagt.

Die Analyse zeigt, dass alle 5 Thermometerreihen einen externen Trend beinhalten. Im Gegensatz dazu enthalten die beiden Proxy-Reihen keinen Trend und sind zudem wesentlich stärker autokorreliert. Damit liegt ein Widerspruch zwischen den Thermometer- und den Proxy-Daten vor, der nicht ohne weiteres zu beseitigen ist. Die viel stärkere Autokorrelation der Stalagmiten- und Baumring-Reihen, die hier bis zu 600 Jahren Dauer nachgewiesen wurde, kann nicht durch Artefakte bei der Gewinnung dieser Temperaturdaten erklärt werden.

In der Arbeit wurde erstmals die Hypothese aufgestellt, dass die vorbeschriebene Diskrepanz durch einen niederfrequenten Klimaeinfluss der Sonne verursacht wird (sich änderndes Sonnenmagnetfeld). Die DFA-Analyse von Monatsreihen bis etwa 230 Jahren Länge kann grundsätzlich nur Autokorrelation bis höchstens 50 Jahre nachweisen. Ein langsamer Sonneneinfluss mit Änderungen, die sich erst über mehrere Jahrzehnte bemerkbar machen, wird daher automatisch von der DFA als „linearer Trend“ aus der Reihe entfernt. Dies ändert sich grundlegend mit der DFA-Analyse der 2000 Jahre langen rekonstruierten Temperatur-Reihen (Jahresmittelwerte im Gegensatz zu Monatswerten), in denen kein Trend aufgefunden wird. Die Analyse führt hier zu wesentlich höheren Wahrscheinlichkeiten starker ∆/s Fluktuationen, die in den beiden Proxies tatsächlich beobachtet werden. Mit anderen Worten: Der Sonneneinfluss ist in den Monats-Thermometerdaten ein (relativ langsamer) linearer externer Trend, der von der DFA bei der Analyse automatisch entfernt wird. Die Sonnenfluktuationen in den rekonstruierten Jahres-Daten sind dagegen jetzt Fluktuationen mit 12 mal so hoher Frequenz und werden daher von der DFA nicht mehr als langsamer Trend erkannt. Sie gehören zum Gesamt-Ensemble aller naturgegebenen Einflüsse, die die stärkere Autokorrelation (höheren HURST-Exponent) der rekonstruierten Reihen ausmachen. 

Um die Hypothese vom Sonneneinfluss zu überprüfen, wurde eine ca. 1500 Jahre lange synthetische Temperatur-Monatsreihe erzeugt, die die Autokorrelationseigenschaft der Thermometerreihen aufweist und dann mit der Sonnenfleckenreihe überlagert wurde. Die DFA-Analyse der synthetischen Reihe stützt die hier vorgestellte Hypothese. Sie zeigt ein Cross-Over der Autokorrelation bei etwa 60 Jahren und enthält damit sowohl das Autokorrelationsmerkmal der Thermometerreihen als auch der beiden rekonstruierten Reihen. Es darf daher vermutet werden, dass 100-Jahres-Temperaturanstiege oder -Abfälle vorwiegend auf den Einfluss des sich ändernden Sonnemagnetfelds zurückgehen und kaum mit anthropogenen Einflüssen zusammenhängen.

Das Ergebnis der Arbeit wird von jüngsten Veröffentlichungen gestützt, die keine Trendverstärkung zwischen der ersten und zweiten Hälfte des 20. Jahrhunderts auffinden. So heißt es beispielsweise in der Conclusion der Publikation „S. Lennartz, and A. Bunde, Trend evaluation in records with long-term memory: Application to global warming, Geophys. Res. Lett., Vol. 36, L16706 (2009)”:

Our result yields only weak support for the thesis that the trend in the last 50 years changed its character compared with the first 50 years, since only 1/3 of the records show a remarkable change.

Oder anders gesagt: Stimmt die Hypothese von einer maßgebenden Temperaturwirkung des anthropogenen CO2 (ein kleiner, im wes. unmaßgeblicher Erwärmungseffekt wird von niemandem bestritten), müsste der Erwärmungstrend in der zweiten Hälfte des 20. Jahrhunderts wesentlich stärker ausfallen als in der ersten Hälfte, denn da stiegen die CO2 Emissionen besonders stark an. Dies wurde von Lennartz/Bunde nicht aufgefunden.

In ihrer jüngsten Veröffentlichung „S. Lennartz, and A. Bunde, Distribution of natural trends in long-term correlated records: A scaling approach, Phys. Rev. E 84, 021129 (2011)” bestätigen die Autoren auf S. 7

We consider it as a surprise that the measured temperature increase in the records considered still does not show a significant trend on the 500-month scale

Michael Limburg EIKE

Related Files




„Clean Development Mechanism“ Plan der UN „IM GRUNDE EINE FARCE”

In diesem Programm gab es von Anfang an einen wild wuchernden Betrug, was natürlich mehr ein Feature als eine Unstimmigkeit der UN ist. Natürlich möchten die UN dieses Programm ausweiten und die Geldmenge, die reiche Länder an arme Länder schicken, erhöhen. Ein führender deutscher Klimadiplomat, Otmar Edenhofer, hat es letzten Herbst taktlos so ausgedrückt: „Aber man muss ganz klar sagen, dass wir de facto durch die Klimapolitik das Weltvermögen umverteilen. Offensichtlich sind die Besitzer von Kohle und Öl darüber nicht enthusiastisch. Man muss sich von der Illusion freimachen, dass die internationale Klimapolitik Umweltpolitik ist. Sie hat fast nichts mehr mit Umweltpolitik zu tun“.

Der lustigste Aspekt dieser Geschichte liegt darin, dass die schädliche Information aus WIKILEAKS stammt. Offensichtlich haben sie nicht verstanden, dass sie nur linken Umtrieben dienen. Der Artikel in Nature könnte hinter einer Firewall verborgen sein, daher folgen hier die relevanten Abschnitte:

 (Das CDM) erlaubt es reichen Ländern, einige ihrer Kohlenstoffemissionen auszugleichen, indem sie in klimafreundliche Projekte investieren, wie z. B. Wasserkraftwerke und Windfarmen in den Entwicklungsländern. Verifizierte Projekte verdienen zertifizierte Emissions-Reduktionen – Kohlenstoffgutscheine, die gekauft und verkauft werden und die auf das Ziel der reichen Nationen, Kohlenstoffemissionen zu reduzieren, angerechnet werden.

Aber eine im vorigen Monat auf WikiLeaks veröffentlichte diplomatische Depesche enthüllt, dass die meisten CDM-Projekte in Indien nicht hätten zertifiziert werden dürfen, weil die Emissionen dort nicht über das Maß hinaus reduziert worden waren, das man auch ohne diese auswärtigen Investitionen erreicht hätte. Indischen Funktionären war das Problem offenbar seit zwei Jahren bekannt.

“Was jetzt enthüllt worden ist, bestätigt unsere Ansicht, dass das CDM in seiner jetzigen Form eine Farce ist”, sagt Eva Filzmoser, die Programmdirektorin von CDM Watch, einer in Brüssel ansässigen Überwachungsorganisation [ a watchdog organization]. Die Enthüllungen zeigen auch, dass Millionen Tonnen behaupteter Reduktionen von Treibhausgasen reine Phantome sind, sagt sie, und potentiell Zweifel erregen über die Prinzipien des Kohlenstoffhandels. „Angesichts dieser Kommentare ist es kein Wunder, dass die USA aus dem Emissionshandel ausgestiegen sind“, sagt Filzmoser.

Steven Hayward; den Originalartikel finden Sie hier : 

Übersetzt von Chris Frey für EIKE




Klimaforscher Latif spricht in Leipzig über Vorhersagen der 1. und 2. Art.

Fakultätskolloquium How predictable is climate?

In der Ankündigung heißt es:

Individuelle Wetterphänomene wie Tiefdruck-Systeme oder ein Hurrikan sind im Durchschnitt nur bis zu einer Vorlaufzeit von etwa zwei Wochen vorhersagbar . Dies ist so, aufgrund der chaotischen Natur der Atmosphäre, die sehr empfindlich auf Fehler in den Anfangsbedingungen ist.

Wie kann es dann möglich sein, dass wir die globale Erwärmung und ihre Folgen vorhersagen? Man kann konzeptionell zwischen der Vorhersagbarkeit der ersten und zweiten Art zu unterscheiden. Mathematisch ergibt sich die erstere aus den Annahmen der Anfangswerte, während sich die letztere aus den Randbedingungen ergibt. Das berühmteste Beispiel für die Berechenbarkeit der ersten Art ist die Wettervorhersage. Das Klima als Reaktion auf verstärkte atmosphärische Konzentration von Treibhausgasen ist ein Beispiel für die Vorhersagbarkeit der zweiten Art. Solche als Projektionen bezeichnete Berechnungen versuchen, die Änderung in der Statistik des Wetters in Reaktion auf die veränderte Zusammensetzung der Erdatmosphäre zu berechnen. Der Klimawandel Prognosen für die nächsten Jahrzehnte sind ein Beispiel für das gemischte Problem, da sowohl die ursprünglichen Zustand und Veränderungen in der Zusammensetzung der Atmosphäre wird es wichtig sein.

Hier der Originaltext 

Individual weather phenomena such as a low pressure system or a hurricane are predictable on average only up to a lead time of about two weeks. This is due to the chaotic nature of the atmosphere which is highly sensitive to errors in the initial conditions. How then can it be possible that we predict global warming and its consequences? One can conceptually distinguish between the predictability of the first and second kind. Mathematically, the former arises from the initial, while the latter from the boundary conditions. The most famous example of the predictability of the first kind is the weather forecast. The climate response to enhanced atmospheric greenhouse gas concentrations is an example of the predictability of the second kind. Such calculations termed projections attempt to compute the change in the statistics of weather in response to the changed composition of the Earth’s atmosphere. Climate change projections for the next few decades are an example of the mixed problem, as both the initial state and changes in atmospheric composition will be important.

Leitung:
Prof. Dr. Jürgen Haase

Öffentliche Veranstaltung

Veranstaltungsort:
Fakultät für Physik und Geowissenschaften
Hörsaal für Theoretische Physik
Linnéstraße 5
04103 Leipzig

Die Redaktion mit Dank an Spürnase Dr. Ufer EIKE

Update 19.10.11

ausgewählte Zitate des Vortragenden Prof. Dr. Mojib Latif vom Geomar in Kiel:

"Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben"

Quelle SPON am 1.4.2000
http://tinyurl.com/yjqhkht

Und: "Die Erwärmung entwickelt sich wie vorhergesagt. Die Modelle wurden auch an vergangenen Klimaänderungen getestet. Es gibt keinen Grund, den Modellen zu misstrauen"

und:
" Die Skeptiker verstehen nicht warum CO2 überhaupt klimawirksam ist. Die Atmosphäre ist wie ein riesiges Treibhaus, wobei das CO2 die Rolle des Glases übernimmt – es lässt die Wärme nicht entweichen. Je mehr CO2, desto dichter oder dicker das Glas und umso größer die Erwärmung." 

Quelle beide Zitate :-Bild-Zeitung vom 20.09.07 Seite 13.