Wie lange wird Europa noch zaudern, bei der Schiefergas-Revolution mitzumachen?

Europäische Länder könnten bald zu Schiefergas-Importeuren aus Russland werden, wenn die grüne Energie-Verhinderer-Lobby ihren Weg erfolgreich fortsetzt. Die Aussicht auf noch größere Abhängigkeit von russischem Gas, zusammen mit einem neuen Ansturm auf die Verbrennung von Kohle, kann die unbeabsichtigte doch unvermeidliche Folge des anhaltenden Widerstandes grüner Aktivisten und politischer Entscheidungsträger gegen heimische europäische Schiefergasförderung sein. So wie der deutsche Ausstieg aus der Kernenergie zu einem Anstieg der Einfuhren in Deutschland von französischer und tschechischer Kernenergie geführt hat, wird Europas Blockade der Schiefergasexploration Russland den perfekten Grund bieten, ihre eigenen Schiefer-Extraktion zu intensivieren.

Während die europäischen Regierungen zaudern, wird der Schiefer-Boom in Russland die Ausbeutung der riesigen Vorkommen beschleunigen. Russische Unternehmen schließen sich der Schiefergas-Revolution an, um den Exportmarkt  des Landes zu sichern, nicht zuletzt auch seine Gasexporte nach Europa. Der Kreml hofft darauf, die vermutlich weltweit reichsten Schieferreserven in Westsibirien durch steuerliche Anreize für internationale Unternehmen interessant zu machen, um in das neuen Energie-Spiel zu investieren.

In scharfem Kontrast zu den Entwicklungen in Russland und einem Großteil des Restes der Welt, stehen dazu Umwelt-Aktivisten und grüne Politiker. Sie blockieren Schiefer-Entwicklungen in den meisten europäischen Ländern. Staaten der Europäischen Union haben kaum die Oberfläche der Schiefergas-Vorkommen angekratzt. Es gibt zwei dutzend Probebohrungen in ganz Europa, im Vergleich zu geschätzten 35.000 Fracking- Standorten in den Vereinigten Staaten. Als Ergebnis hat Europa es versäumt, der Schiefergas-Revolution, die durch die USA gefegt ist, beizutreten. Statt von kostengünstigem Schiefergas zu profitieren, zudem mit weniger CO2-Emissionen, neuen Branchen und hunderten bis  tausenden neuer Arbeitsplätze, beschränkt sich Europa selbst mit auferlegten Grenzen grünen Wachstums.

Weil in den USA das Gas die Kohle in großem Umfang ersetzt, hat die Schiefergas-Revolution dort zu einer dramatischen Reduktion der CO2-Emissionen geführt: Auf das Niveau von 1992.

Laut Regierungsvertretern, ist dafür das billige und reichlich vorhandene Schiefergas der Hauptgrund. Es hat dazu geführt, dass Kraftwerksbetreiber von Kohle auf Erdgas umstellen. Der Schiefergas-Boom hat den Gaspreis von $ 12 pro Einheit, vor etwa fünf Jahren auf weniger als 3 $ abgesenkt. Zudem ist Erdgas viel billiger zu verstromen, als Kohle.

Um die US-Energie-Revolution zu wiederholen, die für den schnellen Rückgang der CO2-Emissionen und den Zusammenbruch der Preise für Erdgas geführt hat, würde Europa von Kohle auf Erdgas umschalten müssen. Doch die Schiefergas-Blockade der grünen Lobby, zusammen mit ihrem Widerstand gegen die Kernenergie verursacht das genaue Gegenteil: Sie hat zu einer Renaissance der Kohle geführt. Deutschlands grüne Energiewende sollte Strom umweltfreundlich produzieren. Wie sich herausstellt, wird die Stromlücke, die durch die Abschaltung von acht Kernkraftwerken erzeugt wurde, weitgehend durch Kohlestrom ausgefüllt werden. Damit wird die Kohle eine neue Renaissance aber nicht nur in Deutschland erleben. Denn tatsächlich werden die CO2-Emissionen in der EU als Ganzes wahrscheinlich auf 43 Millionen Tonnen in diesem Jahr steigen, wegen der vermehrten Verbrennung von Kohle in Kraftwerken – so glauben Barclays Analysten.

Doch mehr als Europas neuen Kohle-Boom, fürchten grüne Energie Aktivisten, dass das Umschalten auf billiges und reichlich vorhandenes Schiefergas, die erneuerbaren Energien und deren Multi-Milliarden-Subventionen bedrohen. Es ist diese ökonomische Sorge, die den Antrieb für die organisierte Opposition gegen die Schiefergas-Entwicklung in Europa liefert und dabei ökologische Gesichtspunkte ausser Acht läßt. "Wir brauchen keine so große Menge Gas und sicherlich nicht billiges Gas, denn das würde nicht nur die Kohle, sondern auch die erneuerbare Energien verdrängen", fürchtet der Greenpeace-Experte für erneuerbare Energien Sven Teske.

Es gibt einige starke Anzeichen dafür, dass die Anti-Schiefergas-Kampagne in Europa an Dynamik verliert, nicht zuletzt in Frankreich, wo das Hydraulic Frakking vor einem Jahr aus parteipolitischen Sorgen verboten wurde. Die neue sozialistische Regierung, vor einer tiefen Wirtschafts- und Finanzkrise stehend, hat achon angekündigt, dass sie erwägt, für Schiefergas-Extraktion grünes Licht zu geben. Jüngst sagte Ministerpräsident Jean-Marc Ayrault, dass die Debatte über Schiefergasbohrungen "nicht erledigt" sei und dass neue und sichere Methoden für Hydraulic Frakking ökologische Bedenken ausräumen könnten. Seine diplomatische Sprache übersetzt Präsident Francois Hollande, der Reportern erzählte, dass er "offen bliebe für die Schiefergas-Extraktion, wenn sie mit einer sicheren und sauberen Technik erzielbar sei". Ich denke, die meisten Beobachter verstehen, dass Frankreich letztendlich im Geschäft bleiben will.

Autor Benny Peiser ist Direktor des Global Warming Policy Foundation, einem in London ansässigen Think-Tank

Zuerst erschienen bei der Global Warming Policy Foundation 




Die „mutierten“ Schmetterlinge von Fukushima!

Gibt es dort tatsächlich Mutationen? Ganz bestimmt, die gibt es überall, bei Menschen, Tieren und Pflanzen. Oder sollte unter dem Bild stehen: „Atomkatastrophe auch in China“?

Die richtige Frage wäre: Gibt es um Fukushima erhöhte Mutationsraten? Nach dem Bericht von Atsuki Hiyama und 6 anderen in der Zeitschrift „Nature“ vom August 2012 über mutierte Schmetterlinge müsste man das annehmen.

Der Bericht sieht wissenschaftlich aus. Was ist aber Naturwissenschaft? Sie erforscht Tatsachen und deren Zusammenhänge. Erstere stellt sie in Form von Zahlen dar, letztere als mathematische Formeln. Damit kommt die Wissenschaft aber nicht aus, sie braucht auch Worte. Da reicht der Wortschatz der Umgangssprache nicht, es mussten Fachausdrücke erfunden werden.

Nun lässt sich mit Zahlen und Fachwörtern beliebiger Unsinn darstellen, und diese Möglichkeit wird in größtem Umfang genutzt. Dadurch wird es aber keine Wissenschaft. Diese ist ein System, in welchem alles zueinander passen muss, Wirkungen zu Ursachen, neue Erkenntnisse zu den etablierten alten. In der Physik begegnet man Namen wie Archimedes, Galilei, Newton, deren Erkenntnisse ewig gültig bleiben, weil sie sich auf von Menschen unabhängige Naturgesetze beziehen. Man ersetzt sie nicht, sondern baut auf ihnen auf. In der Biologie gilt das für die Vererbungsregeln von Gregor Mendel und die Erkenntnisse über Strahlenmutanten seit Muller (1927).

Ganz anders der mit wissenschaftlicher Terminologie dargestellte Aberglaube. Da ist alles beliebig. Was früher war, ist heute anders, Strahlung in Indien ist nicht mit Strahlung in Deutschland zu vergleichen, es gibt Wirkungen ohne Ursache, z.B. leukämiekranke Kinder schon bei der Dosis Null.

Die Wissenschaft ermittelt tatsächliche Zusammenhänge zwischen Wirkung und Ursache. Die Abhängigkeit der Mutationsrate von der Dosis ionisierender Strahlung wird seit 1927 untersucht. Es ging nie um die Frage, gibt es Mutationen? Die gibt es immer, die Frage ist, um wie viel sich die Mutationsrate erhöht. Beginnen muss man also bei der natürlichen Mutationshäufigkeit. In der Arbeit über die Schmetterlinge wurde es nicht so gemacht.

Das wesentliche Ergebnis aller wirklich wissenschaftlichen Versuche seit über 80 Jahren mit Drosophila, Mäusen, Bakterien, Hefe usw. und allen Strahlenarten, Röntgen, Gamma, Beta, Alpha sowie Neutronen ist: Die Zahl sichtbarer Mutationen verdoppelt sich bei Dosen im Bereich von 1.000 Millisievert. Das zu ermitteln erforderte einen großen Aufwand. Oft gibt es unter 100 Nachkommen nicht einen, dessen Aussehen durch Mutation verändert ist. Die natürlichen Mutationsraten liegen fast immer unter 1 %. Anders wäre es auch schlimm, würden wir sagen. Nicht so die Züchter, sie finden das unbefriedigend und steigern die Mutationsraten oft durch Bestrahlung. Ob Sie Ihre Lebensmittel nun im eigenen Garten anbauen, im normalen Lebensmittelmarkt oder im Bioladen kaufen, immer werden Sie einen hohen Anteil an Strahlenmutanten essen.

Nun zu den Schmetterlingen. Die Art (Zizeeria maha) gehört in die Gruppe der Bläulinge, hat es gern warm, in der Gegend von Fukushima geht es gerade noch. Sie kommt auch in Indien vor, wo sie im Bundesstaat Kerala ganz erheblicher natürlicher Radioaktivität ausgesetzt ist,  was ihr offensichtlich nichts ausmacht. Aber glaubt man den Autoren, ist es um Fukushima ganz anders. Die Tiere hat es in der Winterruhe erwischt, als Raupen. Sie waren also am 11. März längst aus dem Ei und daher wurden bei den im Mai gefangenen 144 Schmetterlingen auch keine Mutanten gefunden. Allerdings waren angeblich die Flügel um so kürzer, je näher am Kraftwerk die Schmetterlinge lebten.

Die Schmetterlinge wurden nach Okinawa gebracht; weiter weg von Fukushima geht es in Japan nicht. Dort konnten sie Eier legen, die Raupen schlüpften aus, und da zeigte sich die ganze Katastrophe: 18,5 % Veränderungen an Flügeln, Beinen, Augen und anderem. Dazu kam noch eine hohe Todesrate der Raupen und unnormale Dauer des Puppenstadiums. Die Überlebenden durften wieder Eier legen, und in dieser zweiten Generation wurde alles noch schlimmer: 33,5 % Veränderungen.

Mehrere Wissenschaftler haben die Angaben überprüft und eine Reihe von Unstimmigkeiten gefunden. Ich möchte nur einmal die Dosiswerte vergleichen. Es gibt eine Dosis-Wirkungs-Beziehung! Strahlung schlägt nicht einmal so zu und einmal anders.

1.000.000 Millisievert            Tod von Wespen

     40.000 Millisievert            10 % Mutationsrate bei der Fliege Drosophila

       7.000 Millisievert            Tod von Menschen und Mäusen

       1.000 Millisievert            Verdopplung der normalen Mutationsrate (unter 1%) verschiedenster Tiere

125 Millisievert            Laborversuche der Autoren.  Angeblich Veränderungen,  hohe Sterberate

55 Millisievert            Laborversuche, immer noch Veränderungen und erhöhte Sterblichkeit

4,5 Millisievert             max. Dosis nach Angaben der Autoren an den Fundorten der Schmetterlinge im Mai. Die Dosis war davor höher.

Falls man nicht die Ergebnisse von fast einem Jahrhundert strahlenbiologischer Forschung in Zweifel ziehen will, muss man erkennen: Insekten sind recht unempfindlich gegenüber Strahlung. Und wenn es doch Mutationen gibt? Natürlich gibt es welche, siehe die abartigen Nachkommen der Karauschen. Auf deren Bestand hat das keinen Einfluss. Die Fische haben sehr viele Nachkommen, nur die gesunden und normalen überleben. Das war auch im Kühlteich des Kraftwerks Tschernobyl so. Dort muss man wirklich eine erhöhte Mutationsrate annehmen, aber die Fische ein paar Jahre nach dem Unglück waren zahlreich und gesund.

Dr. Hermann Hinsch; Hannover




Lügen, verdammte Lügen und Anomalien-Lügen

Oberflächlich betrachtet scheinen Anomalien nützlich zu sein. Aber die Antwort auf die zweite Frage ist ziemlich einfach:

Nein!

Wenn die ganze Erde eine einzige uniforme Temperatur aufweisen würde, bräuchten wir keine Anomalien. Tatsache ist aber, dass die Temperaturen in den Tropen nicht allzu stark variieren, während sie in den gemäßigten Breiten häufig um 80 Grad oder mehr im Jahresverlauf schwanken. Wie vergleicht man die Temperaturen beispielsweise von Khartoum mit einer Jahresschwankung zwischen 25 bis 35 Grad je nach Monat mit Winnipeg, wo die Temperatur von -40°C im Winter bis +40°C im Sommer schwanken kann?

Bleiben wir bei den Anomalien. Mittels Definition eines Referenzwertes, normalerweise der Temperatur über 30 Jahre, ist es möglich zu erkennen, wie stark sich die Temperaturen (zum Beispiel) im Winter in Winnipeg im Vergleich zu den Temperaturen im Sommer in Khartoum verändert haben. Oberflächlich gesehen ist das sinnvoll. Aber stützt die Physik selbst diese Methode der Vergleiche?

Das tut sie absolut NICHT.

Die Theorie der direkten Auswirkungen des CO2 auf die Lufttemperatur an der Erdoberfläche ist nicht so schwer zu verstehen. Für diese Diskussion wollen wir für den Moment die Details der genauen physikalischen Mechanismen ignorieren, ebenso wie Größenordnung und Bandbreite von Rückkopplungen. Stattdessen wollen wir mal vermuten, dass das IPCC und andere warmistische Literatur in dieser Hinsicht recht haben und dann nachschauen, ob es logisch ist, diese Theorie mit Hilfe von Anomaliedaten zu analysieren.

Die „Konsens”-Literatur sagt, dass die direkten Auswirkungen des CO2 zu einem Energiefluss [a downward energy flux] von 3,7 W/m² bei einer Verdoppelung des CO2 führen. Akzeptieren wir das mal für den Augenblick. Dann wird vorgeschlagen, dass dies wiederum zu einer Temperaturzunahme um 1 Grad führt. Diese Aussage kann nicht unterstützt werden.

Fangen wir mit der Ein-Grad-Rechnung selbst an. Wie konvertiert man W/m² in Grad?

Die Antwort kann man in jedem Lehrbuch finden, in dem es um Strahlenphysik geht. Die Ableitung der Formel erfordert einiges Tiefenverständnis davon, und für Interessierte gibt es eine gute Erklärung bei Wikipedia: http://en.wikipedia.org/wiki/Stefan%E2%80%93Boltzmann_law

Für die Ziele dieser Diskussion ist jedoch alles, was wir brauchen die Formel selbst, die da lautet:

P=5,67*10^-8*T^4

Dabei ist P die Strahlungs-Leistung eines schwarzen Körpers pro Flächeneinheit, T die absolute Temperatur in K und der Koeffizient 5,67* 10^8 die Stefan-Boltzmann-Konstante. Es bedurfte physikalischer Arbeiten, die mit dem Nobelpreis ausgezeichnet worden waren, diese Formel zu entwickeln, aber alles, was wir benutzen müssen, ist ein Taschenrechner:

Für die mathematisch Gebildeten sollte die Aufgabe sofort offensichtlich sein. Es gibt keine direkte Korrelation zwischen P in W/m² und der Temperatur T. Die Leistung ist der 4. Potenz der Temperatur proportional, nicht mit der Temperatur selbst.  Das wirft eine offensichtliche Frage auf. Bei welcher Temperatur führt die Verdoppelung des CO2 zu einem Temperaturanstieg von einem Grad? Verwenden wir die definierte Mitteltemperatur der Erde von +15°C (288 K) in der Formel, so zeigt sich, dass dieser Anstieg NICHT bei der Mitteltemperatur der Erde gilt:

Für T = 288K
P = 5.67*10^-8*288^4 = 390.1

Für T = 289K (plus 1 Grad)
P = 5.67*10^-8*289^4 = 395.5

Das ist ein Unterschied von 5,4 W/m², nicht 3,7 W/m²!

Wie also rechtfertigt das IPCC seine Behauptung? Vom Weltraum aus gesehen ist die Temperatur der Erde an der Erdoberfläche nicht definiert, noch kann sie an der Obergrenze der Atmosphäre (Top of Atmosphere TOA) definiert werden. Photonen, die von der Erde in den Weltraum entweichen, können aus jeder Höhe stammen, und es ist das Mittel von diesen, das die „effektive Schwarzkörpertemperatur der Erde“ definiert, von der sich herausstellt, dass sie um -20°C (253 K) liegt, viel kälter als die Mitteltemperaturen an der Erdoberfläche. Füttern wir diesen Wert in die Formel, erhalten wir:

253K  = 232.3 w/m2
254K  = 236.0 w/m2

236.0 – 232.3 = 3.7

Da sind die flüchtigen 3,7 W/m² = 1 Grad! Doch das hat nichts zu tun mit den Temperaturen an der Erdoberfläche! Aber wenn wir diese Analyse noch einen Schritt weiter führen, wird es sogar noch schlimmer. Der Zweck der Temperaturanomalien war es ursprünglich, Temperaturveränderungen unter verschiedenen Temperaturspannen zu vergleichen. Wie wir aus der obigen Analyse erkennen, da W/m² sehr Verschiedenes bedeutet bei verschiedenen Temperaturbereichen, ist diese Methode komplett unbrauchbar, um die Veränderungen der Energiebilanz der Erde infolge der Verdoppelung des CO2 zu verstehen.

Zur Verdeutlichung dieses Punktes: nehmen wir an, dass sich manche Gebiete der Erde zu einer bestimmten Zeit im Abkühlungs-, andere in Erwärmungstrends befinden. Durch das Mitteln von Temperaturanomalien über den Globus hat das IPCC und die „Konsens“-Wissenschaft gefolgert, dass es alles in allem einen positiven Erwärmungstrend gibt. Das Folgende ist ein einfaches Beispiel, wie leicht Anomaliedaten nicht nur zu einem irreführenden Ergebnis führen können, sondern schlimmer, in einigen Fällen sogar zum GEGENTEIL dessen, was aus Sicht einer Energiebilanz passiert. Um das zu illustrieren, wollen wir vier verschiedene Temperaturwerte nehmen und ihren Wert bedenken, wenn sie in W/m² konvertiert werden, wie man es mit der Stefan-Boltzmann-Gleichung tun kann:

-38 C = 235K = 172.9 W/m²
-40 C = 233K = 167.1 W/m²
+35 C = 318K = 579.8 W/m²
+34 C = 317K = 587.1 W/m²

Nehmen wir jetzt an, dass wir zwei gleichartige Gebiete haben, von denen eines eine Anomalie von +2 Grad aufweist durch eine Erwärmung von -40 auf -38°C. Im anderen Gebiet zeigt sich zur gleichen Zeit eine Anomalie von -1 mit einer Abkühlung von +35 auf +34°C.

-38 C Anomalie von +2 Grad = +5.8 W/m²
+35 C Anomalie von -1 Grad = -7.3 W/m²

 „Gemittelte" Temperaturanomalie = +0,5 Grad

„Gemittelte" W/m²-Anomalie = -0,75 W/m²

Die Temperatur ist gestiegen, die Energiebilanz aber gefallen? Tatsache ist: Weil Temperatur und Leistung nicht direkt miteinander variieren, führt das Mitteln von Anomaliedaten in dramatisch unterschiedlichen Temperaturbereichen zu einem bedeutungslosen Ergebnis.

Kurz gesagt: falls es das Ziel der Bestimmung von Temperaturanomalien ist, die Auswirkungen einer CO2-Verdoppelung auf die Energiebilanz der Erde an deren Oberfläche zu quantifizieren, sind die Anomalien vom Winter in Winnipeg und dem Sommer in Khartoum einfach nicht vergleichbar. Es trotzdem zu versuchen und dann Rückschlüsse zu ziehen über die CO2-Auswirkungen in W/m² ist einfach sinnlos und erzeugt eine globale Anomalie, die bedeutungslos ist.

David M. Hoffer

Link: http://wattsupwiththat.com/2012/08/26/lies-damn-lies-and-anoma-lies/

David M. Hoffer ist Naturwissenschaftler und arbeitet auf ökologisch relevanten Themen.

Übersetzt von Chris Frey EIKE




Green Economy: Politikerreden auf dem Prüfstand

Doch daran erinnern jetzt wieder viele Durchhalteparolen, ausgegeben von so veritablen Schwergewichten des Kabinetts Merkel, nämlich von Frau Forschungsminsterin Frau Anette Schavan, als ausgebildete Theologin, besonders gut geeignet sich zur "Green Economy" zu äußern und vom lebensfrohen, leicht übergewichtigen  Herrn Umweltbundesminister, dem Juristen Peter Altmaier. Um diese diese Parolen unters ausgesuchte* Volk zu bringen, wird bald eine – natürlich vom Steuerzahler bezahlte- internationale Konferenz, auf der alle Nutznießer zu Wort kommen sollen, veranstaltet. Es ist die Konferenz zur  „Green Economy – Ein neues Wirtschaftswunder?“ am 4.-5. September 2012 im ewerk in Berlin

Unser Leser Dr. Wehlan hat sich auf seine Weise mit beider Texte beschäftigt und sie in das unbestechliche BlaBlameter eingeben. Das Ergebnis stellen wir hier vor:

Zuerst Frau Schavan:

Eingegebener Text:

„Die Art und Weise wie wir leben und wirtschaften, hat einen enormen Effekt auf unsere Umwelt. Daher wollen wir der Gesellschaft eine Gebrauchsanweisung für praktisches Handeln an die Hand geben, um den Herausforderungen durch Klimawandel, Energie- und Ressourcenknappheit wirksam zu begegnen“, sagte Schavan. „Mit der Green Economy verfolgen wir das Ziel, in Zukunft nachhaltige Ideen von der Produktion über die Unternehmensführung bis in die Bereiche Konsum und Recycling in einem Kreislauf miteinander zu verknüpfen.“

Dazu Blablameter: Bullshit-Index :0.56; Kommentar im BlaBlameter

Ihr Text signalisiert deutlich: Sie wollen etwas verkaufen oder jemanden tief beeindrucken. Es wirkt unwahrscheinlich, dass damit auch eine klare Aussage verbunden ist – und wenn ja: wer soll das verstehen?

 Nun der Text von Herrn Peter Altmaier:

"In Deutschland ist der Prozess eines „Greenings“ der Wirtschaft schon weit vorangeschritten. Mit weniger Rohstoffen, weniger Schadstoffausstoß und geringerem Energieeinsatz als noch vor zehn Jahren erwirtschaften wir heute die gleichen Erträge. Die Marktchancen sind enorm: Energie- und Rohstoffeffizienz werden mehr und mehr zum Wettbewerbsfaktor, Umwelt- und Effizienztechnologien sind Wachstumstreiber entlang der gesamten industriellen Wertschöpfungskette.“

Dazu Blablameter: Bullshit-Index :1.28 Kommentar dort

Glückwunsch, Ihnen ist es tatsächlich gelungen, unsere Bullshit-Skala von 0 – 1 zu sprengen! Diesen Text tut sich ein Leser wohl nicht freiwillig an, aber uns haben Sie beeindruckt

Die Texte wurden der gemeinsamen Pressemitteilung entnommen. Sie finden Detais dazu hier

Green Economy – Ein neues Wirtschaftswunder

Schavan und Altmaier starten gemeinsame Initiative

Bundesforschungsministerin Annette Schavan und Bundesumweltminister Peter Altmaier wollen mit einer gemeinsamen Initiative den Umbau der Wirtschaft zu einer nachhaltigen „Green Economy“ beschleunigen. Schavan und Altmaier haben dazu rund 450 Experten aus Wissenschaft, Wirtschaft, Politik, Verbänden und Gesellschaft zu einer zweitägigen Konferenz nach Berlin eingeladen, um unter anderen über die Frage zu diskutieren, wie mit marktwirtschaftlichen Instrumenten nachhaltige Produktion, Preisbildung und Konsumverhalten erreicht werden können. Die Konferenz in Berlin soll der erste Schritt auf dem Weg zu einem neuen Forschungsprogramm Green Economy sein. Ziel der „Grünen Ökonomie“ ist es, die Art des Wirtschaftens in Zukunft ressourceneffizienter, umweltverträglicher und sozial inklusiver zu machen.

Bundesforschungsministerin Annette Schavan machte zum Auftakt der Konferenz deutlich, dass sie eine kohlenstoffarme und ressourceneffiziente soziale Marktwirtschaft anstrebe. „Die Art und Weise wie wir leben und wirtschaften, hat einen enormen Effekt auf unsere Umwelt. Daher wollen wir der Gesellschaft eine Gebrauchsanweisung für praktisches Handeln an die Hand geben, um den Herausforderungen durch Klimawandel, Energie- und Ressourcenknappheit wirksam zu begegnen“, sagte Schavan. „Mit der Green Economy verfolgen wir das Ziel, in Zukunft nachhaltige Ideen von der Produktion über die Unternehmensführung bis in die Bereiche Konsum und Recycling in einem Kreislauf miteinander zu verknüpfen.“

Bundesumweltminister Peter Altmaier betonte: „In Deutschland ist der Prozess eines „Greenings“ der Wirtschaft schon weit vorangeschritten. Mit weniger Rohstoffen, weniger Schadstoffausstoß und geringerem Energieeinsatz als noch vor zehn Jahren erwirtschaften wir heute die gleichen Erträge. Die Marktchancen sind enorm: Energie- und Rohstoffeffizienz werden mehr und mehr zum Wettbewerbsfaktor, Umwelt- und Effizienztechnologien sind Wachstumstreiber entlang der gesamten industriellen Wertschöpfungskette.“

Die internationale Staatengemeinschaft (UN) hatte in Rio die Green Economy als zentrales strategisches Instrument für nachhaltige Entwicklung anerkannt und betont, dass die Transformation zu einer Green Economy eine Aufgabe für alle Staaten ist – für Entwicklungs- und Schwellenländer, aber auch für Industriestaaten. Wirtschaft und Konsumenten sollen damit in die Lage versetzt werden, aus eigenem Interesse den Umbau der Wirtschaft zu beschleunigen. Von Beginn an sind Vertreter aus der Wirtschaft, Gewerkschaften und Umweltverbände an diesem Prozess beteiligt, um die praktische Umsetzbarkeit und Anwendungsorientierung sicherzustellen.

Deutschland startet aus einer hervorragenden Position. Jährlich werden mehr als 2,8 Prozent des Bruttoinlandsprodukts in Forschung und Entwicklung investiert. Deutsche Anbieter haben bei den Umwelttechnologien weltweit eine Spitzenposition. Bei den „Umweltfreundlichen Energien und der Energiespeicherung“ verfügen sie zum Beispiel über einen Weltmarktanteil von 23%. In der Umweltbranche arbeiten heute bereits über 2 Millionen Menschen. Die Projektförderung der Nachhaltigkeitsforschung hat sich in den letzten acht Jahren fast verdoppelt – auf derzeit rund 430 Millionen Euro.

Über den gesamten Text urteilt das BlaBlameter:

Bullshit-Index :0.76

Es stinkt gewaltig nach heißer Luft! Auch wenn Sie PR-Profi, Politiker, Unternehmensberater oder Universitätsprofessor sind – beim Eindruck schinden sollten Sie Ihre Aussage nicht vergessen.

*Leider ist die Teilnahme an der Konferenz nur mit einer persönlichen Einladung möglich.




Arktische Sommereisschmelze 2012 – Menetekel oder nüchterne Wissenschaft?

So ist im Zeit-online-Interview auf die Frage, dass im Sommer nichts auf die Rekordschmelze hindeutete, von Herrn Prof. Rahmstorf zu erfahren: Das stimmt: 2007 gab es ein langes, stationäres Hochdruckgebiet über der Arktis, das viel Sonne brachte. Das war in diesem Jahr nicht der Fall, das Wetter war durchwachsen.“ Damit die Personen in Presse und PIK nicht weiter im Dunkeln tappen und den Durchblick erhalten, erhellt der folgende Bericht die Szenerie und gibt die Antworten, warum in 2012 die arktische Sommereisschmelze so hoch ausfällt und wagt einen Blick in die Zukunft.

Abbildung 1 zeigt die arktische Eisbedeckung vom 28.08.2012 (rechts) und dazu im Vergleich, die arktische Eisbedeckung am 28.08.2011 (links). Deutlich weniger Eisbedeckung ist in diesem Jahr zu erkennen. Gleiches Bild zeigt die arktische Eisentwicklung.

Abbildung 2 zeigt die arktische Eisentwicklung 2012 zum bisherigen Rekordminimum der letzten 30 Jahre von 2007, Datenquelle: NSIDC (National Snow Ice and Data Center).

Da die Aggregatzustände von Wasser bekannt und gleich sind, muss es eine oder mehrere Ursachen für die starke Sommereisschmelze in 2012 gegenüber dem bisherigen Minimum in 2007 geben. Da es sich beim arktischen Eis um schwimmendes, also gefrorenes Eis handelt, sollen zuerst die arktischen Meerestemperaturen (deren statistisches Mittel – bei all solchen Darstellungen, auch denen des IPCC, handelt es sich immer um statistisch gemittelte Werte, da es physikalisch keine Globaltemperatur, als auch keine arktische Temperatur gibt) betrachtet werden.

 

Abbildung 3 zeigt die Anomalien des Arktischen Meeres von November 1981 bis Juli 2012. Die arktischen Wassertemperaturen sind gegenwärtig zwar hoch, erreichen aber nicht die Werte von 2007. Hier sind wir nicht wirklich fündig geworden. Wie sieht es bei den arktischen Temperaturen aus, die das Eis verstärkt schmelzen lassen können.

 

Abbildung 4 (Quelle: Climate4you.com) zeigt die arktischen Temperaturschwankungen. Sie liegen etwa auf gleicher Höhe wie 2007. Also ein Grund für eine hohe Eisschmelze, aber nicht höher als 2007. Demnach auch nicht der Grund.

Nun hat Eis unterschiedliche Schmelzpunkte, was auf den im Eis eingebauten Salzgehalt zurückzuführen ist. So schmilzt einjähriges Eis schneller, als mehrjähriges.

Abbildung 5 zeigt die Eisentwicklung nach verschiedenen Altersklassen. Auch von dort keine Unterstützung, dass einjährige Eis, welches am schnellsten schmilzt, hat 2012 keine geringeren Werte als im Sommer 2007.

Nun ist die Eisschmelze auch von der Winddrift und damit von der Arktischen Oszillation (AO) abhängig, wie Prof. Dr. Seymor Laxon bereits vor fast 10 Jahren herausfand (Abbildung 6)

 

Abbildung 6 zeigt die Eisanomalien zur Windzirkulation (AO), Quelle: “Are the Ice caps melting?“ Prof. Seymor Laxon.

Weitere Forscher um Prof. Dr. James Morison (Polar Science Center – PSC) stellten fest, dass die arktischen Meeresströmungen, angetrieben durch Luftmassenzirkulationen, die Verteilung von Wärme und Salzgehalt verändern. Die AO (Arktische Oszillation) steht dabei in direktem Zusammenhang mit der Meereisbedeckung. James Morison: "The winter of 2006-2007 was another high Arctic Oscillation year and summer sea ice extent reached a new minimum." Das Forscherteam um James Morison fand weiter heraus, dass sich (durch die geänderten Meeresströmungen) der Salzgehalt der arktischen See seit 2002 deutlich geändert hat (Abbildung links).

Abbildung 7 links zeigt die Trendkonturen des Druckes der arktischen See im Zeitraum von 2002 – 2006, verglichen mit dem Referenzwert der 1990-Jahre. Der Druck steht im direkten Zusammenhang mit dem Salzgehalt, weil die Änderung des Wasserdrucks durch die im Wasser gelösten Stoffe – Salz – bestimmt wird. D.h. eine Erhöhung des Druckes ist gleichbedeutend mit einer äquivalenten Erhöhung des Salzgehaltes – je höher der Druck, desto höher der Salzgehalt. Die Messungen entstanden mit GRACE. GRACE ist ein Gemeinschaftsprojekt der NASA und des DLR (Deutsches Zentrum für Luft- und Raumfahrt). Die Abbildung rechts zeigt die sich veränderte Eisbedeckung im Zeitraum von 1979 – 2005, wobei die Eisschmelze in den 2000-Jahren vergleichsweise hoch ausfiel, Quelle: NASA. Werden beide Abbildungen miteinander verglichen, wird sofort ersichtlich, dass die Regionen, die eine hohe Eisschmelze zu verzeichnen haben, überwiegend auch die Regionen sind, in denen sich der Salzgehalt des Meerwassers erhöht und damit der Schmelzpunkt des Eises herabgesetzt wurde, d.h. die Eisschmelze bereits bei tieferen Temperaturen eintritt, bzw. bei höheren Temperaturen verstärkt stattfindet, mit einer großen Eisschmelze in der Fläche.

Schauen wir uns daher den Kandidaten, der von den Forschern genannt wurde und unmittelbar mit der arktischen Eisentwicklung zu tun hat, die AO, genauer an. Prof. Morison sagt uns dabei auch, worauf zu achten ist – auf eine stark positive Winter-AO vor der Sommereisschmelze.

Die AO ist der Luftdruckgegensatz zwischen den arktischen und den mittleren Breiten auf der Nordhemisphäre. Sie entsteht durch die großen Temperaturunterschiede zwischen den sehr kalten Polarregionen und den gemäßigten mittleren Breiten. Wie der Name schon sagt, handelt es sich um zyklische Änderungen (Oszillation). Die AO bestimmt die arktischen Wettersysteme. Bei einer negativen AO liegt über dem Pol ein starkes Hoch und dadurch bedingt entsteht ein schwacher Polarwirbel. Die sich entwickelnden Winde werden aufgrund der Corioliskraft nach Osten abgelenkt. In der positiven Phase treiben im Winter starke Westwinde die warme Atlantikluft nach Nordeuropa und Sibirien.

 

Abbildung 8 zeigt die Winter AO im Zeitraum von 1950 bis Dezember 2011. Dabei ist festzustellen, dass die AO ausgesprochen stark ist, so stark, wie die Winter AO vor dem letzten Rekordminimum in 2007. In 2011 war die AO dagegen stark negativ. Schauen wir noch genauer hin.

 

Abbildung 9 (Quelle: NASA Science News vom 19.01.2012) zeigt die Entwicklung der Winter AO von 2011/2012 zum Vorjahr. Deutlich ist zu sehen, dass diese vor der jetzt anstehenden Rekordeisschmelze ausgesprochen positiv ausgeprägt war.

Zwischenergebnis: Mit der AO wurde ein Parameter identifiziert, der für die starke Sommereisschmelze verantwortlich ist und dies war bereits im Dezember 2011 absehbar!

Gibt es weitere Kandidaten, die die Eisschmelze bestimmen und für die gegenüber 2007 nochmals verstärkte Sommereisschmelze verantwortlich ist? Von der Gletscher- und Eisentwicklung in unseren Breiten ist bekannt, dass diese von der AMO moderiert wird (Abbildung 10). Die AMO gibt die Wasseroberflächentemperaturen (deren Abweichungen) im Nordatlantik an.

 

Abbildung 10 zeigt die zyklische Entwicklung der österreichischen Gletscher von 1890 – 2002, Quelle: Slupetzky, 2005, Uni Salzburg. Gut erkennbar, dass der derzeitige Rückzug auf einen längeren Eisvorstoß folgt und das in den Jahren von 1930 bis in die 1960-Jahre, ähnlich geringe Eisbedeckungen vorlagen, wie heute. Der Gletscherzyklus zeigt weiter sehr starke Ähnlichkeiten mit der AMO und keine mit einem CO2-Atmosphärenpegel (kleines Bild). Daher soll die AMO an den arktischen Parametern gespiegelt werden.

 

Abbildung 11, zeigt die arktischen Lufttemperaturen von 1880 – 2000 und darunter die trendbereinigte AMO. Deutlich zu sehen, dass sich die arktischen Temperaturen im Gleichklang zur AMO (Quelle: http://la.climatologie.free.fr/amo/amo-index.gif) entwickeln.

Für die jetzige Eisschmelze ist es notwendig, die gegenwärtige AO und zwar die reale und die trendbereinigte zu betrachten.

 

Abbildung 12 (Quelle: http://www.ncl.ucar.edu/Applications/Images/index_amo_1_lg.png) zeigt die reale AMO (mit Trend) und die trendbereinigte. Deutlich ist zu sehen, dass die AMO derzeit ihr Maximum anstrebt. Doch, woher kommen die Trends und die Schwingung, die die AMO nach Beginn des 20. Jahrhunderts steil ansteigen lässt? Der Autor gab bereits in seiner 8-teiligen EIKE-Serie “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ vom August 2011 die Antwort. Der Trend basiert auf dem Hauptsonnenzyklus, den im Mittel 208-jährigen de Vries/Suess-Zyklus, der um 2003 sein Maximum hatte und etwa 100 Jahre davor, sein Minimum, was sich in der AMO widerspiegelt. Wie sehr er die arktische Eisbedeckung bestimmt, zeigt Abbildung 14.

Auf http://www.ozeanklima.de/ ist hierzu folgendes zu lesen: In den späteren Jahren der 1930er Dekade waren so warm wie die erste Dekade nach dem Jahr 2000. Nach 30 Jahren Abkühlung ab 1940, setzte der Erwärmungstrend seit 1980 wieder ein. War es eine Fortsetzung der Erwärmung, die mit dem Klimaknall im Januar 1919 begonnen hatte?“ Und dazu die folgende Abbildung zu sehen.

 

Abbildung 13 zeigt die globale und arktische Temperaturentwicklung seit 1880 nach GISS. Deutlich zu sehen, dass die globalen Temperaturen um 1910 und die arktischen um 1900 zu steigen beginnen. Dies ist exakt der Zeitpunkt, zu dem der Hauptsonnenzyklus sein Minimum verlies und wieder ansteigt und somit sowohl die globalen, als auch die arktischen Temperaturen ansteigen lässt – der Anstiegstrend beginnt. EIKE-Leser wissen mehr und kennen nun auch den Grund für den Anstieg.

 

Abbildung 14: Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt die Abbildung, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde vom Autor um den de Vries/Suess-Sonnenzyklus (Zeiten) ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus. Bei Sonnenminima erleben Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen.

Woher stammt indes die Schwingung der AMO von ca. 35 Jahren? Das AWI, Prof. Dr. R. Gerdes, hierzu: "Seit Mitte der 90er Jahre haben wir einen starken Temperaturanstieg im Bereich des Nordatlantiks und des Nordpolarmeers. Das ist zum Teil Folge einer natürlichen oszillierenden Entwicklung, die Perioden von 60, 70 Jahren hat. Da sind wir jetzt in einer warmen Phase."

Diese Schwingung stammt ebenfalls von der Sonne und zwar vom Brückner-Zyklus der Sonne, der exakt diese Schwingung hat, wie Abbildung 15 zeigt.

 

Abbildung 15 (Quelle: Halberg et al., “Thirty-Five-Year Climatic Cycle in Heliogeophysics“) zeigt den Brückner-Zyklus (grün) anhand der zeitlichen Variabilität der Wolfs-Zahl (Sonnenfleckenzahl). Ausgewertet wurden die Daten von Brückner, 1890 (4), Egeson, 1889 (5), und Lockyer, 1901 (6). Der Autor hat die mittlere Zykluslänge im Untersuchungszeitraum (gekennzeichnet durch die beiden roten Linien) ermittelt und an das letzte Maximum des Brückner-Zyklus angesetzt, um auf diese Weise statistisch die Folgemaxima zu ermitteln (blaue Rechtecke). Wie zu sehen, hatte der Brückner-Zyklus um 2005 sein letztes Maximum. Jetzt verwundert es auch nicht mehr, warum Europa 2003 einen Jahrhundert-Hitzesommer erlebte. Gleich drei starke Sonnenzyklen hatten seinerzeit ihr Maximum, der Hauptsonnenzyklus (de Vries/Suess-Zyklus), der Brückner-Zyklus und die magnetische Aktivität im Schwabe-Zyklus. Die Maxima gleich drei solarer Zyklen, die zudem auch noch stark ausgeprägt waren, fielen zu Beginn des Jahrhunderts zusammen, was seit Beginn der Sonnenfleckenaufzeichnungen um 1610 nicht stattfand und wohl letztmalig während dem Klimaoptimum des Mittelalters stattfand (verlässliche Daten über die Sonnenfleckenzahl aus dieser Zeit liegen dem Autor nicht vor, daher das „wohl“).

Wie dominant der Brückner-Zyklus die klimatischen Bedingungen in der Arktis, die Warm-und Kaltphasen und damit die Eisausdehnung bestimmen, zeigt ein Blick auf 1.200 Jahre Klimageschichte.

 

Abbildung 16, Quelle:  Fredrik Charpentier Ljungqvist, Stockholm University, “A regional approach to the medieval warm period and the little ice age“, zeigt Temperaturschwankungen aus Eisbohrkerndaten in Grönland (blau) und von Messungen an der Westküste Grönlands (rot) im Zeitraum von 800 – 2000 (grau: Standardabweichung). Zu sehen ist ein heftig gezacktes Muster, in dem sich relative Minima und relative Maxima abwechseln. Werden z.B. die Maxima gekennzeichnet (blaue Linien), sind im Betrachtungszeitraum 31 volle Perioden von ca. 850 – 1935 abgebildet (der nächste also 1970 und er darauf folgende 2005!!! Vergleiche mit Abbildung 15). Daraus ergibt sich eine mittlere Zykluslänge von exakt 35 Jahren, was dem Brückner-Zyklus entspricht. Temperaturspitzen wechseln sich im Mittel alle 35 Jahre ab. Während des Klimaoptimums des Mittelalters sind die Zyklen eng zusammen, gleich wie heute, wogegen sie zu dessen Ausgang und während der Kleinen Eiszeit deutlich länger werden, was ein sicherer Parameter, für eine schwache Sonnenaktivität ist. So versuchen IPCC-nahe Wissenschaftler vergeblich, die Kleine Eiszeit nicht mit der variablen Sonne in Verbindung zu bringen. Wie am Brückner-Zyklus gezeigt, ein Versuch, der aussichtslos ist.

Nach diesem Exkurs, welche Parameter die AMO und damit unser Wetter und Klima, sowie die arktische Sommereisschmelze bestimmen, zurück, wie sich die AMO in 2012 entwickelte. Abbildung 12 zeigt die AMO bis 2011 und in der schwarzen Zeitreihe, dass sie gerade am Fallen ist, was natürlich der Begründung für die jetzige starke Sommereisschmelze entgegenstünde. Daher soll die AMO in 2012 betrachtet werden und im Vergleich dazu, in 2007. Die Daten stammen von (http://www.esrl.noaa.gov/psd/data/correlation/amon.us.data).

 

Abbildung 17 zeigt die AMO von Januar bis Juli 2012 im Vergleich zur AMO in 2007. Die AMO-Werte von 2012 laufen den Werten von 2007 regelrecht davon. Während die AMO in 2007 gar fällt, was auf das seinerzeit dort vorliegende Hoch zurück zu führen ist (siehe Zeit-online Interview mit Prof. Rahmstorf) und dem damit verbundenen schwachen atmosphärischen Polarwirbel, steigt in 2012 die AMO raketenartig an, was schnell und stark ansteigende Temperaturen in der Arktis bedeutet, vor allem in Grönland, dass sozusagen vor der „Haustür“ der AMO liegt. So braucht es niemanden zu verwundern, wenn die Presse solche Bilder brachte, die zeigen, dass zeitweise große Areale der grönländischen Eisdecke an geschmolzen waren.

 

Abbildung 18 zeigt zwei Momentaufnahmen der grönländischen Eisbedeckung vom Juli 2012. Damals fabulierte die deutsche Presse, dass 97% des grönländischen Eis schmilzen, was blühender Unsinn ist, da lediglich die oberste Schicht kurz an schmolz (Wasser gemessen wurde). Warum dem so war, wissen die EIKE-Leser nun.

Der Autor ist unseren Lesern noch die Beantwortung einer wichtigen Frage schuldig. Warum die arktische Eisschmelze mit dem Maximum der AMO gerade jetzt so ausgeprägt ist? Die Antwort stammt aus der Untersuchung von Prof. Solanki (Max Planck Institut für Sonnenforschung, MPS) “Solar activity over the last 1150 years: does it correlate with climate”. Er ermittelte, dass das Klimasystem der Erde der solaren Aktivität um 10 Jahre nachläuft – die Sonnenaktivität dem Klima um 10 Jahre vor eilt. Was in erster Linie auf die Trägheit und Wärmekapazität des Wassers zurückzuführen ist.

 

Abbildung 19 links zeigt den Nachlauf des Klimasystems zur Sonnenaktivität (Quelle: Solanki et al.). Die Abbildung rechts, den Hitzesommer von 2003 (Quelle: Hadley Center). Während die solare Aktivität auf die Lufttemperaturen und damit Bodentemperaturen unmittelbar wirkt, wirkt sie auf das die Wassertemperaturen und das Klima verzögert, nach Solanki et al. mit einem Nachlauf von 10 Jahren. Die AMO wechselte 1995 in ihre positive Phase, die ca. 35 Jahre andauert. Daraus ergibt sich, dass sie um 2012/2013 ihr Maximum erreicht, was die Zeitreihen der AMO belegen. Ihr Einfluss auf die Eisschmelze wird anschaulich, wenn im Vergleich die Jahre 2007, 2011 und 2012 betrachtet werden (Abbildung 20).

 

Abbildung 20 zeigt die arktische Sommereisbedeckung (Juli) für 2007 (links), 2011 (Mitte) und 2012 (rechts). Gegenüber dem bisherigen Rekord in 2007 sind in 2012 vor allem die Gebiete östlich und westlich von Grönland betroffen, also die Gebiete, die unmittelbar vor der „Haustür“ der AMO liegen. Was den Unterschied zu 2007 ausmacht.

So wird auch die Aussage der russischen Wissenschaftler Dr. habil. Genrich Alexejew, Forschungsinstituts für Arktis und Antarktis (St. Petersburg) zur arktischen Eisschmelze 2012 verständlich: “Der sommerliche „Rückzug“ der Eisdecke im Nordpolarmeer erfolge außerdem nicht gleichmäßig. Die für Russland transportrelevanten Meeresgebiete seien im laufenden Jahr sogar stärker als gewöhnlich mit Eis bedeckt. In der Kara-, Laptew-, Tschuktschen- und Ostsibirischen See sei die Eisdecke beispielsweise stärker als im Jahr 2007“ (Quelle: http://german.ruvr.ru/2012_08_31/86793871/). Und weiter “Die langjährigen Beobachtungen des Petersburger Arktis-Instituts belegen zyklische Schwankungen im Klimasystem des Planeten: Im Abstand von ungefähr 60 Jahren erleben die atmosphärischen Vorgänge und die damit zusammenhängende ozeanische Zirkulation eine Neugestaltung. Derzeit geht eine Erwärmungsphase laut Forschern zu Ende (der vorhergehende Wärme-Höhepunkt war in den 1930er und 1940er Jahren zu beobachten). Die Natur dieser Zyklen ist vorerst nicht ganz klar – ebenso wie die Gesetze, nach denen das Weltmeer lebt.“ EIKE-Leser ist dies klar und sie können diese Zyklen und ihren Einfluss nun beantworten.

Ergebnis:

Zusammenfassend ist festzuhalten, dass die Rekordeisschmelze 2012 auf eine starke AO, wie in 2007 (Abbildung 8) zurückzuführen ist und ihr Minimum gegenüber 2007 auf die steil ansteigende, positive AMO zurückzuführen ist (Abbildung 17), was bereits in 12/11, bzw. spätestens 05/12 absehbar war.

So viel zu den eingangs geschilderten Meinungen und Aussagen eines PIK-Professors. Aber, dass es sich beim PIK mehr um ein Wiederentstanden des Orakels von Delphi, als um eine Wissenschaftseinrichtung handelt, hatte der Autor bereits in seinem EIKE-Artikel “Prognosen des Meeresspiegelanstiegs und was sie wert sind“ (http://www.eike-klima-energie.eu/klima-anzeige/prognosen-des-meeresspiegelanstiegs-und-was-sie-wert-sind/) gezeigt. Der Autor schloss seinen EIKE-Artikel mit den Worten. Insofern bewegen sich diverse Regierungen/politische Programme und deren (pseudo)wissenschaftliche Helfer, auf einer Stufe mit der Weltanschauung der Maya-Kultur und die diversen Klimaprognosen auf derselben Ebene wie die Vorhersagen der keltisch/germanischen Druiden oder der antiken Orakel. Unsere Vorfahren benutzten die Innereien von Tieren, um die Zukunft zu ergründen. Gänseleber und Krötenblasen waren sehr beliebt. Heute werden wieder Innereien benutzt, um in die Zukunft zu blicken. Es sind die BYTES und FLOPS der Supercomputer – mit demselben Ergebnis.“ Mit Wissenschaft hat all dies nichts zu tun.

Die Wissenschaft sucht nach Fragen und strebt danach, diese Fragen zu beantworten und zu beweisen. Herr Prof. Rahmstorf weiß davon offensichtlich nichts. Er ist jedoch in einem Alter, in dem es nicht abwegig ist, an den verdienten Ruhestand zu denken. In Anbetracht seiner gezeigten Leistungen im Zeit-online Interview, eine echte Alternative. Bei der Süddeutschen und beim ZDF fällt dem Autor spontan ein, dumm, dümmer, ZDF.

Warum viele deutsche Journalisten so verpicht darauf sind, sich als Halbwissende auszuzeichnen, vermag der Autor nicht zu beantworten. Möglicherweise hat dies etwas mit der Tradition des deutschen Journalismus zu tun. In Deutschland gab es mal Zeiten, in denen die Journalisten von Amts wegen die Dummheit verbreiteten und damit als Verstärker dienten. In Ostdeutschland ist dies noch nicht so lange her, etwas mehr als 20 Jahre. In Westdeutschland, etwas länger – mit dem Unterschied zu heute (wie Heute-Journal), dass sie dies jetzt freiwillig tun wie beim Heute-Journal (Frau Reidt ).

Raimund Leistenschneider – EIKE