Vahrenholt bei PHOENIX – Prima Klima?

Weiger vom BUND vertritt hingegen die Auffassung, dass keine Zeit mehr bleibt, der vom Menschen gemachte Klimawandel voranschreitet und die erneuerbaren Energieträger schnellstmöglich ausgebaut werden müssen. Schauen Sie rein und erleben Sie pro & contra!

von Michael Krüger 

Zuerst erschienen bei Science Sceptical 

Und hier Reaktionen auf das (ungelesene) Buch z.B. von Prof. Mojib Lativ im ARD  Morgenmagazin. (Mit Dank übernommen von Mr.FreeSolarkritik2

Bei dem Klimaforscher Mojib Latif liegen augenscheinlich die Nerven blank, da er auf die Klimathesen von Vahrenholt keine wirklichen Antworten hat. Seltsam ist auch: Die gleichen Thesen wie Vahrenholt hatte Latif selbst bereits im Dezember 2009 verbreitet, und nun kritisiert Latif diese Thesen an Fritz Vahrenholt.

Die Zitate von Mojib Latif aus Dezember 2009 ab Minute 3:42 hier:
http://www.youtube.com/watch?v=xFpQu2WDbnA&t=3m42s

Und auch dieses Video mit Zitaten von Latif anschauen:
http://www.youtube.com/watch?v=wnFm6e6764o

Das Vahrenholt/Lüning Buch "Die kalte Sonne" macht mächtig Furore. Es reißt Mauern nieder und beseitigt gnadenlos und glaubhaft Denkverbote. Deswegen versucht die vereinte Alarmistenfront aller Couleur mit allen Mitteln, dieses Buch negativ zu bewerten, d.h. nieder zu machen. Bitte nehmen Sie sich die Zeit, schauen Sie sich die Probeseiten (hier http://www.kaltesonne.de/?page_id=54) – oder besser-  das Buch an und geben Sie Ihre kurze Bewertung bei Amazon (hier) ab . je mehr das tun, desto besser. Danke!

Michael Limburg EIKE

Weiterführende Links:

Siehe auch Banner rechts "Die kalte Sonne"

Vahrenholt/Lüning auf der Webseite der US-Klimaforscherin Judith Curry

Der BUND hat da eine tolle Idee…

Alpengletscher als Klimaarchiv – Was erzählen uns die Alpengletscher?

Vahrenholt-Bestseller "Die Kalte Sonne" – Das Imperium der Meinungsmacher schlägt zurück!

FTD Umfrage: 70 % Zustimmung für Vahrenholt/Lüning Thesen zum Klimawandel




Jetzt bestätigt: Klimaschutz ist Religion – Beichte nun möglich!

Die Beichten selber sind auch sehr schön:

Beispiel: „Ich habe heute jmd Fleisch essen sehen und nichts dagegen getan!“

Hoffentlich ist das Beispiel Ironie. Schwer zu sagen!




Über sprunghafte Anstiege von CO2 und globaler Temperatur!

Der CO2-Anstieg

Rechtzeitig vor Beginn der UN-Klimakonferenz in Durban (Südafrika) Ende November/ Anfang Dezember 2011 ging die alarmierende Meldung durch den Medienwald, die „Der Spiegel“ mit der Schlagzeile versah: „Rekord-CO2-Anstieg schockiert Klimaforscher“. Ähnlich markig lautete die Meldung in vielen Medien. Gemeint war das Jahr 2010. Dieser Alarmmeldung liegt eine Studie des Tyndall-Center der University of East Anglia zugrunde, die eine „vorläufige Schätzung“ der globalen CO2-Emissionen darstellt (heise online: Der CO2-Rekordanstieg in 2010/Telepolis).

Gemäß dieser Studie hat der CO2-Ausstoß vom klimapolitischen Bezugsjahr 1990 bis 2010 um 49% zugenommen. Dabei entfallen auf den Zeitraum 2000-2010 rund 31%. Im „Rekordjahr 2010“ habe die Zunahme der CO2-Emissionen den Rekordwert von rund 6% erreicht.

Was sagen diese Zahlenangaben nun aus? Zum einen belegen sie den hohen Verbrauch fossiler Energieträger. Zum anderen sagen sie viel über die mit ihrer Verbrennung verbundenen (vor allem regionalen) Umweltbelastungen aus. Die Daten sind also relevant für eine Energie- und Umweltpolitik. In Bezug auf den Klimawandel hingegen sind die dramatisierenden Beträge irrrelevant, da sie die CO2-Emission und nicht die CO2-Immision beschreiben. Jeder, der sich mit den atmosphärischen Strahlungsprozessen halbwegs auskennt, weiß, dass für die Frage eines CO2-Einflusses auf den Klimawandel nur der Anstieg des CO2-Gehalts der Luft, also die CO2-Immision, relevant ist.

 

Aus diesem Grund sollen den publizierten Zahlen die klimarelevanten CO2-Werte anhand der 1958 begonnenen Mauna Loa-CO2-Meßreihe gegenüber gestellt werden (Abb. 1).

Von 1990, dem UN-Referenzjahr, bis 2010 erhöhte sich der CO2-Gehalt der Luft um 10% (35 ppm) – und nicht um 49%!

Im Zeitraum 2000 bis 2010 stieg die CO2-Konzentration der Luft um 5,7% (20,2 ppm) – und nicht um 31%. Für 2010 berechnet sich ein CO2-Anstieg von 0,6% – und nicht von 6%! Das heißt: Der Unterschied macht eine Größenordnung aus. Mit den realen klimarelevanten Zahlen wäre es allerdings kaum möglich gewesen, in der Öffentlichkeit eine für Durban gewünschte Alarmstimmung zu erzeugen. Man fragt sich also unwillkürlich: cui bono? 

Fazit: Atmosphärische CO2-Immission darf nicht mit CO2-Emission verwechselt werden, da man in Bezug auf die Strahlungsprozesse sonst Äpfel mit Birnen vergleicht. Der Kohlenstoff-Kreislauf zwischen Atmosphäre, Ozean, Biosphäre, Lithosphäre, Kryosphäre ist viel zu komplex, um eine CO2-Klimarelevanz mit Emissionsdaten beschreiben zu können.

Betrachtet man die CO2-Jahresmittel für den gesamten Zeitraum der Mauna-Loa-Messungen in     Abb. 1, so ist die Zunahme des atmosphärischen CO2-Gehalts unverkennbar. Von rund 315 ppm zu Beginn der Messreihe ist die Konzentration  bis heute auf rund 390 ppm angestiegen. Infolge der hohen Skalenwerte in Abb. 1 scheint der CO2-Anstieg ohne nennenswerte Schwankungen verlaufen zu sein. Bei höherer Auflösung ändert sich jedoch das Bild, und es werden hochfrequente Schwankungen des CO2-Gehalts sichtbar.   

In Abb. 2 sind die Änderungen der CO2-Jahreswerte in Bezug zum jeweiligen Vorjahr wiedergegeben. Als mittlerer jährlicher Anstieg ergibt sich für 1961-2010 ein Wert von 1,5 ppm (1961 bis 70: 0,9 ppm, 1971 bis 80: 1,4 ppm, 1981 bis 90:1,5 ppm, 1991 bis 2000: 1,6 ppm 2001 bis 10: 2,0 ppm).  

Etliche Jahre weisen jedoch deutlich über dem Mittel liegende, sprunghafte CO2-Anstiege auf. Wie man erkennt, stellt der atmosphärische CO2-Anstieg von 2010 keinen neuen Rekord dar. Mit einem Anstieg zum Vorjahr von 0,6% (2,4 ppm)  liegt 2010 nicht nur hinter 1973, 1988, 2003, deren CO2-Anstieg zum Vorjahr 0,7% betrug. Den CO2-Rekordanstieg hält 1998 mit 0,8% (2,95 ppm).

Die globale Temperaturentwicklung seit 1958

In Anbetracht der kontroversen Klimadiskussion stellt sich die Frage: Welcher Zusammenhang besteht  zwischen der langfristigen CO2-Zunahme bzw. den kurzfristigen, sprunghaften CO2-Anstiegen und dem globalen Temperaturverhalten? Vor allem die letzten fünf Jahrzehnte werden von den CO2-Verfechtern als Beweis für den menschengemachten Klimawandel angeführt.

In Abb. 3 sind die globalen Jahresmitteltemperaturen sowie die Klimatrendkurve dargestellt. Vergleicht man den Verlauf der Klimatrendkurve mit der CO2-Entwicklung in Abb.1, so fallen gravierende Unterschiede auf. Der CO2-Gehalt der Luft kennt nur eine Richtung: aufwärts. Die globale Klimatrendkurve gleicht dagegen einem liegenden „S“.

Von den 1960er bis in die 1970er Jahren weist die Globaltemperatur – entgegen dem CO2-Verlauf –  eine Abnahme auf. Verursacht wurde diese durch die Abkühlung der Nordhalbkugel. In dieser Zeit hatte sich das nordpolare Eis bis nach Island ausgedehnt, war der Atlantik zwischen Island und Grönland noch im Frühjahr zugefroren. Die Klimawissenschaft diskutierte erstmals über eine kommende Kleine Eiszeit. In jüngster Zeit weist die Globaltemperatur erneut ein abweichendes Verhalten zum CO2-Anstieg auf. Allein in den 1980er und 1990er Jahren ist ein paralleler Verlauf von CO2 und Temperatur festzustellen, wobei jedoch ein dominierender anthropogener CO2-Einfluss auf die Erwärmung mehr als fraglich ist, wie die früheren Studien und die  nachfolgende Analyse belegen.

Wie Abb. 3 ferner zeigt, wird der langfristige Temperaturverlauf permanent von kurzperiodischen Klimafluktuationen überlagert, d.h. kurzperiodische Prozesse erzeugen einen ständigen Wechsel von Zu- und Abnahme der Globaltemperatur.  

Um dieses Verhalten mit den CO2-Fluktuationen (Abb. 2) vergleichen zu können, wurde auch für die Globaltemperatur die Änderung zum jeweiligen Vorjahr bestimmt (Abb. 4). In Bezug auf die „Klimaerwärmung“ bzw. ihrem Zusammenhang mit dem CO2-Effekt sind die Jahre mit einem übernormalen, sprunghaften Temperaturanstieg von Bedeutung. Diese sind: 1966, 1969, 1972/73, 1977, 1979/80/81, 1983, 1987/88, 1990,1995, 1997/98, 2002/03, 2005 und 2010.

Vergleicht man diese Jahre mit den Jahren mit einem sprunghaften CO2-Anstieg (Abb.2), so ist die hohe Übereinstimmung unverkennbar. Nur die Zeit um den Pinatubo-Ausbruch (1991) macht eine Ausnahme.

Damit folgt: Sprunghafte Temperaturanstiege fallen mit sprunghaften CO2-Anstiegen zusammen! Ist dieses Ergebnis der empirische Beweis für die Klimadominanz des anthropogenen CO2-/Treib-hauseffekts? Oder könnte die Kausalität nicht auch umgekehrt sein, d.h. was ist hier Henne und was ist Ei? Diese Frage ließe sich klären, wenn die kurzperiodischen Temperaturerhöhungen nachweislich auf eine andere Ursache als den CO2-Effekt zurückgeführt werden könnten.

 

El Niño – Globaltemperatur – CO2

Bei der Betrachtung der Jahre mit sprunghaften Anstiegen der Globaltemperatur fällt auf, dass diese offensichtlich mit El Niño-Ereignissen korrespondieren, also mit jenen Jahren, in denen sich der tropische Pazifik zwischen Südamerika und Australien/Indonesien nach einer kühleren La Niña-Phase wieder erwärmt. In Abb.5 sind die El-Niño- und La Niña-Ereignisse der letzten fünf Jahrzehnte wiedergegeben. Zugrunde liegen die ONI-Daten (Oceanic Niño-Index) des US-Wetterdienstes.

Als Maß für den thermischen Antrieb des tropischen Pazifiks auf die Atmosphäre wird definiert:

F*= Tm x Mon (Tm: mittlere Anomalie der Ozeanoberflächentemperatur, Mon: Dauer der El Nino-/La Niña-Phase in Monaten). In der Regel beginnt El Niño im Frühjahr, erreicht um die Weihnachtszeit seinen Höhepunkt (El Niño= Christkind/Christknabe) und endet im Folgejahr. Im Mittel dauern El Niño-Phasen rund 12 und La Niña-Phasen 18 Monate, doch sind größere Abweichungen möglich.   

El Niño Temp CO2

El Niño

Temp

CO2

1965/66

1966

1966

1969

1969

1969

1972/73

1972/73

1973

1976/77

1977

1977/78

1979/80

1979/80/81

1980

1982/83

1983

1983

1986/87

1987/88

1988

1991/92

Pinatubo

Pinatubo

1994

1995

1995

1997/98

1997/98

1998

2002

2002/03

2003

2004/05

2005

2005

2009/10

2010

2010

In der Tabelle sind die Jahre mit El Niño sowie mit sprunghaftem Temperatur- und CO2-Anstieg zusammengefasst. Der Zusammenhang zwischen den El Niño-Ereignissen und den kurzperiodischen Anstiegen von Globaltemperatur und atmosphärischem CO2-Gehalt ist unverkennbar. Damit lässt sich die Frage beantworten: Was ist Ursache, was ist Wirkung?

Wie die Daten belegen, steht am Anfang die Erwärmung im tropischen Pazifik infolge thermisch- dynamischer Ozeanprozesse zwischen Südamerika und Australien. Der Anstieg der Ozeantemperatur (SST: Sea Surface Temperature) führt über Monate zu einem erhöhten Transport fühlbarer und latenter Wärme in die Atmosphäre. Die Folge ist ein gleichzeitiger/zeitversetzter Anstieg der globalen Mitteltemperatur. Am Ende der Wirkungskette steht der CO2-Anstieg.

Wie die Physikalische Chemie lehrt, ist die Menge an CO2, die von Wasser gebunden/gelöst werden kann, von der Wassertemperatur abhängig. Kaltes Wasser kann mehr CO2 speichern als warmes.

Bei jedem mit El Niño verbundenen Temperaturanstieg setzt der Ozean gespeichertes CO2 wieder frei. Die Folge ist ein sprunghafter, übernormaler atmosphärischer CO2-Anstieg. 1991/92 wird dieses Muster durch die Auswirkungen des Pinatubo-Ausbruchs überdeckt und 1982 durch den Ausbruch des El Chichon abgeschwächt.

Fazit: Nicht als Folge des kurzperiodischen CO2-Anstiegs kommt es zu einer Erhöhung der Globaltemperatur, sondern der mit El Niño verbundene globale Temperaturanstieg führt zu den kurzperiodischen CO2-Sprüngen. Damit dürfte die Frage nach Ursache und Wirkung auch auf der Kurzzeitskala eindeutig geklärt sein. Auf der paläoklimatischen Skala hat sich die Behauptung, die CO2-Anstiege wären den Erwärmungen vorausgegangen, ebenfalls als falsch erwiesen. Die anthropogene CO2-Hypothese hat ein grundlegendes Erklärungsproblem. Bei Erwärmungen soll der CO2-Effekt dominant, der Einfluss der Natur aber schwach sein. Bei Abkühlungen müssen dagegen die natürlichen Klimaprozesse so stark sein, dass sie einen „dominanten CO2-Effekt“ zu dominieren vermögen: Ein Paradoxon.


 

Das Zusammenwirken von solarem und El Niño/La Niña Klimaantrieb

Der klimarelevante ozeanische Einfluss von El Niño/La Niña wird in Abb. 6 deutlich. Dort ist für die letzten fünf Jahrzehnte der resultierende thermische Antrieb (F*=Tm x Mon) aus Erwärmungen bei El Niño minus Abkühlungen bei La Niña wiedergegeben. Wie man erkennt, verläuft der resultierende dekadische Ozeanantrieb grundsätzlich synchron zum globalen Temperaturtrend (Abb. 3). Beide zeigen ein Minimum in den 1970er Jahren und einen Anstieg in den 1980er und 1990er Jahren. Korrelationsrechnungen in früheren BWK-Beiträgen belegen den Zusammenhang auch quantitativ.  

An diesem Punkt stellt sich die Frage: Woher stammt die Wärmeenergie des Ozeans? Die Antwort kann nur lauten: Der ozeanische Antrieb ist die Folge der direkten und indirekten solaren Effekte. Der Wärmeinhalt des Ozeans ist gespeicherte solare Energie. Dabei kommt den Tropen und Subtropen aufgrund ihrer hohen Einstrahlung eine besondere Rolle zu.

In Abb.7 ist die mittlere jährliche Sonnenfleckenzahl und damit die solare Aktivität für die letzten fünf Sonnenfleckenzyklen wiedergegeben. Nach dem Höhepunkt um 1960 kam es zu einem Einbruch der solaren Aktivität um 1970. Diesem folgte zunächst ein Anstieg in den 1980er und 1990er Jahren. Der Rückgang des ozeanischen Wärmeeffekts (Abb. 6) und der Globaltemperatur (Abb. 3) in den 1970er Jahren sowie der Anstieg in den 1980er und 1990er Jahren korrespondieren mit dem solaren Verhalten und belegen die enge Kopplung. Der ozeanische Klimaantrieb ist folglich die komplexe thermische und dynamische Umsetzung des integralen solaren Klimaeinflusses. 

Grundsätzlich kann man daher sagen: In Zeiten hoher Sonnenaktivität speichert der Ozean aufgrund seiner großen Wärmekapazität vor allem in den Tropen und Subtropen Wärmeenergie, und zwar bis in tiefere Schichten. Infolge seiner thermischen Trägheit gibt er diese dann zeitverzögert an die Atmosphäre ab. Auf diese Weise sorgt der Ozean dafür, dass sich die Globaltemperatur phasenverschoben zu den Änderungen der solaren Aktivität verhalten kann.

Fazit: Am Beginn einer Zunahme/Abnahme der solaren Aktivität kann deren Auswirkung auf die Globaltemperatur durch den Wärmespeicher Ozean erst phasenverzögert sichtbar werden, insbesondere wenn der thermisch-dynamische Effekt von El Niño/La Niña stark ausgeprägt ist.  

Schlussbetrachtungen

Der Phaseneffekt zwischen der Änderung der solaren Aktivität und dem Wärmespeicher El Niño vermag auch die Diskrepanz zwischen der Abnahme der Sonnenaktivität im 23. Sonnenfleckenzyklus (1996-2009) und dem jüngsten Verhalten der Globaltemperatur zu erklären. So ist, wie Abb. 6 zeigt, der resultierende ozeanische ENSO-Antrieb (El Niño Southern Oscillation) durch die El Niño-Ereignisse im letzten Jahrzehnt am höchsten, während entsprechend der 200-jährigen Schwingung (s. frühere BWK-Beiträge) die Sonne bereits auf dem Weg in eine ruhige, kältere Phase ist (Abb. 7).

Wie wenig das CO2 das aktuelle Klimaverhalten bestimmt, zeigen die beiden folgenden Abbildungen.

In Abb. 8 ist der mittlere jährliche CO2-Gehalt der Luft von 1995 bis 2011 wiedergegeben. Von Jahr zu Jahr hat sich der CO2-Gehalt um rund 2 ppm erhöht: Jedes Jahr also ein neuer CO2-Rekord!

Betrachtet man im Vergleich zum CO2-Anstieg den globalen Temperaturverlauf seit 1995, so zeigt sich ein ganz anderes Bild. In Abb.9 wird zum einen deutlich, wie die El Niño-Ereignisse von 1997/98, 2002/03, 2004/05 und 2009/10 die Globaltemperatur in die Höhe gezogen haben. Nicht weniger deutlich zeigt sich zum anderen, dass die globale Erwärmung ihren Höhepunkt überschritten  hat. So geht die Globaltemperatur, ungeachtet des CO2-Anstiegs, zunächst in eine Stagnation und danach in einen Abwärtstrend über. Würde dieser Kurvenverlauf die wirtschaftliche Entwicklung widerspiegeln, hätten Stagnation und nachfolgende Rezession in den Medien hohe Wellen ausgelöst. Beim Klimawandel wird stattdessen unreflektiert die Apokalypse planetarer Überhitzung mit weitreichenden Folgen für 7 Milliarden Menschen (Tendenz steigend) verbreitet. Auch die Tatsache, dass nach dem Tiefstand im Jahre 2007 das Arktiseis – unter normalen Schwankungen – wieder zunimmt, ist keine Schlagzeile wert. (http://arctic-roos.org/observations/satellite-data/)

 

Wenn selbst ein stringenter Verfechter der CO2-Modellhypothese zu Beginn des UN-Klimagipfels im Fernsehen erklärt, es könne auch Jahrzehnte ohne Erwärmung geben, dann spricht das Bände. Damit wird anerkannt, dass die natürlichen Klimaprozesse den CO2-Effekt selbst auf steigendem Niveau zu dominieren vermögen. Der Nachsatz, danach schreite die (menschengemachte) Erwärmung aber doppelt so stark voran, ist durch keine belastbaren Fakten belegt. (Pfeifen im Walde!)

Höchst fragwürdig ist ferner, eine CO2-bedingte Erwärmung mit einer Zunahme von Extremwetterlagen zu begründen. Zum einen ist die Klimageschichte reich an Unwetter-Ereignissen, und zwar in allen Klimaregionen und Klimaperioden. Zum anderen ist bisher weder eine Zunahme von Hurrikanen in den Tropen noch von Orkantiefs in den Außertropen nachzuweisen. Auch sind in den Tropen und Subtropen viele extreme Ereignisse (Dürren, Starkniederschläge) nachweislich mit El Niño/La Niña verbunden, also mit natürlichen Prozessen. Menschengemacht sind allerdings die Randbedingungen bei Naturkatastrophen, wie zu hohe Bevölkerungsdichte, Eingriffe in die Natur (Abholzen von tropischen Wäldern, Zerstörung der den Inseln vorgelagerten Korallenriffe, auch durch die Schifffahrt), eine unangepasste Besiedlung und Bebauung in sensiblen Naturräumen.  

In den mittleren und nördlichen Breiten bestimmt, wie jeder Meteorologie-Absolvent weiß, der Temperaturgegensatz zwischen Subtropen und Polarregion das Unwetterpotential. Eine globale Erwärmung würde nach den Klimamodellen die Polarregion doppelt so stark erwärmen wie die Subtropen, d.h. der meridionale Temperaturgegensatz würde abnehmen und damit auch die Entstehungsbedingung für Orkane. So entstehen im Sommer bei uns – im Gegensatz zum Winter – keine Orkantiefs, weil der sommerliche Temperaturunterschied zwischen Azoren und Polarregion zu gering ist.

Eine Zunahme der Orkantätigkeit, des Unwetterpotentials, ist dagegen zu erwarten, wenn es zu einer globalen Abkühlung kommt, da die Polarregion sich in diesem Fall stärker abkühlen würde als die Subtropen und damit der meridionale Temperaturgegensatz zunehmen würde.  

Fazit: Die natürlichen Klimaprozesse bestimmen, wie zu allen Zeiten, auch heute und in Zukunft primär den Klimawandel. Dem menschengemachten CO2-Einfluss kommt in unserem Klimasystem  nur eine untergeordnete Bedeutung zu.

Nach meiner Überzeugung ist es ein falscher Ansatz, eine Verringerung der CO2-Emissionen mit dem Klimawandel zu begründen. Dagegen macht es Sinn, die mit der Verbrennung fossiler Energieträger verbundenen Umweltbelastungen zu reduzieren und im Hinblick auf kommende Generationen mit den Ressourcen verantwortlich umzugehen. Ziel der Klimaforschung sollte sein, interdisziplinäre Anpassungsstrategien für eine globale Abkühlung zu entwickeln. Jede Abkühlung führt zu größeren Problemen als eine Erwärmung.  

Als credo folgt somit: Die Sonne, in Verbindung mit dem Wärmespeicher Ozean, wird unsere Klimazukunft bestimmen. Dabei spricht derzeit alles für eine globale Abkühlung in den kommenden Jahrzehnten, denn die Prognosen über die solare Aktivität lassen ein „Grand Solar Minimum“ erwarten: “Solar activity is presently going through a transition period (2000–2013). This will be followed by a remarkably low Schwabe cycle, which has started recently. In turn that cycle precedes a forthcoming Grand Minimum, most likely of the long type.” (S. Duhau and C. de Jager, Journal of Cosmology 2010, Vol.8). Das gegenwärtige Klimaverhalten ist in Übereinstimmung mit dem 200-jährigen De-Vries-Zyklus (BWK-Beitrag  SO 09/11)  und dem derzeit synchronen, im Mittel 80-90-jährigen Gleissberg-Zyklus der solaren Aktivität (Abb.10).

 

Anhaltend aufwärts kann es mit der Globaltemperatur erst wieder gehen, und zwar auch dann ohne wesentlichen CO2-Einfluss, wenn die zyklische solare Aktivität wieder zunimmt. Aus heutiger Sicht sollte das in der 2.Hälfte des 21.Jahrhunderts sein, nachdem das Grand Minimum durchschritten worden ist. Vergleichbar damit könnte das Klima-/Temperaturverhalten zur Zeit und nach dem Dalton-Minimum der solaren Aktivität im 19. Jahrhundert sein. Das Ausmaß der kommenden Abkühlung wie der nachfolgenden Erwärmung werden wiederum primär von der Sonne bestimmt.   

Altbundeskanzler Helmut Schmidt hat auf dem SPD-Parteitag Anfang Dezember 2011 gesagt:

„Alles Gerede und Geschreibe über eine angebliche Krise des Euro ist leichtfertiges Geschwätz von Medien, von Journalisten und von Politikern“.

Nach meiner Überzeugung kann man für „Krise des Euro“ auch „menschengemachte Klimakatastrophe“ einsetzen.

Horst Malberg, Univ.-Prof. (a.D.) für Meteorologie und Klimatologie

Literatur und Daten s. SO 09/11 vom 23.3.2011: „Analyse des solaren Effekts und des langfristigen Klimawandels seit 1680 sowie des gegenwärtigen kurzperiodischen Klimaverhaltens“. 

erschienen in Beiträge zur Berliner Wetterkarte c/o Institut für Meteorologie der Freien Universität Berlin, C.-H.-Becker-Weg 6-10, 12165 Berlin 09/12          http://www.Berliner-Wetterkarte.de       ISSN 0177-3984, mit freundlicher Genehmigugn des Autors




Energiewende verstehen? E = mc²!

Bild rechts: Prof. Albert Einstein bei seiner 11. Josiah Willard Gibbs-Lektion auf dem Treffen der American Association for the Advancement of Science im Auditorium des Carnegie Institue of Technology Little Theater in Pittsburgh am 28. Dezember 1934. Photo: AP

E = mc²

Während meiner Collegezeit besuchte ich einen Kursus, in dem es um die großen politischen Philosophen ging – Hobbes, Locke, Rousseau, Kant, John Stuart Mill und Karl Marx.

Nach meiner Erinnerung habe ich sie den historischen Zeiten zugeordnet, die sie beeinflusst hatten – Hobbes und die Monarchen des 18. Jahrhunderts, Locke und die amerikanische Revolution, Rousseau und die Romantik des 19. Jahrhunderts, Kant und die Nationalstaaten des 19. Jahrhunderts, Marx und der Kommunismus des 20. Jahrhunderts.

Dann sah ich eines Tages eine Zeitskala, auf der gezeigt wurde, wann sie alle gelebt haben und gestorben sind. Zu meinem Erstaunen hatte jeder einhundert Jahre vor der Zeit gelebt, die ich  ihnen zeitlich zugeordnet hatte. Es schien klar, was das bedeutet. „Es dauert etwa hundert Jahre, bevor ein neuer Gedanke die Bühne der Geschichte betritt“.

Vor fast genau einhundert Jahren hat Albert Einstein die Gleichung E = mc² in seiner “Speziellen Relativitätstheorie” eingeführt. Die Gleichung bot einen neuen Weg, die Ursprünge chemischer Energie zu beschreiben sowie eine neue Energiequelle, die bis dahin historisch völlig unbekannt war – Kernkraft. Die Kernkraft gab ihr furchtbares Debut in der Geschichte 40 Jahre später in Gestalt einer Atombombe. Aber 100 Jahre später haben die Amerikaner [und vor allem auch die Deutschen, A. d. Übers.] noch nicht richtig die weit größeren Implikationen von Einsteins Gleichung erfasst – eine neue Form von Energie, die fast unbegrenzte Energie mit einem verschwindend geringen Einfluss auf die Umwelt zur Verfügung stellen kann.

E = mc². Wer hat noch nichts davon gehört? Selbst Mariah Carey hat ihr letztes Album danach benannt. „E“ steht für Energie, „M“ für Masse und „C“ für die Lichtgeschwindigkeit – das ist einfach genug. Aber was bedeutet das wirklich? (Die Antwort lautet nicht „Relativität“).

Was E = mc² besagt ist nichts weiter als dass Materie und Energie austauschbar sind. Es gibt eine Verbindung zwischen den beiden. Energie kann sich in Materie verwandeln und Materie in Energie. Es sind zwei verschiedene Aspekte der gleichen Sache.

Dieses Prinzip der Gleichartigkeit von Energie und Materie war eine total unerwartete Abwendung von allem, was es bis dahin gegeben hatte. Im 18. Jahrhundert hat Antoine Lavoisier, der große französische Chemiker, die Erhaltung der Materie begründet. Durch sehr sorgfältige Experimente wie das Verbrennen eines Holzscheites fand er heraus, dass das Gewicht der entweichenden Gase und Aschen immer genau gleich dem Gewicht des Ausgangsmaterials war. Materie kann nicht erzeugt oder vernichtet werden, sondern nur seine Form ändern.

Im 19. Jahrhundert dann begründete eine ganze Reihe brillanter Wissenschaftler – Count Rumford, Sadi Carnot, Rudolf Clausius, Ludwig Boltzman – das gleiche Prinzip für Energie. Energie kann viele Formen annehmen – Wärme, Licht, Bewegung potentielle Energie – aber die Menge bleibt immer die gleiche. Energie kann auch nicht erzeugt oder vernichtet werden.

Als dann das 20. Jahrhundert herauf dämmerte, kam Albert Einstein mit einem dritten Prinzip, dass die anderen beiden in völlig unerwarteter Weise vereinigte. Einstein bewies das Erhaltungsgesetz zwischen Materie und Energie. Nichts dergleichen konnte man sich früher vorstellen. Das Bedeutendste an der Sache ist der Koeffizient – das Quadrat der Lichtgeschwindigkeit. Das ist eine sehr, sehr große Zahl mit einer Größenordnung von 1 Quadrillion.

Wir haben nicht wirklich einen Referenzpunkt, um uns einen Faktor von einer Quadrillion vorzustellen. Wir wissen, was eine Trillion ist – das öffentliche Haushaltsdefizit [der USA]. Aber eine Quadrillion ist immer noch jenseits unseres Horizontes. Jedoch bedeutet genau das, dass eine sehr, sehr große Energiemenge sich in eine sehr, sehr kleine Menge von Materie verwandeln kann, und dass eine sehr, sehr kleine Menge von Materie zu einer sehr, sehr großen Energiemenge werden kann.

Vielleicht gibt es einen Weg, die Wichtigkeit von Einsteins Gleichung mit einer anderen Gleichung zu vergleichen, und zwar der Formel für kinetische Energie:


Kinetische Energie ist die Energie sich bewegender Objekte. „E“ steht wieder für Energie, „m“ für Masse und „v“ für die Geschwindigkeit des sich bewegenden Objektes. Wenn man beispielsweise einen Tennisball durch einen Raum wirft, wird die Energie berechnet, indem man die Masse des Balles mit dem Quadrat seiner Geschwindigkeit multipliziert – vielleicht etwa 50 Meilen pro Stunde.

Die beiden Formeln sind im Wesentlichen gleich. Stellt man sie nebeneinander, ergeben sich zwei Dinge:

  1. Bei einer vorgegebenen Energiemenge sind Masse und Geschwindigkeit umgekehrt proportional. Je höher die Geschwindigkeit, umso weniger Masse ist erforderlich, und umgekehrt.
  2. Vergleicht man das mit den Geschwindigkeiten sich bewegender Objekte in der Natur – Wind und Wasser zum Beispiel – ist der Koeffizient in Einsteins Gleichung fünfzehn Größenordnungen größer – der gleiche Faktor wie von einer Quadrillion.

Wie merken wir das im täglichen Leben? Das meiste von dem, was wir „erneuerbare Energie“ nennen, sind tatsächlich die kinetischen Flüsse von Materie in der Natur. Wind und Wasser sind sich bewegende Dinge, die wir zur Energieerzeugung abernten. Daher werden sie mit der Formel für kinetische Energie gemessen.

Beginnen wir mit Strom aus Wasserkraft. Von einem hohen Damm herunterfallendes Wasser erreicht eine Geschwindigkeit von etwa 60 Meilen pro Stunde [ca. 95 km/h] oder 80 Fuß pro Sekunde [ca. 24 m/s]. Erhöht man den Damm um 80 oder mehr Fuß, kann die Geschwindigkeit dadurch nicht um mehr als 20 Meilen pro Stunde [ca. 32 km/h] erhöht werden. Der einzige Weg, den Energieoutput zu erhöhen besteht darin, die Masse zu erhöhen, d. h. mir müssen mehr Wasser verbrauchen.

Die größten Dämme – Hoover und Glen Canyon am Colorado – sind 800 Fuß hoch [ca. 240 m] und halten ein Reservoir mit einer Fläche von 250 Quadratmeilen [ca. 400 km²] zurück. Dies erzeugt 1000 Megawatt, Standard für eine stromerzeugende Station. (Lake Powell hinter dem Glen Canyon Damm versandete irgendwie und erzeugt nur 800 MW).

Umweltaktivisten begannen in den sechziger Jahren, gegen Wasserkraftwerke mobil zu machen, weil sie so riesige Landschaftsräume verbrauchen, weil sie landschaftlich schöne Täler und historische Canyons ertränken. Sie haben diese Mobilmachung bisher nicht beendet. Der Sierra-Klub, der gegen die Errichtung des Hetch-Hetchy-Damms in Yosemite 1921 kämpfte, versucht immer noch, diesen niederzureißen, obwohl er Trinkwasser und 400 Megawatt Strom für San Francisco zur Verfügung stellt. Als Ergebnis dieser Kampagne werden jedes Jahr mehr Dämme eingerissen als neu gebaut.

Wind weist eine viel geringere Energiedichte als Wasser auf, so dass der Landverbrauch sogar noch größer ist. Zeitweilige 50 Stockwerke hohe Windmühlen erzeugen 1½ MW pro Stück, so dass man 660 Windmühlen braucht, um 1000 MW zu erzeugen. Sie müssen eine halbe Meile [ca. 800 m] entfernt voneinander errichtet werden, so dass ein 1000 MW-Windpark 125 Quadratmeilen [ca. 200 km²] Land überdeckt. Unglücklicherweise erzeugen die besten Windmühlen Strom gerade mal in 30% der Zeit, so dass 1000 MW in Wirklichkeit einen Landverbrauch von 375 Quadratmeilen [ca. 600 km²] weit voneinander entfernter Standorte erfordert.

Gezeitenkraft, oft als eine weitere erneuerbare Energiequelle genannt, leidet unter den gleichen Problemen. Wasser hat eine größere Dichte als Wind, aber die Gezeitenströme bewegen sich nur mit einer Geschwindigkeit von etwa 5 mph [ca. 8 km/h]. An den bestgeeigneten Standorten der Welt würde man etwa 20 Meilen [ca. 32 km] Küstenlinie benötigen, um 1000 MW zu erzeugen.

Was ist mit der Solarenergie? Die Sonnenstrahlung ist ein Ergebnis einer Transformation von E = mc², da die Sonne Wasserstoff zu Helium verbrennt. Unglücklicherweise findet diese Reaktion 90 Millionen Meilen entfernt statt. Die Strahlung streut mit dem Quadrat der Entfernung, so dass die Sonnenenergie, wenn sie die Erde erreicht, um fast den gleichen Faktor abgeschächt ist, 10 bis 15. Folglich beträgt die auf einen Quadratmeter einfallende Sonnenstrahlung 400 Watt, ausreichend, um vier 100-WQatt-Glühbirnen zum Leuchten zu bringen. „Thermische Solar“ – große Anordnungen von Spiegeln, die eine Flüssigkeit erhitzen – können 30 Prozent davon in Strom umwandeln. Photovoltaikzellen sind mit einer Umwandlung von 25 Prozent etwas weniger effizient. Ergebnis: Die Strommenge, die wir von der Sonne bekommen, reicht aus, um eine 100-Watt-Glühbirne pro Kartentisch zu erleuchten.

Das ist keine insignifikante Strommenge. Falls wir jedes Hausdach im Lande mit Solarkollektoren zupflastern, könnten wir möglicherweise unsere Hausbeleuchtung plus einige grundlegende Haushaltsgeräte damit betreiben – tagsüber. Der große Vorteil der Sonne liegt darin, dass sie gerade dann ihr Maximum erreicht, wenn es gebraucht wird, während heißer Sommernachmittage wenn die Klimaanlagen den Stromverbrauch in die Höhe schnellen lassen. Das Zusammentreffen mit diesen Spitzen ist ein ständiges Problem für Energieversorger, und der Sonnenstrom kann eine signifikante Rolle bei der Erfüllung des Bedarfs spielen. Das Problem taucht auf, wen Solarenthusiasten zu behaupten versuchen, dass die Solarkraft grundlastfähigen Strom für eine Industriegesellschaft liefern kann. Es gibt keine Technologie, Energie in für kommerzielle Verwendung ausreichender Mengte zu speichern. Bis etwas entwickelt wird – was unwahrscheinlich erscheint – können Wind- und Solarkraft nur als zeitweilige unvorhersagbare Energiequellen dienen.

Es gibt nur so viel Energie, wie wir aus erneuerbaren Quellen anzapfen können. Sie ist begrenzt, entweder durch die erreichte Schnelligkeit oder durch die Distanz, die die Sonnenenergie bis zum Erreichen der Erdoberfläche überwinden muss. Gibt es also irgendwo in der Natur eine Stelle, an der wir einen Vorteil aus jenem „c2“-Koeffizienten ziehen und Masse in Energie verwandeln können? Es gibt eine, die wir durch die Geschichte benutzt haben. Sie nennt sich „Chemie“.

Chemische Energie wird gemeinhin durch „Ladungszahlen” beschrieben. Ein Natriumatom hat eine Wertigkeit von +1, was bedeutet, dass ihm ein Elektron in der äußeren Hülle fehlt. Gleichzeitig besitzt das Chloratom eine Wertigkeit von -1, was bedeutet, dass es ein Elektron zu viel hat. Zusammen bilden sie Natriumchlorid (Tafelsalz). Alle chemischen Reaktionen laufen entweder „endothermisch“ oder „exothermisch“ ab, was bedeutet, dass Energie bei diesem Prozess entweder abgegeben oder verbraucht wird. Der Bunsenbrenner in der Chemieklasse ist ein Weg, einer Reaktion Energie zuzuführen. Das andere, was passieren kann, geschieht gelegentlich in Chemielaboratorien, nämlich ein plötzliches Freisetzen von Energie, genannt „Explosion“.

Der große Fortschritt der Quantenphysik des 20. Jahrhunderts war es, die chemischen Reaktionen zu beschreiben mit E = mc².

Verbrennt man eine Gallone (ca. vier Liter) Benzin, wird nur ein Milliardstel der Masse des Benzins vollständig in Energie umgewandelt. Diese Umwandlung erfolgt in der Elektronenhülle. Die Menge ist so gering, dass es bisher noch niemandem gelungen ist, sie zu messen. Und doch reicht die Energieerzeugung aus, um ein 1000-Kilo-Fahrzeug 50 Kilometer fahren zu lassen – eine bemerkenswerte Leistung, wenn man darüber nachdenkt.

Elektronen machen nur etwa 0,01 Prozent der Masse eines Atoms aus. Die anderen 99,99 Prozent befinden sich im Atomkern. Und so erhob sich die Frage, ob es möglich wäre, die viel größere, im Atomkern gespeicherte Energiemenge auf die gleiche Weise abzugreifen, wie wir das mit den Elektronen durch Chemie getan haben?

Lange Zeit bezweifelten viele Wissenschaftler, dass das gelingen könnte. Einstein selbst war skeptisch, indem er sagte, dass die Spaltung eines Atoms so wäre wie „der Versuch, nachts Vögel zu jagen in einem Land, in dem es kaum Vögel gibt“. Aber andere Wissenschaftspioniere – Enrico Fermi, George Gamov, Lise Meitner und Leo Szilard – entdeckten, dass es gemacht werden kann. In den späten dreißiger Jahren ist klar geworden, dass Energie in bisher nicht gekannter Menge durch Spaltung des Uranatoms gewonnen werden könnte.

Unglücklicherweise ging der Einführung der Kernkraft der II. Weltkrieg voraus. Dies ist eine historische Tragödie. Die Atombombe steht zur Kernkraft im gleichen Verhältnis wie Schießpulver zu Feuer. Während das Schießpulver in der Geschichte eine bedeutende Rolle gespielt hat, war die Rolle des Feuers von viel größerer Bedeutung. Würden wir das Feuer aufgeben, nur weil es zur Entwicklung von Gewehren geführt hat? Und doch wirft die Atombombe weiterhin einen Schatten auf die gleichermaßen bedeutende Entdeckung der Kernkraft.

Es stellte sich heraus, dass der Energieausstoß aus einem sich teilenden Uranatom 2 Millionen mal größer ist als die Kohlenstoff-Wasserstoffbindung in Kohle, Öl oder Holz aufzubrechen. Verglichen mit allen von den Menschen benutzten Formen der Energiegewinnung ist die Kernkraft jenseits aller Grenzen. Wind besitzt nur ein Zehntel der Energiedichte von Holz, Holz die Hälfte der Energiedichte von Kohle und Kohle die Hälfte der Energiedichte von Oktan. Alle zusammen unterscheiden sie sich um einen Faktor von etwa 50. Die Kernkraft besitzt etwa 2 Millionen mal die Energiedichte von Benzin. Es ist schwierig, dies im Licht unserer bisherigen Erfahrungen auszuloten. Und doch hängt unsere Energiezukunft großenteils davon ab, die Bedeutung dieses Differentials zu erfassen.

Eine elementare Vergleichsquelle ist die Überlegung, was man braucht, um ein Kohlekraftwerk im Gegensatz zu einem Kernreaktor wieder aufzutanken. Ein 1000-MW-Kohlekraftwerk – unser Standard – wird durch einen 110 Waggons langen „Kohlezug“ gefüttert, der alle 30 Stunden an dem Kraftwerk ankommt – 300 mal im Jahr. Jeder individuelle Kohlewaggon wiegt 100 Tonnen und erzeugt 20 Minuten lang Energie. Wir bringen die Kapazität unseres Schienensystems durch dieses Herumfahren der Kohle in unserem Land an seine Grenzen. (In China ist es bereits komplett zusammengebrochen).

Ein Kernreaktor andererseits wird aufgetankt, wenn eine Flotte von sechs Sattelschleppern an dem Kraftwerk mit einer Ladung Brennstäbe einmal alle 18 Monate ankommt. Die Brennstäbe sind nur schwach radioaktiv und können mit Handschuhen angefasst werden. Sie werden fünf Jahre im Reaktor verbleiben. Nach diesen fünf Jahren werden sich etwa 6 Unzen (ca. 170 g) Materie vollständig in Energie verwandelt haben. Wegen der Stärke nach E = mc² reicht die Metamorphose von 6 Unzen Materie aus, die Stadt San Francisco fünf Jahre lang mit Strom zu versorgen.

Das ist es, was den Leuten so schwerfällt zu verstehen. Es liegt fast jenseits unserer Vorstellungskraft. Wie kann man eine ganze Großstadt fünf Jahre lang mit 6 Unzen Materie fast ohne jeden Umwelteinfluss mit Strom versorgen? Es scheint so unvorstellbar zu sein, dass wir Probleme erfinden, um alles wieder normal aussehen zu lassen. Ein Reaktor ist eine Bombe, die darauf wartet zu explodieren. Der Abfall lagert ewig, was werden wir je damit tun können? Es liegt etwas Unheimliches darin, Energie aus dem Atomkern zu erzeugen. Die Technologie liegt jenseits der menschlichen Beherrschbarkeit.*

Aber die Technologie liegt nicht jenseits der menschlichen Beherrschbarkeit. Es ist auch nichts Unheimliches an der Kernkraft. Es liegt nur jenseits von allem, was wir uns vor Beginn des 20. Jahrhunderts auch nur vorstellen konnten. Zu Beginn des 21. Jahrhunderts ist es Zeit, damit anzufangen, sich das vorzustellen.

William Tucker is the author, most recently, of Terrestrial Energy: How Nuclear Power Will Lead the Green Revolution and End America’s Energy Odyssey.

Link: http://www.energytribune.com/articles.cfm/2469/Understanding-E-=-mc2

Übersetzt von Chris Frey

*Bemerkung des Übersetzers: Der Artikel von Tucker stammt vom 21. Oktober 2009, ist also schon älter. Alles hierin Gesagte gilt  natürlich auch für die Energiequelle Thorium, von der damals offenbar noch nichts bekannt war und die nun auch das Risiko einer Verstrahlung gegen Null tendieren lässt.




FTD Umfrage: 70 % Zustimmung für Vahrenholt/Lüning Thesen zum Klimawandel

Und der Spartensender PHOENIX sendet morgen am 13.2.12 um 22:15 Uhr dazu eine Diskussion unter dem Titel „Wieder prima Klima? Der Streit um die Energiewende“

Teilnehmer sind Fritz Vahrenholt und Huber Weger vom BUND. Die Moderation besorgt der nette Christoph Minhoff.

Unterdessen wird im Bundes-Wirtschaftsministerium ein Krisenstab für einen möglichen Blackkout eingerichtet. Obwohl doch 50 % der weltweiten Solaranlgen in Deutschland installiert sind.

In Bayern tagt er bereits permanent, wie der Bayerntext (12.2.20012, 12.10) berichtet: „In Bayern jagt eine Energierunde die nächste. Grund: Die Russen liefern nicht genug Gas.“

Auch die Leser der FTD lassen sich also nicht für dumm verkaufen, obwohl es immer wieder von Propagandisten – wie jetzt wieder in „Die Zeit“ – versucht wird.

Unter dem Titel

Störenfritz des Klimafriedens“ 

versuchen dort die drei „anerkannten Fachjournalisten“

Frank Drieschner, Christiane Grefe und Christian Tenbrock (*) den ehemaligen Umweltsenator in einem längeren Artikel niederzumachen und der Verachtung preisgeben:

Die wirklich wichtige Frage aber ist die nach der politischen Wirkung: Bleibt Vahrenholt ein wissenschaftlicher Esoteriker mit Ausstrahlung auf Seite zwei der Bild-Zeitung – oder wird er womöglich zur Galionsfigur einer neuen ökoreaktionären Bewegung? In Deutschland sind die »Klimaskeptiker«, wie sie selbst sich nennen, bislang nahezu bedeutungslose Rabulisten am rechten Rand der etablierten Politik – dort, wo auch Islamhasser, deutsche Neocons und andere Verächter liberalen »Gutmenschentums« sich tummeln.

Und so geht es drei Seiten lang. Ein despektierlicher Begriff nach dem anderen, dazu der fleißig gestreute, maliziöse Verdacht, Vahrenholt sei nur Lobbyist der RWE. Auf keiner der drei Seiten steht aber auch nur ein einziges Gegenargument – nichts, nur Niedermache! Das ist aber durchaus verständlich, denn mehr steht diesen Leuten nicht zur Verfügung:

Und es wird daher auch nichts helfen, wenn der Solaroberlobbyist Eike Weber Direktor des Freiburger Forschungsinstituts für solare Energieysteme der Fraunhofergesellschaft in der Welt am Sonntag die Gefährlichkeit des unauffindbaren Treibhauseffekt erklären darf.

(*) Hier die VITA der selbsternannten Klimamoralwächter

ZEIT-CO2-Experte Nr. 1, Frank Drieschner (Foto 1), hat Philosophie und Geschichte und Modernes Leben studiert. Es bewegen ihn besonders Fragen der Medizinethik – Sterbehilfe, Patientenverfügungen, Pflegenotstand.
ZEIT-CO2-Experte Nr. 2, Christiane Grefe (Foto 2), studierte Politikwissenschaft, Kommunikationswissenschaft und Amerikanistik an der Deutschen Journalistenschule in München. Den Schwerpunkt ihrer Arbeit bilden ökologische und soziale Themen, wofür sie durch ihr “Studium” bestens ausgestattet ist. Eines ihrer bahnbrechenden Bücher „Allergien – Leiden an der Umwelt“, sollte in keiner Hausapotheke fehlen.
ZEIT-CO2-Experte Nr. 3, Christian Tenbrock (Foto 3), studierte Volkswirtschaft und Sozialwissenschaften. Er war beim WDR-Radio und vier Jahre bei den Olympischen Spielen in Seoul. Heute bricht er zu Erkundungen auf im Osten.

Die Qualifikationen sind überwältigend. Und alle drei sind schließlich einer Meinung!

Und genau an diesem Dogma des „wissenschaftlichen Konsenses“ sollte nicht gerüttelt werden. Das Volk muß einig sein und zusammenstehen im Kampf gegen das CO2 und die Klimaerhitzung. Abweichler, Dissidenten können nicht geduldet, sondern müssen mit allen demagogischen Mitteln bekämpft werden. Schon neulich hat Toralf Staud, ein weiterer ZEIT-Experte, zugeschlagen gegen den Klima-Sarrazin!

Es bleibt also spannend.

Michael Limburg EIKE,

mit Dank an PI, sowie die Leser Kurt Laburda und Dr. Zielinski für Hinweise bzw. Textteile.

Weitere Info´s hier