Nachhaltige Entwicklung? – Die Welt gehört den Lebenden!

Der Besuch im Vergnügungspark endete vor der lebensgroßen Figur des Mammuts. “Lebensgroß” bedeutet in diesem Fall nichts anderes als “ziemlich groß”, also beeindruckend. Der Gestalter hatte sich alle Mühe gegeben, denn immerhin wissen wir heute genau, wie Mammuts einmal ausgesehen haben. Und im Gegensatz zu all den vielen Dinosauriern, deren lebens- also ziemlich große Nachbildungen der Park ebenfalls zu bieten hatte, waren Mammuts einmal unsere Zeitgenossen. Das erklärt die Faszination, die diese Tiere auf uns ausüben. Und ebenfalls im Gegensatz zu den Dinosauriern gibt es zumindest Indizien, die das Aussterben dieser großen Landsäugetiere mit dem Menschen, mit den Fertigkeiten steinzeitlicher Jäger, in Verbindung bringen.  Die Figurengruppe im Vergnügungspark, die nicht nur aus dem gigantischen Rüsseltier, sondern auch aus unseren fellbedeckten, mit Speeren herumfuchtelnden Vorfahren besteht, bildete einen merkwürdigen Kontrast zu den Horden lärmender Kinder und staunender Eltern, die sie betrachteten.

Dieser Kontrast verdeutlicht das Scheitern des Prinzips der “nachhaltigen Entwicklung”.

Unsere gegenwärtigen Bedürfnisse, so dieses Prinzip, sollen wir auf eine Art und Weise erfüllen, die die Fähigkeit künftiger Generationen zur Befriedigung ihrer Bedürfnisse nicht einschränkt. Für sich genommen bietet diese Vorgabe keinerlei Entscheidungskriterium. Denn erstens kennen wir die Bedürfnisse zukünftiger Generationen nicht – und zweitens nicht deren Fähigkeiten.
Das Prinzip der nachhaltigen Entwicklung ergibt nur dann einen Sinn, wenn es in den Kontext seiner Entstehung gestellt wird. Und dieser Kontext ist die Vorstellung prinzipiell unüberwindlicher Grenzen, denen wir durch unsere Lebensweise bedrohlich nahekommen.
Es scheint ja naheliegend: Die Erde hat eine definierte Größe. Ihre Oberfläche und das, was sich auf ihr so tummelt, ihr Volumen, und das, was man darin so findet, sind tatsächlich von endlicher Menge. Die Vorstellung, daß uns dies einmal Probleme bereiten könnte, ist mindestens so alt wie die industrielle Revolution. Und diese Idee der Begrenzung unserer Möglichkeiten wurde in den 1970er Jahren so populär, daß sie in die Formulierung des Prinzips der nachhaltigen Entwicklung in den 1980ern und dessen Implementierung als grundlegendes politisches Dogma in den 1990ern mündete. Heute gibt es im deutschen Bundestag keine Partei mehr, die sich in ihrer Programmatik gegen diesen Ansatz wendet.

Für das Mammut kam diese Entwicklung etwas zu spät.

Dabei mag es eine große Bedeutung für nomadische menschliche Gesellschaften gehabt haben. Es lieferte nicht nur Fleisch, sondern vom Fell über Elfenbein bis zu den Knochen allerlei Materialien zur Anfertigung einer Vielzahl nützlicher Artefakte. Man kann durchaus eine besondere Abhängigkeit umherziehender Stammesverbände vom Mammut annehmen. Die Vorstellung, das Mammut könnte einmal nicht mehr existieren, wird vielleicht zu den Schreckensszenarien gehört haben, die sich unsere Vorfahren vor zehntausenden von Jahren in dunklen Stunden ausgemalt haben. Sich nachhaltig zu entwickeln, hätte für den Steinzeitmenschen bedeutet, das Mammut auf jeden Fall zu erhalten. Es nicht so intensiv zu bejagen, wie möglicherweise geschehen, damit es auch seinen Nachkommen weiterhin zur Verfügung steht.

Es ist anders gekommen: Das Mammut ist nicht mehr – und dies ist heute völlig ohne Belang.

Tatsächlich ist zu konstatieren: Zu keinem Zeitpunkt in ihrer Geschichte hat sich die Menschheit nachhaltig entwickelt. Immer wurden natürliche Ressourcen ausgebeutet und genutzt, um aktuelle Bedürfnisse zu befriedigen – ohne jede Rücksicht auf nachfolgende Generationen. Und zu keinem Zeitpunkt der Menschheitsgeschichte wäre ein Leben auf der Grundlage des Prinzips der nachhaltigen Entwicklung aus heutiger Sicht sinnvoll gewesen.
Was hätte ein Römer denn als wichtig genug erachten können, um es für die Nachwelt zu erhalten? Was ein Mensch des Mittelalters? Und was ein Zeitgenosse der beginnenden Neuzeit? Felle (für Kleidung), Bienenwachs und Walöl (für die Beleuchtung), Pferde und Ochsen (für Transportzwecke), Holzkohle (für die Eisenverhüttung), Pergament (für die Kommunikation)? In Wahrheit könnte man alle diese Ressourcen heute immer noch in beliebiger Menge bekommen – nur werden sie nicht mehr gebraucht (jedenfalls nicht für ihren ursprünglichen Zweck). Bei mir findet sich von all dem aktuell nur ein kleiner Vorrat Holzkohle – zum Grillen.
Es gibt – und das ist der zweite Aspekt dieser kurzen Liste – keine einzige Ressource mit Bedeutung zu irgendeinem Zeitpunkt der Menschheitsgeschichte, die heute deswegen nicht mehr vorhanden wäre. Noch nie haben wir irgendetwas vollständig und unwiderruflich verbraucht. Es ist auch alles noch da, was das Mammut zu bieten hatte: Elfenbein, Knochen, Fleisch und Fell. Die Steinzeit – und dieser Satz ist so banal wie alt wie richtig – ist eben nicht aus einem Mangel an Steinen beendet worden.
Man kann sein Verhalten nicht an der Zukunft ausrichten, da man diese nicht kennt. Die Anhänger der nachhaltigen Entwicklung sehen dies natürlich anders. Sie glauben die Zukunft ganz genau zu kennen. Sie sind davon überzeugt, die Menschheit wäre an einem singulären, besonderem Punkt ihrer Entwicklung angelangt. Am Ende eines Weges, der tatsächlich von einer hohen Mauer begrenzt würde, die man nicht überwinden könne. Es gälte, so die Forderung, anzuhalten oder gar den Weg wieder ein Stück zurückzugehen, um nicht aufzuprallen. Tatsächlich ist diese Vorstellung so alt wie die Menschheit selbst. Noch jede Gesellschaft hat sich selbst als Ende und Höhepunkt einer Entwicklung gesehen, noch jede Gesellschaft hatte keine kluge Idee von dem, was nach ihr kommen könnte. Und bislang haben sich all die angenommenen Mauern als reine Phantasieprodukte herausgestellt, die nur in den Köpfen (einiger) Menschen, nicht aber in der Realität vorhanden waren.
Vor diesem Hintergrund ist das Prinzip der nachhaltigen Entwicklung in Wahrheit nur Ausdruck von Hybris und Phantasielosigkeit. In einer Politik, die diesem Prinzip folgt, manifestiert sich ein Mangel an Vorstellungsvermögen. Mehr nicht. Die Anhänger der nachhaltigen Entwicklung glauben die Zukunft zu kennen – aber sie vergessen darüber die Vergangenheit.
Auf die Frage, warum denn genau die aktuelle Epoche der Menschheitsgeschichte eine gegenüber unseren Vorfahren grundlegende Verhaltensänderung erfordert, hat Hans-Joachim Schellnhuber jüngst in einem Essay für die FAZ eine interessante, durchaus neue und bedenkenswerte Antwort gegeben: Weil wir es (erst) heute können. Natürlich ist ihm die oben ausgeführte Argumentation geläufig: Wäre man dem Prinzip der nachhaltigen Entwicklung im 18. Jahrhundert bereits gefolgt, hätte es die industrielle Revolution nie gegeben. Und der Wohlstand, der gegenwärtig Milliarden Menschen ernährt (und alle möglichen anderen Bedürfnisse befriedigt) wäre niemals möglich gewesen. Darauf entgegnet er sinngemäß, natürlich wäre die industrielle Revolution gut und sinnvoll gewesen. Denn durch sie erst hätten wir überhaupt die Fähigkeit entwickelt, heute eine nachhaltige Lebensweise zu wählen.
Mit anderen Worten: Allein die nicht-nachhaltige Entwicklung der vergangenen Jahrhunderte hat in dieser Argumentation die Möglichkeit geschaffen, (gedachten) Gefahren für unsere weitere Entwicklung durch Abkehr und Umkehr aus dem Weg zu gehen. Der heutige Wohlstand erst, der sehr wesentlich auf der ungebremsten Ausbeutung nicht nachwachsender fossiler und mineralischer Ressourcen beruht, hat also Bremse und Rückwärtsgang geschaffen, durch die man den Aufprall auf die (gedachte) Mauer vermeiden könnte.
Was liegt also näher, als einfach dem bisher eingeschlagenen Weg weiter zu folgen? Auch unsere Nachfahren werden wohl an Mauern, an Grenzen der Entwicklung glauben. Es werden nur andere sein, als man heute annimmt. Unsere Bedürfnisse in der Gegenwart zu befriedigen und sich dabei nicht von Weltuntergangsphantasien stören zu lassen, kann also die Möglichkeiten unserer Nachfahren, mit den Problemen der Zukunft umzugehen (ganz gleich ob diese Phantasie oder Realität sind), nur noch weiter verbessern. Ganz so, wie die Entwicklung von Maschinen, die Nutzung der Elektrizität, die Herstellung von Kunststoffen, die Technisierung der Landwirtschaft und vieles mehr uns den Reichtum ermöglicht haben, der erst heute nach Schellnhuber eine nachhaltige Entwicklung gestatten würde.
Sich auf diese dann aber wirklich festzulegen, hieße, künftigen Generationen keine anderen Bedürfnisse zu erlauben, als wir sie heute schon haben.
Aus der Sicht unserer Nachfahren würden wir, folgten wir den Schellnhuberschen Ideen einer “großen Transformation”, genau den Fehler machen, den die Menschen der vergangenen Generationen glücklicherweise nicht gemacht haben. Das Prinzip der Nachhaltigkeit ist der eigentliche Irrtum unserer Zeit, schließlich muss man nicht gleich vor jeder Mauer stoppen. Sollte sie wirklich keine Illusion sein, kann man sie auch umfahren. Oder – und das war in der Vergangenheit immer die bessere Alternative – man erhöht Geschwindigkeit und Panzerung und pulverisiere sie einfach, während man sie durchbricht.

Die junge, neue Kollegin im Büro fragte mich vor kurzem erst, was denn aus meiner Sicht so kritikwürdig am Prinzip der “nachhaltigen Entwicklung” sei. Ich antwortete wortlos aus dem Fenster zeigend. Sie verstand bemerkenswert schnell: “Ah, Sie meinen, daß die Welt noch immer existiert?” Das ist der Punkt. Es geht uns heute nicht schlechter, als vor zwei oder drei Jahrzehnten. Sondern besser. Und es geht uns sogar sehr viel besser, als den steinzeitlichen Mammutjägern. Auch ohne Mammuts. Und niemand von den Besuchern des Parks, nicht die Kinder und auch nicht die Eltern, niemand wird die folgende Nacht schlaflos vor Trauer über den Verlust dieser Elefantenart verbracht haben. Ganz im Gegenteil: Auf das Mammut nicht mehr angewiesen zu sein und nicht mehr so leben zu müssen, wie unsere Altvorderen, gefällt den Menschen. Auf den Mut der steinzeitlichen Jäger, auf ihren Erfindungsreichtum und ihre Kreativität, der es ihnen ermöglichte, sich den Gefahren ihrer Umwelt erfolgreich zu widersetzen und aus diesen sogar Vorteile zu ziehen, sollten wir heute stolz sein. Versuchen wir doch einfach, diesen Stolz auf unsere Generation auch unseren Nachfolgern zu ermöglichen.
Autor Peter Heller; mit freundlicher Genehmigung

Dr. Peter Heller ist Astronom und Physiker, übt diese Profession aber mittlerweile nur noch mit dem eigenen Teleskop im eigenen Garten aus. Nach Zwischenstationen in der Software- und Raumfahrtindustrie arbeitet er heute als Strategieberater, Zukunftsforscher und Trendscout.

Der Artikel erschien zuerst in NOVO hier




Emissionshandel angezählt: der Weltmarkt für Emissionszertifikate fällt zum ersten Mal.

Ich bin gespannt, wie lange es dauert, bis der Kurs auf Null ist, wie vergangenes Jahr bei der  Chicagoer Emissionshandels-Börse CCX.
Sogar der Guardian behandelt diesen “Reinfall” auf dem Zertifikatemarkt. Dort heißt es:
Der internationale Zertifikatehandel ist fast gänzlich zusammengebrochen. Im vergangenen Jahr sind nur Zertifikate für etwa  $1.5 Mrd. gehandelt worden …
Jetzt, nachdem das Kyoto-Protokoll im Wesentlichen tot ist,  werden die Märkte nach den Rettungsringen greifen, seit es keine politische Unterstützung mehr für die Emissionsreduzierungen gibt. In diesem Bericht und auch in der Berichterstattung der Medien kann man förmlich hören, wie die Händler zu den Notausgängen rennen.
Dann auch noch das hier von Reuters: – Der europäische Emissionshandel könnte während der kommenden Jahrzehnts von überschüssigen Verschmutzungsrechten überflutet werden. Die Preise könnten um die Hälfte fallen und den Regierungen Milliarden Euro Einnahmen fehlen, wie aus EU-Quellen verlautete.
Die Weltbank meldete in ihrer Pressemitteilung:2011/514/SDN:
Wachstumsstillstand im globalen Zertifikatehandel wegen Unsicherheit
(World Bank Releases 2011 “State and Trends of the Carbon Market” Report)
Barcelona, 1. Juni 2011 – Der jährliche Zustandsbericht der Weltbank über den globalen Zertifikatehandel zeigt für 2010 einen Hagelschlag. Das seit fünf Jahren andauernde robuste Wachstum endete mit einem leichten Rückgang gegenüber 2009. Der Zustand und die Trends auf dem Markt für Emissionsrechte 2011 (Veröffentlichung auf der Carbon Expo in Barcelona) zeigt auf, dass das Gesamtvolumen des globalen Emissionshandels im vergangenen Jahr auf etwa US$ 142 Mrd. geschätzt worden war. 
Die Verfasser schreiben, dass mit Hilfe vieler Gründe der Niedergang erklärt werden kann, darunter der fortwährende Mangel an Klarheit auf dem Markt für die 2012 und der Verlust an politischer Schubkraft bei der Schaffung neuer Handelsschematat in vielen Industriestaaten. Einige Einkäufer aus Industriestaaten, die in den vergangenen Jahren ihre Minderungsziele erreicht oder übertroffen hatten, kauften konsequenterweise weniger ein als 2010. Auch die noch fortwährenden Auswirkungen der Rezession in verschiedenen Industriestaaten führten zu weniger Treibhausgasemissionen und senkten den Druck zur Erfüllung der Reduzierungsverpflichtungen.
Darüber hinaus ist der Hauptmarkt der Certified Emission Reductions (CERs), auf dem die meisten projektbezogenen Transaktionen stattfinden, zweistellig gesunken. Verschiedene Gründe spielten eine Rolle, darunter eine geringere Nachfrage nach Rechten und die Konkurrenz von besser vorhersehbaren Investitionen (Assigned Amount Units and secondary CERs). Der Markt des Clean Development Mechanismus CDM befindet sich derzeit auf dem tiefsten Stand seit dem Inkrafttreten des  Kyoto-Protokolls 2005. Er ist um 46% auf geschätzte US$ 1.5 Mrd. für neue projektbezogene Transaktionen gefallen. Gleichermaßen sind andere Zertifikates-Märkte heruntergegangen oder auf gleicher Höhe geblieben. Nichtsdestoweniger sind zusammengenommen auf dem primären Markt der Erlaubnisse Transaktionen im Werte von fast US$ 30 Mrd. seit 2005 durchgeführt worden und man erwartet, dass sie noch viel mehr Finanzmittel freigesetzt haben, vorwiegend aus dem privaten Sektor.
“Der globale Emissionshandel steht am Scheideweg. Wenn wir die falsche Richtung nehmen, riskieren wir den Verlust von Milliarden von kleineren privaten Investitionen und neue technologische Entwicklungen in den Entwicklungsländern,“ sagte Andrew Steer, Sonderbeauftragter für Klimawandel der Weltbank. “Dieser Bericht sendet die Botschaft, dass wir einen stärkeren, robusteren Emissionshandelsmarkt mit Hilfe von klaren Signalen sichern müssen.”
Der Bericht “State and Trends of the Carbon Market 2011” macht klar, dass vergleichsweise die EU-Verschmutzungsrechte (Sie werden unter dem „EU Emissions Trading Scheme ETS“ gehandelt) das bei weitem größte Segment darstellen. Sie betragen 84% des gesamten Marktvolumens des Emissionsrechtemarkts. Wenn man sekundäre CLEAN DEVELOPMENT MECHANISM (CDM) Transaktionen einbezieht, erreicht der von den ETS angetriebene Markt 97% des globalen Marktvolumens.
Die Autoren des Berichts sagen voraus, dass während der kommenden beiden Jahre die Differenz zwischen der Gesamtnachfrage und dem kumuliertem Angebot an flexibilisierten Kyoto-Protokoll-Emissionszertifikaten etwas unter US$ 140 Mio. liegen wird. Eigentlich die gesamte Nachfrage wird von den Europäischen Regierungen kommen. Nach 2012 wird die nennenswerte und uneingeschränkte Nachfrage aus Europa kommen, obwohl der mögliche Bedarf an Emissionsreduzierungen sich auf 3 Mrd. Tonnen belaufen könnte. Das zwischen 2013 und 2020, aus den existierenden Projekten herrührende verfügbare Angebot wird für ausreichend gehalten, den Bedarf zu decken. So verbleibt nur wenig Anreiz für Projektentwickler, weiter zu investieren und zukünftiges weiteres Angebot für Verschmutzungsrechte zu erzeugen.
Im Kontrast zum Fall im Marktwert steht die generelle Meinung vom Erfolg der Verhandlungen auf der UNO-Klimakonferenz in Cancun im Dezember 2010. Von dort kommt eine relativ positive Markteinschätzung.
Obwohl einige Möglichkeiten zur Stärkung der Regulierungsrahmen in einigen Industrieländern versäumt wurden, haben nationale und lokale CO2-Minderungs-Initiativen an Stärke gewonnen und lassen hoffen.

“Das Wachstum des Emissionsrechtehandels hat zu einem besonders ungünstigen Zeitpunkt gestoppt: 2010 hat sich als wärmstes Jahr seit Wetteraufzeichnungsbeginn erwiesen, dabei stiegen die globalen Emissionen ungebremst an,“

meinte Alexandre Kossoy, World Bank Senior-Finanzexperte.

“Gleichzeitig haben nationale und lokale CO2-Minderungs-Initiativen merklich an Schwung gewonnen, sowohl in entwickelten wie in Entwicklungsländern. Zusammengenommen bieten sie die Möglichkeit zur Überwindung der regulatorischen Unsicherheit und sie senden ein Signal, das auf die eine oder andere Art Lösungen für das Angehens des Klimawandels entstehen.“

Angesichts der fehlenden Nachfrage hat die Weltbank ein Anzahl von Initiativen gestartet, um den Nach-2012-Emissionshandelsmärkten Zuversicht zu vermitteln. Die in Cancun im Dezember 2010 aus der Taufe gehobene „Partnership for Market Readiness” zielt auf die Unterstützung des Trends zu nationalen Minderungsanstrengungen unter Zuhilfenahme des Marktes. Eine ganze Reihe von CO2-Fonds und Kreditlinien (Facilities) der Weltbank, wie die Carbon Partnership Facility, die zweite Tranche der Umbrella Carbon Facility und eine neue derzeit in Entwicklung befindliche Kreditlinie für die ärmsten Länder, sollen auf zukünftigen Bedarf Antwort geben durch verstärkte Reduzierung und durch den Ankauf von Verschmutzungsrechten für die Nach-2012-Zeit. Darüber hinaus unterstützt die Forest Carbon Partnership Facility die REDD+ Initiativen. Diese sind bislang noch nicht im Clean Development Mechanismus CDM enthalten. Die Weltbank hält die Emissionsrechtemärkte für ein wichtiges und wandlungsfähiges Werkzeug zur Schaffung von Anstößen zum Wechsel auf Entwicklungswege mit geringerem Kohlenstoff-Verbrauch.
Die Studie “State and Trends of the Carbon Market 2011” ist auf der CARBON EXPO 2011 vorgestellt worden. CARBON EXPO 2011 ist die weltgrößte Kohlenstoff-Messe mit über 3.000 Vertretern von Regierungen, aus dem privaten Sektor und zivilen Umweltschutzorganisationen, die sich weltweit zur Verminderung Treibhausgasemissionen einsetzen.
Mehr zu den CO2-Finanzaktivitäten der Weltbank und die elektronische Version des Berichts gibt es bei: www.carbonfinance.org
Autor Antony Watts, der Originalartikel erschien hier
Die Übersetzung besorgte Helmut Jäger (EIKE)




Die Kosten der Energiewende!

Neben den WBGU gibt es noch den Sachverständigenrat für Umwelt (SRU). Dieser hat im Auftrag der Bundesregierung ein Gutachten mit dem Titel „Wege zur 100% erneuerbaren Stromversorgung“ erstellt. Bevor darauf eingegangen wird, soll erst einmal der SRU vorgestellt werden.
Den Vorsitz hat Prof. Dr. Ing.  Faulstich (Leiter des Lehrstuhls für Rohstoff- und Energietechnologie, General Chairman der 19th European Biomass Conference 2011 in Berlin). Eine Affinität zu den erneuerbaren Energien darf vermutet werden.
Stellvertretende Vorsitzende ist Prof. Dr. med. dent. Foth. Die weiteren Mitglieder sind: Prof. Dr. jur. Calliess, Prof. Dr. rer. pol. Hohmeyer, Prof. Dr. rer. oec. Holm-Müller, Prof. Dr. rer. nat. Niekisch, Prof. Dr. phil. Schreurs.
Der einzige Naturwissenschaftler war früher Direktor beim WWF und leitet heute den Frankfurter Zoo.

„Dieses Gutachten beruht auch auf der sachkundigen und engagierten Arbeit der Mitarbeiterinnen und Mitarbeiter des SRU. Zum wissenschaftlichen Stab des SRU gehörten während der Arbeiten an diesem Gutachten:“

Die Aufzählung der Personen überspringen wir, da sie mehrheitlich Vertreter des WWF, BUND etc. sind. Es gibt unter ihnen keinen Physiker und auch keinen Ingenieur für Energiewirtschaft.
Dies mögen alles ehrenwerte Personen sein, aber trotzdem muss die Frage erlaubt sein, welche Kompetenz besitzen sie in der Energiethematik?
Wer würde in einer Analogie sein Leben einem OP-Team anvertrauen, welches aus Physikern, Ingenieuren und Biologen besteht? Sicher Niemand und sicher auch kein Vertreter vom SRU. Diesem Expertengremium wird aber die energetische Zukunft Deutschlands anvertraut.
In dem Gutachten werden acht verschiedene Szenarien diskutiert, denen gemeinsam ist, dass 2050 eine vollständige Versorgung mit erneuerbaren Energien möglich, sicher und bezahlbar ist.
Da das Gutachten knapp 400 Seiten lang ist, können wir hier nicht in Gänze darauf eingehen und werden im Wesentlichen nur die Offshore-Windenergie betrachten.
Bevor wir einige Details betrachten, sei noch einmal an den Grund für die Energiewende erinnert. Das CO2 bedroht angeblich die Welt und Deutschland fühlt sich berufen als Vorreiter den Strom bis 2050 CO2-frei zu erzeugen. Den Effekt der Anstrengungen kann man mittels der folgenden Graphik abschätzen.

Der Beitrag von Deutschland an der weltweiten Emission beträgt knapp 2.5%, deren Wegfall nahezu vernachlässigbar ist. Dies lassen wir uns, wie man sehen wird, aber sehr viel kosten.
Das Ganze wird noch irrationaler, wenn man bedenkt, dass beim letzten G8-Gipfel Russland, Japan, Kanada und die USA, China und Indien machen eh nicht mit, entschieden haben einer Verlängerung des Kyoto-Protokolls nicht zuzustimmen. Aber wir erretten die Welt. Am deutschen Wesen soll die Welt genesen, was schon einmal ein Rohrkrepierer war.
Dies ist ein Überblick über alle Szenarien, die zeigen, dass 2050 eine vollständige Versorgung mit erneuerbaren Energien möglich ist.

In Wahrheit ist überhaupt nichts bewiesen, denn das Modell (REmix), welches den Rechnungen zu Grunde liegt, macht nur eine Kostenoptimierung mit ungefähr 50 Parametern und nur für die erneuerbaren Energien. Mit anderen Worten, es wird vorn hineingesteckt, was hinten herauskommt. Die Fehler können hierbei mehr als hundert Prozent betragen. Beispielsweise eine Erhöhung der angenommenen Kosten für die Geothermie um 20% bewirkt, dass diese Energieform völlig aus den Balken verschwindet. Aber wer weiß heute schon die Preise in 20 Jahren.
Charakteristisch ist für alle Modelle, dass die Windenergie den größten Anteil besitzt.
Im Szenario 2.1a gibt es zusätzlich einen Stromaustausch mit Dänemark und Norwegen, wobei bis zu 46 GW zwischen Deutschland und norwegischen Wasserspeichern transportiert werden. Wie, das ist völlig offen. Geplant sind zurzeit zwei Leitungen mit jeweils 1.4 GW. Da fehlen noch rund 30 Hochspannungsleitungen. Ob die Dänen damit einverstanden sind das 30 Leitungen durch ihr Land gezogen werden, dies wurde nicht hinterfragt und ist eine implizite Annahme.
In Deutschland fehlen allein 3600 km im Übertragungsnetzbereich, die laut DENA rund neun Milliarden Euro kosten werden. Im noch dringlicher ausbaubedürftigen Segment der regionalen Verteilnetze rechnet der Verband Kommunaler Unternehmen (VKU) mit einem Investitionsbedarf von 25 bis 30 Milliarden Euro.
Apropos Dänemark. Das Land besitzt derzeit mit knapp 20% den höchsten Anteil an Windenergie. Es wurde aber noch kein einziges fossiles Kraftwerk abgeschaltet. Dies zeigt auch eindrücklich die folgende Graphik.
 
Dänemark und wir sind bezüglich der CO2-Emissionen bei der Stromerzeugung je Einwohner exakt gleich. Nur Frankreich mit seinem Atomstrom, Schweden und die Schweiz mit Wasser und Atom sind deutlich besser.
Nach einer Studie im Auftrage des BDI würden durch den vorgezogenen Kernenergieausstieg im Jahr 2018  durch die Energiewirtschaft 62 Mill. t CO2 mehr emittiert werden. Dänemark produziert trotz Windenergie soviel CO2, wie wir pro Kopf, bei uns werden die Meiler abgeschaltet und trotzdem sollen die Emissionen bis 2020 um 30% sinken. Welche Mathematik soll dies bewirken?
Sehen wir uns die Windkraftanlagen (WKA) einmal genauer an.
Im Szenario 1.a und 1.b sind 73.2GW maximaler Leistung vorgesehen. Daraus werden 316.9TWh/a erzeugt, was einen Wirkungsgrad von 49.4% entspricht. Wie diese fabelhafte Steigerung erzielt werden soll, wird nicht angegeben. Für Offshore-Anlagen werden vom BMU 3800 Volllaststunden, dies ist die Zeit in der die Anlage ihre optimale Leistung bringt, angegeben. Teilt man dies durch die Anzahl der Stunden im Jahr, so ergibt sich ein Wert von 43.4%. Dies wäre somit die theoretisch obere Grenze.[1] Vermutlich wird der Wind angewiesen stärker zu blasen.
Kürzlich wurde der Offshore-Park Bard 1, Park, was für ein verharmlosendes Wort für 200 m hohe Windräder, eingeweiht. Er besteht aus 80 WKA die 400 MW maximale Leistung bringen. Um eine Leistung von 73G W  zu erreichen benötigt man demnach rund 15000 WKA. Der Preis für die 80 beträgt ungefähr, man kennt die wahren Kosten noch nicht, 2 Milliarden €. Daraus ergibt sich für die 15000 WKA eine Gesamtsumme von 366 Milliarden € für die Installation. Die Wartungskosten betragen derzeit 0.12 €/W, was sich zu rund 9 Milliarden € pro Jahr aufsummiert. Da die Lebensdauer der WKA 20 Jahre beträgt, sind die Investitionen zweimal zu erbringen. Ein weiterer Faktor von rund 2 kommt hinzu, wenn man einen realistischeren Wirkungsgrad von 25% annimmt. Dies ergibt locker mehr als 1 Billion € bis 2050. Wo allerdings die 30000 WKA stehen sollen kann niemand sagen, denn dafür gibt es keinen Platz.

Der ehemalige Umweltsenator von Hamburg und Vorstandsvorsitzender der REpower AG (WKA-Bauer) jetzt bei RWE, Prof. Varenholt, sagte dazu: Für 45000 Megawatt (MW) Offshore-Windkraftanlagen, wie das UBA es verlangt, sind gar keine Flächen in der Nordsee, denn dafür würden 7500 Quadratkilometer Fläche benötigt. Zieht man von der Nordsee das Wattenmeer, die für Naturschutz, Schifffahrtswege und andere Nutzungen benötigten Flächen ab, bleiben 3500 Quadratkilometer für 20000 MW. Sind Naturschutz und Schifffahrt überflüssig?“ [2]
Nicht nur die, denn Fischerei gibt es dann auch nicht mehr. Der SRU schreibt: „Es ist davon auszugehen, dass Fischereiaktivitäten zwischen den Offshore-Windkraftanlagen verboten sind, was Beeinträchtigungen der Fischerei zur Folge hat.“ Beeinträchtigungen? Nichts geht mehr.
Wenn es für 45 GW keine Flächen gibt, wie kann es dann für 73 GW welche geben? Solche Nebensächlichkeiten stören den SRU offensichtlich nicht bei seinen Planspielen.
Es ist auch nicht ersichtlich, wie der SRU die Kosten von 13 Milliarden € pro Jahr ermittelt hat. Aber selbst in diesem Fall ergeben sich für 20 Jahre mal 13 Milliarden und dies zweimal stattliche 520 Milliarden €. Noch mehr erstaunt man über die relativ moderaten Strompreise, die aus den Rechnungen resultieren (9ct/kWh 1.a und 11.5ct/kWh 1.b). Der Grund dafür sind die angenommenen geringen Kosten für die Windenergie die in beiden Szenarien rund zwei Drittel ausmacht. Die Onshore-Kosten betragen 4.7ct/kWh und die Offshore-Kosten 4.1ct/kWh[3]. Vergleicht man dies mit den heutigen Werten (Onshore 11.8 & Offshore 14ct/kWh FOCUS 20/2011[4]) kann man sich nur wundern. Zum Vergleich, die Kosten für Biomasse steigen dagegen von 11.4ct/kWh auf 28.6. Errechnet man stattdessen die Preise mit den heutigen Windwerten, so erhält man Kosten von rund 15 (1.a) und 18ct/kWh. Dazu kommen natürlich noch die Steuern etc., welche gerade beginnen durch das Dach zu schießen, wie die folgende Graphik zeigt. Sie haben sich seit 1998 verzehnfacht!
 
Erst damit wird die Windenergie profitabel (siehe Fußnote 3). In einer funktionierenden Marktwirtschaft geht so etwas natürlich nicht. Deshalb hat die ehemalige FDJ-Sekretärin für Agitation und Propaganda[5] Merkel diese auch systematisch durch eine staatlich regulierte (Plan)wirtschaft ersetzt. Die Zeche zahlt natürlich der gemeine Bürger durch horrende Zusatzbelastungen, wie die nächste Graphik illustriert. Ab 2013 wird sich die Spirale noch weiter nach oben drehen, denn dann müssen die Stromerzeuger und die übrige Industrie CO2-Zertifikate kaufen. In der Folge werden logischerweise die Preise steigen. 
Herr Trittin von den GRÜNEN rechnet dagegen nur mit einer Steigerung von 0.5ct/kWh (FOCUS 20/2011 Seite 106). Ein Zeichen klarer Volksverdummung oder von Realitätsentzug.

Kommen wir zurück zum SRU und seinen teilweise verwunderlichen Rechnungen. Auf Seite 113 schreibt er korrekt, dass der Primärenergiebedarf in Deutschland seit Beginn der1990er-Jahre im Bereich von etwa 14 500 PJ liegt. Als Primärenergiebedarf wird die Energiemenge bezeichnet, die zur Deckung der gesamten Nachfrage der Energieversorgung einschließlich vorgelagerter Prozessketten benötigt wird. Zehn Seiten weiter wird die folgende Graphik präsentiert, die aus dem BMU von Herrn Röttgen stammt. Erstaunt sieht man, dass 2008 allein die Windenergie 40574 PJ produziert haben soll. Oberhalb der Graphik liest man dagegen, dass 40.6 TWh erzeugt wurden, was 146 PJ entspricht.  Dies ist rund 280 mal (!) kleiner als der Wert des BMU. Im BMU sitzen offensichtlich wahre Rechenkünstler. Keiner merkt etwas, weder das BMU noch der SRU.
 
Ziehen wir ein Fazit.
Ausgehend von den unbelegten Prämissen, dass es keine Erderwärmung über 2°C seit der kleinen Eiszeit geben darf und dass das anthropogene CO2 dafür verantwortlich sei, hat er ein Auftragsgutachten erstellt bei dem das Ergebnis vorgegeben war. Das Ziel ist eine „nahezu vollständige Emissionsvermeidung“ für den Stromsektor sein, wobei dies möglich, bezahlbar und sicher sein muss. Grundlage der Berechnungen bildet das Modell REmix, was von einer Vielzahl von Annahmen abhängt. Trotzdem hält der SRU auf Seite 70 fest: “ Nach Einschätzung des SRU sind alle getroffenen Annahmen plausibel“, was aber 5 Seiten weiter relativiert wird durch „Die Rückrechnung der Kostenentwicklung des DLR ergibt unterstellte Lernraten[6] von 26 %, die als sehr optimistisch bezeichnet werden müssen.“ Sie sind irreal (Fußnote 5).
Das Modell führt allerdings nur eine Kostenminimierung für die erneuerbaren Energien durch und macht keine Aussagen über die Möglichkeit und Sicherheit der Versorgung.
Allein für das Aufstellen der Offshore-WKA entstehen Kosten, die sich im Bereich von 0.6 bis 1.2 Billionen € bewegen. Hinzu kommen noch die Kosten für die Speichermedien, für die Onshore-WKA und für die Photovoltaik, die die Gesamtkosten ins Utopische treiben werden.
Zur Versorgungssicherheit konstatiert der SRU: „Aufgrund des Systemgegensatzes zwischen Kraftwerken, die technisch-ökonomisch auf Grundlast ausgelegt sind, und stark fluktuierenden regenerativen Energiequellen sind nach Einschätzung des SRU sowohl die geplante Laufzeitverlängerung von Atomkraftwerken (die ist eh perdu) als auch der geplante Neubau von erheblichen Kapazitäten von Kohlekraftwerken mit einer Übergangsstrategie auf eine vollständig regenerative Energieversorgung unvereinbar.“ Und weiter: „Atomkraftwerke (und KKW) verfügen nicht über die im zukünftigen Energiesystem notwendigen Flexibilitätseigenschaften.“ Merke, der Nachteil nicht kalkulierbar wird in den Vorteil flexibel umgedeutet.
Der SRU zieht paradoxe Schlussfolgerungen aus diesen richtigen Erkenntnissen, die am besten mittels der nächsten 2 Graphiken erläutert werden.    
 
 Der bisherige Kraftwerkspark ist so ausgelegt, dass die eingespeiste Leistung im Prinzip dem Lastgang entspricht. Der Lastgang ist in einem statistischen Rahmen vorhersagbar und entsprechend können die Kapazitäten bereitgestellt werden. Auf dieser Basis beruhte bisher eine stabile und bedarfsgerechte Stromversorgung.
 
Nun werden die Verhältnisse nahezu auf den Kopf gestellt. Strom fließt in Zukunft nicht mehr beständig zu gleichen Preisen aus der Steckdose“, sagt Rainer Stamminger, Professor für Haushalts- und Verfahrenstechnik an der Rheinischen Friedrich-Wilhelms-Universität Bonn. „Die Tarife werden hochdynamisch und zeitweise sehr teuer sein.“ (Welt 5.5.11)
Dass dies nicht nur zeitweise sondern prinzipiell teurer wird und vermutlich auch nicht beständig, kann man aus der letzten Graphik folgern.
Die sichere, verlässliche und preiswerte Form der Stromgewinnung, die die ersten vier Kraftwerke gewährleisten, wird durch deren Gegenteil (5 bis 9) ersetzt.
Dieser Irrsinn wird inzwischen von allen Parteien in Deutschland (aber nur da) gepredigt und im Merkelschen Sinne als „alternativlos“ angesehen.
 
Auf „Watts Up With That“, mehrfach als bester wissenschaftlicher Blog ausgezeichnet, wurde dies so kommentiert:

„If one of our major economic competitors volunteers to commit economic suicide, how should we respond?

Deutschland, Deutschland unter alles?“
Dem ist Nichts hinzuzufügen. Außer, wenn Deutschland 2050 eine kohlenstofffreie Exindustrienation geworden ist, kann der IPCC seine modellierte Temperaturprognose von DT= 3-4°C auf DT= 2.925-3.925°C korrigieren. Deutschland sei Dank.
Dr. rer. nat Bernd Hüttner für EIKE
Der Beitrag kann auch als pdf im anhang abgerufen werden


[1] Der SRU gibt auf Seite 123 an, dass 2008 23.987GW WKA installiert waren. Diese produzierten 40.6TWh.

   Daraus ergibt sich ein Wirkungsgrad von 19.3%.

[2] http://www.wattenrat.de/2010/09/fritz-vahrenholt-rwe-sorgt-sich-um-seetaucher/

[3] Gemäß Bard 1 kostet eine WKA 25 Millionen €. Bei sehr konservativ angenommenen 2% Zinsen pro Jahr werden aus 25 Millionen in 20 Jahren gute 37 Millionen €. Dies heißt, dass die Anlage in 20 Jahren rund 40 Millionen € bringen muss (inklusive Wartung, Reparatur und Profit) oder 2 Millionen /a. 5MW·3800h=19GWh. Bei einem Preis von 10ct/kWh ergibt dies 1.9 Millionen € oder 100k€ Verlust pro Jahr. In Wahrheit ist der Ertrag noch kleiner, da der effektive Wirkungsgrad bei rund 20% liegt (Fußnote 1 Seite 5).

[4] Quelle: Institut für Energiewirtschaft und Rationale Energieanwendung, Universität Stuttgart

[5] FDJ war die Jugendorganisation der SED (jetzt nennen sie sich LINKE). Wer studieren wollte musste dem Verein beitreten. Sekretär(in) für Agitation und Propaganda musste man nicht werden, die wurden ausgewählt.

[6] Wikipedia: Kosten KL(p)=K0Lld(p / p0), ld(x)=log2(x), L-Lernrate, K0-Kosten im 1.Jahr, p0-anfängliche Produktionsmenge; Bsp.: K0=100, p0=10, p1=10 p=p0+p1=20, L=0.26, KL(20)=100·Lld(2)=100·0.26=26, KL(30)=12

Entweder versteht der SRU etwas anderes unter der Lernrate oder die Annahmen sind schlicht irreal. 

Related Files




Jedes Jahr mehrere „hundertjährige“ Wetterereignisse und das soll noch normal sein?

Die Berliner haben es bereits erfahren: der März 1981 war hier der niederschlagsreichste seit über 100 Jahren. Dabei haben wir aus der jüngsten Vergangenheit die höchste Windgeschwindigkeit auf den Bergen, den stärksten Schneefall im Monat April. den kühlsten Sommer, den meisten Niederschlag an einem Augusttag und gleich zweimal den heftigsten Schneesturm seit in der Tat 50 oder 100 Jahren von den Fachleuten bestätigt noch in guter Erinnerung.

Diese scheinbare Häufung von meteorologischen Jahrhundert-Ereignissen legt den Schluß nahe, daß die derzeitige Witterung auf jeden Fall aus den Fugen geraten sein mußte. – Und von jedem einzelnen dieser Jahrhundert-Ereignisse kann man naheliegenderweise vermuten, daß es den Schlüssel zu den Ursachen einer ja auch durch das jeweils aktuellste Ereignis für jedermann verdeutlichten Klima-Störung enthalte; eine wichtlge Aufgabe der Wetter-Wissenschaftler müßte sein. diesen Schlüssel zu finden.

Die/der geneigte Leser (In) möge versichert sein, daß die hier vom Verfasser verdeutlichte Meinung bei vielen Wissenschaftlern Eingang gefunden hat und entsprechende Aktivitäten auslöst. Der Verfasser stellt dem lediglich seine Leitlinie gegenüber, daß alle derartigen Aktivitäten den festen Boden unter den Füßen behalten sollten: der wissenschaftliche Standort muß stets die Basis bleiben.

Jedes Jahr mehrere Ereignisse. die jedes höchstens einmal Im Laufe eines langen Menschenlebens zu erwarten gewesen wären – und das soll noch normal sein? –

Die Anllwort lautet: ja. – Um diese Antwort zu geben oder nachzuvollziehen, bedarf es im folgenden einer einfachEln Rechnung und einer Portion gesunden Menschenverstands.

Wir machen uns dazu eine (unvollständige) Uste von wichtigen Wetterereignissen der Art. daß sie mit "dies triltt in Berlin in 100 Jahren genau 1 x auf" umschrieben werden können:

 

 

Dies ergibt nach Ablauf von 100 Jahren summe summarum

172 definierte Jahrhundertereignisse dieser Art allein in Berlin; anders ausgedrückt sind innerhalb von 3 Jahren etwa 5 Jahrhundertereignisse dieser Art allein für Berlln zu erwarten.

Ja – und wie verdeutlicht sich nun der wissenschaftliche Standort bei der Darstellung solcher meteorologischer Jahrhundertereignisse für die Offentlichkeit? 

Nun. es gibt verschiedene Möglichkeiten. Die einfachste ist. zur gegebenen Zelt den trivialen Grundsatz anzudeuten, daß innerhalb von 3 Kalenderjahren gut und gerne 5 Jahrhundert-Ereignisse der oben definierten Art zu erwarten sind und im langjährigen Durchschnitt allein In Berlin auch eintreffen müssen, um sicher zu sein. daß unsere Witterung auch weiterhin statistisch "normal" bleibt.

Autor Manfred Geb in der Beilage zur Berliner Wetterkarte vom 27.3.1981 Nr. 43/81 SO 5/81

 




Die Klimakatastrophe – ein spektroskopisches Artefakt!

Ganz offensichtlich wird die Wirkung des anthropogenen Treibhauseffekts weit überschätzt, denn insbesondere der CO2-Treibhauseffekt war im wesentlichem schon zu Zeiten Goethes ausgereizt. Dies zeigen eigene quantitative Untersuchungen der IR-Absorption von Kohlendioxid mittels eines FT-IR-Spektrometers. Außerdem gibt es Äußerungen hierzu in der anerkannten Literatur, die offiziell allerdings heruntergespielt werden (23). Wegen des weitgehenden Sättigungseffekts ist der anthropogene Anteil der Treibhausgase für die gegenwärtige Klimaänderung von untergeordneter Bedeutung. Vielmehr geht die Varianz der Erdoberflächentemperatur mit der Wolkenbedeckung einher, die wiederum von der Fluktuation des solaren Magnetfelds abhängt. Mit anderen Worten: ähnlich wie ein offenes Kaminfeuers durch einen Paravent mehr oder weniger abgeschirmt wird, so steuert die Wolkendichte die Erdoberflächentemperatur weit stärker als der Treibhauseffekt. Der Einfluss der Wolkenbedeckung lässt sich aber mit den Klimamodellen des IPCC nur äußerst unzulänglich abbilden. Auch sind Klimamodelle möglicherweise auch deshalb ein spektroskopisches Artefakt, weil sie mit gewillkürten Flusskorrekturen arbeiten müssen, deren Beträge den des anthropogenen Treibhauseffekts um ein Vielfaches übersteigen.
Einleitung
Oftmals wird fälschlicherweise angenommen, der Treibhauseffekt sei mit der Absorption von Infrarotstrahlung (IR-Strahlung) durch atmosphärische Spurengase (CO2, CH4, Wasserdampf u. a.) identisch. Dadurch würde sich die Luft erwärmen, die dann ihre Wärmeenergie auf die Erdoberfläche übertrage. Es verhält sich genau umgekehrt:  Die Erdoberfläche wird fast ausschließlich durch Bestrahlung erwärmt und die Atmosphäre nimmt ihre Wärmeenergie durch direkten Kontakt mit dem Erdboden auf.
Die Bestrahlung der Erdoberfläche setzt sich aber aus zwei Teilen zusammen:
1.      Die direkte Solareinstrahlung (abhängig von der Wolkenbedeckung)
2.      Der atmosphärische Treibhauseffekt (im wesentlichem ausgereizt)
Die Existenz einer atmosphärischen Gegenstrahlung, die den Treibhauseffekt charakterisiert, lässt sich zwar leicht nachweisen, aber bereits die Größenordnung des natürlichen Treibhauseffekts kann nur berechnet werden und die ihm zugeschriebene Auswirkung auf das Klima entzieht sich vollkommen der Falsifikation (18). Zum Verständnis des CO2-Treibhauseffekts ist es dennoch nützlich, sich zunächst einmal die „ganz normale“ Infrarot-Absorption atmosphärischer Spurengases zu betrachten (1).
Nimmt man einmal an, die auf der IR-Absorption beruhende Extinktion (E) würde innerhalb der Troposphäre (bis ca. 10 km Höhe) bei heutiger CO2-Konzentration in der Größenordnung von E = 2 im Maximum des Absorptionspeaks liegen, d.h. die Transmission T = I/I0 = 10-E wäre auf 0,01 reduziert, dann wäre es für jeden, der mit den Grundlagen der quantitativen IR-Spektroskopie vertraut ist, offensichtlich, dass eine Verdopplung des CO2 zu einer merklichenTemperaturerhöhung führen müsste. Tatsächlich liegt aber die Extinktion um viele Zehnerpotenzen höher. Deshalb ist nach einer einfachen Abschätzung von Jack Barrett (2) der maximal mögliche Treibhauseffekt schon nach einem Weg von 100 m über dem Erdboden erreicht. Tatsächlich liegt eine weitestgehende Sättigung aber keine Komplettsättigung vor. Die gibt es nicht aus quantenmechanischen Gründen.
In der Literatur werden vielfach Emissionsspektren (3) oder gelegentlich auch Absorptionsspektren (4) des CO2 gezeigt. Was einen Chemiker aber besonders interessiert, ist eine Abschätzung der Sättigung des Effekts mit Hilfe  molarer Extinktionskoeffizienten der einzelnen Absorptionsbanden. CO2 ist zwar das mit am intensivsten untersuchte Molekül, weshalb man auch genügend quantitative Angaben aus der Literatur beziehen kann und natürlich gibt es die HITRAN-Spektren (5). Dennoch existieren offensichtlich unterschiedliche Vorstellungen. Auch unterliegt die prophezeite Klimaerwärmung großen Schwankungen, wobei in der Vergangenheit Angaben von 1,2 °C bis 11,5 °C bei CO2-Verdopplung genannt wurden. Dies war Anlass zu eigenen überschlagsmäßigen Messungen (6).
Zunächst muss aber geklärt werden, welche der Absorptions-/Emissionsbande des CO2 von Bedeutung ist. Hierüber geben Satellitenspektren Auskunft (3).

Bild 1: Satellitenspektren, oben über der Sahara, unten über der Antarktis
Die gestrichelten Linien im Bild 1 ist die ideale Planck-Strahlungskurve der Erdoberfläche berechnet bei unterschiedlichen Temperaturen in K. Die „gezackte Linien“ repräsentieren neben der ungehinderten Emission der Erdoberfläche (ca. 800 – 1000 cm-1 und ca. 1050 – 1300 cm-1) die Emissionsgraphen der atmosphärischen Treibhausgase. Die roten Pfeile im Bild 1 kennzeichnen die n2-Bande um 15 mm (667 cm-1). Deshalb ist nur diese relativ schwache von Bedeutung und nicht die wesentlich stärkere n3-Bande um 4,2 mm (2349 cm-1). Außerdem erkennt man, die Atmosphäre emittiert tatsächlich IR-Strahlung („Treibhauseffekt“) Dies sieht man ganz deutlich im Satellitenspektrum über der Arktis (unterer Teil im Bild 1). Die Bodentemperatur beträgt dort nämlich ca. 200 K (-73 °C), während die Atmosphäre in etwa 10 km Höhe eine höhere Temperatur von ca. 210 K (-63 °C) aufweist. Dies ist aber ein erster Hinweis darauf, dass der den IPCC-Computermodellen zugrunde liegende Strahlungstransport eine Fiktion ist. Es handelt sich vielmehr um einenEnergietransport. Dabei gelangt wärmere Luft zur Arktis und gibt ihre Energie oberhalb einer Höhe von 10 km als „ungestörte Emission“ ins Weltall ab.
1. Die Meßmethode
Zunächst soll die eigene Messung der Absorption des Kohlendioxids beschrieben werden. Eine 10 cm-Küvette mit IR-durchlässigem Fenster wurde mit synthetischer CO2-freier und wasserfreier Luft gefüllt. Danach wurde soviel CO2 mit einer Mikroliterspritze zugegeben, dass 357 ppm CO2 zugegen waren (Konzentration von 1993). Weiter wurden 2,6 % Wasserdampf zugegeben. Als IR-Strahlungsquelle diente ein Globar, ein elektrisch auf 1000-1200 ºC geheizter Siliziumkarbid-Stab mit nachgeschaltetem variablen Interferenzfilter. Nach der Aufnahme dieses Spektrums wurde mit CO2 aufgestockt, so dass 714 ppm enthalten waren. Die Messung erfolgte mit einem FT-IR-Spektrometer „Bruker IFS 48“. Als Auswertungssoftware diente das Programm OPUS. Ein Nullwert wurde ebenfalls aufgenommen und entsprechend subtrahiert.
1.1 Messung und Auswertung
Bild 2 zeigt das unbearbeitete Spektrum der 15 µm-Bande für 357 ppm CO2 und 2.6% H2O.

  

Bild 2: Unbearbeitetes Spektrum der 15 µm-Bande (n2-Bande)
Deutlich sind der R- (DJ = + 1) und der P- (DJ = – 1) sowie der Q-Zweig (DJ = +/- 0) der n2-Bande zu erkennen. Der Extinktionskoeffizient im Maximum ergab sich zu:
e = 20,2 m2 mol-1 (n2 bei 667 cm-1)
Um die Absorption zu berechnen, wurde der durchschnittliche CO2-Gehalt der Atmosphäre mit c = 1,03.10-3 mol/m3angenommen (aus der Gesamtstoffmenge und dem Volumen der Homosphäre). Setzt man die oben gemessenen molaren Extinktionen nebst der Konzentration und der Schichtdicke der Troposphäre (h = 10 km = 104 m) in das Lambert-Beer’sche-Gesetz ein, so erhält man
E(n2) = 20,2 m2 mol-1 × 1,03.10-3 mol/m3 × 104 m = 208
Dies bedeutet, dass die Transmissionen in der Mitte der Absorptionsbande bei den um 1997 gegebenen 357 ppm CO2 beiT(n2) = 10-208 liegt (Bild 3).

 

Bild 3: Spektrales Auswertungsschema
Dies ist ein extrem geringer Transmissionswert, der eine Steigerung des Treibhauseffektes bei Verdopplung des klimawirksamen Spurengases in diesem Bereich vollkommen ausschließt. Ähnliche Ergebnisse hat Jack Barrett anhand spektroskopischer und kinetischer Überlegungen (2) gefunden und damit prompt in ein Wespennest gestochen, weshalb 1995 von ihm eine äußerst heftige Diskussion angefacht wurde (7 – 10).
Setzt man den molaren Extinktionskoeffizient e für die n2-Bande sowie die Volumenkonzentration in mol/m3 (357 ppm CO2) in das Lambert-Beersche-Gesetz ein und nimmt eine Schichtdicke von 10 m an, resultiert eine Extinktion von
E = 20,2 m2 mol-1 × 0,0159 mol/m3× 10 m = 3,21
Dies entspricht einer Transmission von T = 10-3.21 = 0,6 Promille. Mit anderen Worten: Bereits nach 10 m sind 1 – T = 99,94% der IR-Strahlung absorbiert.
Bei der Absorption an den Peakflanken ist die Extinktion naturgemäß kleiner. Deshalb schreibt das IPCC1990 „The effect of added carbon dioxide molecules is, however, significant at the edges of the 15 µm band, and in particular around 13,7 and 16 µm (13)“. Natürlich existieren diese Ränder, denn die Rotationsquantenzahl J geht von J = + 1 bis J = + ¥ und vonJ = – 1 bis J = – ¥. Bedauerlicherweise werden aber die ungesättigten Bereiche an den Rändern immer schwächer. Die Besetzung der Rotationsniveaus gehorcht nämlich einer Boltzmann-Verteilung, weshalb immer weniger der vorliegenden CO2-Moleküle zu einem gegebenen Zeitpunkt in diesem Bereich absorbieren.
Um die Absorption an den Peakflanken abzuschätzen, wurde als Arbeitshypothese angenommen, die Extinktion soll sich bei Verdopplung des CO2-Gehalts um die Größenordnung E = 3 (= 10-3) erhöhen. Hierzu wurde das Gesamtintegral der Banden bis zu den auslaufenden Enden des R- und P-Zweiges bei E = 0 ermittelt (s. Bild. 3). Anschließend wurden die digital abgespeicherten Spektren ab einer Extinktion, die dem Wert  E = 3 (auf den Gesamtweg innerhalb der Troposphäre bezogen) entsprachen bis zu den auslaufenden Enden (E = 0) des R- und P-Zweiges integriert. Damit waren die „edges„ annähernd erfasst. Diese „edges„ begannen beim P-Zweig bei 14,00 µm und beim R-Zweig bei 15,80 µm und liefen jeweils bis zur Grundlinie E = 0. IPCC lässt die Banden an den Rändern bei 13,7 und 16 µm beginnen (13). Für die n2-Bande ergab sich folgendes:

15 µm-Bande 357 ppm 714 ppm
Gesamtintegral 624,04 cm -1 von 703,84 cm -1 0,5171/cm 1,4678/cm
Summe der Flanken-Integrale 1,11.10-4/cm 9,79.10-4/cm

Tabelle: 15 µm-Bande (Gesamtintegral und Flankenintegrale E = 0 bis E = 3)
Der relative Zuwachs des Treibhauseffekts bezogen auf das Gesamtintegral ist entscheidend. Er entspricht der Differenz der Flankenintegrale bei 714 ppm und 357 ppm im Verhältnis zum Gesamtintegral bei 357 ppm.
(9,79.10-4/cm – 1.11.10-4/cm) / 0,5171/cm = 0,17 %
Weil man mit der Planck-Strahlungsgleichung arbeiten muss, sind Extinktionen weniger geeignet, den Treibhauseffekt zu quantifizieren, dennoch zeigen sie sehr gut die Relationen, um die es beim anthropogenen Treibhauseffekt geht (Bild 3). Auch sind die oben angegebenen Messwerte relativ ungenau; sie werden aber durch die Aussage des Nobelpreisträges Paul Crutzen gestützt. Dieser schrieb1993 in einem Lehrbuch (20): „Es gibt bereits so viel CO2 in der Atmosphäre, dass in vielen Spektralbereichen die Aufnahme durch CO2 fast vollständig ist, und zusätzliches CO2 spielt keine große Rolle mehr.“ Man kann es auch so ausdrücken: Ein Treibhaus heizt sich bestenfalls geringfügig (Spureneffekt!) stärker auf, wenn man das normale Fensterglas gegen ein zehn Zentimeter dickes Panzerglas austauscht!
2. Vergleich mit den offiziellen Daten des IPCC
Das zur Messung verwendete und in der Chemie übliche FT-IR-Spektrometer besitzt nur einen Spiegelweg von 5 cm. Dies ergibt eine Auflösung der IR-Banden von 0,2 cm-1. Da die „ungesättigten“ Spektralbereiche ungewöhnlich schwache IR-Banden betrifft, benötigt man Spektrometer, die eine Auflösung von 0,0004 cm-1 erbringen (5). Hierzu muss man ein FT-IR-Spektrometer bauen, das theoretisch über einen Spiegelweg von 25.000 cm (25 m!) verfügt. Nur dann lassen sich dieäußerst schwachen IR-Banden messen, auf die sich die Klimamodellierer des IPCC stützen. Es sind Banden, mit einer „Absorptionsstärke“ von nur 0,05 % der 15 mm CO2-Hauptbande! Da Spiegelwege von 25 m technisch schwierig realisierbar sind, misst man reines CO2 unter höheren Druck und mit käuflichen Geräten, die über Spiegelwege bis zu 10 m verfügen. Die derart gewonnenen Extinktionskoeffizienten sind in der HITRAN-Datenbank abgelegt, welche zur Berechnung des Strahlungsantriebs („radiative forcing“) bei weiterer Steigerung der Treibhausgase (CO2, CH4 usw.) dient. Nimmt man die offiziellen Zahlen (IPCC), dann beträgt der „natürliche“ Treibhauseffekt“ 324 W/m2 (21). Bei Verdopplung des CO2 (100 % Steigerung!) wird nach Übereinkunft („best guess“ aus Computermodellrechnungen) angenommen, dass sich der Strahlungsantrieb um 3,7 W/m2 erhöht (22, 23). Im Bild 4 sind die Verhältnisse dargestellt.

Bild 4: Prozentuale Erhöhung des Treibhauseffekts bei Verdopplung des atmosphärischen CO2-Gehalts gemäß der offiziellen Angaben des IPCC
Auch das Bild 4 belegt eindeutig die oben beschriebene weitestgehende Sättigung denn die Steigerung des Treibhauseffekts bei CO2-Verdopplung beträgt nur geringfügige 1,2 %. Dies ist in der Klimaforschung bekannt. Deshalb wird versucht, den „Sättigungscharakter mit dem Argument zu entkräften, das Klima sei ein so empfindliches System, dass es bereits von kleinsten Änderungen des Strahlungsantriebs aus dem Gleichgewicht gebracht werden kann. So wird behauptet, die Abkühlung zwischen 1930 und 1970 sei durch die Staubbelastung der Industriegesellschaft verursacht. Dies ist falsch. Die Abkühlung war durch das geänderte Magnetfeld der Sonne verursacht, wie aus dem Bild 11 (rot eingekreist) hervorgeht.
3. Erdoberflächentemperatur, Treibhauseffekt und CO2-Konzentration
Zur Berechnung der irdischen Oberflächentemperatur ohne Treibhausgasatmosphäre  benutzt man eine einfache Gleichung, die auf dem Stefan-Boltzmann- Gesetz beruht.

(Gleichung 1)
A ist dabei die Albedo – das durchschnittliche „Rückstrahlvermögen“ der Erde. Sie wird mit A= 0,3 angenommen. Tatsächlich existierten in der Vergangenheit auch andere Angaben. Die Solarkonstante, die in Wirklichkeit gar nicht so konstant ist, hat den Wert Fs = 1368 W/m2. Weiterhin enthält die Gleichung die Stefan-Boltzmann-Konstante s = 5,67 .10-8 W.m-2.K-4.
Rechnet man mit diesen Angaben, so resultiert für die Oberflächentemperatur der Erde:

Dieses Ergebnis ist fragwürdig, weil die Erde kein wasserloser Gesteinshaufen im Weltall ist. Sehr wahrscheinlich liegt die irdische Mitteltemperatur ohne Treibhausgase um einiges höher! Aber bleibt man zunächst einmal dabei, dann beträgt die spezifische Ausstrahlung der Erdoberfläche bei dieser Temperatur (Formelzeichen nach DIN 5031, Teil 1):
M1 = (1-0,7) . 0,25 . 1368 W/m2 = 239 W/m2
Für die Klimanormalperiode bezeichnet, hat man sich vor Jahren unter Konsensbildung auf eine Mitteltemperatur von  + 15 °C (T = 288 K) geeinigt. Benutzt man jetzt das „unveränderte“ Stefan-Boltzmann-Gesetz
M2 = s . T4      (Gleichung 2)
und berechnet damit die spezifische Ausstrahlung der Eroberfläche erneut, resultiert:
M2 = s . T4 =  5,67 . 10-8 W.m-2.K-4 . (288 K)4 = 390,0 W.m-2
Folglich erhöht der „natürliche“ Treibhauseffekt, mit einer hypothetische Erwärmung von DT = 288 K – 225 K = 33 K(33 °C), die spezifische Ausstrahlung der Erdoberfläche um
DM = M2  – M1 = 390,0 W/m2 – 239,0 W/m2 = 151 W/m2
Wie bereits oben erläutert, wird bei Verdopplung des CO2 (100 %ige Steigerung) ein zusätzlicher Strahlungsantrieb von 3,7 W.m-2 angenommen (die Größenordnung entzieht sich der Falsifikation und beruht auf Konsens – „best guess“!). Dadurch steigt die spezifische Ausstrahlung der Eroberfläche von 390,0 W.m-2 auf 393,7 W.m-2. Setzt man diesen Wert in die Stefan-Boltzmann-Gleichung (Gleichung 2) ein, resultiert als Erdoberflächentemperatur:

Demnach erhöht sich die Temperatur bei CO2-Verdopplung (100 % mehr CO2!) von 288,0 K auf 288,7 K. Das entspricht gerade einmal DT = 288,7 K – 288,0 K = 0,7 K (0,7 °C) und nicht mehr. Die Klimamodellierung hätte keinerlei politische Beachtung gefunden, wenn man nicht die Hypothese der Wasserdampfverstärkung in die Diskussion eingebracht hätte. Dies lässt sich jedoch glücklicherweise falsifizieren, wie im nächsten Absatz dargelegt wird.
4. Die Wasserdampfverstärkung
Da eine Erwärmung von lediglich 0,7 °C bei 100 % mehr CO2 zu wenig erscheint, hat man sich vor Jahren darauf geeinigt, dass diese geringfügige Temperaturerhöhung gemäß der altbekannten Clausius-Clapeyronschen-Gleichungdeutlich mehr Wasser aus den Ozeanen verdunsten lasse. Da Wasserdampf selbst ein Treibhausgas sei, fällt dadurch die von CO2 verursachte Temperaturerhöhung  wesentlich höher aus. Originalton IPCC (24): „Der Wasserdampf-Feedback’ ist nach wie vor der durchweg wichtigste Rückkopplungseffekt, der die von den allgemeinen Zirkulationsmodellen als Reaktion auf eine CO2-Verdopplung vorhergesagte globale Erwärmung verursacht.“ Wenn dies richtig ist, muss besonders in einer kälteren Periode, während der die direkte Solarstrahlung nicht so viel Wasser verdunsten lässt, der Wasserdampfgehalt über den Ozeanen mit dem atmosphärischen CO2-Gehalt ansteigen. Dies ist eindeutig nicht der Fall, wie das Bild 5 belegt (31). Deshalb können sich die Klimamodellierer auf keinen Fall auf den durchaus einleuchtenden, hypothetischen Wasserdampfverstärkungsmechanismus berufen, der eine viel zu große Temperatursteigerung prophezeit.

Bild 5: Prozentuale Abweichung des Wasserdampfgehalts über dem Atlantik (33)
Um Missverständnissen vorzubeugen: Mit der  Prozentangabe im Bild 5 ist natürlich nicht die relative Luftfeuchte gemeint, die niemals höher als 100 % sein kann, sondern vielmehr die Abweichung des Wasserdampfgehalts nach oben und nach unten um den Messwert von 1950. So liegt der absolute Wasserdampfgehalt 1956 um 25 % höher als 1950. 1968 liegt der Wasserdampfgehalt um ca. 45 % niedriger, obwohl der CO2-Gehalt weiter angestiegen ist!
5. Die Strahlungstransportgleichung
Bei der Berechnung des Treibhauseffekts wird ein „Schicht- oder Kaskadenmodell“ zugrunde gelegt nach dem innerhalb der Atmosphäre eine ständige Absorption (I) und Emission (L) stattfindet. Diesem fiktiven Strahlungstransport liegt dieSchwarzschildgleichung zugrunde (11). Bei einem infinitesimalen Weg dz, dem Absorptionskoeffizienten sa und der Teilchenzahl n gilt hierfür im lokalen thermodynamischen Strahlungsgleichgewicht (LTE):

(Gleichung 3) 
Die Größe ist hierbei die Strahldichte (vgl. DIN 5031, Teil 1), welche die Emission gemäß der temperaturabhängigenPlanck-Strahlungsgleichung angibt.
Dass innerhalb der Atmosphäre ein Strahlungstransport stattfindet, meint man belegen zu können, indem man die gemessenen Satellitenspektren mit den berechneten vergleicht. Das Ergebnis ist verblüffend, wie das Bild 6 belegt.

Bild 6: Links das gemessene Emissionsspektrum der Erde (Satellitenspektrum); rechts das  mit Hilfe der Strahlungstransportgleichung berechnete Emissionsspektrum
Das lokale thermodynamische Strahlungsgleichgewicht (LTE) begründet man mit dem Kirchhoff’schen Gesetz der Wärmestrahlung. Danach ist das Emissionsvermögen eines Körpers genau so groß wie sein Absorptionsvermögen. Das Ganze hat nur einen Haken. Es existiert kein „Strahlungsenergieerhaltungssatz“, wie er beim lokalen thermodynamischen Strahlungsgleichgewicht stillschweigend vorausgesetzt wird. Tatsächlich gibt man bei der „nachvollziehenden“ Berechnung der Satellitenspektren das gemessene atmosphärische Temperaturprofil in die Plank-Strahlungsgleichung ein, wie aus dem Bild 7 hervorgeht.

  

Bild 7: Strahlungstransport, Planck-Gleichung und gemessener Temperaturgradient

Zur Erinnerung: Beim Treibhauseffekt geht es auch um den Temperaturgradienten ( „Temperaturprofil“), den die Atmosphäre im Kontakt mit dem Erdboden unter adiabatischer Expansion annimmt. Lässt man sich dies durch den Kopf gehen, dann wird das Ergebnis – der Temperaturgradient – in die Rechnung eingesetzt (vgl. Bild 7), um dann daraus das temperaturabhängige Emissionsspektrum der Atmosphäre und des Erdkörpers zu erhalten (vgl. auch Bild 1). Deshalb ist die Übereinstimmung der im Bild 6 gezeigten Spektren kein Beweis für das dem Strahlungstransport zugrunde liegende hypothetische „lokale thermodynamische Strahlungsgleichgewicht“ innerhalb der Atmosphäre. Es ist vielmehr ein Beweis, dass man im Kreis herumrechnet und sich dann über den mathematisch „bewiesenen“ Treibhauseffekt freut.
Experimentelle Untersuchungen und die allgemein akzeptierte Theorie belegen eindeutig, dass die Molekülfluoreszenz anders funktioniert wie die Atomfluoreszenz, bei der die absorbierte Strahlung zu 100 % wieder emittiert wird (25, 26). Das LTE setzt aber eine „100%ige Molekülfluoreszenz“ voraus, die nicht existiert – auch nicht im IR-Bereich. Während angeregte Atome nur unter Emission von Strahlung in den Grundzustand zurückkehren können, erfolgt die Relaxation bei Molekülen wegen der Rotations- und Schwingungsfreiheitsgrade meist strahlungslos gemäß den Prinzipien des Jablonski-Diagramms (27).  Deshalb reichte es eigentlich vollkommen aus, wenn man den „theoretischen“ Treibhauseffekt ohne jegliche Absorption nur mit der – temperaturabhängigen – Planck-Gleichung beschreibt, die man mit den jeweiligen Bandenstärken „klimawirksamer“ Spurengase und der „Anzahl IR-aktiver Moleküle in einem Luftvolumen“ multipliziert. Dann erhält man die thermische Emission der Atmosphäre unter Berücksichtigung des Raumwinkels.
Fazit: Dass eine atmosphärische Wärmestrahlung gemäß dem Planck-Gesetz gegeben ist, ist eine Selbstverständlichkeit. Solange aber ein atmosphärisches Temperaturprofil (oben kälter – unten wärmer) existiert und die Konvektion erheblich zum Energietransport beiträgt, solange ist die Hypothese in dem offenen System Atmosphäre existiere ein lokales thermodynamischen Gleichgewichts (LTE) falsch. Denn es gibt nämlich keinen „Strahlungsenergieerhaltungssatz“. Vielmehr übertragen „Treibhausgasmoleküle“ nach der Absorption von IR-Strahlung ihre Energie auf die nicht IR-aktiven Hauptbestandteile des Atmosphäre. Deshalb wird dem Strahlungsgeschehen bei der Klimamodellierung ein viel zu starkes Gewicht beigemessen.
6. Was Klimamodelle nicht können
Klimamodelle sind Computeralgorithmen (sprich: „Rechenvorschriften“, welche die meinungsabhängigen Vorgaben der Programmierung widerspiegeln) und nicht die Realität. Weil die Komplexität des Klimageschehens gegenwärtig und auch in absehbarer Zukunft mit keinem Computer realitätsorientiert erfassbar sein dürfte, handelt es sich mehr um politische Instrumentarien, denn um exakte Naturwissenschaft.
6. 1 Die Flusskorrekturen
Der Hypothese nach soll der „natürliche“ Treibeffekt den Globus um 33 °C aufheizen. Irrigerweise wird dabei angenommen, die Erde, die zu 70 % mit Wasser bedeckt ist, würde sich ähnlich verhalten wie der vollkommen wasserloseMond. Nimmt man an, nur die ersten 10 m Wassertiefe der Ozeane würden die mittlere Erdtemperatur thermostatisch regeln, ergibt die Rechnung, dass die Ozeane im Temperaturbereich von  –18 °C bis +15 °C eine Energiemenge von 1,57.1018 MJ speichern. Hierzu die Gegenrechnung: In 24 Stunden werden durch den irdischen Treibhauseffekt 1,43.1016MJ umgeschlagen (22). Der gesamte natürliche Treibhauseffekt macht somit nur 0,9 % der Energie aus, die in den Ozeanen bei einer Wassertiefe bis zu 10 m gespeichert ist. Die Folge sind erhebliche Schwierigkeiten bei der Kopplung atmosphärischer Zirkulationsmodelle („General Circulation Atmospheric Models“) mit ozeanischen Zirkulationsmodellen („General Circulation Oceanic Models“). Diese Probleme lassen sich nur mit Hilfe so genannter „Flusskorrekturen“ überwinden, deren Beträge, wie das Bild 8 belegt, um ein Vielfaches größer sind als der anthropogene Treibhauseffekt. Die rechte Säule in Bild 8 stellt den Strahlungsantrieb des CO2 bei Verdopplung dar. Danach ist allein schon die 100 W/m2-Flusskorrektur zur Kopplung Ozeanoberfläche-Atmosphäre rund 27-mal (!) größer als der anthropogene Treibhauseffekt bei CO2-Verdopplung (3,7 W/m2).

Bild 8: Anthropogener Treibhauseffekt (rechte kleine Säule) im Verhältnis zu den bei der Klimamodellierung angewandten Flusskorrekturen

Es soll nicht unerwähnt bleiben, dass von einschlägigen Instituten in neuerer Zeit verlautbart wird, man benötige keine Flusskorrekturen mehr. Tatsächlich kommen Klimamodelle nach wie vor nicht ohne sie aus.
6. 2 Die Wolkendichte
Bei der Abschätzung des Strahlungsantriebs der Wolken kommen Klimamodelle zu äußerst unterschiedlichen Ergebnissen. So findet das „Bureau of Meteorology Research Center“ (BMRC) von Australien, dass die Wolken eine Abkühlung von ca. 1 W/m2 erbringen, während das Labaratoire de Météologie Dynamic (LMD) aus Frankreich meint, Wolken würden eine Erwärmung von ca. 1,7 W/m2 bewirken (Bild 9). Das ist beachtenswert!

Bild 9: Strahlungsantrieb der Wolken mit unterschiedlichen Klimamodellen gerechnet
6. 3 Die Vergangenheit
Beispielsweise können bis heute Klimamodelle nicht die im Bild 10 gezeigte Abkühlung zwischen 1930 und 1975 ohne Zuhilfenahme von Kunstgriffen (atmosphärischer Staubeintrag durch die Industriegesellschaft!) nachvollziehen.

  

Bild 10: CO2-Gehalt und Temperaturverlauf (vgl. a. Bild 11)
7. Die Alternative
Da treibhausgasfixierte Computer-Klimamodelle nicht nur im Zeitraum zwischen 1930 bis 1970 versagen sondern auch die kleine Eiszeit (14. bis 18. Jh.) und das mittelalterliche Klimaoptimum (11. – 13. Jh.)  nicht nachbilden können, muss es einen anderen entscheidenden Mechanismus geben. Sehr viel spricht dafür, dass dies die Wolkendichte ist, die von der kosmischen Strahlung beeinflusst wird. Diese besteht überwiegend aus Protonen, die als Echo des Urknalls in unser Sonnensystem eindringen. Gelangen diese positiv geladenen Kernbausteine in die Atmosphäre, so führen sie über einen noch nicht restlos geklärten Mechanismus zur Kondensation von Wasserdampf  –  Wolken entstehen. Erhöht sich dasMagnetfeld der Sonne bei höherer Solaraktivität, dann werden die Protonen stärker abgeschirmt. In der Folge entstehenweniger Wolken und die erwärmende Sonnenstrahlung kann den Globus stärker aufheizen. Deshalb folgt der globale Temperaturverlauf der Schwankung des solaren Magnetfelds (Bild 11).

Bild 11: Solares Magnetfeld und Globaltemperatur (abgewandelt nach 28)
Wie Messungen zeigen, war im übrigen die Solaraktivität seit dem Jahr 850 noch nie so hoch wie nach 1940 (29). Auch im Wärmehaushalt der Weltmeere macht sich die wolkenbedeckungsabhängige Schwankung der solaren Einstrahlung stärker bemerkbar.  Somit dürfte der anthropogene Treibhauseffekt eine kleine, aufgesetzte Größe auf einer natürlichen Klimaschwankung sein.
Abgesehen davon erscheint die unter Punkt 3 vorgerechnete Temperatur von – 18 °C, welche die Erde ohne Treibhausgase angeblich hätte, viel zu niedrig angesetzt sein. Sie entspricht aber der offiziellen Doktrin, die – und das muss betont werden – eine Hypothese ist. Weil, wie bereits hervorgehoben, die Erde kein wasserloser Gesteinshaufen im Weltall ist, sondern zu 70 % mit Wasser bedeckt ist, muss die direkte Absorption im nahen Infrarotgebiet (NIR) und die sehr verzögerte Strahlungsemission von Ozeanwasser stärker berücksichtigt werden.

<hug/img height=“303″ width=“444″ v:shapes=“_x0000_s1057″ src=“Hug/image034.gif“>
</hug/img>

Bild 12: Wolkenbedeckung (Wolkendichte) und globale Temperatur
Aus dem Bild 12 geht hervor, dass sich die globale Wolkenbedeckung zwischen 1986 und 2000 von 69 % auf 65 % reduzierte (linke Ordinate, „fallend“ aufgetragen). Parallel hierzu stieg die globale Mitteltemperatur (rechte Ordinate, „steigend“ aufgetragen).
Während die Temperaturschwankungen in der Sahara im Tagesverlauf ohne weiteres bis zu 50 °C betragen können, verhalten sich Meere wesentlich träger. Der Gesamtwärmeumsatz (Wärmeenergie nicht Wärmeleistung!) eines Meeres ist die Summe vieler Größen:
Qges = (QS – QA) – QK – QV – QT + QC + QE + QF + QR
QS = im Meer absorbierte Sonnen- und Himmelsstrahlung (= „Treibhauseffekt“)
QA = effektive Ausstrahlung
QK  = „fühlbarer“ Wärmeübergang Luft-Wasser
QV  = latenter Wärmeübergang Luft-Wasser (Verdunstung, Kondensation)
QT  = Wärmetransport durch Strömung
QC  = chemisch-biologische Prozesse
QE  = Wärmezufuhr aus dem Erdinnern
QF  = Reibungswärme
QR  = radioaktiver Zerfall
Da die Speicherfähigkeit des Wassers erheblich über der von Gesteinen liegt, ist es ausgeschlossen, dass sich die Erde bei einer Trägheit des Systems Wasser-Luft nachts schlagartig um 50 °C herunterkühlen. Denn insbesondere die Abstrahlungsleistung dQA/dt unterscheidet sich wegen der wesentlich höheren Wärmespeicherungsfähigkeit von Meerwasser deutlich von jener der Sahara. Gemäß der Stefan-Boltzmann-Gleichung (Gleichung 2) hängt nämlich die spezifische Ausstrahlung der Erdoberfläche mit der Temperatur unmittelbar zusammen. Je höher die letztere ist, desto größer ist auch die Abstrahlung.
Aus der obigen Aufzählung geht aber hervor, dass der Energiegehalt des Meerwassers auch auf der Wärmezufuhr aus dem Erdinnern, auf chemisch-biologischen Prozessen, auf radioaktiven Zerfall und auf Reibungswärme beruht. Die Größe QF (Reibungswärme) in der obigen Aufzählung hängt von der Windgeschwindigkeit ab.  Wie H. Volz auf einer Tagung der Bayerischen Akademie der Wissenschaften berichtete, differiert die  spezifischen Ausstrahlung bei den Windstärken 0 und 7 in einer Größenordnung von  DM = 11,1 W/m2 (30). Die Ein- und Ausstrahlungsbilanz geht aber von einer ruhenden See aus. Addiert man diese Größe zur spezifischen Ausstrahlung bei 15 °C, so erhält man:
= 239,0 W/m2 + 11,1 W/m2 = 250,1 W/m2
Eingesetzt in die Gleichung 2 resultiert für die Temperatur T  = 257,7 K (- 15,3 °C). Diese Temperatur liegt um 2,7 °C höher, als die besagten – 18 °C. Die Treibhausgase erhöhen dann die Mitteltemperatur nicht um 33 °C sondern „nur“ um 30,3 °C, insofern die These richtig ist, die „normale“ Mitteltemperatur der Erde beträgt + 15 °C. Wie hoch war diese eigentlich während des mittelalterlichen Klimaoptimums (11. – 13. Jh. ) und während der „kleinen Eiszeit“ (14. bis 18. Jh)?
Ein weiteres kommt hinzu. Etwa 50 % der Sonneneinstrahlung, die den Erdboden erreicht, ist Wärmestrahlung (nahes und mittleres IR). Diese wird vom Meerwasser absorbiert. Die strahlungsfixierte Treibhausgastheorie saldiert nur die Einstrahlung und Ausstrahlung im Tagesverlauf als könnten sich die Weltmeere auf der Nachtsseite schlagartig auf – 18 °C abkühlen. Die Trägheit der Ozeane ist aber mit einer Relaxationszeit bis zu 200 Jahren sehr hoch. Folglich dürfte die mittlere globale Gleichgewichtstemperatur der Ozeane ohne atmosphärische Treibhausgase eher um + 4 °C (Wasser höchster Dichte am Grunde eines zugefrorenen Gewässers) denn bei – 18 °C liegen. Als ich vor einiger Zeit einmal mit einem ehemaligen Leiter eines Klimarechenzentrums korrespondierte und ihn fragte, wie hoch die irdische Mitteltemperatur ohne Ozeane anzusetzen sei aber mit dem gegenwärtigen atmosphärischen Treibhausgasgehalt, erhielt ich zur Antwort, dies sei eine interessante Frage, die man aber bislang nicht durchgerechnet habe.
Zusammenfassung
·        Der anthropogene Treibhauseffekt ist im wesentlichem ausgereizt, wie die Messung der Transmission von IR-Strahlung belegt. Eine globale Klimakatastrophe ist daher selbst bei einer CO2-Verdoppelung nicht zu erwarten.
·        Die Steigerung des Treibhauseffekt um 1,2 % bei 100 % mehr CO2 ist eine Bagatelle, die man nur mit Hilfe des Wasserdampfverstärkungsmechanismus vergrößern kann.
·        Zweifellos enthält die Atmosphäre gemäß der Clausius-Clapeyronschen-Gleichung mehr Wasserdampf, wenn es wärmer wird. Jedoch lässt sich der hypothetische Wasserdampfverstärkungsmechanismus, ohne den Klimamodelle nicht zu einem merklichen Temperaturanstieg kommen, in der Realität nicht nachzuweisen. Weil sich somit der atmosphärische Wasserdampfgehalt nicht an der Konzentration der Treibhausgase orientiert, erhöht sich die globale Mitteltemperatur bei 100 % mehr CO2 in der Atmosphäre bestenfalls um 0,7 K (0,7 °C).
·        Computerklimamodelle kommen u. a. deshalb zu falschen Ergebnissen, weil der hypothetische Wasserdampfverstärkungsmechanismus vollkommen überwertet wird.
·        Der atmosphärische Temperaturgradient beruht auf einem Energietransport und nicht auf einem Strahlungstransportmechanismus mit dem fiktiven LTE. Deshalb wird der atmosphärischen Rückstrahlung – dem Treibhauseffekt – eine zu große Bedeutung zugemessen.
·        Klimamodelle müssen mit – gewillkürten – Flusskorrekturen arbeiten, deren Größenordnung den des anthropogenen Treibhauseffekts um ein Vielfaches übertreffen. Im anderen Fall „hat (man) als Modellierer … die Wahl, entweder ohne Flusskorrektur mit einem unrealistischen Klimazustand zu operieren, oder die Flusskorrektur mit ihren Schwächen zu akzeptieren, dafür aber ein realistisches Klima zu erhalten.“(32)
·        Die Abbildung des Klimas in der Vergangenheit mit Computeralgorithmen gelingt nicht ohne massive Korrekturgrößen.
·        Die globale Mitteltemperatur ohne Treibhauseffekt dürfte um einiges höher als bei 255 K (-18 °C) liegen.
·        Das Klima wird hängt stärker von der Variation der Wolkenbedeckung ab als vom Gehalt atmosphärischer Treibhausgase.
·        Das IPCC ist eine politische Organisation, die sich eines Wissenschaftlergremiums bedient, um volkspädagogische Lernziele durchzusetzen.
Abschließend möchte ich die Leser darauf aufmerksam machen, dass dem gegenwärtigen CO2-Gehalt je nach Literaturstelle ein unterschiedlicher Temperatureffekt zugeordnet wird. In dem von von J.T. Houghton herausgegebenen Buch „The Global Climate“ geben Kondratjew und Moskalenko 7,2 K an (14). Die Autoren zitieren sich dabei selbst (15). Besorgt man sich das in Kyrillisch geschriebene Buch und schaut auf der angegebenen Seite nach, so landet man im Sachwortverzeichnisses. Auch die weitere Suche in dem Buch bringt kein Ergebnis. Andererseits scheint man sich doch recht sicher zu sein, denn die Angaben der Autoren werden gerne zitiert (16). Allerdings gibt es Widersprüche, denn K.P. Shine gibt einen anderen Wert an, nämlich 12 K (17) und R. Lindzen (18) geht davon aus, dass dem CO2 nur etwa 5% des natürlichen Treibhauseffekts zuzuordnen sind. Das wären 1,65 K und damit weniger als ein Viertel des bei IPCC benutzten Werts von 7,2 K.
Literatur
[1] R. Revelle, Scientific American, 247, No.2, Aug. 1982, 33-41
[2] J. Barrett, Spectrochim. Acta Part A, 51, 415 (1995)
[3] R.A. Hanel et al. Journal of Geophysical Research, 77, 2629-2641 (1972)
[4] H. Flohn, Nachr. Chem.Tech.Lab, 32, 305-309 (1984)
[5] L.S.Rothman et al., Appl.Opt. 26, 4058 (1987)
[6] H. Hug, Chemische Rundschau, 20. Febr., p. 9 (1998)
[7] P. S. Braterman, Spectrochim. Acta Part A, 52, 1565 (1996)
[8] K. Shine, Spectrochim. Acta Part A, 51, 1393 (1995)
[9] J. Houghton, Spectrochim. Acta Part A, 51, 1391 (1995)
[10] R. S. Courtney, Spectrochim. Acta Part A, 53, 1601 (1997)
[11] R. P. Wayne, Chemistry of Atmospheres, Oxford University Press,
2nd. Edition, 44-49 (1991),
[12] Murry L. Salby, Fundamentals of Atmospheric Physics, Academic Press, 198-257 (1996)
[13] Climate Change 1990. The IPCC Scientific Assessment, p. 49
[14] K.Ya. Kondratyev, N.I. Moskalenko in J.T.Houghton, The Global Climate, Cambridge
Universitiy Press, 225-233 (1984)
[15] K.Ya. Kondratyev,N.I. Moskalenko, Thermal Emission of Planets, Gidrometeoizdat,
263 pp (1977) (Russisch)
[16] C.D. Schönwiese, Klimaänderungen, Springer-Verlag Berlin Heidelberg, p. 135 (1995)
[17] K. P. Shine, A. Sinha, Nature 354, 382 (1991)
[18] R. S. Lindzen, Proc. Nat. Acad. of Sciences, 94, 8335 (1997)

[19] R. Raschke, R. Hollman, Strahlungsübertragung in der Atmosphäre, Modellierung und Messung, Preprint zum CO2-Kolloquium der DECHEMA in Frankfurt/Main am 11.10.2001
[20] T. E. Graedel, Paul J. Crutzen, Chemie der Atmosphäre, Spektrum Akademischer Verlag, Heidelberg, Berlin, Oxford 1993, S. 414
[21] IPCC, Climate Change 2001, Chap.  1.2.1 Natural Forcing of the Climate System
[22] J. T. Kiehl, K. E. Trendberth, Bull. Amer. Meteor. Soc.78 (1997) 197

[23] IPCC, Climate Change 1994, Radiative Forcing of Climate Change and Evaluation of the IPCC IS92 Emission Scenarios, Cambridge University Press, S. 174

[24] IPCC, Climate Change 2001, Working Group I: The Scientific Basis. Contribution of Working Group I to the Third Assessment Report of the Intergovernmental Panal on Climate Change, Chap. 7.2.1.1

[25] H. Hug, Energy & Environment, 11, 631, (2000)

[26] N. D. Coggeshall and E. L. Saier, J. Chem. Phys., 15, 65, (1947), Fig. 1

[27] Matthias Otto, Analytische Chemie, Wiley-VCH Verlag, Weinheim (2000), S. 280 ff

[28] S. Solanki, M Schüssler, M Fligge, Nature408 (2000) 445

[29] I. G. Usoskin, S. K. Solanki, M. Schüssler, K. Mursula, K. Alanako, Phys. Rev. Let., 91 (2003) 211101-1

[30] Rundgespräche der Kommission für Ökologie, Klimawandel im 20. und 21. Jahrhundert: „Welche Rolle spielen Kohlendioxid, Wasser und Treibhausgase wirklich?“ Bayerische Akademie der Wissenschaften, Verlag Dr. Friedrich Pfeil, Müchen, April 2005, S. 93

[31] Wasserdampfgraphik nach H. Flohn, BdW 12/1978, S. 132

[32] U. Cubasch, Phys. Bl. 51 (1995) 269

[33] H. Hug, Die Angsttrompeter, Signum Verlag, München, 2006, S. 227

Heinz Hug, Wiesbaden Juni 2007
Den Aufsatz können Sie auch als pdf Datei aus dem Anhang herunterladen

Related Files