Grüne Energiepolitik: Eine “einmalige Schweinerei”

von Benny Peiser auf ACHGUT

Dazu ein Merkelwort* „Energie ist heute zu billig… Es müssen aus meiner Sicht gezielt die Steuern auf Energie angehoben werden, sei es über Mineralöl, Heizgas oder Strom.“


*Quelle „Frankfurter Rundschau“ 17. Juni 1997 




100 Jahre Kälte

Die Vorhersage stammt vom Astrophysiker Dr. Habibullo Abdussamatov, Chef der russischen Abteilung der „International Space Station“.

Dr. Abdussamatov ist zugleich Chef der Weltraumforschung in der Abteilung für die Sonne am Pulkovo Observatorium der Russischen Akademie der Wissenschaften.

Es begann damit, dass die russischen Wissenschaftler ein Papier von J. A. Eddy (1976) studierten, welches eine Korrelation zwischen der Sonnenflecken-Aktivität und großen, zerstörerischen Klimaveränderungen auf der Erde dokumentiert. Zerstörerisch, weil die Veränderungen häufig zu wirtschaftlichen und demographischen Krisen führten, die sich auf die Existenz ganzer Völker auswirkten.

Der russische Forscher Eugene Borisenkov ging bei seiner Forschung ähnlich wie Eddy vor und entdeckte einen nahezu 200-jährigen Zyklus globaler Abkühlung während der vergangenen 7.500 Jahre, der mit Zeiten von Maunder-Minimum artigen Sonnenflecken-Minima korreliert. In den damaligen Zeiten gab es überhaupt keinen industriellen Einfluss, betonte Abdussamatov.

Beobachtungen der Veränderungen im 11-jährigen Zyklus der Sonnen-Aktivität (durchgezogene dünne Kurve) und im 200-jährigen Zyklus der Sonnen-Aktivität (durchgezogene dicke Kurve) und die Vorhersage für den Zeitraum von 2009 bis 2042 (gestrichelte Linien) (Abdussamatov H. I. KPhCB, 2007. 23, 97).

Die Wissenschaftler fanden heraus: Unsere Erde erwärmt und kühlt sich ab in einem 200-Jahres-Zyklus entsprechend den 200-jährigen zyklischen Veränderungen in Stärke und Leuchtkraft der Sonne. Auf vorherige globale Erwärmungen – und davon hat es viele gegeben – sind immer tiefe Abkühlungen gefolgt.

Die 200-jährigen Zyklen in der Sonnenflecken-Aktivität und Gesamtstrahlung der Sonne (Total Solar Irradiance – TSI) sind der überwiegende Grund für den Klimawandel, sagte Abdussamatov. “Insgesamt gesehen sind die Sonnen-Zyklen der Schlüssel für unsere Kenntnis unterschiedlicher zyklischer Variationen in der Natur und der menschlichen Gesellschaft.“

TSI Variationen und Sonnenflecken-Aktivität seit 1611 und die Vorhersage (gestrichelte Linien) (Abdussamatov H. I.: The Sun Dictates the Climate of the Earth. 2009, St. Petersburg, “Logos”, – 197 p.; The Sun Dictates the Climate. 4th International Conference on Climate Change in Chicago, May 2010.)

Die Existenz der 11-jährigen und 200-jährigen Sonnen-Zyklen mit identischen und synchronen Veränderungen in Leuchtkraft, Sonnenflecken-Tätigkeit und dem Durchmesser der Sonne ist einer der am besten gesicherten Fakten in der Sonnenphysik, sagte Abdussamatov.

“Die Erforschung physikalischer Vorgänge auf der Sonne tragen nicht nur zum Verständnis einer großen Zahl von astrophysikalischen Fragen bei, sie helfen auch bei der Klärung von Fragen aus der Geophysik, der Meteorologie, Biologie und Medizin. Alle von der Menschheit genutzten Energiequellen kommen von der Sonne. Die Wärme und das Licht der Sonne haben die Entwicklung des Lebens auf der Erde gesichert und die Lagerstätten von Kohle, Öl und Gas gebildet. Alles Leben auf der Erde und dessen Zukunft hängt direkt und fast zur Gänze von der gesamten Sonnenstrahlung ab.”

Das vollständige Papier finden Sie hier:
http://www.gao.spb.ru/english/astrometr/index1_eng.html

Übersetzung: Helmut Jäger, EIKE




Von einem Warmisten zu einem Skeptiker – meine ganz private Reise

Die Wissenschaftler sagten, dass CO2-Emissionen die Erde aufheizen, mit schrecklichen, sogar katastrophalen Folgen: Eiskappen schmelzen, der Meeresspiegel steigt, Küsten verschwinden, massive und sehr häufige Hurrikane, Hitzewellen mit tödlichen tropischen, sich in bislang gemäßigte Temperaturzonen ausbreitenden Krankheiten, Missernten infolge Hitze und Wüstenausbreitung, Pandemien gegen die menschliche Gesundheit, Verschwinden des Schnees auf der Sierra Nevada in Kalifornien, Trinkwasserknappheit – die Liste ist lang und länger.

Die Lösung, sagten die Wissenschaftler, bestehe darin, keine fossilen Treibstoffe mehr zu verbrennen, d. h. Erdgas, Kohle und Öl. Stattdessen sollen wir Strom sparen und lernen, mit weniger Strom auszukommen, Elektroautos fahren, Benzin aus Mais-Ethanol sowie Diesel aus recycelten tierischen Fetten und Ölsamen herstellen, all unseren Müll in Verbrennungskraftwerken recyceln, Wind- und Solarparks zur Stromerzeugung errichten, Methan sammeln aus Jauchegruben und Müllhalden, um dieses Methan dann in Kraftwerken zur Stromerzeugung zu verbrennen. Aber bis solche Technologien zum Tragen kommen, müssen wir das CO2 aus Kraftwerken und Hochöfen einfangen und es irgendwo für immer vergraben. Dieser Vorgang wurde „Abscheidung (Sequestration)“ genannt.

Mein Interesse wurde zumindest angestachelt. Die Erde soll unbewohnbar werden? Millionen Klimaflüchtlinge würden anderswo Platz zum Leben suchen? Kriege würden um Nahrung und Frischwasser geführt werden? Küstenlinien sollen überschwemmt und für immer verschwunden sein? Und das alles soll wegen unseres Verbrauchs fossiler Treibstoffe passieren? Meine Industrie? Die Öl- und Gasindustrie?

Ich wusste, dass chemische Ingenieure involviert sein würden, und zwar mittendrin. Chemische Ingenieure sind diejenigen, die Substitute für Öl und Diesel zur Verfügung stellen können und die wissen, wie man aus Mais oder Zellulose Ethanol herstellt. Sie sind auch diejenigen die wissen, wie man Kraftwerke plant, baut und betreibt, die das CO2 einfangen, und sie finden Wege, das gefährliche CO2 entweder zu binden oder es permanent im Untergrund zu speichern als Teil der Sequestration.

Also begann ich mal zu eruieren, was die chemischen Ingenieure tun können, um das Problem zu lösen und nach Wegen zu suchen, von meinem eigenen Hintergrund als chemischer Ingenieur zu profitieren und eine Expertise als Anwalt zu erstellen. Sicher würde es doch einige Gelegenheiten für einen Mann mit meinen Erfahrungen in all dem geben. Ich musste meine Pflicht tun und die wissenschaftlichen Behauptungen verifizieren. Zunächst, auf welche Art und Weise verursacht das CO2 diese ganze Erwärmung? Ich habe Jahrzehnte lang mit CO2 gearbeitet, in vielen Formen und an vielen Orten. CO2 ist ein Verbrennungsprodukt (zusammen mit Wasserdampf) aus der Verbrennung von Erdgas, anderen leichten Hydrokarbonaten, Benzin, Diesel, Heizöl, Erdölkoks, Holz, Kohle, sogar Torf und getrocknetem Tierdung. Ich wusste mehr als die meisten, dachte ich. Ich habe flüssige CO2-Tanks entworfen, installiert und betrieben, ebenso wie Ausrüstungen, um flüssiges CO2 zu vergasen, es zu pressen und das gepresste Gas wieder zu verflüssigen. Ich hatte auch Verarbeitungsanlagen entworfen und betrieben, um das CO2 aus Abgasen von Brennöfen herauszuholen; und ich habe andere Anlagen entworfen und betrieben, die aus CO2 feste Partikel machen. Ich dachte mir, dass es eine Menge Möglichkeiten für mich geben müsste.

Herauszufinden, wie viel CO2 entfernt werden muss, schien mir ein guter Startpunkt zu sein. Ich begann mit der Lektüre von Blog Posts auf einer Website, die sich RealClimate.org nennt und wo behauptet wurde, dass „echte Klimawissenschaft von echten Klimawissenschaftlern“ geschrieben wird. Das hörte sich gut an, die Informationen direkt von den Experten zu bekommen. Ich habe dort einige Karten und Graphen gesehen, und ich verstehe Karten und Graphen. Chemische Ingenieure kennen alles darüber. Einer dieser Graphen zeigte die globale Mitteltemperatur der Erde von etwa 1880 bis 2005. Da zeigte sich ein dramatischer und bemerkenswerter Aufwärtstrend seit 1975 bis heute. Dieser Trend würde, wenn er sich fortsetzte, mit Sicherheit die Welt heißer machen, und vielleicht würden die Eiskappen tatsächlich alle schmelzen.

 

Da ich ein guter Ingenieur bin und ausgebildet, alle Seiten einer Angelegenheit zu betrachten, schaute ich mir den Rest der Graphik an. Sie kam mir etwas komisch aussehend vor. Da gab es einen ziemlich flachen Verlauf von etwa 1940 bis 1975, oder sogar einen leichten Abwärtstrend in diesen 35 Jahren. Hmmm… ich frage mich, was war der Grund dafür? Hat sich der CO2-Gehalt in diesem Zeitraum vielleicht verringert? Ich machte mir einen Vermerk, dies später genauer zu untersuchen.

Dann sprang mir die Zeit vor 1940 ins Auge. Von etwa 1900 bis 1940 zeigte der Graph einen bemerkenswert ähnlichen Aufwärtstrend, fast genau wie von 1975 bis 2005. Hmmm schon wieder… wie war es zu diesem Erwärmungstrend gekommen? Hat das CO2 in jenen Tagen zugenommen? Und falls ja, warum hörte das um 1940 auf? Die Welt befand sich Ende der dreißiger bis Mitte der vierziger Jahre im Krieg… haben wir während dieser Zeit keine Kohle, Erdgas oder Öl verbraucht? Irgendwas schien da nicht zu stimmen, konnte ich mich doch entfernt daran erinnern, wie ich aus meinem Studium der Ölindustrie gelernt hatte, dass die Ölproduktion während des 2. Weltkriegs dramatisch zugenommen hatte, wegen all der militärischen Maschinen, die Benzin und Diesel benötigten, und der Schiffe, die Heizöl benötigt hatten. Ich wusste, dass die Atomkraft bis lange nach dem Krieg keine Rolle gespielt hatte, so dass all diese Schiffe mit Schweröl betrieben wurden, welches wir Bunker-C-Öl nennen. Auch produzierten Fabriken rund um die Welt mit voller Kapazität Munition, Stahl, Aluminium, Kriegsmaschinen, Panzer, Jeeps, Schiffe und all die anderen Kriegsgerätschaften. Damals gab es nicht viel Einsparung, dachte ich. Eine Menge CO2 wurde auch emittiert. Niemand scherte sich um Effizienz oder sparsamen Verbrauch, nicht einmal um Verschmutzung; der einzige Gedanke war gewesen, so schnell und so viel wie möglich noch mehr zu produzieren. Schließlich herrschte Krieg!

Dann besah ich mir den CO2-Anteil in der Atmosphäre, wobei ich eine große Prozentzahl vermutete, vielleicht 3 oder 4 oder sogar 5 Prozent. Die Graphen, die ich fand, sahen auf den ersten Blick falsch aus. Der CO2-Gehalt lag nicht einmal annähernd bei 5 Prozent. Nicht einmal 1 Prozent. Er lag so niedrig, dass er in Parts per Million gemessen wurde! Etwa 365 ppm habe ich gefunden, und eine Zunahme um etwa 2 ppm pro Jahr. Die Messungen reichten zurück bis zum Jahr 1959, und was mich noch mehr erstaunte – diese 365 ppm wurden auf knochentrockener Basis gemessen. Dies bedeutet, dass das als Beispiel dienende Luftpaket gedörrt oder sehr sorgfältig getrocknet worden ist, um allen Wasserdampf zu entfernen bevor der CO2-Gehalt quantifiziert wurde. Das ist tatsächlich ein gutes Verfahren, weil es alle Variationen infolge Änderung der Luftfeuchtigkeit eliminiert. Aber in der Praxis, falls die Atmosphäre sehr viel Wasserdampf enthält, wird die aktuelle CO2-Konzentration um Einiges geringer sein. Ich habe das mal ausgearbeitet, und gefunden, dass eine tropische Luftmasse mit einer Temperatur von 80°F [ca. 27°C] und einer Relativen Luftfeuchtigkeit von 90 Prozent etwa 0,2 Pfund Wasser pro Pfund trockener Luft enthält. Grob geschätzt besteht die Luft, die wir einatmen, zu 17 Prozent aus Wasserdampf. Damit würde sich die CO2-Konzentration ebenfalls um 17 Prozent reduzieren, so dass aus den 365 ppm tatsächlich 310 ppm werden. Wow! Kann ein CO2-Gehalt von 310 ppm all diese Probleme hervorrufen? Ich musste herausfinden, wie das gehen sollte!

 

Ich brauchte nicht lange im Internet zu suchen, bis ich Behauptungen von Wissenschaftlern gefunden hatte, dass das CO2 die Wärme von der Erdoberfläche absorbiert und etwa die Hälfte davon wieder zur Erde zurückstrahlt. Der Effekt wurde der „Treibhaus“-Effekt genannt, und CO2 wurde als „Treibhausgas“ bezeichnet. Hmmm… so funktionierten Treibhäuser nicht, wie ich wusste, weil wir selbst auch Treibhäuser entworfen und gebaut hatten. Die Sonnenwärme dringt durch das Glas, wird von den dunkelgrünen Pflanzen absorbiert und wärmt die Luft innerhalb des Treibhauses. Winde können die Warmluft wegen der Glasdecke und –wände nicht davon blasen. In der Sprache der Ingenieure ausgedrückt, es gibt dabei keinen konvektiven Wärmeaustausch. Nun, dieses „Treibhausgas“ könnte ein Kunstausdruck sein, und ich bin sicherlich vielen solcher Kunstbegriffe im Ingenieurswesen und in Gesetzen begegnet. Eindeutig waren weitere Untersuchungen erforderlich.

So stieß ich schließlich auf das Kyoto-Protokoll, das eine Menge über Treibhausgase zu sagen hatte. Wie sich heraus stellte, gab es sechs davon, nicht nur CO2. Die sechs waren natürlich das CO2, dann aber auch Methan, Stickstoffoxid, Schwefelhexafluorid, Hydrofluorkarbonate und Fluorkohlenwasserstoffe.

Aber wie genau geht das vor sich, dass das CO2 und die anderen Wärme absorbieren und sie zur Erde zurück strahlen? Und wie erzeugte das eine Erwärmung? Einiges passte da nicht zusammen, wie zum Beispiel der zunehmende CO2-Gehalt seit 1959 und die Abkühlung von 1940 bis 1975. Mehr dazu später.

Weitere Untersuchungen führten mich zum Blog von Anthony Watts, Watts Up With That. Das schien eine Stelle zu sein, an der Artikel gepostet wurden, die die Orthodoxie der anthropogenen, auf CO2 basierenden globalen Erwärmung in Frage stellen. Also las ich darin und las über Al Gore und seinen Film „Eine Unbequeme Wahrheit“, von Dr. James Hansen von der NASA, der eine Welttemperaturkarte erzeugt hatte, und viele andere Gestalten. Da gab es etwas, das „das Team“ genannt wurde, und ich wusste nicht, wer zu diesem Team gehörte und welches Spiel es spielte. Aus dem Zusammenhang jedoch ergab sich, dass es keine gute Sache war, Mitglied des Teams zu sein, da es irgendwie geringschätzig behandelt wurde.

Aber zurück zum CO2 und dem Aufheizen der Erde. Ich las über das CO2 und wie es Wärme absorbierte. Einige kleine Bruchstücke wanderten tief in mein Gedächtnis. Davon hatte ich schon mal gehört, vor sehr langer Zeit. Ich kramte mein altes Handbuch über chemisches Ingenieurwesen hervor, bekannt als Perry’s Handbook. Dieses Buch steckt voller felsenfester Wissenschaft, die immer zutrifft, sowie Fakten zum Ingenieurswesen. Wenn es in Perrys Buch stand, war es eine Tatsache. Darauf konnte man sich verlassen. Chemische Ingenieure rund um die Welt richteten sich nach den Dingen, die dort standen, jeden Tag. Also schlug ich dort nach. Und wurde fündig. Und zwar unter den Stichworten Wärmetransport, Transfer von Strahlungsenergie, Design von Hochöfen. In Hochöfen werden normalerweise einige Sorten fossiler Treibstoffe verbrannt, vielleicht Kohle oder Öl oder Erdgas oder eine Mischung leichter Hydrokarbonate, falls der Hochofen eine Ölraffinerie ist. Öfen für die Heizung von Haushalten verbrennen ein Öl ähnlich Diesel, und davon gibt es Millionen auf der ganzen Welt. Es gibt eine ähnlich große Zahl großer Industrieöfen in Kraftwerken, Fabriken Stahlwerken, Raffinerien und Chemiewerken. Der Bau von Öfen ist eine sehr ausgereifte Kunst, die nicht nur Jahrzehnte, sondern bereits Jahrhunderte lang ausgeübt worden ist. Selbst Lokomotiven verbrannten Holz oder Kohle, und auch das für Jahrhunderte. Und sicher muss beim Ofenbau auch der Faktor CO2 in den Verbrennungsabgasen berücksichtigt werden. Wasserdampf spielt ebenfalls eine Rolle, und seine Auswirkungen sind sogar noch größer als die vom CO2.

Etwas ist hier in gewisser Weise in Ordnung. Wenn ein fossiler Treibstoff verbrannt wird, findet eine chemische Reaktion statt, bei der eine Menge Wärme freigesetzt wird. Ein fossiler Treibstoff ist ein Hydrokarbon, was bedeutet, dass die meisten Moleküle entweder Wasserstoff oder Kohlenstoff sind. Also Hydrokarbon. Chemiker sind nicht sehr innovativ, wenn es um Namen geht, manchmal zumindest. Luft wird hinzugefügt und Wärme, und der Sauerstoff in der Luft reagiert chemisch mit dem Kohlenstoff und mit dem Wasserstoff. Ein Kohlenstoffatom kombiniert mit zwei Sauerstoffatomen in der Luft bilden CO2, Kohlendioxid – ein Kohlenstoff- und zwei Sauerstoffatome. Und wieder keine besonders kreative Namensgebung. Genauso reagieren zwei Wasserstoffatome mit einem Sauerstoffatom und bilden H2O, Dihydrogenmonoxid, bekannter unter der Bezeichnung Wasser. Das Wasser befindet sich im gasförmigen Zustand, ist also Wasserdampf. Dies ist beim Ofenbau wichtig, weil das, was aus dem Abgasschacht entweicht, zumeist Stickstoff aus der Luft ist, die in den Ofen einströmt, sehr wenig Sauerstoff, weil dieser zum größten Teil chemisch reagiert hat, und der Rest ist Wasserdampf und CO2. Wie viel CO2, und wie viel Wasserdampf? Ist das CO2 sehr gering konzentriert, wie in der Atmosphäre? Es sieht so aus, als sei die Antwort nein, denn CO2 hat jetzt eine Größenordnung von 19 Prozent und Wasserdampf von 29 Prozent. Dies unterscheidet sich erheblich von dem Gehalt in der Atmosphäre. Anders ausgedrückt, ist 19 Prozent das Gleiche wie 190000 ppm. Also ist die CO2-Konzengtration in einem Ofen viel, viel größer. Was ist noch unterschiedlich? Einmal ist die Temperatur sehr unterschiedlich. CO2 in einem Ofen ist glühend heiß, mit einer Temperatur um 1800°F [ca. 982°C]. In der Atmosphäre reicht die Spanne von 90°F bis -40°F [ca. +32°C bis -40°C]. Ich fragte mich, ob das etwas ausmacht, und wenn ja, wie viel? Die grundlegende Antwort war ja, CO2 und Wasserdampf absorbieren jeweils Strahlungswärme und geben sie wieder ab. Also schien es eine gewisse Basis für die Behauptung der Wissenschaftler zu geben, dass CO2 Wärme absorbiert. Aber immer noch stellte ich Fragen.

Ich stöberte noch weiter in der wissenschaftlichen Literatur und fand heraus, dass das CO2 nur einen kleinen Teil der Strahlungswärme absorbiert, die von der Erdoberfläche abgestrahlt wird. Ein sehr, sehr kleiner Teil. Nicht nur das, der Effekt beim Hinzufügen von weiterem CO2 in die Atmosphäre hat eine verringernde Auswirkung darauf, wie viel Strahlungsenergie absorbiert wird. Im Grunde ist die Strahlungsabsorption die gleiche, ob CO2 nun dabei ist oder nicht. Der Effekt wird noch weiter abgeschwächt, weil auch Wasserdampf Strahlungsenergie absorbiert, und zwar in der gleichen Wellenlänge wie das CO2. Wasserdampf absorbiert zwar auch in anderen Wellenlängen, aber es gibt eine Überlappung mit dem CO2.

Also lehnte ich mich zurück, wog das alles gegeneinander ab und überdachte alles sehr intensiv. Ich wusste, dass sich die Erde rasch und nachhaltig in klaren Wüstennächten abkühlte, selbst in der Hitze des Sommers. Dies liegt an der sehr trockenen Luft, die fast keinen Wasserdampf enthält. Dieser Effekt ist ziemlich faszinierend, und man kann tatsächlich manchmal sehen, wie sich in kleinen Senken Eis bildet, selbst wenn die Temperatur der umgebenden Luft über dem Gefrierpunkt liegt. Dies ist ein bevorzugtes Ereignis für Scouts, die in der Wüste zelten. Man nimmt eine kleine Pfanne, gießt ein wenig frisches Wasser hinein und stellt die Pfanne auf isolierendes Material wie Styroporschaum. Man wickelt auch ein trockenes Handtuch darum, um die Luft daran zu hindern, die Pfanne zu wärmen. Gerade vor Sonnenaufgang sahen wir nach und fanden eine Eisschicht auf dem Wasser. Genug Wärme war durch Strahlung in den schwarzen Himmel darüber entwichen, ungehindert durch CO2 oder Wasserdampf, wodurch sich das Wasser abkühlte bis zur Eisbildung. Das eisige Wasser war großartig geeignet, es in Feldflaschen zu füllen.

Niemand kann so etwas in den Nächten in einem feuchten Klima machen, wie es in Houston, Texas herrscht, wo ich aufgewachsen war und auch ein wenig gezeltet habe. Der Wasserdampf in der Luft verhindert dies selbst in klaren Nächten.

Also wälzte ich das gesamte Problem der Wärmeabsorption von CO2 im Kopf herum. Zunächst wurde in Perrys Handbuch ein sehr wichtiger Parameter erwähnt, die „mittlere Strahlungslänge“ [mean beam length MBL]. Dieser bezieht sich auf die Entfernung der heißen Gase CO2 und Wasserdampf zu den Behältern im Ofen, die das zu erwärmende Wasser enthalten. Je größer die Entfernung, umso weniger wirkt die Strahlungsenergie. Dies ist durch die alltägliche Erfahrung ziemlich offensichtlich und ist auch bei Lagerfeuern und einer Kerze so. Näher an der Quelle ist es wärmer, weiter entfernt davon kälter. Dies ist Allgemeinwissen, außer bei sehr kleinen Kindern. Dies ist auch von den Planeten im Sonnensystem bekannt, mit dem sonnennächsten, sehr heißen Planeten Merkur und den anderen, die immer kälter sind, je weiter sie von der Sonne entfernt sind. Die Temperatur an der Sonnenoberfläche ist immer die gleiche. Klarer Fall, die Entfernung hat etwas zu tun mit der absorbierten Menge Strahlungsenergie. Ich fragte mich, wie viel Wärme das CO2 in einer Höhe von ca. 3000 m, 6000 m, 9000 m oder noch höher absorbieren kann. Auch frage ich mich angesichts des Umstands, dass die Atmosphäre mit zunehmender Höhe immer dünner wird, wie viele CO2-Moleküle in jeder Höhe vorhanden sind, um jedwede durchlaufende Energie zu absorbieren.

Es war ziemlich offensichtlich, dass selbst unsere Urvorfahren etwas von diesen grundlegenden Dingen gewusst haben, da man sich immer wieder auf „die kalten Sterne“ in der Literatur bezog. Heute wissen wir, dass Sterne in Wirklichkeit Sonnen sind, einige davon viel größer und heißer als unsere Sonne. Wir können die Wärme der Sterne wegen der riesigen Entfernungen nicht fühlen, Milliarden von Meilen, wenn nicht Billionen. Weit weg heißt sehr kalt. Nah dran heißt sehr warm.

Noch war ich nicht zu einer Schlussfolgerung gekommen, einer festen Meinung bzgl. der Behauptung, dass das CO2 zu einer Erwärmung der Erde führt, aber es sah für mich ziemlich wacklig aus. Dann dachte ich an mein Hintergrundwissen als Ingenieur bei der Prozesskontrolle und dachte weiter an Lagerfeuer. Das Gesetz der Lagerfeuer ist einfach und wurde oben schon kurz erwähnt: Wenn es zu heiß wird, entferne man sich. Wenn es zu kalt ist, gehe näher ran. Näher dran ist immer wärmer, denn ein Lagerfeuer hat immer die gleiche Wärmeabstrahlung.

Und doch, ich habe die Graphik gesehen, die einen langsamen Anstieg des CO2-Gehaltes zeigte, eine schöne, glatte Kurve. Gleichzeitig erreichte die Mitteltemperatur der gesamten Erde ein Maximum um 1940 und ging dann 35 Jahre lang zurück. Dann kehrte sich der Trend um, und es wurde wieder wärmer. Falls das CO2 erst eine 35 Jahre lange Abkühlung und danach eine 35 Jahre lange Erwärmung verursacht haben soll, verletzt dies die Grundlagen der Prozesskontrolle. Ein bekannter chemischer Ingenieur mit einem PhD, Dr. Pierre Latour, schrieb hierzu etwas in einer bekannten Zeitschrift, Hydrocarbon Processing. Damals hatte ich meinen eigenen Blog und schrieb dazu einen Aufsatz, in dem ich die Ergebnisse von Dr. Latour diskutierte (hier). Wenn das CO2 erst die Abkühlung und dann die Erwärmung zulässt, wäre das genauso, wenn man sich näher an das Lagerfeuer begibt, um sich bei manchen Gelegenheiten abzukühlen, und sich davon zu entfernen, um sich bei anderen Gelegenheiten abzukühlen. Da wusste ich ganz genau, dass das CO2 nicht das tun konnte, was die Wissenschaftler behauptet hatten. Nicht bei diesen geringen Konzentrationen in der Atmosphäre und nicht bei diesen niedrigen Temperaturen. Aber ich wollte noch mehr wissen, also las und fragte ich weiter.

Etwa um  diese Zeit, November 2009, brach der Climategate-Skandal aus, als Tausende e-mails und Computerdateien in das Internet gelangt waren. Die Dateien waren unglaublich empörend und verheerend für das Anliegen der Warmisten, weil hier unsaubere Aktionen mancher Wissenschaftler im Herzen der Klimadebatte enthüllt worden waren. Um den Schaden zu begrenzen, haben sich die Wissenschaftler am Hadley Center’s Climate Research Unit der University of East Anglia, UK, entschlossen, einige ihrer Dateien zu veröffentlichen, und zwar mit Temperaturaufzeichnungen von etwa 1000 Orten in der Welt. Die Absicht war es zu zeigen, dass es nichts zu verbergen gab, und hier konnte die ganze Welt Einsicht in die Rohdaten nehmen. Ich kopierte die Dateien auf meinen Computer und untersuchte sie.

Zunächst fiel auf, dass die sog. Rohdaten alles andere als roh waren. Ich kannte Rohdaten, habe ich mir doch als chemischer Ingenieurspraktikant Reihen auf Reihen von Rohdaten angeeignet, und zwar 20 Jahre lang in Chemiewerken und Raffinerien auf der ganzen Welt. Was die HdCRU veröffentlicht hat, waren bearbeitete Daten. Sie zeigten die mittlere monatliche Temperatur über einen Zeitraum von mehreren Jahrzehnten für die gewählten Städte. Das Monatsmittel wurde aus der täglichen Mitteltemperatur gebildet. Die tägliche Mitteltemperatur wurde aus dem Mittel zwischen Höchst- und Tiefsttemperatur eines jeden Tages gebildet. Die Höchst- und Tiefsttemperatur war manchmal adjustiert oder auch frisiert worden durch die Auswahl des Zeitpunktes der Temperaturablesung. Es gab auch keine Hinweise darauf, wie fehlende Daten ergänzt oder erzeugt worden waren. Instrumente sind nicht zu 100% zuverlässig und brauchen manchmal Wartung. Sie müssen gesäubert werden, brauchen Kalibrierungen, müssen manchmal ausgetauscht werden und so weiter. Sie können für eine Weile außer Betrieb sein, während jemand bemerkt, dass die Daten fehlen und das Instrument repariert wird.

Und doch lag hier ein Datensatz von  monatlichen Mittelwerten von etwa 1000 Städten vor. Ich beschloss, einmal zu schauen, was da aus den USA war. Da gab es 87 Aufzeichnungen, alle im Kernland. Die Daten stammten aus Städten in den gesamten USA, nicht in jedem [US-Bundes-]Staat, aber in fast jedem, und waren ziemlich gleichmäßig verteilt. Einige befanden sich in großen Städten wie New York, Los Angeles, San Francisco, Miami, einige in mittelgroßen Städten wie St. Louis, Spokane und Fresno. Andere befanden sich in kleinen Städten oder größeren Orten, wie Abilene, Texas und Meridian, Mississippi. Ich lud die Daten für jede Stadt in eine gängige Tabelle [vermutlich excel, A. d. Übers.] und erstellte Graphen der monatlichen Temperatur in Abhängigkeit von der Zeit. Ich fügte ein gleitendes Mittel hinzu, um zu sehen, welche Trends sich abzeichneten, wenn überhaupt, und danach noch eine lineare Trendlinie [a linear best-fit trend line]. Die Ergebnisse waren so faszinierend, dass ich alle Graphen in meinem Blog postete (hier) zusammen mit einigen Kommentaren. Was ich fand, bestätigte meinen von Anfang an gehegten Verdacht. CO2 kann nicht das tun, was die Wissenschaftler behaupten.

Die Graphen zeigten eine schlimme Inkonsistenz bei der Erwärmung von Städten in den USA. Einige Städte zeigten in der Tat einen ausgeprägten Erwärmungstrend während einer ungefähr 100-jährigen Periode von 1900 bis 2009. Nicht aus allen Städten lagen so weit zurückreichende Daten vor, und nur 62 hatten langzeitliche Aufzeichnungen. Und doch zeigten andere Städte unter diesen 62 Abkühlungs- oder neutrale Trends. Das schien eigenartig zu sein, denn falls das CO2 wirklich die Erde erwärmt, dann muss das für alle Gebiete gelten und nicht selektiv zu suchen, welche Stelle erwärmt werden muss und welche man ignorieren kann. Dies gilt insbesondere für benachbarte Städte oder solche, die in Nord-Süd-Richtung nicht allzu weit voneinander entfernt liegen. Vermutlich würde es Unterschiede geben zwischen Städten im hohen Norden und solchen in der Nähe des Äquators. Das Kernland der USA weist aber nur einen Nord-Süd-Durchmesser von 1500 Meilen [ca. 2400 km] auf. Verglichen mit der gesamten Entfernung von Pol zu Pol von etwa 12000 Meilen [fast 20000 km] ist das kaum mehr als 10%. Für Städte, die lediglich 100 oder 200 Meilen voneinander entfernt liegen, kam es mir sehr komisch vor, dass CO2 einige Städte ignoriert hatte und andere in den Brennpunkt der Erwärmung stellte. So funktioniert Physik nicht! Falls ein Phänomen wirklich auf einem physikalischen Effekt beruht, gilt dieser konsequent und gleichmäßig überall und in allen Zeiten. Die Schwerkraft beispielsweise hat in Houston, Texas, genau den gleichen Wert wie in Mumbai, Indien, oder Bora Bora. Man kann sich die Konfusion vorstellen, wenn sich Reisende an unterschiedliche Schwerkraft anpassen müssten, abhängig von der Stadt, in der sie gelandet waren. Nein, die Physik treibt keine solchen neckischen Spielchen.

Oder, man kann sich das Chaos in der Welt vorstellen, wenn die Eigenschaften von Stahl so unberechenbar wären wie das CO2. Ingenieure könnten eine Brücke in Kairo, Ägypten, bauen und mächtige Stahlträger mit einer Breite von 12 inches [ca. 30 cm] und 24 inches tief. Aber eine baugleiche Brücke über das Mittelmeer bei Rom würde leichtere Träger erfordern mit einer Breite von lediglich 4 inches [ca. 10 cm] und einer Tiefe von 12 inches. Ingenieure würden darüber lachen, weil das einfach so nicht ist. Eine gegebene Qualität von Stahl wird überall das gleiche Gewicht tragen, ganz egal wo in der Welt er verbaut wird. Puristen werden anmerken, dass dies nicht strikt gilt, da Stahl durch die Temperatur beeinflusst wird. Aber in den meisten Fällen erhitzen sich Brücken nicht stark genug, um den Stahl merklich zu schwächen.

An diesem Punkt schaute ich auf benachbarte Städte und fand, dass einige davon, wie ich oben schrieb, einen abkühlenden oder neutralen Trend zeigten. Abilene, Texas, und Shreveport, Louisiana, sind zwei davon. In Abilene zeigt sich eine Abkühlung von 0,19°C pro Jahrhundert, während Shreveport eine solche von  0,01°C pro Jahrhundert, also fast gar keine Änderung, zeigt. Diese beiden Städte liegen etwa 250 Meilen [ca. 402 km] in Ost-West-Richtung voneinander entfernt. Sie liegen etwa auf gleicher geographischer Breite.  Gleichzeitig zeigt sich in St. Louis, Missouri, eine Erwärmung von etwa 1°C pro Jahrhundert. St. Louis liegt nur etwa 300 Meilen [ca. 480 km] nördlich und ein wenig östlich von Shreveport und etwa 400 Meilen [ca. 640 km] von Abilene entfernt. Klarer Fall, bei der CO2-verursacht-globale-Erwärmung-Wissenschaft stimmt hier irgendetwas nicht. Woher weiß das CO2, dass es Shreveport außen vor lässt und seine Erwärmungswirkung auf St. Louis konzentriert?

 

 

Ein anderes Beispiel sprang mir ins Auge: San Francisco, Kalifornien, sowie deren Nachbarstadt Sacramento. Diese Städte liegen nur 50 Meilen [ca. 80 km] voneinander entfernt und auf etwa der gleichen geographischen Breite. Und doch verzeichnete San Francisco eine Erwärmung von 1,5°C pro Jahrhundert, während sich Sacramento um 0,3°C abkühlte.

Eine Möglichkeit, diese Diskrepanz zu erklären, besteht darin, den Wärmeinseleffekt von Städten UHI dafür verantwortlich zu machen. Hier dachte ich zuerst, die Abkürzung bezöge sich auf die University of Hawaii, bis ich herausfand, für was sie wirklich steht. UHI ist ein Phänomen, bei dem Städte oder größere urbane Gebiete Tag und Nacht wärmer sind als die ländliche Umgebung. Der UHI-Effekt ist für kleine Städte gering und wird mit der Größe der Städte immer größer. Er setzt sich aus vielen verschiedenen Faktoren zusammen, einschließlich der Ausdehnung asphaltierter oder betonierter Flächen, Gebäude aus Stein, Ziegeln oder Stahl und Glas, ein großer Stromverbrauch zum Heizen oder Kühlen, Abwärme großer Industrien sowie die große Anzahl von Autos, Lastwagen, Bussen und Flugzeugen, die große Mengen fossiler Treibstoffe verbrauchen.

Aber selbst dabei gibt es Probleme. Zum Beispiel in Meridian, Mississippi. Das ist eine kleine Stadt und erwärmt sich mit der gleichen Rate wie die Großstadt San Antonio, Texas. Beide zeigen eine Rate von +0,26°C pro Jahrhundert. Wie kann das sein, wenn der UHI eine Rolle spielt?

Andere kleine Städte zeigen eine substantielle Erwärmung, wie Helena, Montana und Duluth, Minnesota, mit einer Rate von 2°C pro Jahrhundert. Die Bevölkerungszahl von Duluth in Höhe von etwa 80000 hat sich seit 1930 kaum verändert. Im Jahre 1960 wohnten dort 107000 Menschen, doch hat die Bevölkerung seitdem wider abgenommen. In Helena dagegen wuchs die Bevölkerung von 12 000 im Jahre 1910 bis 2010 auf 28 000.

Ich möchte mich kurz zu der faszinierend kleinen Stadt Eureka in Kalifornien zuwenden. Ich war niemals dort, und es liegt an der Pazifikküste zwischen San Francisco und der Grenze zum [US-Bundesstaat] Oregon. Sollten dort 2075 olympische Winterspiele stattfinden, sollte das Städtchen im Angebot verlorener Städte stehen. Schon bald sollte dort nämlich das ganze Jahr über Schnee liegen und eine lokale Eiszeit ausbrechen, wenn sich der gegenwärtige Abkühlungstrend nicht umkehrt. Seit 1990 gab es nämlich dort eine Abkühlung mit einer Rate von 15°C pro Jahrhundert. Die Mitteltemperatur liegt gegenwärtig bei etwa 10°C und wird in 65 Jahren bei 0°C liegen. Man kann sich nur wundern, warum das CO2 die Kleinstadt Eureka übersehen hat. Falls irgendeine Stadt dringend eine globale Erwärmung braucht, wäre es Eureka.

 

Scließlich wurde mein Augenmerk auf eine veröffentlichte Studie von Dr. James Goodbridge gelenkt, dem früheren staatlichen Klimatologen für Kalifornien, inzwischen im Ruhestand. Seine Arbeit zeigte, dass die Landkreise Kaliforniens in drei Gruppen hinsichtlich der Bevölkerungsdichte eingeteilt werden können. Dann hat er für jede der drei Gruppen den mittleren Temperaturtrend errechnet. Er zeigt, dass Landkreise mit großer Bevölkerungszahl deutlich zunehmende Temperaturen über 80 Jahre aufweisen, während jene mit geringer Bevölkerung überhaupt keine wesentliche Erwärmung zeigen. In Landkreisen mit mittlerer Bevölkerungszahl lag die Erwärmungsrate etwa in der Mitte. Man muss sich ernsthaft fragen, wie das CO2 das bewerkstelligen konnte. Typischerweise liegen die großen Städte alle an der Küste, z. B. San Diego, Los Angeles und San Francisco. Landkreise mit kleiner Bevölkerungszahl sind über den ganzen Staat verteilt, einschließlich in den küstennahen Gebieten ohne große Städte. Es ist höchst unwahrscheinlich, dass das CO2 schlau genug ist, um sich die Landkreise für seine Wärmestrahlung auszusuchen und andere zu ignorieren.

 

Zusammenfassend bis zu diesem Punkt kann ich über meine Reise Folgendes sagen: Ich habe herausgefunden, dass die Wissenschaftler eine Erwärmung der Erde in einer alarmierenden Größenordnung behaupteten. Doch gab es eine frühere Erwärmung ähnlicher Größenordnung von 1910 bis 1940 während einer Periode mit geringer CO2-Konzentration. Dann hörte diese Erwärmung auf und ging von 1940 bis 1975 in eine leichte Abkühlung über, bevor wieder Erwärmung einsetzte. Es ist unmöglich, dass das CO2 erst für eine Erwärmung, dann für eine Abkühlung und dann wieder für eine Erwärmung gesorgt haben könnte. Es verletzt nicht nur fundamentale physikalische Gesetze, sondern auch die Regeln der Prozesskontrolle. Und schließlich ignoriert das CO2 einige Städte in den USA und tatsächlich auch ganze Landkreise in Kalifornien vollständig, während benachbarte Städte und Landkreise mit großer Bevölkerungszahl eine alarmierende Erwärmungsrate aufweisen. CO2 ist ein einfaches Molekül mit einem Kohlenstoff- und zwei Sauerstoffatomen und kann unmöglich so smart sein.

Alles oben Gesagte war mehr als genug, um mich davon zu überzeugen, dass die Bedrohung durch eine menschengemachte globale Erwärmung falsch ist, dass sie eine leere Drohung ist, ohne jeden Gehalt. Und doch, wenn man die Zusammenfassungen für Politiker sowie die wissenschaftlichen Studien liest, lautet die Prämisse, dass das CO2 Erwärmung verursacht und mehr CO2 noch mehr und schnellere Erwärmung. Alles Weitere folgt aus dieser gescheiterten Prämisse.

Aber es steckt immer noch mehr in dieser Geschichte. Ich möchte beschreiben, was ich beim Betrachten der Temperaturaufzeichnung selbst herausgefunden habe, derjenigen, die von 1910 bis 1940 eine Erwärmung, dann bis 1975 eine Abkühlung und dann wieder eine Erwärmung bis etwa zum Jahr 2000 zeigte. Hierbei ist es wichtig zu wissen, dass es bei der Sammlung und Analyse von Ingenieursdaten, tatsächlich auch in jeder wissenschaftlichen Datensammlung und –analyse, nur selten angebracht ist, zurückliegende Daten zu verändern. Es ist extrem unangebracht, diese Daten wieder und immer wieder zu verändern. Dies erfordert einige Erklärungen.

Die Frage lautet: wie akkurat sind Daten überhaupt? Die Daten hier für Klimazwecke und ob die Welt sich erwärmt oder abkühlt, sind Temperaturdaten. Temperaturdaten kann man heutzutage sehr genau und sehr präzise ermitteln mit moderner Technologie. Nicht, dass ich hier zu technisch werden will, aber Akkuratesse und Präzision sind nicht das Gleiche. Akkuratesse bedeutet zu überlegen, wie nah an der Wahrheit die Messung ist, während Präzision die Frage danach stellt, auf wie viele Stellen nach dem Komma die Messung noch glaubhaft sind. In den Anfängen der Thermometermessungen war es schwierig, diese zu kalibrieren, und es war auch schwierig, Daten auf ein halbes Grad genau abzulesen. So kann es also durchaus sein, dass man an einem sonnigen Tag 80°F gemessen hat, die Temperatur aber tatsächlich nur 78°F betragen hatte [26,7°C bzw. 25,6°C]. Unbekannt ist, wie oft ein Thermometer kaputt gegangen und ersetzt worden ist. Unbekannt ist auch, ob dieses neue Thermometer in der gleichen Weise kalibriert war wie das vorherige. Und schließlich kommt es vor, dass verschiedene Ableser zu unterschiedlichen Messwerten kommen, so dass der eine 70,5°F, der andere aber nur 70°F abliest. Dies hört sich nach nur geringen Unterschieden an, und das sind sie auch. Jedoch heißt es, dass die gesamte Erwärmung im vergangenen Jahrhundert 0,7°C oder etwa 1,2°F betragen hätte.

Schließlich erregte eine interessante Arbeit von E. M. (Michael) Smith meine Aufmerksamkeit. Er betreibt einen Blog mit dem Titel chiefio.wordpress.com. Die einschlägigen Teile seines Blogs sind als „der Marsch der Thermometer“ (hier) bekannt. Michael ist ein ziemliches Genie bei der Programmierung von Computern und der Datenanalyse. Er konnte auf den öffentlich verfügbaren Daten- und Computercode zugreifen, der in der NASA von Dr. James Hansen verwendet wurde und als GISS-Code bekannt ist. Ich glaube, GISS steht für Goddard Institute for Space Studies. Michael entschlüsselte den Code und schrieb in vielen Beiträgen über seine Ergebnisse. Das Schlüsselergebnis war, dass der Code die Daten der Vergangenheit bei jedem Rechenlauf erneut schreibt. Auch gibt es darin fragwürdige Methoden, wie mit fehlenden Daten umgegangen wird, und wie Diskontinuitäten in den Daten eliminiert werden. Ein weiteres und, wie ich finde, sehr wesentliches Ergebnis war, dass Hansen große Teile der Stationen mit Temperaturmessungen in den letzten Jahren entfernt hat. Das sah nicht einmal wahllos aus, sondern vielleicht (wahrscheinlich?) wurden die weggelassenen Stationen so gewählt, dass die Erwärmung der letzten Jahre überbetont wird. Das bedeutet, dass der Temperaturtrend, der aus den Daten von NASA GISS folgt, falsch ist. Ich fordere jeden, der neugierig auf die Temperaturgeschichte der letzten 120 Jahre ist, nachdrücklich auf zu lesen, was E. M. Smith darüber geschrieben hat. Die vergangenen Daten wurden nicht nur verändert, sondern sie wurden oft verändert. Falls Datenlücken entdeckt werden, sucht sich der Computer einfach eine benachbarte Station aus, die bis zu 1200 km entfernt liegen kann (!!!) und benutzt deren Daten.

Dann spuckt das System eine globale mittlere Temperatur aus, die auf Anomalien tausender Temperaturmessstationen rund um die Welt beruht. Anomalien sind ein anderes Feld, in dem man sehr viel Unheil anrichten kann. Das Problem besteht darin, dass einige Städte an kalten Standorten messen und andere an wärmeren Standorten. Was die Klimawissenschaftler tun ist, dass sie jedem Monat eine mittlere Temperatur zuordnen, die auf einer vorbestimmten Periode von etwa 30 Jahren beruht. Einige benutzen jedoch 50 Jahre aus mir unbekannten Gründen. Außerdem ist die Bezugsperiode nicht immer die Gleiche, sondern wird alle 10 Jahre oder so erneuert. Und wieder haben wir bewegliche Ergebnisse mit Daten, die immer wieder neu angepasst werden. Das erinnert mich an das uralte Hütchenspiel mit der Erbse, bei dem unter einem von drei Hütchen eine Erbse liegt. Das Augenmerk versucht, auf dem Hütchen mit der Erbse darunter zu verbleiben, während einer die Hütchen wild hin und her schiebt.

Der Gebrauch von Anomalien ermöglicht es, Temperaturtrends aus verschiedenen Regionen übereinander zu legen, egal ob die absolute Mitteltemperatur 5 Grad (Alaska) oder 25 Grad (Bora Bora) beträgt. Und doch ist es ziemlich beunruhigend, eine andere Möglichkeit der Datenmanipulation zu erkennen. Eine bessere Methode ist meiner Ansicht nach, den Datentrend für jede Dekade und jede Station zu ermitteln. Sollte die Station einen Erwärmungstrend um 0,1 Grad pro Dekade zeigen, gehen diese 0,1 Grad in die Bildung des Gesamtmittels ein. Dabei würde es keine Anomalien geben, keine Bezugsperioden, keine Änderungen der Vergleichsbasis alle 10 Jahre, sondern einfach eine einmalige Berechnung eines Dekadentrends. Dieser Dekadentrend wäre dann fest und nicht Gegen­stand von Änderungen.

Eine weitere sehr verstörende Enthüllung ist der exzellenten Arbeit von Anthony Watts zu verdanken, der schon früher hier in Zusammenhang mit seinem Blog erwähnt worden war. Anthony hat auch eine historische Leistung vollbracht, indem er die große Mehrheit der Klimamessstationen in den USA begutachtet hat (hier). Seine Untersuchung konzentrierte sich auf die Frage, wie gut oder schlecht die Stationen relativ zur Umgebung im Vergleich mit den Vorschriften aufgestellt waren. Beispielsweise muss eine gut positionierte Messstelle bestimmte Entfernungen von Bäumen, Gebäuden oder anderen Strukturen einhalten, sie muss in der korrekten Höhe über grasbewachsenem Boden messen und darf nicht von künstlichem Heizen oder Kühlen betroffen werden wie der Abluft von Air Condition. Was Athony fand, war erschreckend (hier). Er schrieb seine Ergebnisse zusammen mit vielen Mitautoren nieder und veröffentlichte seine Studie 2011 (Zusammenfassung hier). Viele Stationen wurden als sehr schlecht bewertet, und nur wenige waren gut positioniert. Einige Stationen standen tatsächlich an Mauern, auf asphaltierten Parkplätzen, nahe bei Entlüftungsanlagen oder Grillplätzen, auf asphaltierten Dächern und in der Nähe von Rollbahnen auf Flughäfen und den Abgasen der Düsenjets sowie an vielen anderen inakzeptablen Orten. Hier liegen die Quellen für die Temperaturrekorde in den USA, von welchen angenommen wird, dass es die besten und genauesten der ganzen Welt sind. Eine ländliche Umgebung würde in früheren Jahren vermutlich niedrigere Werte ergeben haben, aber wärmer und wärmer werden, wenn immer mehr Gebäude errichtet werden, Straßen und Parkplätze gebaut werden, sowie viele andere Dinge. Folglich bestand ein Teil der Arbeit von Anthony darin zu bestimmen, wie viel eines jeden gezeigten Erwärmungstrends auf die Positionierung der Stationen zurückzuführen war.

Es gibt noch einige weitere Punkte, und mit denen möchte ich schließen.

Zunächst einmal, der Meeresspiegel steigt nicht, und die Ozeane werden nicht wärmer. Dies allein widerlegt bereits den gesamten CO2-Erwärmungsunsinn. Dem Glauben der Warmisten zufolge müssten die Ozeane wärmer werden und der Meeresspiegel mit zunehmendem CO2-Niveau steigen. Nichts davon passiert. Die Daten von NASA und NOAA selbst zeigen das ganz klar. Die Graphik unten stammt von U. Colorado und basiert auf Satellitenmessungen des Meeresspiegels der Nasa. Man beachte den stark abnehmenden Trend seit 2005 und die plötzliche Abnahme Anfang 2010.

Die nächste Abbildung zeigt, dass sich die Schneebedeckung der Sierra Nevada und das Schnee-Wasser-Äquivalent während der letzten 100 Jahre nicht signifikant verändert hat. Dr. John Christy von der University of Alabama, Huntsville, hat 2010 hierzu eine Studie veröffentlicht. Seine Daten enden 2009. Seitdem hat es rekordverdächtige Schneefälle  in den Sierras gegeben. Sein grundlegender Graph ist unten zu erkennen, geglättet, um die Abweichung der Schneebedeckung vom Mittel zu zeigen. Diese Studie bezieht sich auf die zentrale Schneemessstation am Huntington Lake HL. Die Studie gibt es hier.

 

Zweitens zeigt eine vor Kurzem erschienene, wissenschaftlich begutachtete Studie vom CERN, dass Wolken und Sonnenflecken zusammen hängen, und zwar dergestalt, dass es im 20. Jahrhundert eine hohe Sonnenfleckenaktivität gegeben hatte, während sich in der Kleinen Eiszeit nur wenige oder gar keine Flecken zeigten. Während der letzten 4 Jahre oder so, ist es auf der Sonne plötzlich wieder sehr, sehr ruhig geworden, und es wir kühler. Das Fehlen von Sonnenflecken kam als vollkommene Überraschung für Wissenschaftler weltweit. Die Beziehung besteht darin, dass mehr Sonnenflecken gleichbedeutend sind mit einem wärmeren Klima. Der Mechanismus dahinter: das Magnetfeld der Sonne ist immens und wird größer und intensiver, wenn die Aktivität von Sonnenflecken zunimmt. Das Magnetfeld schützt die Erde vor der kosmischen Hintergrundstrahlung GCR. Wenn jedoch die GCR auf die Atmosphäre trifft, erzeugen sie Kondensationskerne für Wolken, und es bilden sich mehr davon. Mehr Wolken reflektieren mehr Sonnenlicht, so dass es auf der Erde kälter wird. Ein weiteres Beweisstück dafür, dass die Wissenschaft alles andere als einig [settled] ist. Sie können ja nicht einmal die Anzahl der Sonnenflecken vorhersagen noch die Zeit, wann sie auftreten. Das CERN-Experiment und die veröffentlichte Studie erfolgten erst vor wenigen Wochen.

Drittens stimmen die Klimamodelle nicht überein, und deren Projektionen passen nicht zu den Satellitenmessungen. Dies zeigt, dass die Wissenschaft weit davon entfernt ist, sich einig zu sein, und wenn die Modelle die gemessenen Daten nicht abbilden können, sind sie falsch und müssen entweder verworfen oder verbessert werden, sofern das möglich ist. Eine eben erst erschienene Studie von Spencer and Braswell hat zu einem Aufruhr in der Klimaszene geführt, weil sie sehr klar zeigt, dass die Modelle mit ihren Prognosen weit von der Wirklichkeit entfernt sind. Die Satellitendaten passen nicht zu den Modellen.

Viertens, Hurrikane werden nicht immer häufiger und stärker. Tatsächlich war die derzeitige Hurrikanaktivität seit Beginn von Satellitenbeobachtungen noch nie so gering. Inzwischen steigt der CO2-Gehalt immer weiter. Eine weitere Fehlvorhersage, die beweist, dass ihre Gedanken kompletter Unsinn sind. Die Karte unten stammt von Dr. Ryan Maue von der Florida State University und zeigt den gegenwärtigen Status der Tropischen Zyklone weltweit, gemessen als Accumulated Cyclone Energy von 1972 bis heute. Die obere Linie steht für die ganze Welt, die untere für die Nordhemisphäre. Die Gesamtenergie liegt jetzt wieder auf einem Niveau wie Mitte der siebziger Jahre, und der CO2-Gehalt steigt immer weiter.

 

Fünftens und letztens, die einzige zutreffende Prognose der Warmisten ist die fortgesetzte Abnahme der arktischen Eiskappe. Allerdings haben sie dabei Ursache und Wirkung aus folgenden Gründen komplett falsch angesetzt. Erstens behaupten die Warmisten, dass eine schrumpfende Eiskappe ein starker Beweis für eine Erwärmung der Arktis wäre und dass diese Erwärmung durch die Rückstrahlung des CO2 in der Atmosphäre kommt. In Wirklichkeit bildet Eis einen Isolator und verhindert die Abgabe der Wärme aus den Ozeanen in die Atmosphäre. In gleicher Weise wirkt das Eis auf Seen und verhindert, dass die Seen komplett zufrieren, solange sie nicht zu klein sind. Die wachsende und schrumpfende Eisbedeckung in der Arktis agiert als negative Rückkopplung auf den Wärmegehalt der Ozeane. Wenn sich die Ozeane erwärmen, schmilzt das Eis an den Rändern. So gibt es dann mehr offenes Wasser, das Strahlung aussendet. Normalerweise wird das Minimum der Eisbedeckung Mitte September erreicht, was in den langen Polarnächten die Ausstrahlung großer Wärmemengen zur Folge hat. Dadurch kühlen sich die Ozeane wieder ab, danach die Luft, so dass sich wieder mehr Eis bildet. Das System oszilliert dann zwischen mehr oder weniger Eis mit der Folge, dass auch Temperatur und Wärmegehalt der Ozeane oszillieren mit einer leicht verschobenen Phase.

Schlussfolgernd lässt sich also sagen, falls irgendjemand noch daran glaubt, dass das CO2 das macht, was die Wissenschaftler behaupten, schlage ich vor, dass Sie das nächste Mal daran denken, wenn Sie am Lagerfeuer sitzen oder neben einer Kerze oder jeder anderen stabilen Energiequelle. Bewegen Sie sich hin zu ihr, dann wieder zurück. Suchen Sie auch nach einer soliden Mauer, die von der Sonne beschienen worden ist. Legen Sie ihre Hand nach Sonnenuntergang an die Mauer und fühlen Sie deren Wärme. Entfernen Sie sich dann von der Mauer und beobachten, wie lange die Wärme noch fühlbar ist. Denken Sie dann an das kleine CO2-Molekül, das auch die Wärme fühlen muss, die Wärme absorbiert und sie dann wieder ausstrahlt. Man erinnere sich, dass die Wissenschaftler darauf bestehen, dass sich die Erde von 1910 bis 1940 erwärmt hat – obwohl der CO2-Gehalt sehr, sehr niedrig gelegen hatte.

Schauen Sie auch auf die Blogs von Anthony Watts und E. M. Smith. Überdenken Sie Folgendes: wenn sich die Wissenschaft einig ist und wir jetzt etwas tun müssen, wenn wir die Zukunft der Erde nicht an eine Wärmehölle verlieren wollen oder an steigende Ozeane oder an Monsterhurrikane und all die anderen Katastrophen, warum hat dann das CERN-Experiment gezeigt, dass die Wolken erheblich wichtiger sind als das CO2? Warum zeigen die Satellitenmessungen, dass die Modellvorhersagen alle falsch sind? Warum hat sich nie etwas zugunsten der Warmisten gezeigt? Das einzige, worauf die Warmisten zeigen können, ist das abnehmende Meereis in der Arktis, aber wie oben schon angesprochen, liegen sie damit völlig falsch.

Sehen Sie selbst, dass viele, viele Städte keine Erwärmung oder gar leichte Abkühlung zeigen. Dann fragen Sie sich, wie kann das sein? Wie kann das CO2 so schlau sein, dass es selektiv einige Städte außen vor lassen kann?

CO2 ist unschuldig. Das war es immer und wird es immer sein.

Roger E. Sowell, Esq.  

Link: http://sowellslawblog.blogspot.com/2011/09/from-man-made-global-warmist-to-skeptic.html

Übersetzt von Chris Frey für EIKE




Die neue spanische Regierung könnte Energiesubventionen kippen

MADRID, 15. November (Reuters) – Die vermutliche neue Mitte-Rechts-Regierung in Spanien plant eine massive Revision des Energiesektors, wobei möglicherweise Subventionen für Wind- und Solarenergie ganz gestrichen werden. Die Schuldenkrise der Eurozone macht diese Zuwendungen nämlich sehr teuer.

Es wird erwartet, dass die Mitte-Rechts-Volkspartei die Wahlen vom 20. November mit großer Mehrheit gewinnen und Kontrolle über das Unterhaus erlangen wird.* Parteichef Mariano Rajoy hat wiederholt signalisiert, dass er den Energiesektor reformieren will, allerdings ohne Details zu nennen.

Der umfangreiche Ausbau der erneuerbaren Energie machte Spanien zu einem Weltführer in diesem Bereich und reduzierte dessen Abhängigkeit von Ölimporten, aber das Ergebnis sind mit Schulden überhäufte Einrichtungen, und die Verbraucher stehen vor schmerzhaften Preissteigerungen für Kraftwerke, die sie kaum nutzen.

„Wir können uns die hohen Energiekosten nicht leisten, und die Regierung kann nicht weiterhin auf extrem teure Energiequellen für spanische Haushalte setzen“, sagte Jaime Legaz, Vorsitzender der FAES-Denkfabrik der Volkspartei.

Das Kappen der Subventionen für Kraftwerke aus erneuerbaren Energien würde das weitere Anwachsen des Schuldenberges verhindern, und die Verbraucher müssten sich an allmähliche und nicht plötzliche Preissteigerungen gewöhnen. Die Anpassung an die wirklichen Stromkosten wäre so einfacher.

Niedrigere Subventionen für Erneuerbare würden auch Mittel für das Lieblingsprojekt der Volkspartei frei machen, nämlich Investitionen in Verbindungen mit Kraftwerken im übrigen Europa. Dies würde helfen, die Überkapazitäten im Energiebereich abzubauen und zu Investment ermuntern.

Mächtige Volksbewegungen haben vor Kurzem Schritte unternommen, um Druck auf die neue Regierung auszuüben, das Defizit in Höhe von über 20 Milliarden Euro anzugehen. Dieses Defizit hat sich angehäuft, weil Strom zu regulierten Tarifen verkauft worden ist, die zu niedrig lagen, um die Kosten von 10 Jahren zu decken.

Anders als Deutschland, wo die Kosten der Erneuerbaren direkt an den Verbraucher weiter gegeben werden, hat Spanien diese Zahlungen immer weiter hinaus geschoben, indem es die Einrichtungen verpflichtete, diese Kosten aus ihren Bilanzen als vom Staat gestützte Schulden herauszuhalten, was als „Tarifdefizit“ bekannt ist. Es wurde versprochen, dass der Verbraucher diese Schulden durch eine graduelle Erhöhung der Strompreise zurückzahlen werde.

Die sozialistische Regierung, von der erwartet wird, dass sie nach sieben Jahren an der Macht bei den Wahlen herbe Verluste hinnehmen muss, hat im vorigen Jahr ein Übereinkommen mit den Einrichtungen getroffen, wonach das Tarifdefizit eliminiert werden sollte.

Unter diesem Übereinkommen hat die Regierung nach und nach Milliarden von Euro durch den Kauf von Staatsanleihen ausgegeben, aber die Schuldenkrise der Eurozone hat die Aufwendungen Spaniens für Zinsen erheblich steigen lassen, was die Anleihen stark verteuert hat.

„Am Ende kann es eine dauerhafte Lösung des Tarifdefizits bei der Energie nur durch unpopuläre Maßnahmen geben, sei es, dass der Verbraucher mehr zahlen muss, oder dass Erlöse der Industrie beschnitten werden“, sagte Alvaro Navarro von der Brokergesellschaft Intermoney.

„Man kann es auch mit dem öffentlichen Defizit zusammen führen, aber angesichts der spanischen Ziele, das Defizit zu verringern und der Schuldenkrise in der Eurozone sieht das extrem schwierig aus“.

Sonne und Wind

Es wird erwartet, dass sich eine Regierung der Volkspartei auf die Kürzung von Subventionen für diese Energiequellen konzentrieren wird, die relativ wenig zur Stromerzeugung im Vergleich zu den Kosten für die Verbraucher beigetragen haben, wie z. B. Photovoltaikpaneele (PV) und konzentrierte solare Energie (CSP), welche Spiegel zur Erzeugung thermischer Energie verwendet.

Aber selbst die kosteneffektivere Windenergie könnte betroffen sein.

Eine neue Regierung würde eine Blockierung zwischen der gegenwärtigen Regierung und der Windkraftindustrie erben, und zwar über Subventionen für neue Kraftwerke nach 2012, nachdem diese Industrien das letzte Angebot der Regierung als unzureichend abgelehnt hatten.

Obwohl die großen Drei der spanischen Versorgungseinrichtungen – Iberdrola, Gas Natural und Endesa – groß an dem Boom der Erneuerbaren verdient haben, machen sie sich über das Ende der Subventionierung künftiger Kapazitäten nicht allzu viele Gedanken, sofern die bestehenden Kapazitäten nicht angetastet werden.

Der Chef von Iberdrola, Ignacio Sanchez Galan hat kürzlich die Subventionspolitik verdammt.

„Wir haben hinsichtlich der solaren PV-Energie unvernünftige Entscheidungen getroffen, lassen Sie uns diese nicht bei der thermischen Solarenergie wiederholen!“ sagte er auf einer Veranstaltung der Industrie.

Die Einrichtungen haben wenig in den spanischen PV-Boom investiert, der von kleinen Kompanien übernommen worden ist. Ein führender Mitspieler bei der CSP ist die spanische mittelständische Firma Abengoa, die sich für die Unterstützung der Regierung mit dem Argument stark macht, diese schaffe Arbeitsplätze und treibe die Entwicklung der Technologie voran.

Der Hersteller von Windturbinen Gamesa könnte mit einem Einfrieren der Kapazität infolge einer erheblichen Verlangsamung beim Bau neuer Windfarmen und Verkäufen anderswo leben, obwohl sich Fabriken in Spanien der Schließung gegenüber sehen könnten, wenn die Subventionen für Windenergie eingestellt werden.

Kleinere Hersteller sowie Entwickler von Wind- und Solarparks, die davon abhängen, könnten auch betroffen werden, was Arbeitsplätze im Bereich der Erneuerbaren kosten könnte, wo derzeit über 100 000 Arbeiter beschäftigt sind, und das in einem Land, in dem ein Fünftel aller Arbeitsfähigen Arbeitslosengeld beziehen.

Eine Forderung der Stromindustrie an die Volkspartei lautet, dass Smart Grids und Smart Meters entwickelt werden müssen, um die unterschiedliche Nachfrage von Strom an die sich rasch verändernde Stromerzeugung der Erneuerbaren anzupassen. Dies sollte im politischen Programm der Volkspartei enthalten sein.

Darin heißt es, dass man den Betrieb von Kernkraftwerken erlauben sollte, solange der CSN-Regulator das für sicher erachtet, und Rajoy, der Vorsitzende der Volkspartei, hat schon lange gesagt, dass er die Entscheidung der Sozialisten, das alternde Garona-Kraftwerk zu schließen, rückgängig machen werde.

Analysten schließen nicht aus, dass eine Steuer auf die billige Kernkraft erhoben wird, die in die Förderung der Windenergie fließen soll, was das Tarifdefizit, das die Verbraucher den Einrichtungen schulden, lindern könnte, und zwar im Austausch für den Weiterbetrieb von Kraftwerken.

 „Eine Steuer auf Kernkraftwerke könnte man sich überlegen, um die Systemkosten zu reduzieren”, sagte Espirito Santo Investment in einer Note.

Dem Programm der Volkspartei zufolge soll bei der Europäischen Union Lobbyarbeit betrieben werden, um Spaniens geringe Stromverbindungen mit dem Rest des Kontinents zu verstärken. Außerdem will man die Politik der gegenwärtigen Regierung weiterführen, Spanien zu einem Einfallstor von nordafrikanischem Gas für Europa machen.

Pläne, die zwischenstaatlichen Verbindungen mit Frankreich zu erweitern, bis sie ein Drittel des spanischen Gasbedarfs bis 2014 decken können, wurden von französischen Energieplanern verzögert.

Jonathan Gleave

Link: http://www.reuters.com/article/2011/11/15/spain-election-energy-idUSL5E7M24AP20111115

*Dieser Text war vor diesen Wahlen erschienen – siehe Datum! Bei Erscheinen kann man gleich prüfen, ob die Einschätzung von Gleave richtig war. A. d. Übers.

Übersetzt von Chris Frey für EIKE




Verfolgung der Windkraftkriminalität -Erläuterung kriminalistisch bedeutsamer Tatsachen

…..Eine Folge der Attraktivität ist es, dass Anlagen auch an Standorten vorgesehen werden, an denen sich der Anlagenbau kaum anders als mittels betrügerischer Vorgehensweisen finanzieren lässt. Davon abgesehen verbieten sich Windkraftanlagen an zahlreichen Standorten auch deshalb, weil durch sie in strafbarer Weise streng geschützte Vögel und Fledermäuse zu Tode kommen. Indessen gibt es Anhaltspunkte dafür, als würden die Ermittlungsaufgaben, die sich insofern der Staatsanwaltschaft und der Kriminalpolizei stellen, nur mit verhaltenem Interesse wahrgenommen. Ein Grund hierfür dürfte in einer unterschwelligen Sympathie für eine emissionsfreie Stromversorgung liegen, ein anderer in der vom Verfasser wiederholt gemachten Beobachtung, dass den ermittelnden Beamten oftmals wichtige Grundinformationen in tatsächlicher Hinsicht fehlen. Zur Schließung dieser Lücke sollen die nachfolgenden Ausführungen beitragen….

I. Ausgangssituation für Kriminalisten

Die Erzeugung von Windstrom dient in Deutschland der Abschöpfung und Um-verteilung von jährlich etwa drei Mrd. Euro. Die rechtliche Grundlage hierfür bil­det das Erneuerbare-Energien-Gesetz (EEG). Die Umverteilung der Mittel wird über den Strompreis ermöglicht und ist von der Allgemeinheit wie eine Steuer aufzubringen. (Die darin liegende verfas­sungsrechtliche Problematik1 soll hier nicht diskutiert werden.) Inwieweit eine Teilhabe an der vom EEG veranlassten Zwangssubventionierung möglich ist, hängt davon ab, wie viel Strom die Anla­gen erzeugen können. Diese Vorausset­zung ist wiederum maßgeblich abhängig vom jeweiligen Windaufkommen…

Lesen Sie den gesamten umfassenden Beitrag in der pdf Anlage

Related Files