Die große Blasen-Maschine! Die menschgemachte globale Erwärmung

Schnellvorlauf bis in die Gegenwart. Es ist Anfang Juni in Washington, D.C. Barack Obama, ein populärer junger Politiker, dessen führender Sponsor im Wahlkampfes eine Investment Bank namens Goldman Sachs war – die Angestellten der Firma gaben rund 981.000 Dollar für Obamas Wahlkampf – sitzt im Weißen Haus. Nachdem Goldman unbeschadet durch das politische Minenfeld der Zeit der Bailouts navigiert hatte, widmet sich das Unternehmen wieder seinen alten Geschäften und hält Ausschau nach Schlupflöchern und Gesetzeslücken in einem neuen Markt, den die Regierung geschaffen Hat, wobei ihr ein neues Team von ehemaligen Unternehmensangehörigen behilflich ist, die Schlüsselpositionen in der neuen Regierung besetzen.

Goldman sieht voraus, daß sich der Kampf gegen die globale Erwärmung zu einem „Kohlendioxyd-Markt“ mit einem Umfang von einer Billion Dollar entwickeln wird.

Hank Paulson und Neel Kashkari sind nicht mehr im Amt. An ihre Stelle sind der Stabschef des Finanzministeriums Mark Patterson und der Chef der CFTC Gary Gensler getreten, beides frühere Goldmännner. (Gensler war Co-Chef der Finanzabteilung der Bank). Und statt Finanzderivaten, Termingeschäften mit Öl oder hypothekengesicherten Wertpapieren ist das neue große Spiel, die nächste Blase, der Handel mit CO-Emissionen – ein boomender Billionen-Dollar-Markt, der bislang noch kaum existent ist, aber rasch entstehen wird, wenn die demokratische Partei, der Goldman im letzten Wahlkampf 4.452.585 Dollar zahlte, es schafft, eine bahnbrechende neue Spekulationsblase ins Leben zu rufen, verkleidet als ein „Plan für die Umwelt“, genannt „Cap and Trade“ (CO-Emissionen begrenzen und Handel damit treiben).

Dieser neue Kohlenstoff-Kreditmarkt ist praktisch eine Wiederholung des Rohstoff-Casinos, das so freundlich zu Goldman war, bis auf den Umstand, daß er darüberhinaus noch einen weiteren höchst erfreulichen Zug hat: Wenn der Plan wie geplant umgesetzt wird, wird der Preisanstieg regierungsamtlich verordnet werden. Goldman braucht das Spiel noch nicht einmal zu manipulieren. Es wird schon von vorneherein manipuliert sein.

Und so funktioniert das Ganze: Wenn das Gesetz verabschiedet wird, wird es Grenzwerte für die CO-Emissionen (auch als Treibhausgase bekannt) von Kohlekraftwerken und anderen Energieproduzenten, für Versorger mit Erdgas und eine Vielzahl von weiteren Industriezweigen geben, die festlegen, wieviel Emissionen das betreffende Unternehmen pro Jahr produzieren darf. Wenn die Unternehmen über diesen Anteil hinaus produzierenn, können sie weitere Kontingente von anderen Firmen hinzukaufen, die es geschafft haben, weniger als die erlaubten Emissionen zu verursachen. Präsident Obama schätzt konservativ, daß in den ersten sieben Jahren CO-Emissionen im Wert von 646 Milliarden gehandelt werden, einer seiner Top-Berater in Wirtschaftsdingen spekuliert, daß die tatsächliche Zahl möglicherweise das zwei- oder dreifache dieses Betrages sein wird.

Was diesen Plan für Spekulanten so besonders interessant macht, ist der Umstand, daß die erlaubte Menge von CO-Emissionen von der Regierung beständig nach unten gesenkt werden wird, was zur Folge haben wird, daß verfügbare Emissions-Kontingente von Jahr zu Jahr rarer werden. Das wiederum bedeutet, daß dies ein brandneuer Markt ist, auf dem die Preise für das Haupt-Handelsgut mit der Zeit garantiert steigen werden. Der Umfang dieses neuen Marktes wird jährlich bei einer Billion Dollar und mehr liegen. Zum Vergleich: Die jährlichen Erträge aus allen Sparten aller Stromversorger in den Vereinigten Staaten liegen bei 320 Milliarden Dollar.

Goldman will dieses Gesetz. Der Plan lautet: erstens von Anfang an bei dieser richtungsweisenden Gesetzgebung dabeizusein, zweitens sicherstellen, auf der gewinnbringenden Seite der neuen Entwicklung zu stehen und drittens dafür zu sorgen, daß die Gewinne üppig ausfallen. Goldman machte sich schon vor langer Zeit für Cap and Trade stark, aber als das Unternehmen im letzten Jahr 3,5 Millionen Dollar für Lobby-Arbeit in Klima-Fragen ausgab, erreichten die Dinge endgültig eine neue Qualität. (Einer, der damals als Lobbyist tätig war, ist niemand anders als Patterson, jetzt Stabschef im Finanzministerium). Im Jahre 2005, als Hank Paulson als Chef von Goldman amtierte, half er persönlich, die Umweltpolitik der Bank zu formulieren, ein Dokument, das für eine Firma, die sich in allen anderen Bereichen konsequent gegen regelnde Eingriffe von Seiten der Regierung einsetzt, einige erstaunliche Elemente enthält. In Paulsons Bericht heißt es, daß „freiwilliges Handeln allein das Klimaproblem nicht lösen kann.“ Ein paar Jahre später beharrte der Kohlenstoff-Chef der Bank darauf, daß Cap and Trade allein nicht ausreichen werde, dem Klimaproblem beizukommen und forderte weitere staatliche Investitionen in Forschung und Entwicklung. Das ist zweckdienlich, wenn man bedenkt, daß Goldman schon früh in Windkraft (die Bank kaufte eine Tochterfirma namens Horizon Wind Energy), erneuerbaren Diesel (Goldman investierte in eine Firma mit Namen Changing World Technologies) und Sonnenenergie (das Unternehmen ging eine Partnerschaft mit BP Solar ein) – genau die Art von Geschäftsabschlüssen, die sich lohnen werden, wenn die Regierung die Energieproduzenten zwingt, sauberere Energien zu nutzen. Wie Paulson damals formulierte: „Wir tätigen diese Investitionen ncht, um Geld zu verlieren.“

Die Bank hält einen Anteil von zehn Prozent an der Chicago Climate Exchange, wo die Emissions-Kontingente künftig gehandelt werden. Darüber eignet Goldman eine Minderheitsbeteiligung an Blue Source LLC, einer Firma mit Sitz in Utah, die Kohlenstoff-Kontingente von der Art verkauft, nach der es starke Nachfrage geben wird, wenn das Gesetz verabschiedet wird.

Nobelpreis-Träger Al Gore, der maßgeblich an der Planung des Cap and Trade Systems beteiligt ist, startete zusammen mit drei führenden Persönlichkeiten von Goldman Sachs Asset Magement (Goldman Sachs Vermögensverwaltung) David Blood, Mark Feruson und Peter Harris ein neues Unternehmen mit dem Namen Generation Investment Management. Das Geschäftsfeld? Investitionen in Kohlenstoff-Ausgleiche. Dann gibt es da auch einen 500 Millionen schweren Green Growth (grünes Wachstum) Fonds, der von einem Goldman-Mitarbeiter gegründet wurde um in grüne Technologien zu investieren … die Liste läßt sich beliebig verlängern. Goldman ist den Schlagzeilen wieder einmal voraus und wartet nur darauf, daß jemand es am richtigen Ort regnen läßt. Wird dieser Markt größer als der Rohstoff-Termin Markt?

„Oh, er wird ihn in den Schatten stellen,“ sagt ein früherer Mitarbeiter beim Energie-Ausschuß des Repräsentantenhauses.

Nun könnten Sie fragen, wen das schert. Wenn das Cap and Trade System funktioniert, werden wir dann nicht alle vor der Katastrophe der globalen Erwärmung gerettet? Vielleicht – aber Cap and Trade, so wie es von Goldman entworfen wurde, ist in Wirklichkeit nichts anderes als ein Steuersystem, bei dem die Abgaben von privaten Unternehmen kassiert werden. Anstatt einfach eine feste Abgabe für Kohlenstoff-Emissionen zu erheben und umweltverschmutzende Energieproduzenten zu zwingen, für den Dreck, den sie verursachen, zu zahlen, ermöglicht es das Cap and Trade-System einer kleinen Gruppe von überaus gierigen Tierchen von der Wall Street, einen weiteren Markt in ein weiteres privates Abgabensystem zu verwandeln. Dies ist schlimmer als die Bailout-Aktionen: Hier wird es der Bank ermöglicht, sich des Geldes des Steuerzahlers zu bemächtigen, noch ehe es überhaupt kassiert ist.

„Wenn es eine Steuer sein soll, dann zöge ich es vor, Washington bestimmte die Höhe und kassierte das Geld,“ sagt Michael Masters, der Hedge Fond Manager, der sich gegen die Spekulation um die Termingeschäfte mit Erdöl aussprach. „Statt dessen beschließen wir, daß Wall Street die Höhe der Steuer bestimmt und daß Wall Street die Steuer kassiert. Das ist das Letzte auf der Welt, was ich möchte. Das ist einfach idiotisch!“

Cap and Trade wird Wirklichkeit werden. Und wenn nicht, wird es etwas ähnliches geben. Die Moral von der Geschichte ist dieselbe wie bei allen anderen Blasen von 1929 bis 2009, die Goldman schaffen half. In fast jedem Fall wurde die Bank, die sich über Jahre hinweg skrupellos verhielt, das System mit wertlosen Krediten und Wucherzinsen belastete und dabei nichts weiter erreichte, als massive Bonuszahlungen für einige wenige Bosse möglich zu machen, mit Bergen von praktisch frei verfügbarem Geld und Regierungs-Garantien belohnt – während die eigentlichen Opfer des unerfreulichen Spiels, die normalen Steuerzahler, für den Schaden aufkommen müssen.

Es ist nicht immer leicht zu akzeptieren, womit wir diese Leute davon kommen lassen; es gibt so eine Art kollektiver Leugnung, die aktiv wird, wenn ein Land das durchmacht, was Amerika in der letzten Zeit durchgemacht hat, wenn ein Volk soviel Ansehen und Status verliert, wie wir in den letzten paar Jahren verloren haben. Man kann die Tatsache, daß man nicht länger Bürger einer funktionierenden Demokratie der fortschrittlichen Welt ist und daß man nicht länger davor geschützt ist, am hellichten Tag ausgeraubt wird, nicht wirklich wahrnehmen, denn wie eine Person, der ein Glied amputiert wurde, fühlt man weiterhin Dinge, die Wahrheit nicht mehr vorhanden sind.

Aber so ist das. Dies ist die Welt, in der wir mittlerweile leben. Und in dieser Welt müssen die einen sich an die Regeln halten, während andere vom Direktor benachrichtigt werden, daß sie in alle Ewigkeit von den Hausaufgaben befreit sind und außerdem 10 Milliarden Dollar ohne Auflagen in einer Papiertüte erhalten, um sich ein Mittagessen zu kaufen. Es ist ein Gangster-Staat, der eine Gangster-Wirtschaft unterhält, und selbst den Preisen kann man nicht mehr trauen: Von jedem Dollar, den Sie irgendwo bezahlen, gehen versteckte Steuern ab. Vielleicht können wir das nicht ändern. Aber wir sollten wenigstens wissen, wohin die Reise geht.

Matt Taibbi, Jahrgang 1970, ist politischer Autor und Journalist, der unter anderem durch seine Berichterstattung über den Präsidentenwahlkampf 2004 bekannt wurde. Gegenwärtig arbeitet er bei der Zeitschrift „Rolling Stone“, wo er die Kolumne „Road Rage“ (Zorn der Straße) unterhält.

Quellennachweis des Originalartikels:The Great American Bubble Machine, Rolling Stone

Übersetzt vom Englischen ins Deutsche von Hergen Matussik, einem Mitglied von Tlaxcala, dem Übersetzernetzwerk für sprachliche Vielfalt (tlaxcala@tlaxcala.es, www.tlaxcala.es). Diese Übersetzung unterliegt dem Copyleft: sie kann frei verwendet werden unter der Bedingung, daß der Text nicht verändert wird und daß sowohl der Autor als auch die Quelle genannt werden. 




Klimawandel und die Gletscher in den österreichischen Alpen als Zeitzeugen!

Abb 1: Gletscher auf dem Rückzug: Das Schlatenkees am Venediger 1852 (links) und 1995 (rechts). Als Beweis für einen menschengemachten Klimawandel denkbar ungeeignet.

Glasshouse befragte hierzu Universitäts-Professor Dr. Gernot Patzelt vom Institut für Hochgebirgsforschung der Universität Innsbruck. Als Mitglied der Kommission für Quartärforschung der Österreichischen Akademie der Wissenschaften beschäftigt er sich seit gut 40 Jahren unter anderem mit der Gletscher-und Klimageschichtsforschung. Prof. Patzelt hat zu dieser Thematik zudem eine Vielzahl wissenschaftlicher Texte veröffentlicht (siehe auch ). Seine zentralen Aussagen: Die gegenwärtige Gletscher-und Klimaentwicklung zeigt keine Verhältnisse, die es in der Vergangenheit ohne menschlichen Einfluss nicht schon mehrfach und lange andauernd gegeben hat. Der gegenwärtige Rückgang der Alpengletscher kann nicht als Bestätigung für die Hypothese eines anthropogen verursachten Klimawandels dienen.

Glasshouse: Seit wann befinden sich die Gletscher der österreichischen Alpen auf dem Rückzug?

Gernot Patzelt: Die letzte allgemeine Vorstoßperiode der Alpengletscher ging um 1855 AD zu Ende. Seither haben die österreichischen Gletscher mehr als die Hälfte ihrer Fläche und geschätzte 60 % ihres Volumens verloren. Dieser Gletscherschwund ist allerdings nicht kontinuierlich vor sich gegangen. Vielmehr wurde er von Vorstoßperioden unterbrochen. Zwischen 1890 und 1927 sowie zwischen 1965 und 1980 sind jeweils bis etwa 75 % der Gletscher angewachsen. Bemerkenswert ist die Vorstoßperiode der 1970er Jahre als Folge einer Abnahme der Sommertemperatur um etwa 1° C zwischen 1950 und 1980. In dieser Zeit ist der CO2-Gehalt der Luft unbeeindruckt fortgesetzt stark angestiegen.


Abb. 2 Standort und Wachstumsperioden von Waldbäumen, die durch den gegenwärtigen Rückgang des Gepatschferners – des zweitgrößten Gletschers der österreichischen Alpen – eisfrei geworden sind.

Glasshouse: Ist dieser Vorgang ungewöhnlich?

Gernot Patzelt: Gletscherschwundperioden dieser Art gab es in der Vergangenheit mehrfach und auch in deutlich stärkerem Ausmaß. Die Rekonstruktion der Gletscherentwicklung erlaubt die Aussage, dass in rund 65 % der letzten 10.000 Jahre die Gletscher kleiner waren und die Sommertemperaturen daher so hoch oder höher lagen als heute.

Glasshouse: Kann diesmal von einem besonders schnellen Rückzug der Gletscher gesprochen werden?

Gernot Patzelt: Nein! Die Geschwindigkeit des derzeitigen Gletscherrückgangs hält sich in den Grenzen, die auch für die weiter zurückliegende Vergangenheit rekonstruierbar ist.

Glasshouse: Das sich zurückziehende Eis hat Bäume freigelegt, die zum Teil seit Jahrtausenden konserviert waren. In welchem Zustand sind die Bäume, die Sie gefunden haben?

Gernot Patzelt: Durch den Gletscherrückgang werden jetzt Areale eisfrei, die ursprünglich von Wald bewachsen waren. Davon sind in Moränenmaterial eingebettete Bäume manchmal in erstaunlich gutem Zustand erhalten, so dass sich an den Jahresringen Lebenszeit und Überfahrungszeitpunkt durch die Gletscher oft mit Jahresschärfe feststellen lassen. Manche Bäume sind so gut erhalten, dass sie noch den typischen Harzgeruch beispielsweise der Zirbe haben.


Abb 3. Die schmelzenden Gletscher geben Reste von Bäumen frei, die früher in Höhenlagen deutlich oberhalb der heutigen Grenze für das Baumwachstum gewachsen sind. Sollten heute auf Höhe der nacheiszeitlichen Wald-und Baumgrenze wieder Bäume wachsen können, müsste die Temperatur in der Vegetationsperiode längerfristig um geschätzte 0,7 bis 1° C ansteigen.

Glasshouse: Aus welchen Zeiten stammen diese Bäume?

Gernot Patzelt: Holzfunde von in großer Höhe gewachsenen Bäumen in den Gletschervorfeldern wurden für die Zeit von 8000 vor Christus bis 300 nach Christus in großer Zahl geborgen. Diese Wachstumsperioden sind allerdings mehrfach von Gletschervorstoßperioden unterbrochen worden. Aus Baumwachstum und Gletscherverhalten lassen sich mit zunehmender Informationsdichte die klimatischen Verhältnisse der letzten 10.000 Jahre rekonstruieren.

Glasshouse: Was sagen uns diese Funde?

Gernot Patzelt: Aus diesen Befunden und der daraus abgeleiteten, längerfristigen Klimaentwicklung wird klar ersichtlich, dass das derzeitige Temperaturniveau deutlich innerhalb de natürlichen, von Menschen nicht beeinflussten Schwankungsbereichs liegt.

Glasshouse: Gab es Zeiten, in denen die Gletscher in den Alpen gar eisfrei waren?

Gernot Patzelt: Zu dieser Frage gibt es keine konkreten Geländebefunde aus dem Gletscherbereich. Aus den höchstgelegenen Baumresten in Mooren außerhalb der Gletscher kann man ableiten, dass in über 3.500 m Höhe Gletscherbildung und Erhaltung auch in ausgeprägten Warmphasen der Nacheiszeit möglich gewesen sein dürften. Die 4.000 m hohen Berge der Westalpen haben ihre Schnee-und Eisbedeckung sicher nicht ganz verloren.

Glasshouse: Wie lange haben diese warmen Perioden typischerweise angehalten?

Gernot Patzelt: In der älteren Nacheiszeit gab es nach derzeitigem Kenntnisstand mehrere Perioden mit höheren Temperaturen als heute, die – nicht unterbrochen – bis zu 1.000 Jahre angehalten haben. In den letzten 3.500 Jahren waren die Kaltzeiten dominant.

Glasshouse: An manchen Stellen versucht man heute in höheren Lagen der Alpen Bäume aufzuforsten. Bis auf welche Höhe gelingt das?

Gernot Patzelt: Aufforstung in Höhenlagen ist eine wichtige Maßnahme, um Naturgefahren wie Lawinen und Muren einzuschränken. Die derzeitige Entwicklung hin zu längeren Vegetationsperioden und höheren Sommertemperaturen begünstigt diese Maßnahmen. Aufforstungen sind auf den ehemaligen Rodungsflächen bis zur gegenwärtigen Baumgrenze erfolgreich. Aber im Höhenbereich der nacheiszeitlichen Wald-und Baumgrenze, die 100 bis 150 m höher lag, ist die Aufforstung bisher nicht gelungen. Dazu müsste die Temperatur in der Vegetationsperiode längerfristig um geschätzte 0,7 bis 1° C ansteigen. Für die wachsenden Siedlungen in den Gebirgstälern wäre dies kein Nachteil.

Abb. 4 Zeitzeuge des beständigen Klimawandels: Das Bild links zeigt einen hervorragend konservierten Baum, der etwa 7000 vor Christus – also vor ungefähr 9.000 Jahren – vom Gletschereis eingeschlossen und jetzt vom Gletscherbach unter dem Eis herausgespült wurde. Sein Standort ist noch eisbedeckt.

Glasshouse: Welchen Zusammenhang gibt es zwischen dem Abschmelzen der Gletscher und der Entwicklung der CO2-Konzentration in der Erdatmosphäre?

Gernot Patzelt: Der CO2-Anstieg geht erst in den letzten 30 Jahren mit dem Temperaturanstieg und dem Gletscherschwund parallel. Wie erwähnt, war davor 30 Jahre lang das Gegenteil der Fall. Ein eindeutiger Zusammenhang zwischen CO2-Anstieg und Gletscherverhalten ist nicht erkennbar. Der gegenwärtige Rückgang der Alpengletscher ist als Bestätigung für die Hypothese eines anthropogen verursachten Klimawandels nicht geeignet.

Glasshouse: Wie entwickeln sich die Gletscher in anderen Regionen auf der Erde?


Abb. 5 Die nacheiszeitliche Wald-und Baumgrenze lag etwa 100 bis 150 m höher als heute.

Gernot Patzelt: Nach meinem Informationsstand nehmen derzeit die Eismassen und damit die eisbedeckte Fläche weltweit bei einem Großteil der Gebirgsgletscher ab. Das ist hauptsächlich auf die höheren Temperaturen der Abschmelzzeit und auf die dadurch verlängerte Schmelzperiode im Sommerhalbjahr zurückzuführen. Daneben gibt es aber bemerkenswerte


Abb. 6 Baumreste in hochgelegenen Mooren der Ostalpen.

Ausnahmen: Auf den sehr niederschlagsreichen, westorientierten Gebirgsseiten in Skandinavien und Neuseeland sind vor kurzem noch große Gletscher eindrucksvoll in bewachsenes Gelände vorgestoßen. Auch aus Kanada liegen Berichte von wachsenden Gletschern vor. Das dürfte im stark niederschlagsgesteuerten Regime dieser Gletschergebiete begründet liegen. Wie diese Entwicklung aktuell aussieht, entzieht sich meiner Kenntnis. Aber für einen allgemeinen Gletscherschwund der Gegenwart ergibt sich damit kein einheitliches Bild. Das war auch nicht zu erwarten.

Glasshouse: Wie sind die aufgezeigten Ergebnisse aus den Alpen im Vergleich zu außeralpinen Verhältnissen zu sehen?

Gernot Patzelt: Bislang hat niemand die zahlreichen Untersuchungen zur Gletscherentwicklung in außeralpinen Gebirgen für die gesamte Nacheiszeit mit kritischer Durchsicht verglichen. Das wäre für einen Einzelkämpfer auch kaum machbar. Um eine Vorstellung zu bekommen, ob und wie sich die aus der Gletscherentwicklung abgeleitete Temperaturentwicklung der Alpen in außeralpinen Regionen abzeichnet, wurden die Temperaturprofile der Eisbohrkernanalysen von Nordgrönland im Vergleich herangezogen. Das Profil N-GRIP* (North Greenland Ice core Project) zeigt, dass in etwa 75 % der letzten 10.000 Jahre die Temperaturen so warm oder wärmer waren als das Mittel der letzten 50 Jahre. Und auch in Grönland liegt das Temperaturmittel der letzten Jahrzehnte deutlich innerhalb des langfristigen Schwankungsbereichs. Damit erscheint das Ergebnis aus den Alpen gut bestätigt. Die gegenwärtige Gletscher-und Klimaentwicklung zeigt keine Verhältnisse, die es in der Vergangenheit ohne menschlichen Einfluss nicht schon mehrfach und lange andauernd gegeben hat.

* Weitere Informationen zum North Greenland Ice core Project:

 mit freundlicher Genehmigung von Glasshouse Center for Studies on a Free Economy;

Interview mit Prof. Dr. Gernot Patzelt Wachtberg, 6. Januar 2010 Glasshouse-Interview 1 / 2010




Lasst Euch von der Realität nicht täuschen! CDU-Bundesgeschäftsstelle: Climategate interessiert uns nicht (und der Bürger auch nicht…)

 Schon mal was davon gehört, dass es seit zehn Jahren nicht mehr wärmer geworden ist? Oder, dass die werte Frau Merkel in Kopenhagen nicht führte sondern geführt wurde (am Nasenring durch den Klimazirkus)? Nö, sowas spricht sich nicht bis ins Adenauerhaus herum. Noch nicht einmal, dass die Kopenhagener-Konferenz bereits stattgefunden hat ("Unser Ziel ist ein verbindliches Klimaschutzabkommen auf der Weltklimakonferenz in Kopenhagen"). Vielleicht sollten Sie “Kopenhagen” im Satzbaukasten durch “Bonn” ersetzen, da gehts ja im Sommer weiter. Das dürfte aber dann auch die einzige Änderung sein. Denn die CDU teilt dem Bürger ziemlich unverhüllt mit: Vööölig egaaal, was passiert, wir machen weiter wie bisher. Aber lesen Sie selbst:

Sehr geehrte Frau Dr. Eussner, 

haben Sie vielen Dank für Ihr Schreiben vom 22. Dezember.

Für die CDU gibt es trotz der angeblichen „ClimateGate-Affäre” keinen Zweifel am anthropogenen Klimawandel: Der Klimawandel ist Realität – er beschleunigt sich und wird zur Gefahr für jetzige und kommende Generationen. Es ist unsere Aufgabe, die Schöpfung zu bewahren. Es ist das Ziel der Union, die globale Erwärmung und ihre Folgen zu begrenzen, um Wohlstand und Entwicklungschancen jetziger und zukünftiger Generationen zu sichern. Die CDU setzt in der Klima- und Umweltpolitik auf Anreize und marktwirtschaftlich orientierte Instrumente statt nur auf staatliche Regulierung und Vorschriften. Dabei sind wir uns sicher: Klima- und Umweltschutz bewahrt unsere Lebensgrundlagen und schafft gewaltige Potenziale für Wachstum und Beschäftigung. Die CDU hat in den vergangenen vier Jahren entscheidend dazu beigetragen, dass Deutschland in der Klimapolitik eine Führungsrolle in der Welt übernommen hat. Mit der deutschen EU-Ratspräsidentschaft (2007) kamen verbindliche Beschlüsse zum Klimaschutz auf europäischer Ebene.

Da der Klimawandel aber nicht nur eine europäische, sondern eine globale Herausforderung ist, bedarf es globaler Anstrengungen. Unser Ziel ist ein verbindliches Klimaschutzabkommen auf der Weltklimakonferenz in Kopenhagen, welches neben Industriestaaten auch Schwellen- und Entwicklungsländer – entsprechend ihren Möglichkeiten – beim Klimaschutz mit einbindet. Bei den Verhandlungen werden wir uns für eine faire Lastenverteilung einsetzen, die vergleichbare Wettbewerbsbedingungen schafft und Produktionsverlagerungen in Länder ohne Klimaschutz verhindert. Wir sind zu einer angemessenen Finanzierung von Technologietransfer-, Waldschutz- und Anpassungsprojekten bereit.

Wir sehen im marktwirtschaftlich orientierten europäischen Emissionshandelssystem einen zielführenden Weg zu einer ausgewogenen Balance zwischen Ökonomie und Ökologie. Der Emissionshandel ist das vorrangige Klimaschutzinstrument. Er soll perspektivisch zu einem globalen Kohlenstoffmarkt ausgebaut werden. Wir werden Initiativen ergreifen, um regionale Handelssysteme zu verbinden und in das internationale Handelssystem schrittweise weitere Bereiche, wie z. B. den Luft- und Seeverkehr, mit einzubeziehen.

Der Klimawandel erfordert aber auch Strategien zur Anpassung an seine regional ganz unterschiedlichen voraussichtlichen Auswirkungen. Wir werden uns für den Schutz besonders sensibler Naturräume, wie des Wattenmeeres und der Alpen, sowie den Waldumbau hin zu klimaresistenteren Wäldern und für die Stärkung des Hochwasserschutzes einsetzen. Wir wollen verstärkt in ausreichende Wasserrückhalteräume, in die Sicherung der Wasserressourcen und in die stärkere Vernetzung der Wasserversorgungen investieren. Es wird die Hälfte der Erlöse aus dem Emissionshandel für den Klimaschutz verwandt. Außerdem werden 500 Mio. Euro bis 2012 und ab 2013 jährlich 500 Mio. Euro aus den Emissionshandelserlösen für den Schutz der Regenwälder verwandt. Aber auch in Deutschland setzen wir uns ambitionierte Klimaschutzziele. So werden wir den CO2-Ausstoß bis 2020 gegenüber 1990 um 40 Prozent senken und die Energieeffizienz im selben Zeitraum verdoppeln. Darüber hinaus wollen wir den Anteil erneuerbarer Energien am Stromverbrauch auf 30 Prozent bis 2020 steigern. Wir wollen die Förderung Erneuerbarer vermehrt an dem Ziel einer wirtschaftlichen und bedarfsgerechten Energieversorgung ausrichten. Die Mittel für die energetische Gebäudesanierung wurden auf 1,4 Mrd. Euro jährlich und im Rahmen der Konjunkturpakete nochmals erhöht. Wir wollen die gewaltigen Effizienzpotenziale nutzen, die im Gebäudesektor schlummern. Durch kluge Anreize wollen wir die Mieter-Vermieter-Problematik bei der Gebäudesanierung überwinden. 

Mit freundlichen Grüßen, 

Joscha Nollet 

Team Bürgerservice der CDU-Bundesgeschäftsstelle

mit freundlicher Genehmigung von Dirk Maxeiner eschienen auf ACHGUT 

Hier der Special Climategate Link von Maxeiner




Teures Wohnen in der Thermoskanne!

In dem Artikel "Wohnen in der Thennoskanne" hat Herr Küffner einige Fakten angeführt, die sich aus dem EEG (Emeuerbare-Energie-Gesetz) ergeben, und die in der Öffentlichkeit bisher wenig beachtet wurde~ obwohl sie für die Eigentümer von Bestandsimmobilien von großer Bedeutung sind. Diese Hlnweise möchte ich gern durch einige Angaben aufgnmd meiner eigenen Berufstätigkeit und Erfahrung aus mehreren Jahrzehnten ergänzen.
Es ist die Rede von 18 Millionen energetisch sanierungsbedürftigen Altbauten mit Durchschnittskosten von rund 130 000 EURO je Einheit. Die Multiplikation ergibt 2,34 Billionen EURO. Das ist natürlich kein testatfähiger Rechenwert, aber es ist die Benennung einer Größenordnung, über die man nachdenken und diskutieren sollte. Für diese Bruttokosten sind 19 Prozent Mehrwertsteuer an den Fiskus abzuführen. Bei Umbauten im Bestand ist mit einer stark erhöhten Personalkostenquote zu rechnen. Die liegt nach meinen langjährigen Erfahrungen bei ca. 70 bis 75 Prozent der Gesamtkosten. Für diesen Anteil sind 42 Prozent als Beiträge an die Sozia1kassen abzuführen_ Die Zwischensooune beträgt rund 50 Prozent. Wenn man dann noch für die persönlichen Steuern der Arbeitnehmer und Unternehmer und für die auf jedem Bearbeitungs- und Transportvorgang anfallenden Steuern auf Energieverbrauch und für Mautgebühren insgesamt nur 15 Prozent addiert,. was nach meiner Schätzung ein unterer Grenzwert sein dürfte, dann kommt man per Saldo zu der schockierenden Einsicht, daß etwa zwei Drittel der gesamten Investitionskosten oder mehr, also rund 1,5 Billionen (1 500 000 000 000) EURO, an den Fiskus direkt und über die Sozialkassen indirekt abfließen. Nur aus dem restlichen Drittel seiner Investition oder weniger kann der nach einer Sanierung vennutIich aller Notgroschen entblößte und erneut verschuldete Altbaueigentümer mit einer schmalen Rendite aus gesparten Energiekosten rechnen. Meldungen aus der Gebäudewirtschaft, wonach Mietkostenzuschläge nach energetischen Sanierungen nur zu einem Viertel oder Fünftel durch Heizkostenmindenmgen kompensiert werden können, bestätigen das nachdrücklich. Mit diesen Quotenangaben sind nicht nur die von Herrn KüfIner erwähnten überlangen Amortisationszeiten erklärt, sondern auch der zusätzliche Renditeschwund durch den menschlichen Faktor. Menschen sind mit ihren Gewohnheiten keine von Computern gesteuerten Lüftungs- und Wohnautomaten.
Mit anderen Worten: Mit der Einfiihrung des EEG hat sich der Fiskus selbst einen Dukatenesel ohnegleichen beschert. Die mittelständischen Hausbesitzer aber sind unter die ideologiegeschwängerten Räuber gefallen. Mit gezahlten Steuern und Abgaben kann man weder Energiekosten sparen, noch eine Suppe kochen, noch sich die Füße wännen. Das ist des Pudels Kern! Die Unverhältnismäßigkeit von konfiskatorischen Abgaben und Zweckdienlichen, produktiv nutzbaren Investitionsanteilen ist so grotesk, daß mit Fug und Recht von einer partiellen Enteignung oder gar Ausplünderung des staatstragenden Mittelstandes durch das EEG gesprochen werden darf. Dabei ist die energetische Sanierung des Baubestandes nur eine Komponente dieses trickreichen Umverteihmgsgesetzes. Über den ökonomischen Unsinn von Windmühlen und Solardächem haben sich andere, sehr sachverständige Autoren , z.B. Prof. Sinn, Prof. Weimann, Prof. Klaus, schon früher überdeutlich geäußert. Mich erstaunt, daß die Dimension und Brisanz des politischen Spreogsatzes EEG bisher kaum erkannt und beachtet wurde.
Leider ist dies aber noch nicht das Ende dieser deprimierenden Geschichte. Erfahrene Fachleute wissen es und Herr Küffner hat darauf hingewiesen: Bei der Umwandlung von Altbauten in "Thennoskannen" ist die unbeabsichtigte Installation von Wärmebrücken häufig nicht oder nur mit großem Aufwand zu vermeiden. Da steckt dann der Teufel im wahren Wortsinne im Detail. Man sieht ihn meistens viele Jahre lang nicht, wenn er sich im Gebälk oder Mauerwerk eingenistet hat, nur Kundige können ihn zuweilen riechen. Wer durch die energetische Aufrüstung seines Altbaus nach dem Slogan "viel hilft viel" die Effizienz eines Nullenergiehauses anstrebt und diese Zielvorgabe auch noch durch zeitgeistkonformes Heizen und Lüften unterstützt, der riskiert – zwar nicht eben häufig. aber auch nicht gerade selten – • daß auf wundersame Weise das (ach so giftige) anthropogene C02-Molekül zum sepula lacrymans. vulgo «Hausschwamm", mutiert.***. und dann bekommt die virtuelle Horrorvision eines Abbruchbaggers vor der eigenen Haustür plötzlich eine ganz reale Dimension. Deshalb, ruhmreiche, kühne Weltenretter, zügelt nicht nur den eigenen Übereifer sondern auch den von naßforschen Beratern, auf daß Ihr noch lange Freude habt am eigenen Haus.
Was bleibt dem Eigentümer eines älteren Hauses als Alternative. wenn er seine mühsam ersparten Notgroschen nicht auf dem Altar der KJimahysterie opfern möchte und / oder sich noch einmal hoch verschulden will. Ich empfehle eine sehr bewährte Methode. die schon vielen Generationen vor uns geholfen hat, in angemessener Form auf frühere Wetter- und Klimaänderungen zu reagieren. Die Gelassenheit durch Einsicht in das Unvermeidbare, das Herunterregeln der Raumtemperatur um ein paar Grad und die Investition in wärmende Socken, Unterhosen und Pullover sind nicht nur viel billiger sondern auch gesünder als jeder noch so gut gemeinte oder gekonnte Umbau des eigenen Hauses nach den Regeln des EEG bei gleicher oder besserer Energieeffizienz. Lediglich die Beutelschneider von Amts wegen und die Marktschreier und Luftnummern-Equilibristen aus den Abteilungen Politik und Propaganda gehen bei Anwendung dieser Methode leer aus. Wen deswegen Skrupel plagen, dem empfehle ich zusätzlich die ebenso spannende wie naturwissenschaftlich übezeugende Lektüre des Buches .,Sterne steuern unser Klima"" von Calder und Svensmark, Verlag Patmos, und die Erinnerung an die Weisheit eines gewissen Friedrich Schiller. "Und höre nicht auf die vielen, Verstand war immer nur bei wenigen gewesen."
Dipl. Ing. Gerhard Janssen Karlsruhe

Nachtrag der Redaktion: Nicht erwähnt wurde die Tatsache, dass das Geld nur einmal ausgegeben werden kann, es sei den man befeuert bewusst die Inflation. Dieses Geld wird den Menschen, dem Handwerk, der Industrie der Wirtschaft insgesamt fehlen. Weil es überaus unproduktiv angelegt wird, zudem noch zu großen Teilen ins Ausland fliesst, (Stichwort Photovoltaik ais China) werden hier massenhaft Arbeitsplätze – zusätzlich zu den bereits in Gang befindlichen Vernichtungsprozessen durch das Emissionshandsgesetz, weiter vernichtet. Was hatte sich Maurice Strong in China lebender Ölmillionär und Direktor von vielen UNO Programmen, darunter auch der Konferenz für Nachhaltigkeit* 1992 in Rio gedacht als er forderte: 

„So in or­der to save the planet, the group de­cides: Isn’t the only hope for the planet that the in­dus­trial civi­li­za­tions col­lapse? Isn’t it our re­spon­si­bil­ity to bring that about? This group of world lead­ers form a se­cret so­ci­ety to bring about an eco­nomic col­lapse“.

in Deutsch:

"Also, um den Planeten zu retten entscheidet die Gruppe: Ist es nicht die einzige Hoffnung für den Planeten, dass die industriebasierte  Zivilisation zusammenbricht? Ist es nicht unsere Verantwortung dies herbeizuführen? Diese Gruppe von Führern formen eine geheime Gesellschaft um einen ökonomischen Kollaps herbeizuführen"

* Zur Er­in­ne­rung: In Rio wur­de un­ter an­de­rem die Kli­ma­rah­men­kon­ven­ti­on (UNFCCC) un­ter­zeich­net, Grund­la­ge für das fol­gen­de Kyo­to-Pro­to­koll. Da­raus entstand auf Strongs Be­trei­ben der ers­te World Busi­ness Coun­cil for Sus­tai­nab­le De­ve­lop­ment (WBCSD). 1999 be­grün­de­te dann der WBCSD zu­sam­men mit der UNCTAD die In­ter­na­ti­o­nal Emis­si­ons Tra­ding As­so­ci­a­ti­on), die den Markt für den Han­del mit Treib­haus­ga­sen er­öff­nen soll­te.

** Passend zum Thema am 5.1.10 in SPON:  Nordeuropa treibt die Energiewende voran. "Und ist´s auch Wahnsinn, so hat es doch Methode": Hamlet; Shakespeare

*** Halle/MZ/rgu. Mehr als sieben Millionen Wohnungen in Deutschland sind von Schimmelpilz und Feuchteschäden befallen. Davon sind rund 15 Millionen Menschen betroffen, sagte Sabine Brasche von der Universität Jena gestern in Halle. Sie könnten Allergien und Atembeschwerden auslösen. Die Wissenschaftlerin stellte dem Bundesverband der Schornsteinfegerhandwerks, der bis Freitag in Halle seine Jahrestagung abhält, die Ergebnisse einer repräsentativen Studie (der Friedrich-Schiller-Universität Jena) vor. … Sie belegt, dass rund sieben Millionen Wohnungen Feuchteschäden und/oder Schimmelpilzbefall aufweisen. Sie stellen nach Überzeugung der Autorin, Sabine Brasche, ein "erhebliches Risikopotenzial für die Gesundheit von 15 Millionen Bürgern dar." …" 




Climategate 13: Temperaturdatenreihen zwischen Fiktion und Wirklichkeit

Die Abbildung 1 zeigt die anhand vieler Millionen Satellitendaten ermittelte Temperaturkurve von 1979 – 2009 und zwar die Abweichung vom langfristigen Mittel (Nulllinie). Sie wird in Zusammenarbeit der University of Alabama Huntsville (UAH) und der NASA generiert.

Die Abbildung zeigt eine sehr leichte Erwärmung ab 1988 bis 2003 von ca. 0,3°C. Seitdem fällt die Langfristkurve der Temperatur und diese nähert sich wieder der Nulllinie des Langfristmittels. Zusätzlich sind zwei Ereignisse eingezeichnet, die den Trend einmal in die negative Richtung und einmal in die positive Richtung beeinflussen. Dies ist zum einen der Ausbruch des Vulkans Pinatubo auf den Philippinen in 1991, der durch seinen gewaltigen Ausstoß, der letztendlich das Sonnenlicht absorbierte, weltweit die Temperaturen für den Zeitraum von 2 Jahren um ca. 0,6°C fallen lies. In 1999 führte der starke El-Niño zu einem kurzfristigen Temperaturanstieg von ca. 0,7°C. Beides geht auf natürliche Ursachen zurück und hat nichts mit einem menschengemachten CO2-Ausstoß zu tun. Betrachten wir nun die berüchtigte Jones-Temperaturkurve (Abbildung 2), wie sie noch 2007 im 4. IPCC-Bericht um die Welt ging und in Politik und Medien entsprechenden Anklang fand, so ist plötzlich ein Temperaturanstieg zu verzeichnen, der durch Satellitenmessungen nicht bestätigt wird.

 

Abbildung 2

Die Abbildung 2 zeigt die globale Temperaturentwicklung von Jones 2007 (HadCrut3) für den Zeitraum von 1850 – 2007, welche durch Climategate als Fälschung offengelegt wurde. Deutlich ist hier ein Temperaturanstieg seit den 1970-Jahen zu sehen, der in den Satellitendaten nicht vorkommt. Dass gleiche Bild bei den Daten, für die Prof. Hansen (GISS, Abbildung 3, die drei blauen Balken stellen Standardabweichungen, als mathematische Fehlermöglichkeiten dar) verantwortlich ist. Aus beiden Datenreihen stellt das IPCC seine Prognosen zusammen und kommt zu dem Schluss, die Erde würde sich durch Menschenhand drastisch erwärmen.

 

Abbildung 3

Sowohl Jones (HADCrut3), als auch Hansen (GISS) verwenden für die Ermittlung ihrer Temperaturreihen Daten von bodengestützten Messstationen. Seit langem ist bekannt, dass diese unzulänglich, weil stark fehlerbehaftet sind. Zu diesen Fehlern zählen beispielsweise:

·       Wärmeinseleffekt

·       Mangelnde Datendichte (über weite Flächen gibt es keine Messstationen, die Daten werden nur geschätzt

·       Unterschiedliche geographische Höhe der vielen Messstationen. Pro 100m Höhe nimmt die Temperatur um etwa 0,65°C ab, wodurch die Messdaten korrigiert werden müssen, sollen die Daten miteinander vermischt werden.

·       Falsche Aufstellung der Messstationen

·       Änderung der Messerfassungszeiten

·       Software-/Algorithmusfehler, also Auswerte- und Berechnungsfehler u.v.m.

Ich möchte Ihnen die o.g. Punkte kurz erläutern.

Wärmeinseleffekt bedeutet, dass durch zunehmende Besiedlung, Industrialisierung und technische Entwicklungen, ortsgebundene Messstationen heute im Vergleich zu früher zu hohe Temperaturen messen und daher die Daten korrigiert werden müssen. Die Abbildung 4 zeigt, wie die Bevölkerungsdichte bodenbasierte Temperaturdaten beeinflusst.

Abbildung 4

Die Abbildung 4 zeigt den Wärmeinseleffekt nach Goodridge 1996. Deutlich ist erkennbar, dass mit zunehmender Einwohnerzahl die Temperaturanomalie immer schneller steigt. Dies ist nicht vorrangig durch das Fehlen von Grünflächen/Bäume, die moderierend auf den Temperaturverlauf wirken zurückzuführen, sondern durch den Einsatz von Elektro- und Verbrennungsmaschinen oder Kühlanlagen, die entsprechend ihre Verlustwärme, bzw. Abwärme an die Umgebung abgeben, was die Temperaturen immer mehr ansteigen lässt. Jedem ist bekannt, dass es z.B. im Winter in Städten wärmer ist als auf dem Land.Datendichte

Die Abbildung 5 zeigt die Messstationen des globalen Temperaturnetzwerks und die bisherige Betriebsdauer. Es ist deutlich erkennbar, dass in weiten Bereichen, insbesondere den Ozeanen, die Erfassungsdichte weit unterdurchschnittlich ist. Da die Ozeane etwa 70% der Erdoberfläche aufweisen, ergibt dies eine starke Schräglage der statistischen Messwerteerfassung und Auswertung.

Abbildung 5

Mangelnde Aufstellung der Messstationen

Im Gegensatz zu Deutschland, gibt es in den USA Audits (Überprüfungen) von unabhängiger Seite, inwieweit die dortigen Messstationen, den Ansprüchen genügen. Sozusagen ein Tüv. Bei der letzten durchgeführten Überprüfung in 2009 wurde festgestellt, dass 61% aller Temperaturmessstationen nicht geeignet für Temperaturreihen sind (Abbildung 6).

 

Abbildung 6

Das folgende Beispiel gibt die Antwort, warum dem so ist.

 

Abbildung 7

Die Abbildung 7 links zeigt die Messstation Orland in Kalifornien. Deutlich ist zu sehen, dass die Temperaturen zu Beginn des 20. Jahrhunderts z.T. deutlich höher lagen als während des sog. Klimawandels. Die Abbildung rechts (beide Abbildungen, Quelle: http://www.surfacestations.org/) zeigt eine ungenügende Station, die sich in unmittelbarer Nähe von aktiven Heizstrahlern befindet und einen starken Temperaturanstieg ausweist.

Erfassungszeiten

Zu Beginn 2001 wurde weltweit der Standard der Temperaturerfassungszeiten geändert. Bis zu diesem Zeitpunkt hatte jedes Land eine eigene Datenerhebung, so dass die Daten aus wissenschaftlicher Sicht gar nicht miteinander vermengt werden dürfen. So wurde in Deutschland dreimal am Tag gemessen (7,30 Uhr, 14,30 Uhr und 21,30 Uhr, letzter Wert wurde doppelt gewertet, um sich den 4. Wert in der Nacht zu sparen) in Frankreich zweimal am Tag (Min- und Maxtemperaturwert) gemessen und daraus der Tagesmittelwert bestimmt. Ab April 2001 wird nun stündlich gemessen, wobei Ausnahmen (alle 6 Stunden) zulässig sind. Wegen der starken Asymmetrie des Tagesganges der Temperatur ergeben beide Erfassungsmethoden (vor April 2001 und danach) andere Temperaturtagesmittelwerte. Durch die neue Methode wird der Tagestemperaturmittelwert nach oben verändert.

 

Abbildung 8

Die Abbildung 8 zeigt die Temperaturmessungen (auf der Abszisse sind die Anzahl der Messungen aufgetragen) der Wetterstation in Ny Ålesund auf Spitzbergen (Station “Koldewey“), die vom Alfred-Wegener-Institut betrieben wird. Vom Herbst 1990 bis Sommer 1997 wurde dreimal am Tag und zwar um 6-, 12-, und 18 Uhr gemessen. Ab Sommer (bis heute, ab der grünen Linie) wird achtmal täglich gemessen und zwar um 0-, 3-, 6-, 9-, 12-, 15-, 18-, und 21 Uhr. Sehr gut ist zu erkennen, dass mit der neuen Temperaturerfassung, die Temperaturkurve deutlich angehoben wird. Die Messwerte um 15 Uhr verursachen darüber hinaus noch starke Temperaturausreißer nach oben (die Anhebung der Min/Max-Werte ist durch die farbigen Querbalken markiert). Sowohl im Zeitraum 1990 bis Sommer 1997, als auch im Zeitraum vom Winter 1997 bis 2007 ist keine Tendenz der Temperatur zu erkennen. Wird aber über den gesamten Zeitraum von 1990 bis 2007 die Temperatur betrachtet, so steigt diese, aufgrund der vorgenommenen Änderung der Datenerfassung.

Die meteorologischen Institute (auch der DWD) verhelfen durch diesen Trick in der Temperaturdatenerfassung der globalen Temperaturkurve zu einem Anstieg, während gleichzeitig die Satellitenmessungen einen tatsächlichen Rückgang der Temperaturen zeigen. Verstehen Sie mich bitte nicht falsch, es ist nichts dagegen einzuwenden, dass in der Meteorologie ein, dem technischen Standard entsprechendes optimiertes Datenerhebungssystem eingeführt wurde. Es ist nur befremdend, dass dies in den Temperaturreihen nicht vermerkt wird, da durch das neue Verfahren der Vergleich der Datenreihen vor und nach 2001 nicht mehr möglich ist. Wegen der starken Asymmetrie des Tagegangs der Temperaturen werden die berühmten Äpfel mit Birnen verglichen.

Im Zusammenhang mit Climatgate wurde viel darüber berichtet, dass Mails gelöscht wurden, Rohdaten der Temperaturen beim CRU verschwunden sind, ebenfalls gelöscht wurden, etc. Auch der Beleg (Abbildung 8), dass durch zusätzliche Erfassungszeiten, die Temperaturdaten künstlich nach oben verschoben werden, wurde, nachdem der Verfasser dies in 2008 in einer Diskussion Herrn Prof. Dr. Rahmstorf auf KlimaLounge vorhielt, aus dem Netz genommen. Der Beleg war unter der Internetseite „Bremen und Umland im Bild“ (http://home.arcor.de/meino/klimanews/index.html) zu finden. Da der Verfasser von der Seite eine free-pdf. besitze, können Sie sich in der Anlage von der Richtigkeit überzeugen.

Algorithmusfehler

Besonders das GISS fiel in den letzten Jahren durch eine Reihe eklatanter Fehler auf. So mussten beispielsweise Monatsdaten nachträglich korrigiert werden, weil Daten von Vormonaten in die Bewertung einflossen. Als Folge wurden Oktoberwerte ausgewiesen, die alle bisherigen Rekorddaten brachen, weil Septemberdaten verwendet wurden, u.v.m.

Gezielte Manipulationen

Wie die Welt dank des Glimategate-Skandals erfahren hat, haben Jones und Hansen ihre Datenreihen durch einen “Trick“ angepasst. Wie dies geht, zeigt die Abbildung 9.

 

Abbildung 9

Die Abbildung 9 zeigt die aus Baumringdaten rekonstruierte Temperaturkurve der letzten 2.000 Jahre (blaue Kurve). Es ist ersichtlich, dass  ab ca. 1960 die Daten nicht mit den gemessenen Temperaturdaten übereinstimmen. Die blaue Kurve zeigt einen Temperaturrückgang, während die Bodenmessungen einen Anstieg ausweisen (vortäuschen). Jones hat offensichtlich die Datenreihe ab ca. 1960 abgeschnitten und durch die gemessenen Werte ersetzt, wodurch ein steiler Temperaturanstieg zu sehen ist, der, wie bereits erwähnt, in den Sattelitenmessungen, die im Gegensatz zu den Bodenmessungen nicht punktuell, sondern in der gesamten Oberfläche und kontinuierlich messen, nicht erkennbar ist. Es handelt sich also um eine bewusste Fälschung und Täuschung der Adressaten aus Politik und Medien.

Werden dann weitere, man muss schon von Fälschungen der Daten ausgehen, Korrekturen der Temperaturen der ersten Hälfte des 20. Jahrhunderts vorgenommen, dann erscheint die berüchtigte Jones-Kurve (Abbildung 2), die Politik und Medien manipulierte. Ich möchte Ihnen als Beweis einen Ausdruck aus 1978, Quelle National Geographic vorstellen, auf dem um 1940 eine starke Warmperiode, mit Temperaturen von über 0,5°C über dem Langfristmittel abgebildet ist, die bei Jones und Hansen heute nicht mehr zu sehen ist.

 

Abbildung 10

In der Abbildung 10 von Jones (oben) beträgt der Temperaturhub zwischen 1940 und 1970 nicht mehr 0,5°C, wie noch in der Abbildung der National Geographic von 1978 zu sehen, sondern er wurde auf wundersame Weise auf 0,1°C herunter manipuliert. Es gibt kein anderes Wort, als Manipulation oder Betrug von Temperaturdaten dafür. Oder sollte Jones von seiner Arbeit so überfordert sein, dass ihm ein solch katastrophaler Fehler unterlaufen ist. Dann wären er und mit ihm das IPCC, als kompetente Vertreter ihres Standes nicht mehr haltbar und Politik und Medien sollten sich schleunigst nach geeigneteren Personen umsehen. Auf der 2. Klimakonferenz in Berlin am 04. Dez. 2009 war z.B. eine Vielzahl von ihnen vertreten.

Werden von unabhängiger Seite die Temperaturrohdaten ausgewertet, so ist auch heute der starke Temperaturanstieg in der ersten Hälfte des 20. Jahrhunderts zu sehen, Abbildung 11.

Abbildung 11

Die Abbildung 11 zeigt die Temperaturdaten von 1870 – 2002, Quelle: (http://wattsupwiththat.com/2009/11/29/when-results-go-bad/#more-13373). Klar erkennbar, dass in der ersten Hälfte des 20. Jahrhunderts die Temperaturen höher lagen, als zum Ende des 20. Jahrhunderts, obwohl CRU, GISS und IPCC der Welt anderes weismachen wollen (Abbildung 2 und 3). Die Abbildung deckt sich mit den US-Temperaturwerten – das wärmste Jahr im 20. Jahrhundert ist 1934. Von den 10 wärmsten Jahren liegen 6 vor 1940! Auch bei den US-Temperaturdaten hatte das GISS zuerst falsche Daten geliefert, die zu dessen wohl gefälschter Temperaturkurve passen. Das GISS musste die TOP-Temperaturjahre korrigieren, als der bekannte Meteorologe Steve McIntyre ihm Fehler in der Datenauswertung nachwies.

Weitere Datenfälschungen, z.B. über arktische Temperaturen sind hier zu entnehmen: http://bobtisdale.blogspot.com/2008/07/polar-amplification-and-arctic-warming.html

oder Manipulationen bei Ländermessungen:

http://landshape.org/enm/australian-temperature-adjustments/

Anhand des Climategate-Skandals und der großen Unterschiede (Abbildung 13) zwischen den satellitenbasierten Temperaturreihe und den Daten der GISS und Jones (CRU) ist festzuhalten, dass die offiziellen Datengeber des IPCC, die Daten einer Kurspflege unterzogen haben, die das Konstrukt eines anthropogenen Klimawandels beweisen sollten. Ihre Daten halten einer wissenschaftlichen Überprüfung nicht stand, wie bereits die Hockey-Stick-Kurve von Prof. Mann, die ebenfalls (vor 3 Jahren) als Fälschung entlarvt wurde. Eine wissenschaftliche Überprüfung der HadCrut-Daten wird sich allerdings schwierig gestalten, weil ganze Rohdatensätze und Tabellen aus unerklärlichen Gründen verschwunden sind.

 

Abbildung 12

Die Abbildung 12 (Quelle: http://wattsupwiththat.com/2009/12/20/darwin-zero-before-and-after/#more-14358) zeigt die Temperaturdatenreihe der nordaustralischen Messstation „Darwin Zero“. Die Rohdaten zeigen einen gänzlich anderen Temperaturverlauf, wie die „bereinigten“ Werte (GHCN: Global Historical Climatology Network). Während diese Temperaturwerte einen gewaltigen Temperaturanstieg signalisieren, zeigt der Trend bei den Rohdaten eine leicht fallende Temperaturentwicklung.

Es muss davon ausgegangen werden, dass die Affäre um die gefälschten CRU-Daten nur die Spitze des Eisbergs darstellt und in den nächsten Wochen mit weiteren Enthüllungen zu rechnen ist, wie am Beispiel von Dr. Ben Santer, Klimaforscher und Leit-Autor des IPPC, Mitarbeiter am IPCC SAR Bericht von 1995, zeigt, der am 19.12.2009 in der Jesse Ventura Talkshow zugab, die Teile aus dem Kapitel 8 des Berichtes gelöscht zu haben, die ausdrücklich einen vom Menschen verursachten Klimawandel verneinen (http://www.eike-klima-energie.eu/news-anzeige/climategate-update-ipcc-leit-autor-ben-santer-gibt-faelschung-zu/).

Werden die satellitenbasierten Messungen (insbesondere deren Verlauf), mit den CRU-Daten verglichen, wird der Manipulationsverdacht sichtbar (Abbildung 13).

 

Abbildung 13

Während die aus Millionen Satellitendaten der NASA ermittelte globale Temperaturreihe nur einen sehr schwachen Temperaturanstieg ab 1988 zeigt, der seit 2003 wieder rückläufig ist und fällt, zeigen die Daten von Jones (und der GISS, siehe Abbildung 3) einen rasanten Temperaturanstieg im gleichen Zeitraum (grün hinterlegter Bereich).

Anhand der Satellitendaten, die seit 1979 vorliegen, ist festzuhalten, dass es bis Ende der 1980-Jahre keine Temperaturerhöhung gab, bis zur Jahrtausendwende ein leichter Anstieg von ca. 0,3 °C zu verzeichnen ist, der natürlichen Ursprungs ist, sich in die historischen Temperaturwerte einfügt und seit Beginn dieses Jahrtausends, aufgrund nachlassender Sonnenaktivität (EIKE berichtete mehrmals über die Zusammenhänge), die Temperaturen deutlich fallen, wie die Abbildung 14 zeigt.

 

Abbildung 14

Die Abbildung 14 zeigt die vier Temperatur-Szenarien (B1, A1B, A2, Commitment) aus dem IPCC-Bericht 2007, die aus den IPCC-Klimamodellen ermittelt wurden. Das Szenario “Commitment“, welches die niedrigste Temperaturentwicklung angibt, geht dabei von einer gleich bleibenden CO2-Konzentration wie im Jahr 2000 aus! Bei den drei anderen Szenarien steigt indes die CO2-Konzentration weiter an, wie dies z.B. die Mauna Loa-Daten wiedergeben, Quelle: ergänzt nach Spektrum der Wissenschaft 02/09, “Kalt erwischt“, S. 21 – 22. Die roten Punkte geben die tatsächliche Temperaturentwicklung bis 2008 wieder (schwarze Punkte, sind die gemessenen Temperaturwerte bis 2005). Seit 2005 fallen die Temperaturen deutlich. Die grün, blau und violett schraffierten Bereiche zeigen die Szenarien der früheren IPCC-Vorhersagen (FAR = First Assessment Report, 1990; SAR = Second Assessment Report, 1995; TAR = Third Assessment Report, 2001).

Für unsere Berliner Politiker zum Abschluss noch eine Datenreihe der dort gemessenen Temperaturen von 1730 – 2000, Quelle: (http://www.wetterzentrale.de/klima/tberlintem.html). Unnötig festzuhalten, dass es keinen Grund für irgendwelche Panik oder gar einer Klimasteuer oder Ähnlichem gibt. Auch in Berlin fallen die Temperaturen seit Jahren wieder, wie in der Abbildung 16 ersichtlich.

 

Abbildung 15

Die Abbildung 15 zeigt die Datenreihe der Temperaturen von Berlin im Zeitraum von 1730 – 2000. Deutlich zu sehen, dass es in der Vergangenheit teils deutlich höhere Temperaturen über längere Zeitintervalle gab als heute.

Die Abbildung 16 zeigt die Temperaturen in Berlin seit Dezember 2005 bis Dez. 2009. Auch in Berlin, wie überall auf der Welt, gehen die Temperaturen deutlich zurück. Die Max-Werte um einige °C.

 

Abbildung 16

Die Abbildung 16 zeigt den Temperaturgang in Berlin-Tempelhof von Dez. 2005 – Dez. 2009. Sowohl Min als Max-Temperaturwerte zeigen eine eindeutig fallende Tendenz, obwohl der CO2-Pegel in den vergangenen 4 Jahren deutlich angestiegen sein soll.

Es ist an der Zeit, dass unsere Politiker die Realitäten erkennen und nicht weiter unseligen Propheten der Klimakatastrophe verfallen, so wie dies noch jüngst von unserem Umweltminister Herrn Röttgen verlautbar wurde, der das Scheitern der Klimakonferenz von Kopenhagen, insbesondere den USA anlastete. Herr Röttgen sollte besser einmal in Erwägung ziehen, ob sich die dortigen Verantwortungsträger nicht längst den Realitäten stellten und vor allem, diese Realitäten auch berücksichtigen, während an manchen Stellen in Berlin anscheinend noch mittelalterliche Inquisition das Wort geredet wird.

Raimund Leistenschneider-EIKE

Die Dokumentation finden Sie auch als pdf Datei im Anhang

Related Files