Über den solaren Anteil am kurz- und langfristigen Temperaturverhalten nach 1880 auf der regionalen und globalen Klimaskala

Wie in früheren Beiträgen zur BWK ausgeführt, wird das Klimasystem der Erde sowohl von kurz- als auch von langfristigen Prozessen permanent beeinflusst (angetrieben). Der resultierende Antriebsvektor bestimmt in jeder Klimaphase Richtung und Ausmaß des Klimaverhaltens. Zu den kurzzeitigen Einflussfaktoren zählen u. a. die Auswirkungen von Vulkanausbrüchen auf die solare Einstrahlung, die regelmäßigen atmosphärischen Auswirkungen der ENSO-Kaltphasen (La Niña) bzw. ENSO-Warmphasen (El Niño), aber auch Fluktuationen des solaren Energieflusses.
Zu den langfristigen Klimaprozessen zählte in allen Klimaepochen unseres Planeten der solare Klimaantrieb, d.h. die langfristige Änderung des solaren Energieflusses zur Erde. Der Wechsel von Warm- und Kalt-/Eiszeiten während der letzten rund 2 Mio. Jahre ist ein Beleg für den solaren Effekt. Auch wenn der solare Effekt im Glazial bzw. Interglazial andere zeitliche Dimensionen hatte, so ändert das nichts an der Tatsache, dass unser Klima auf allen Zeitskalen von der Sonne fortlaufend beeinflusst wird. 
Bei der folgenden Analyse geht es zum einen um die Frage, welchen Anteil der integrale (direkte und  indirekte) solare Effekt auf der kurzfristigen, quasi-dekadischen Klimasubskala hat, die durch Überlagerung vielfältiger Prozesse eine große Variabilität aufweist. Zum anderen gilt es zu untersuchen, wie hoch der Anteil des solaren Effekts am wahren, langfristigen Klimawandel ist. Die Antwort auf diese Frage wird zugleich klären, wie sicher die Behauptung von der Dominanz des menschlichen (CO2-) Klimaeinflusses auf die Erwärmung im 20.Jahrhundert ist.

Lange und zuverlässige Klimareihen wie in Europa liegen außerhalb von Europa nur begrenzt vor. Viele Klimastationen sind erst im letzten Drittel des 19. Jahrhunderts eingerichtet worden. Aus diesem Grund beginnt die vorliegende Analyse mit dem Sonnenfleckenzyklus ab 1883. Sie erfasst dabei den Zeitraum der globalen Erwärmung bis zum Ende des 20. Jahrhunderts. Seither fehlt nach den offiziellen Daten ein weiterer globaler Temperaturanstieg. Die Jahresmitteltemperaturen pendeln im letzten Jahrzehnt lediglich im El Niño-/La Niña- Rhythmus leicht auf und ab (Korrelation zu ENSO-Phasen: +0,95).
Lesen Sie den ganzen Beitrag in den Publikationen.
Horst Malberg, Univ.Prof. (A.D.) für Meteorologie und Klimatologie




Über den solaren Anteil am kurz- und langfristigen Temperaturverhalten nach 1880 auf der regionalen und globalen Klimaskala

Wie in früheren Beiträgen zur BWK ausgeführt, wird das Klimasystem der Erde sowohl von kurz- als auch von langfristigen Prozessen permanent beeinflusst (angetrieben). Der resultierende Antriebsvektor bestimmt in jeder Klimaphase Richtung und Ausmaß des Klimaverhaltens. Zu den kurzzeitigen Einflussfaktoren zählen u. a. die Auswirkungen von Vulkanausbrüchen auf die solare Einstrahlung, die regelmäßigen atmosphärischen Auswirkungen der ENSO-Kaltphasen (La Niña) bzw. ENSO-Warmphasen (El Niño), aber auch Fluktuationen des solaren Energieflusses.
Zu den langfristigen Klimaprozessen zählte in allen Klimaepochen unseres Planeten der solare Klimaantrieb, d.h. die langfristige Änderung des solaren Energieflusses zur Erde. Der Wechsel von Warm- und Kalt-/Eiszeiten während der letzten rund 2 Mio. Jahre ist ein Beleg für den solaren Effekt. Auch wenn der solare Effekt im Glazial bzw. Interglazial andere zeitliche Dimensionen hatte, so ändert das nichts an der Tatsache, dass unser Klima auf allen Zeitskalen von der Sonne fortlaufend beeinflusst wird. 
Bei der folgenden Analyse geht es zum einen um die Frage, welchen Anteil der integrale (direkte und  indirekte) solare Effekt auf der kurzfristigen, quasi-dekadischen Klimasubskala hat, die durch Überlagerung vielfältiger Prozesse eine große Variabilität aufweist. Zum anderen gilt es zu untersuchen, wie hoch der Anteil des solaren Effekts am wahren, langfristigen Klimawandel ist. Die Antwort auf diese Frage wird zugleich klären, wie sicher die Behauptung von der Dominanz des menschlichen (CO2-) Klimaeinflusses auf die Erwärmung im 20.Jahrhundert ist.

Das regionale Klimaverhalten

Lange und zuverlässige Klimareihen wie in Europa liegen außerhalb von Europa nur begrenzt vor. Viele Klimastationen sind erst im letzten Drittel des 19. Jahrhunderts eingerichtet worden. Aus diesem Grund beginnt die vorliegende Analyse mit dem Sonnenfleckenzyklus ab 1883. Sie erfasst dabei den Sie erfasst dabei den Zeitraum der globalen Erwärmung bis zum Ende des 20. Jahrhunderts. Seither fehlt nach den offiziellen Daten ein weiterer globaler Temperaturanstieg. Die Jahresmitteltemperaturen pendeln im letzten Jahrzehnt lediglich im El Niño-/La Niña- Rhythmus leicht auf und ab (Korrelation zu ENSO-Phasen: +0,95).
Lesen Sie den ganzen Beitrag als pdf Anhang

Horst Malberg, Univ.Prof. (A.D.) für Meteorologie und Klimatologie

Related Files




Texas: Wir haben Milliarden in Windenergie investiert – und bekommen Stromausfälle!

Trotz des gewaltigen Ausbaus an installierter Windkraft-Nennleistung waren diese Anlagen nicht imstande, oft mangels Wind, den Ausfall von zwei konventionellen Kraftwerken auszugleichen. Eine Zeit lang prahlte Texas damit die Nr. 1 für Windenergie zu sein, (was es ist) und wir wurden mit TV-Werbespots und Zeitungsartikelln zugemüllt, die für den  "Pickens Plan"warben, der für massive Ausgaben für Windenergie stand. Pickens selbst plante den Bau riesiger Windparks im Nordwesten von Texas. Er hat jetzt alle Aufträge dazu storniert und den Weiterbau gestoppt. 
Natürlich haben auch andere Länder wie Großbritannien bei kaltem Wetter und leichten Winden Wind-Stromausfälle erlebt (und rollende Blackouts)  So auch im vergangenen Winter der US Bundesstaat Minnesota. Ich denke, wir sollten von ihnen lernen. 
Wenn Texas dieselbe Dollar Investitionen in neue Kohle-und / oder Atomkraftwerkn gemacht hätte, sie würden es jetzt wahrscheinlich mollig warm haben. Müssen wir wirklich während extremer Kälte unsere Familien und deren Sicherheit zusammen mit der Produktivität aus Gründen der politischen Korrektheit, opfern ?
Kommentar: 
„Erneuerbaren Energien” auszubauen und damit andere Energieerzeugung zu ersetzen? Texas hat diese Idee jetzt unfreiwillig in die Tat umgesetzt – und schweren Schiffbruch erlitten. Die unzuverlässige Windenergie kann konventionelle Kraftwerke (einschließlich Wasserkraft) nicht ersetzen. Darauf ausgerichtete Planungen sind Phantasiegebilde, die die Gesellschaft großen Gefahren für die Versorgungssicherheit (mit allen daran anschließenden Problemen) aussetzen.
Unter Verwendung von Texten von W. Kreuzmann auf Klimaskeptikerinfo
Englisches Original hier




Wie falsch sind die IPCC Temperaturberechnungen? Gleicht die Bildung von Differenzen (Anomalien) systematische Fehler aus?

aktualisiert am 23.10.18

Die Quelle der ursprünglichen Grafik (hier wird die aktualisierte Version von Juli 2010 gezeigt) ist ein Aufsatz der IPCC Leitautoren Brohan und Jones[1] (hier mit Brohan et al 2006 genannt) indem detailliert beschrieben wird, wie man die unterschiedlichsten Temperaturdaten weltweit zusammenfasst und wie man dabei versucht allfällige Fehler, die diese Daten haben, zu kompensieren. Besonders schwierig ist das mit sog. systematischen Fehlern. Geht eine Uhr z.B. ständig 5 Minuten nach, dann nützt auch ein häufigeres Ablesen der Uhrzeit nicht weiter, die abgelesene Zeit ist immer um 5 Minuten falsch. Erst ein Vergleich mit einer genauen Referenzuhr erlaubt den Fehler zu erkennen und dann – als Korrrektur- von der abgelesenen Zeit einfach 5 Minuten hinzuzählen. Damit wäre der Fehler korrigiert. Diese einfache Methode ist natürlich bei den Temperaturdaten der Vergangenheit so gut wie nie anwendbar. Deswegen versucht man es dort u.a. mit der Bildung von Differenztemperaturen, in der Hoffnung dass sich dadurch die systematischen Fehler gegenseitig zum Verschwinden bringen.

Viele Klimatologen weltweit glauben nämlich fest daran [2], dass, wenn sie für die Trendbestimmung von Temperaturen, Differenzen aus bestimmten Temperatur-Variablen bilden würden, diese Differenzen (Anomalien) von allen systematische Fehlern befreit seien. Ein bekannter IPCC Leitautor gab mir auf Anfrage (wie man denn Seewassertemperaturen mit Lufttemperaturen mischen könne, wo doch beide Medien völlig unterschiedlich auf Wärme reagieren) vor einiger Zeit dazu diesen guten Rat:: „…… Think in ANOMALIES and not absolute temperatures.“ Diesen Rat befolgend, denke ich nun in Anomalien und schaue mir deren Verhalten in den offiziellen Temperaturganglinien an.

Anomalienbildung und Fehlerkorrektur

Das Verfahren der Differenzen- oder Anomalienbildung wird von allen Klimatologen umfassend eingesetzt, um die Trendverläufe stark unterschiedlicher Temperaturgänge vom Äquator bis zu den Polen vergleichbar machen zu können. Nun sind die gemessenen absoluten Temperaturen immer mit zahllosen Fehlern behaftet. Auch die daraus gebildeten  Tages- Monats- oder Jahresmittelwerte enthalten diese Fehler. Und es kommen neue Fehler hinzu, die durch den verwendeten Algorithmus der zur Durchschnittsbildung verwendet wird, entstehen. Näheres dazu hier. Nach der Fehlertheorie unterscheidet man dabei zwischen zufälligen,  groben, und systematischen Fehlern. Für diese Betrachtung sollen uns nur die systematischen Fehler interessieren.

In der Klimatologie werden zur Bestimmung des Referenzwertes, die errechneten Monatsmittel oder Jahrsmittel der gemessenen Temperatur einer Station, über den Zeitraum von 1961 bis 1990 aufaddiert und durch die Anzahl aller Monats- oder Jahresmittel dieses Zeitraumes geteilt. Der so enthaltene Wert entspricht einer Geraden gleicher „Temperatur“ über den Referenz-Zeitraum von 1961 bis 1990. (Es kann im Prinzip aber auch jeder andere Zeitraum sein.) Der zugehörige Referenz-Wert wird oft das Stationsnormal genannt. Folgerichtig heißen die Abweichungen vom (Stations)-Normal Anomalien.

Nun bildet man die Differenz aus allen absoluten Jahresmitteln Tx der Zeitreihe und dem Stationsnormal Tref und ermittelt auf diese Weise eine neue Zeitreihe der Anomalien eben dieser Station.  Dabei geht man von der Annahme aus, dass diese, wenn sie einen Fehler C enthalten, dieser auch im Stationsnormal vorhanden ist. Ferner unterstellt man, dass C eine konstante Größe hat. Bspw. Brohan und Jones[3] formulieren diese Annahme (in Bezug auf die Fehler durch unterschiedliche Mittelwertbildung) so:

„..There will be a difference between the true mean monthly temperature (i.e. from 1 minute averages) and the average calculated by each station from measurements made less often; but this difference will also be present in the station normal and will cancel in the anomaly.

Berechnet man jetzt die Anomalie Ax = (Tx+C) –(Tref+ C), dann hebt sich C auf. Das ist schlichte Algebra. So weit so gut! Die große Frage ist nun, funktioniert das bei Zeitreihen auch so? Warum denn nicht, wird mancher vorschnell antworten. Die Algebra ist schließlich immer gleich! Oder?

Es zeigt sich sehr schnell, dass die Idee der Fehlerkompensation, die hinter dieser einfachen Methode steckt, ebenso plausibel wie falsch ist, bzw. sie stimmt nur innerhalb ganz enger Randbedingungen, die in der hier interessierenden Praxis nicht eintreten.

Anomalien und sprunghafter Fehler

Machen wir dazu die Probe aufs Exempel, indem wir einen Anomalienverlauf aus einem (künstlichen) sinusförmigen Temperaturverlauf von 1850 bis 2009 erzeugen. Blau sei der Anomalienverlauf ohne Fehler. Die Anomalie verläuft fast gradlinig, wie die blaue Trendlinie anzeigt. Ab 1940 wird nun ein Fehler von + 1 K eingefügt. Gemäß Rechenanweisung w.o. wird dann aus beiden Werten für alle Jahre (x) die Differenz gebildet. Ab 1940 hebt sich der Fehler auf. Beide Verläufe gehen ineinander über. Vor 1940 jedoch wird allein durch den Rechenprozess die Temperaturanomalie um 1 k abgesenkt. Wir sehen, die Annahme von vorhin gilt nur für die Zeit nach 1940. Vorher nicht.  Lässt man Excel eine Trendgerade durch diese Werte legen, dann sehen wir, dass sich beide erheblich unterscheiden.

Daran ändert sich auch nichts, wenn wir den Eintritt des Fehler auf später verlegen. Wie das nächste Bild zeigt. Dort werden die Kurven Anomalie 1 und 3 genannt.

Auch hier hebt sich der Fehler nicht auf, sondern ist weiter voll vorhanden und wirksam, natürlich erst, nachdem er auftritt. Der Unterschied zum ersten Beispiel ist, dass nun überhaupt keine „wahre“ Temperaturanomalie mehr gezeigt wird, sondern nur noch die fehlerbehaftete Summe.

Schleichender Fehler

Genauso entwickelt sich das Ergebnis, wenn man anstatt (oder zusätzlich) einen schleichenden Fehler in den zuvor fehlerfreien Verlauf einbringt.  Ich habe das in der folgenden Abbildung getan. Dort wurde von Anfang an ein schleichender systematischer Fehler von +0,1 K/Dekade eingebracht, wie er z.B. vom städtischen Wärmeinseleffekt hervorgerufen werden kann.

Wir sehen einen schön ansteigenden Verlauf (zuvor war er fast gerade) – verursacht allein durch den schleichenden systematischen Fehler- z.B den UHI. Nur kann jetzt überhaupt nicht unterschieden werden, ob ein systematischer Fehler vorliegt, oder ob sich die Umgebungstemperatur z.B. durch den Treibhauseffekt erhöht hat.

Man könnte nun beanstanden, dass die Fehlergröße in diesen Beispielen etwas hoch gewählt wurde. Dem ist aber nicht so, wie die zahlreichen Untersuchungen z.B. von Watts (http://www.surfacestations.org/) zeigen. Denn Fehler dieser Art gab und gibt es zahlreich. Sie werden durch Stationsverlegungen, Thermometertausch, Änderung der Farbbeschichtung der Station, Änderung des Algorithmus für die Berechnung des Mittelwertes u.v.a. mehr eingebracht. Es wäre nun vielleicht möglich den Anstieg im obigen Beispiel als Ausreißer zu erkennen, weil er einmalig und sprunghaft  -wenn auch konstant- auftritt, und ihn durch entsprechende Rechnungen zu kompensieren. Das geschieht aber nur sehr, sehr selten, weil sich bei den abertausenden von Datensätzen der Vergangenheit kaum jemand diese Mühe macht, bzw. machen kann

Kein Fehlerausgleich möglich

Eine Korrektur unterbleibt hauptsächlich deswegen, weil man die Binsenweisheit (siehe Brohan et al 2006) von zuvor glaubt, dass sich der Fehler bei Anomalienbildung von selbst ausgleicht.  Das ist aber, wie wir gesehen haben, grottenfalsch!

Eine Korrektur unterbleibt aber auch in den allermeisten Fällen deshalb, weil die dazu erforderlichen sog. „Metadaten“ fehlen und auch nicht mehr herbeigeschafft werden können. Diese beschreiben die Umgebungsbedingungen, Maßnahmen, Algorithmen und vieles anderes, was in und um die Station über den Zeitraum passiert ist. (Siehe dazu bspw. Harrys Read Me Files des Meteorologen und Programmierers bei der CRU Harry: „HARRY_READ_Me.txt.“ z.B. hier http://www.anenglishmanscastle.com/HARRY_READ_ME.txt. Diese ist 274 Seiten lang. Die dazugehörige Datenbasis enthält über 11.000 Dateien aus den Jahren 2006 bis 2009[4])

Allgemein gilt daher, die Annahme, dass sich bei Anomalienbildung die Fehler aufheben, ist nur dann richtig, wenn der gemeinsame, gleich große und richtungsgleiche Fehler vor dem Beginn der untersuchten Zeitspanne eintritt und dann so bleibt. In unserem Falle also vor 1850. Das liegt jedoch weder in unserem Ermessen, noch haben wir davon Kenntnis, sondern es wird allein durch die Realität bestimmt. Deshalb kann festgehalten werden, dass diese simple Fehlerkorrekturmethode in aller Regel nicht anwendbar ist. Angewendet wird sie aber von sehr vielen -auch IPCC- Klimatologen trotzdem.

Zusammenfassung

In der Statistik ist es eine gängige Methode Werte von div. Variablen mit Referenzwerten eben dieser Variablen zu vergleichen, um auf diese Weise bei eventuellen Abweichungen u.U. Ähnlichkeiten im Verlauf oder sogar Hinweise auf mögliche Ursache und Wirkungsbeziehungen zu bekommen. Allerdings muss man sich immer im Klaren darüber sein, wie sehr diese Methode von den Randbedingungen abhängt. Es wird gezeigt, dass eine schlichte Anomalienbildung keineswegs ausreichend ist, um schwer bestimmbare variable oder konstante systematische Fehler herauszurechnen. Im Gegenteil, man müsste in jedem Fall diese Fehler bestimmen, sie quantifizieren und einordnen, um sie dann evtl. mehr oder weniger gut rechnerisch ausgleichen zu können. In der Klimatologie ist diese Einschränkung in Bezug auf die Schwächen der Anomalienbildung offensichtlich nicht überall bekannt. Nur so lässt sich erklären, dass auch hochangesehene Forscher diese simplen Zusammenhänge oft nicht beachten. Ihre Ergebnisse sind dadurch entsprechend falsch und damit unbrauchbar, bzw. mit wesentlich größeren Fehlern (Unsicherheiten) behaftet als angegeben.

Michael Limburg EIKE


[1] Brohan, PK,J. J. Harris, I., Tett S. F. B.; & Jones, P. D. (2006) Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. HadCRUT 3 HadCRUT 3:1 to 35.

[2] Brohan et. al 2006 geben auf Seite 6 den allgemeinen Glauben an die Fehlerfreiheit der Anomalien wider, in dem sie schreiben: „..There will be a di?erence between the true mean monthly temperature (i.e. from 1 minute averages) and the average calculated by each station from measurements made less often; but this di?erence will also be present in the station normal and will cancel in the anomaly. So this doesn’t contribute to the measurement error. Im Folgenden beschreiben die Autoren wie die Anforderungen an die Bildung der „station normals“ also der Referenzwerte (lt. WMO der Mittelwert jeder Station über die Jahre 1961-1990) aufgeweicht (relaxed) wurden. Die durchgeführte Re­duk­ti­on der An­for­de­run­gen zur Bildung des Referenzwertes (Station Normal) auf nur noch 15 Jah­re und da­raus 3 x 4 Jah­re in je­der De­ka­de, er­höht den Feh­ler, der schon in der Ver­wen­dung des Sta­ti­on Nor­mals steckt, wei­ter

[3] Brohan, PK,J. J. Harris, I., Tett S. F. B.; & Jones, P. D. (2006) Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. HadCRUT 3 HadCRUT 3:1 to 35.

[4] Details entnommen aus ‚Botch after botch after botch‘ Leaked ‚climategate‘ documents show huge flaws in the backbone of climate change science By LORRIE GOLDSTEIN




An der Tankstelle gibt es jetzt Bio!

Die durch Brüssler Ökodiktatoren befohlene "Bio-"Verunreinigung des Sprits
– erhöht den Kraftstoffverbrauch
– senkt die Leistung (geringere Energiedichte des Bioethanols)
– erhöht den CO2-Ausstoss (diese Information ist natürlich nur für die relevant, die noch immer dran glauben, CO2 und Klima hätten dolle was miteinander zu tun …)
– gefährdet Motoren (Zerstörung oder mindestens Senkung der Lebensdauer durch Beschädigung von Leitungen und Dichtungen) und damit Milliardenwerte
– senkt gerade angesichts der sich global abkühlenden Winter ( http://notrickszone.com/2010/12/28/global-cooling-consensus-is-heating-up-cooling-over-the-next-1-to-3-decades/ – auf Deutsch hier) die Betriebssicherheit der Fahrzeuge (Ethanol enthaltendes Benzin nimmt mehr Wasser auf. Dieses kann bei entsprechenden Kältegraden als Eis ausfrieren und Leitungen verstopfen.)
Bis 2007 fuhr ich einen Audi A4 (Baujahr 2004), der bereits die damalige 5%-Verunreinigung mit Biosprit nicht vertrug (fing an, sehr peinlich schwarz zu qualmen) und ostwärts in Länder mit (noch) sauberem Spritangebot verschickt werden mußte. Auch Fahrzeuge vom Baujahr 2009 können durch einmaligen Tanken von E10 zerstört werden. Zuweilen sind es (bis in Produktionsjahr 2009!) nur einzelne Baumonate von Motoren wie bei Toyota (der Lieblingsmarke von Frau R. Künast). Kein Tankwart kann da sichere Auskunft geben.

Die Produktion des Biosprits
– zerstört Umwelt
– verknappt und verteuert Lebensmittel weltweit (http://www.n-tv.de/politik/Biosprit-verursacht-Hunger-article12373.html) Man könte ausrechnen, wieviel Hungertote die Lebensmittelverknappung so bringt – es gibt Schätzungen zwischen 10.000 und 500.000 pro Jahr.
– macht die ach so "grünen" Investoren noch reicher
Ich spar mir mal die seriösen Quellen, sondern zitiere den Medienkonzern Greenpeace (wo sie Recht haben, haben sie Recht!):
"… Wald, Weide- oder Brachland in Ackerland umzuwandeln, kann dazu führen, dass noch mehr Kohlendioxid (CO2) freigesetzt wird. E10 kann also nicht nur Autos ruinieren, sondern auch unsere Umwelt."
http://tinyurl.com/e10-ist-mist
"Die Treibhausgasbilanzen der Agrokraftstoffe sind damit nach Berechnungen des IEEP im Schnitt um 81 bis 167 Prozent schlechter als fossile Kraftstoffe. "
http://tinyurl.com/e10-ist-grosser-mist

Siehe auch:

Kein Mensch würde E10 in sein Auto tanken, wenn man die Kosten der Biospritherstellung bezahlen müsste. Deshalb werden die Mineralölgesellschaften zum Mindestanteil E10 im Verkauf gezwungen. Das sichern sie, in dem sie die anderen Sorten teurer machen. Politisch gewollt. Die gleiche fiese Nummer wie bei Solar- oder Windstrom. Die Hersteller werden mit steuerähnlich abgezockten Geld garantiert vergütet, die Kosten werden umverteilt auf Alle, Geringverdiener trifft es überproportional.
Unterm Strich auch hier eine Vermögensumverteilung von unten nach oben (zu den parteinahen Ökoinvestoren), befördert insbesondere durch sich als links darstellende Parteien. Dabei geht es nicht nur um die Verteuerung des Tankens, sondern um die Verteuerung aller Güter, da Spritkosten in den Preis aller Waren und Dienstleitungen eingehen.
Der jüngste (nicht gesundheitsrelevante) Dioxinverunreinigung in Futtermitteln war übrigens eine Nebenwirkung der Biospritproduktion. http://www.tagesschau.de/inland/dioxin112.html
Abschließend könnte die Ökosekte nun mit dem Argument kommen, dass Biosprit zur Einsparung von "Fossilen Brennstoffen" nötig sei. Zutreffend ist, dass wir eigentlich am Beginn des Erdölzeitalters stehen (aber das ist ein extra Thema):

Mein Vorschlag für den nächsten G20-Gipfel: Man möge zum "KLIMASCHUTZ" beschließen, die Globaltemperatur an den Dollarkurs zu koppeln.
Die E10-Einführung schlägt in ihrer Unsinnigkeit sogar das Glühlampenverbot. Wär schön, wenn mal ein paar mehr Leute aufwachen.
So sieht ein tropischer Wald in Indonesien nach der Produktion (hier Abholzung) von Biosprit aus:

Übrigens werden zur Produktion eines Liters Biosprit nicht selten etwa 4000 Liter Wasser verbraucht.
Und zum Schluß mal was Optimistisches: http://www.focus.de/wissen/wissenschaft/psychologie/tid-21092/wahrnehmung-die-welt-ist-besser-als-sie-denken_aid_586515.html

Hier ein frischer Artikel zum Überfluss an Gas:
der entscheidende darin Satz lautet :
…..Geologen der Texas A&M University schätzen, dass die in Amerika entwickelten Bohr- und Förderungstechnologien die weltweit erschließbaren Gasreserven verneunfachen. "Es gibt heute Reichweiten von mehreren Hundert Jahren", sagt Auer. Dies wirke sich auch auf den Energiemix aus. "Es entwertet zum Beispiel die geplanten Pipelineprojekte." Man müsse sich fragen, was mit dem vielen Gas geschehen solle.

Gastautor O.K:
Lesen Sie dazu auch die treffende Kolumne von G. undefinedEderer