Die Biospriteinführung und der „politische Unternehmer“

Biotreibstoffe waren für das Interesse der Medien seit einiger Zeit nur noch von untergeordneter Bedeutung, nachdem Friends of the Earth (FoE hierzulande als BUND auftretend) einen Bericht veröffentlicht hatten,  in dem sie behaupten, dass Biotreibstoffe möglicherweise mehr Treibhausgase erzeugen als sie einsparen. Vielleicht war es das, was mich zu einer von Sharmans Studien stoßen ließ – und zwar die Studie mit dem Titel „Evidence based policy or policy-based evidence gathering? Biofuels, the EU and the 10% target“.
Die Studie von Sharman und Holmes 2010 (wie man sie salopp nennt) ist nicht öffentlich verfügbar, sondern nach meinem besten Wissen gegen Gebühr hier. Aber Amelia Sharman war so freundlich, mir eine Kopie zu senden, und ich muss sagen, dass sie ziemlich interessantes Zeug enthält.
Die Studie untersucht die EU-Vorgabe zur Beimischung von Biotreibstoffen um 10% und im Besonderen die Art und Weise, mit der die wissenschaftlichen Ratschläge hierzu mit der Entscheidung, dieses Ziel einzuführen, zusammenprallt. Es ist eine düstere Geschichte, die Sharman mit Hilfe von Interviews mit Schlüsselfiguren in der Politik-Maschinerie aufgedeckt hat.
Im Jahr 2009, als das Ziel verkündet worden ist, war bei Weitem nicht klar, ob Biotreibstoffe ein brauchbares Mittel zur Reduktion von Treibhausgasen sind. Aber das 10%-Ziel wurde trotzdem eingeführt. Wie einer der Interviewten erklärte:

„Normalerweise sollte man keine Gesetzgebung vorschlagen, solange keine Beweise zur Rechtfertigung vorliegen. Aber hier haben wir Premierminister und Staatsoberhäupter, die sich einem Ziel verschreiben, ohne jemals die möglichen Auswirkungen abgeschätzt zu haben… Sie haben sie dazu gebracht, diese Ziele zu verkünden, 20% Erneuerbare und 10% Biotreibstoffe, und erst danach haben sie eine Risikobewertung vorgenommen. Und im Grunde haben sie gesagt, dass sie eigentlich keine Risikoabschätzung hinsichtlich des 10%-Ziels mehr durchführen müssen, weil es von den Staatoberhäuptern ja schon abgesegnet sei!…“

Wie Sharman und Holmes prägnant kommentieren:

Die Tatsache, dass die EU ein Ziel befürwortet, ohne jemals eine Risikoabschätzung vorgenommen zu haben, bietet den ersten Hinweis darauf, dass die Motivation nicht aus wissenschaftlichen Beweisen hinsichtlich der Umwelt-Nachhaltigkeit resultiert und dass die Reduktion von Treibhausgasemissionen bei der politischen Entscheidung für das 10%-Ziel eine Rolle gespielt hat.

Es gab viele wesentliche Faktoren, die auf die Hauptentscheidungsträger im politischen Prozess eingewirkt haben. Unter anderem wurde an einer Stelle in den Ring geworfen, dass die Energiesicherheit ein Faktor bei der Entscheidung sein sollte, aber tatsächlich war angesichts der Tatsache, dass die EU Ernteerträge zur Erreichung dieses Zieles importieren müsste, klar, dass dies eine Scheinüberlegung war. Unsauberere und weniger wertvolle Ziele – Zahlungen an diverse Interessengruppen – waren anscheinend viel wichtiger gewesen. Im Besonderen brannten die in den politischen Prozess involvierten Personen darauf, in die Biotreibstoff-Industrie zu investieren und eine substantielle Beruhigungspille für die Produzenten von Zuckerrüben in der EU zur Verfügung zu stellen, die Schwierigkeiten hatten, im Wettbewerb mit den Weltmarktpreisen bestehen zu können. Wie ein anderer der Interviewten erklärte:

„Es gab einen heftigen Streit mit der europäischen Bauernlobby. Die Kommission… war verzweifelt auf der Suche nach ein paar Zuckerstückchen, die man der Bauernlobby präsentieren könnte. Im Besonderen war sie verzweifelt daran interessiert, einen Ausweg zu finden, denn allen Erzeugern von Zuckerrüben war klar, dass sie keine Zukunft hatten, wenn es einmal zu einem Wettbewerb beim Verkauf von Zucker kommen würde. Und dann kam man auf den brillanten Gedanken, dass man diesen Zucker zur Erzeugung von Ethanol verwenden könnte, und dass man allgemein einen subventionierten Markt für Landwirte schaffen könnte und dass dies uns gestatten würde, uns hinter der Energiepolitik zu verstecken, wenn einige dieser Subventionen in der Landwirtschaftspolitik so unpopulär werden. Das war der ursprüngliche Hauptantrieb…“

Gegen diesen leicht irrsinnigen Hintergrund wurden die politischen Entscheidungsträger mit widersprechenden wissenschaftlichen Beweisen hinsichtlich der Brauchbarkeit der Biotreibstoffe konfrontiert. Dreh- und Angelpunkt in dieser Diskussion war eine Studie von Searchinger et al. (2008), die ergab, dass Biotreibstoffe tatsächlich mehr Treibhausgase produzieren als sie einsparen, wenn man einmal die indirekten Auswirkungen des Landverbrauchs mit einbezieht.
(Nebenbei: Sie werden bemerkt haben, dass ich mich zu Beginn dieses Artikels auf eine jüngere Studie von Friends of the Earth bezogen habe, die zu der gleichen Schlussfolgerung gekommen ist. Unabhängig vom Ergebnis selbst ist es interessant, darüber zu spekulieren, ob die Studie von Searchinger vor oder nach dem Zeitpunkt veröffentlicht worden ist, an dem Friends of the Earth mit ihrer Kampagne aufgehört haben, Biotreibstoffe verpflichtend in UK einzuführen.)
Aber zurück zum Kern dieser Geschichte. Die Searchinger-Studie scheint ein Hauptstreitpunkt zu sein, und die Repräsentanten der Biotreibstoffindustrie scheinen sich in ziemlich persönlichen Attacken auf den Autor engagiert zu haben, um ihrer Politik zum Durchbruch zu verhelfen. Allerdings gab es immer mehr zunehmende wissenschaftliche Beweise, die die Biotreibstoffe ähnlich wie die Searchinger-Studie sehr kritisch sahen. Obwohl Sharman und Holmes das nicht erwähnen, kann man außerdem nur schwer die Worte des Nahrungsmittelbeauftragten der UN übergehen, der im Jahr 2007 Biotreibstoffe als ein „Verbrechen gegen die Menschheit“ bezeichnet hatte. Die Entscheidung, weiterzumachen und das 10%-Ziel vor diesem Hintergrund einzuführen, scheint daher völlig unerklärlich.
Der politische Unternehmer
Also trieben die Interessengruppen in die eine Richtung und der wissenschaftliche Beweis in die andere. Wie kam es dann, dass das Ziel der Biotreibstoffe schließlich seinen Weg in die Politik gefunden hat? Dafür müssen wir einer mysteriösen Person danken, die Sharman den „politischen Unternehmer“ nennt (ich schätze mal, dass Sharman und Holmes wissen, wer das ist, doch hält sie die Ethik der Forschung davon ab, seine/ihre Identität öffentlich zu machen).

Fast alle Teilnehmer an den Interviews verwiesen auf einen individuellen Akteur innerhalb der EU, der starken Einfluss auf diese politische Entscheidung hatte, aber eine ansehnliche Kontroverse mit anderen Akteuren im politischen Netzwerk des Prozesses heraufbeschworen hat. Dies wirft zwei Fragen auf: Wie kann ein Individuum innerhalb der EU einen so starken Einfluss auf den politischen Prozess nehmen, und warum trägt die Politik nicht den zunehmenden wissenschaftlichen Daten Rechnung, die die Fähigkeit der Biotreibstoffe in Frage stellen, Treibhausgase zu reduzieren?

Wie wirklich? Warum wirklich?
Sharman erklärt, dass der politische Unternehmer weithin von den anderen Teilnehmern am politischen Prozess als ein Protagonist der Transport- und Biotreibstoffindustrie angesehen wird, von dem man sagt, dass er hinsichtlich der Unterstützung des Zieles „dogmatisch“ sei. Die Motivation dieses Einzelindividuums zusammen mit dem politischen Druck, die verschiedenen Interessengruppen zu unterstützen, die in die Biotreibstoffindustrie involviert sind, war eine starke Kraft, diese Bioziele in die Statuten zu hieven.
Allerdings gab es immer noch das vertrackte Problem des Gewichts des wissenschaftlichen Beweises gegen die propagierte Politik, aber dies scheint für den Unternehmer kein Problem gewesen zu sein. Den Insidern zufolge, die von Sharman und Holmes interviewt worden sind:

„…der internen EU-Dokumentation…, die die Entscheidung beflügelte, mit dem 10%-Ziel fortzufahren, wurde ein hoher Einfluss auf das schließliche politische Ergebnis zugeordnet. Die Beweise für eine kritischere Betrachtung … hatten nicht den gleichen Einfluss.“

Andere Interviewte wurden deutlicher dazu, was man gemacht hatte:

Einige der Interviewten haben auch angedeutet, dass der politische Unternehmer als ein Informationswächter fungierte, der den Entscheidungsträgern die wissenschaftliche Kontroverse nur verschleiert ersichtlich machte, indem er sicherstellte, dass nur Daten durchdrangen, die für das gewünschte Endziel sprachen und die in der Lage waren, den politischen Prozess in dieser Richtung zu beeinflussen. Die Fähigkeit des politischen Unternehmers, über die wissenschaftliche Literatur nach Belieben zu verfügen und die Vorteile des 10%-Zieles innerhalb und außerhalb der EU zu propagieren, wurde als ein kritischer Faktor ausgemacht. Dies deutet darauf hin, dass es nicht so sehr fehlende Beweise waren, die das gewünschte Ergebnis herbeigeführt hatten, sondern eher ein Kleben an Beweisen*. Allerdings soll keine dieser Kritiken den Verdacht aufkommen lassen, dass der politische Unternehmer in ausgesprochen böser oder hinterhältiger Absicht agiert hat. Einer der Interviewten unterstellte, dass der Unternehmer „…möglicherweise immer noch die besten Absichten hat (auch wenn er komplett daneben lag)…“ NGOs und der politische Unternehmer selbst scheinen die Politik als ein beliebiges Opfer einer Wertekontroverse zu sehen – Biotreibstoffe als umweltpolitischer ‚Bösewicht des Tages’.

Wenn man die Biotreibstoffe als ein “Verbrechen gegen die Menschheit” sieht, frage ich mich, ob nicht ein wenig mehr Zynismus hinsichtlich der „guten Absichten“ des Unternehmers angebracht wäre.
Wie ich oben sagte, seine Identität ist nicht bekannt. Aber ich bin sicher, dass es uns nicht wehtut zu spekulieren.
Andrew Montford
Aktualisierung von Registered CommenterBishop Hill
Ian Wishart nimmt sich der Geschichte hier an.
Link: http://bishophill.squarespace.com/blog/2012/2/20/the-entrepreneur.html
Übersetzt von Chris Frey EIKE




Das Klima weigert sich hartnäckig, mit den Erwärmungsalarmisten zusammenzuarbeiten

Bild rechts: Autor Larry Bell
Hatte Al Gore also schließlich recht? Vielleicht haben Sie es gehört… er ist in die Antarktis gereist, um zusammen mit dem berühmten NASA-Klimaalarmisten James Hansen das Eis beim Schmelzen zu beobachten, zusammen mit der im Mittelpunkt von Klimagate stehenden Person Kevin Trenberth, dem Milliardär Richard Branson sowie etwa 100 panischen Begleitern. Ihr Timing ist perfekt, es gibt viel zu beobachten für sie. Die Ausdehnung des Meereises um die Antarktische Halbinsel ist fast 200% größer als normal.
Aber auch für diejenigen, die mehr die typischen Frostwerte und sich wechselnde Blizzards bevorzugen, habe ich gute Nachrichten. Obwohl derartige Ereignisse im vergangenen Winter einen Bogen um die USA gemacht haben hin zu anderen Regionen, sollten Sie ihre langen Unterhosen noch nicht wegräumen. Es gibt vielfältige Hinweise, dass Sie sie während der nächsten Jahre noch brauchen.
Um ein wenig die Hintergrundperspektive zu beleuchten, wollen wir uns bewusst machen, dass Klimaänderung sehr real ist und schon seit Urzeiten im Gange ist… bis zurück zum Anfang der Erde. Das Klima änderte sich sogar schon vor der Ankunft der ausgestorbenen Dinosaurier, industriellen Rauchwolken und SUVs [?]. Und obwohl die Temperaturen während der letzten 150 Jahre (seit dem Ende der „Kleinen Eiszeit“… keiner wirklichen Eiszeit) allgemein mild waren, sollten wir uns daran erinnern, dass signifikante Fluktuationen normal sind. Tatsächlich gab es im vergangenen Jahrhundert zwei ausgeprägte Perioden mit einer Erwärmung.
Die erste Periode ereignete sich in den Jahren von 1900 bis 1945. Das das CO2-Niveau damals verglichen mit heute relativ niedrig lag und sich nicht wesentlich verändert hatte, konnte hierin nicht der Grund für Erwärmungen vor 1950 liegen. Nach einer leichten Phase mit Abkühlung folgte ab 1975 die zweite Periode mit Erwärmung, die mit einer ziemlich konstanten Rate bis zum Jahr 1998 dauerte, einem Jahr mit einem besonders starken El Nino-Ereignis im Pazifik. Und die Analysen der Ballonmessungen vom UK Hadley Center und der NASA haben keinerlei Beweise irgendwelcher Art einer von anthropogenem CO2 beeinflussten Erwärmung gefunden, und zwar in Gestalt einer „Signatur“ eines Hotspots in der oberen Troposphäre über den Tropen, wie es die globalen Klimamodelle des IPCC vorhergesagt haben.
Seit 1998 sind die Temperaturen relativ stabil geblieben, lediglich mit Ausnahme einer kurzen El Nino-Spitze im Jahre 2010, der im Jahr 2011 die dramatische Abnahme eines La Nina-Ereignisses folgte. Etwa die Hälfte der seit 1900 aufgetretenen geschätzten Erwärmung ereignete sich vor Mitte der Vierziger Jahre trotz kontinuierlich steigenden CO2-Niveaus seit dieser Zeit.
Unser milder USA-Winter 2011/2012 wäre ein sehr willkommener Unterschied zu dem gewesen, was in anderen Gebieten der Welt geschah. Eine Kältewelle in Europa forderte über 500 Todesopfer, davon über 140 in der Ukraine sowie hunderter Anderer in Frankreich, Serbien und der Tschechischen Republik. Die für Transporte, die Stromgewinnung und die Industrie so wichtige, 2860 Kilometer lange Donau fror zu, ebenso wie fast alle Flüsse im Balkan. In mehr als 130 Dörfern in Bulgarien war die Stromversorgung zusammengebrochen.
Näher bei uns kam es in Fairbanks, Alaska, zum kältesten Januar seit 1971 mit Temperaturwerten bis -24°F [ca. -31°C]. Das kälteste Januarmittel war dort im Jahr 1906 aufgetreten (-36,4°F [-38°C]).
Die Temperaturmessungen an mehr als 30000 Stationen, deren Werte im Stillen vom UK Met Office und der CRU veröffentlicht worden sind, zeigen seit 15 Jahren keine Erwärmung mehr. Auch sieht es nicht so aus, als ob die Erwärmung wieder einsetzen würde. Viele wissenschaftliche Studien deuten darauf hin, dass das globale Klima wegen eines schwachen neuen Sonnenzyklus’ demnächst in eine Kaltphase eintreten wird. Diese Vorhersage basiert auf  wichtigen berechneten Eigenschaften kosmischer Strahlung auf die Wolkenbildung während einer Periode mit reduzierter Aktivität von Sonnenflecken. Mehr Wolken sorgen für kühlere Bedingungen, während weniger Wolken zu Erwärmung führen.
Der solare Output durchläuft 11-Jahres-Zyklen mit einer hohen Zahl von Sonnenflecken während des Maximums. Gegenwärtig laufen wir auf das Maximum des „Zyklus’ 24“ zu, und doch beträgt die Anzahl der Sonnenflecken weniger als die Hälfte von anderen Maxima im 20. Jahrhundert. Eine vom Met. Office veröffentlichte Studie projiziert eine Wahrscheinlichkeit von 92%, dass sowohl der Zyklus Nr. 25 sowie die Folgenden genauso schwach oder sogar noch schwächer ausfallen als während des „Dalton-Minimums“ von 1790 bis 1830, als es in Europa um etwa 2°C kälter war.
Nicola Scafetta, ein Klimawissenschaftler an der Duke University und dem Active Cavity Radiometer Solar Irradiance Monitor Lab (ACRIM), erzählte mir, dass er nicht glaubt, dass wir ein starkes „Maunder-Minimum“ oder selbst Bedingungen wie im Dalton-Minimum erleben werden, weil sich die Sonne gegenwärtig im Maximum eines 1000-jährigen Zyklus’ befindet, also ähnliche Bedingungen wie während der zwei Jahrhunderte währenden Mittelalterlichen Warmzeit. Allerdings steht die Sonne an der Schwelle zu einem Großen Minimum, das wahrscheinlich einem ausgeprägten 60-jährigen Zyklus folgt, mit Maxima um das Jahr 2000 und dann wieder 2060. Scafetta sagt voraus, dass es während der nächsten 20 bis 30 Jahre zu einer stetigen, aber moderaten Abkühlung kommen wird. Seine neue Studie mit dieser Vorhersage wurde vor Kurzem im Journal of Atmospheric and Solar Terrestrial Physics veröffentlicht und basiert auf Rekonstruktionen der Solardaten bis 10000 Jahre vor Christus.
Das Met. Office behauptet, dass sich der Treibhauseffekt des anthropogenen CO2 weit stärker auswirkt als der Einfluss der Sonne; ausreichend, um nicht nur eine potentielle Abkühlung durch solare Vorgänge deutlich überzukompensieren, sondern auch, um eine Gesamterwärmung auszulösen. Dies wird jedoch von Sonnenexperten heftig bestritten. Sie weisen darauf hin, dass die Hypothese des Met. Office lediglich auf hoch theoretischen Klimamodellen basiert, die den CO2-Einfluss übertreiben, während sie zahlreiche andere dazu beitragende Faktoren ignorieren. Zum Beispiel hat das Met. Office angesichts des anhaltend steigenden CO2-Gehaltes 2007 behauptet, dass die globale Erwärmung „mit Macht wieder einsetzen werde“, und sagte eine Erwärmung um 0,3°C zwischen 2004 und 2014 voraus. Im Jahre 2009 wurde diese Vorhersage dahingehend geändert, dass die Jahre zwischen 2009 und 2014 den bisherigen Temperaturrekord des Jahres 1998 brechen würden. Das scheint doch sehr unwahrscheinlich.
Da sie die globale Temperatur nicht direkt nachbilden können, basiert die Vorhersage des Met. Office aus dem Jahr 2009 auf einem einfachen „Energiebilanzmodell“ (EBM), mit dem ein voll Atmosphäre-Ozean-gekoppeltes „generelles Zirkulationsmodell“ (GCM) nachgebildet werden sollte. Allerdings enthielt das GCM, mit dem sie ihr EBM (das „HadCM3“) kalibriert haben, keinerlei solare Verstärkungsfaktoren (wie Einflüsse durch Feedbacks zwischen Wolken und kosmischer Strahlung) und zeigte folglich nur eine sehr begrenzte Klimasensitivität auf solare Variationen. Dies ist ein neues und sehr kreatives Beispiel von „garbage in-garbage out“-Hexerei, wobei von einem Klimamodell, das zur Modellierung eines anderen Klimamodells benutzt wird, behauptet wird, dass es irgendeinen Vorhersagewert hat.
Judith Curry, eine bekannte Klimatologin, die der School of Earth and Atmospheric Sciences am Georgia Institute of Technology vorsteht, findet die vertrauensvolle Vorhersage des Met. Office eines „vernachlässigbaren“ Einflusses der Sonne „schwer zu verstehen“. Sie hat festgestellt, dass „es von Verantwortung zeugen würde, wenn man akzeptiert, dass die Modelle ernste Schwächen haben, wenn es um den Einfluss der Sonne geht“. Hinsichtlich der vorhergesagten Pause bei der Erwärmung sagt sie, dass viele Wissenschaftler „nicht überrascht“ sind.
Curry benennt auch wichtige Beiträge von 60-jährigen Temperaturzyklen im Atlantik und Pazifik und hat beobachtet, dass diese „nur ungenügend hinsichtlich des globalen Klimas berücksichtigt worden sind“. Als beide Ozeane kühl waren, wie in der Zeit von 1940 bis 1970, kühlte sich das Klima ab. Der Pazifik trat dann erneut im Jahr 2008 von einer warmen in eine kalte Phase über, und es wird erwartet, dass der Atlantik während der nächsten Jahre das auch tut.
Habibullo Abdussamatov, ein Wissenschaftler am Pulkovo Observatory an der Russian Academy of Science in St. Petersburg, sagt voraus, dass unser Planet jetzt in eine sehr kalte und ausgedehnte Klimaphase eintritt. Er glaubt, dass „man nach dem Maximum des Sonnenzyklus’ 24, etwa im Jahr 2014, den Beginn des nächsten zweihundertjährigen Zyklus’ starker Abkühlung erwarten kann, mit einer Kleinen Eiszeit um das Jahr 2055 plus/minus 11 Jahre (dem 19. der letzten 7500 Jahre).
Eine weitere Kleine Eiszeit? Wenn Sie sich bisher Sorgen um eine vom Menschen verursachte globale Erwärmung gemacht haben, denken Sie daran! Obwohl es unwahrscheinlich ist, lassen Sie uns hoffen, dass das Met. Office ausnahmsweise einmal richtig liegt, und dass der Pflanzendünger CO2 uns vor solchen wirklich frösteln machenden Perspektiven bewahrt.
Weiteres von Larry Bell
Link: http://www.forbes.com/sites/larrybell/2012/03/27/climate-obstinately-refuses-to-cooperate-with-global-warming-alarmists/
Übersetzt von Chris Frey EIKE




Die 200 Milliarden Euro Lüge über die Förderung der Atomwirtschaft

Seit ca. 2 Jahren geistert der Betrag „165 Mrd. Euro”, mit dem die „Atomwirtschaft” insgesamt angeblich gefördert wurde, durch die Medien. Kein Moderator, der etwas auf sich hält, vergisst es, diese Zahl zu erwähnen. Viele runden diese auch noch großzügig auf 200 Mrd. auf – kann man sich so besser merken. Aber wo kommt sie her?
Sie kommt vom „Forum für Ökologisch-Soziale Marktwirtschaft” (FÖS), im Auftrag von Greenpeace, erstellt im Sept. 2009 (hier). Als Autoren der Studie sind 3 Personen, Bettina Meyer, Sebastian Schmidt und Volker Eidems, ohne Titel oder Qualifikation, angegeben. Zu diesen Personen ist nichts weiter zu finden, außer dass Bettina Meyer dem Vorstand des FÖS angehört.
Es handelt sich um eine phantasievolle Zusammenstellung von angeblichen Kosten von 1950 – 2008, alles, was den FÖS-Mitgliedern am Stammtisch so in den Sinn gekommen ist. Zum Beispiel: 41 Mrd. € für „Forschung”. Darunter versteht das wohl FÖS alles, was irgendwie „Kern” im Forschungsprogramm hatte, Grundlagenforschung vor allem aus der Anfangszeit, aber auch Fusionsforschung (was hat die „Atomwirtschaft” mit Fusionsforschung zu tun?) – inflationsbereinigt hochgerechnet und summiert über 60 Jahre. Welche Forschung das im einzelnen gewesen sein soll, verschweigt die Studie, bis auf einige Großprojekte wie den THTR. Wer also damals mit einem Beschleuniger Kernreaktionen, die relevant für die Energieerzeugung in der Sonne sind, durchgeführt hat, steht vermutlich auch auf der Liste.
Der zweite große Posten mit 65 Mrd. € sind „Steuervergünstigungen”. Davon sind 40 Mrd. € die „fehlende Brennelementesteuer”. Die Tatsache, dass diese Steuer 1950-2008 nicht erhoben wurde, zählt hier also als „Subvention”. (Dass wir alle noch keine Steuern für die Luft zahlen wäre demnach eine äußerst großzügige Subvention, die jedem Bürger zugute kommt – wir sollten dankbar sein!).
Bleiben also von den 165 Mrd. Euro nur noch 85 Mrd. Weitere 33 Mrd. € versteckt FÖS hinter „Budgetunabhängige staatliche Regelungen”. Damit ist vor allem gemeint, dass die Stromkonzerne über viele Jahre angeblich überhöhte Preise genommen haben, gefördert durch staatliche Regelungen und Intransparenz. Hier wird gar nicht mehr groß argumentiert, es fallen einfach ein paar Zahlen vom Himmel, die miteinander kombiniert werden, und das FÖS nimmt die Differenz zu den Strompreisen, die seiner Meinung nach angemessen gewesen wären. Heraus kommen jedenfalls 33 Mrd. €.
Bleiben also nur noch gut 50 Mrd. €. Wer bis hier noch nicht genug hat, kann sich ja die übrigen Posten noch ansehen. Da finden sich z.B. weitere 6 Mrd. € "Strompreiserhöhung durch Emissionshandel", die auch gleich noch mit 31. Mrd. € in die Zukunft gerechnet werden (was können die Kernkraftwerke dafür, dass sie kein CO2 emittieren?), u.v.m.
Übrig bleibt eigenlich nur der Schnelle Brüter (SNR-300), der THTR u.ä. Diese Anlagen hat der Staat in der Summe und inflationsbereinigt mit ca. 15 Mrd. € gefördert. Davon hat die „Atomwirtschaft” aber nur Verluste gehabt (in der Studie natürlich nicht verbucht), denn praktisch all diese Projekte wurde noch vor oder kurz nach der Inbetriebnahme aus politischen Gründen stillgelegt. Die Abbaukosten werden selbstverständlich in der „Studie” großzügig verrechnet.
Die 200 Mrd. € sind eine gewaltige Luftblase. Lässt man die Luft ab, bleiben praktisch keine direkten Subventionen übrig. Im Gegensatz zu den „Regenerativen”, die bereits jetzt mit über 100 Mrd. subventioniert wurden und immer noch nutzlos sind, hat die Nukleartechnik bis auf Grundlagenforschung nie Subventionen erhalten, dafür aber von Anfang an preiswerten Strom geliefert. Es handelt sich bei dieser „Studie” lediglich um ein Ablenkungsmöver der Ökolobby, den eigenen Subventionsirrsinn zu relativieren und zu rechtfertigen.
Für EIKE verfasst von
Dr. Götz Ruprecht
Nachtrag: aktuell zur Kenntnis auch (hier)
Guter weiterführender Link hier (mit Dank an Leser Stefan Steger)

Energiedebatte: Das Märchen vom subventionierten Atomstrom

Von Joachim Volz




Die großen Unbekannten im Energiefluss der Erde

Was wir alles NICHT über den Energiefluss der Erde wissen

von Robert G. Brown

[Vorbemerkung des Übersetzers:
Der folgende Aufsatz stammt aus der Diskussion eines Beitrag von Lord Monckton auf WattsUpWithThat. Bei EIKE unter dem Titel Rückkopplungen über Rückkopplungen und ähnliche Dummheiten erschienen, aber ohne die daranhängende englischsprachige Diskussion. Aus dieser Diskussion stammt der folgende Beitrag des amerikanischen Physikers Robert G. Brown, der sich grundsätzlich und tiefschürfend mit der Fragestellung beschäftigt. In seiner kurzen Einleitung bezieht er sich auf Lord Monckton, dann führt er seine Gedanken aus.]

Robert G. Brown: Ich kann nicht für Ihr Programm sprechen, ich bleibe bei meinem, um die „mittlere wirksame radiative Temperatur” eines masselosen grauen Körpers als „perfektem Strahler“ zu berechnen. Man möge daran denken, dass es keine wirkliche Temperatur in einem derartigen Beispiel geben kann, weil es keine Masse gibt. Man braucht Masse, um die Temperatur zu definieren. (Aber die meisten Klimatologen sehen darin kein Problem, daher liegen sie alle falsch – so leid mir das tut!)

Hier würde ich mich gerne einschalten und diese Behauptung untermauern, ohne notwendigerweise die Ergebnisse der Berechnungen für richtig zu halten. (Dazu müsste ich den Code und die Ergebnisse direkt anschauen).
Betrachten wir kurz die Skalierungen. Da gibt es einige Gleichungen:

P = (4pi R^2)epsilonsigma T^4

ist die gesamte Leistung, die von einer Kugel mit dem Radius R bei gleichverteilter Temperatur T ausgeht. sigma ist die Stefan-Boltzmann-Konstante, die während der Betrachtung Skalierung zunächst nicht beachtet wird, epsilon beschreibt die Emissivität des Körpers und sie ist konstant in der Größenordnung der Einheit (für einen „schwarzen Körper“, weniger für einen „grauen Körper“, noch allgemeiner gesprochen eine Funktion der Wellenlänge und keine Konstante). Ich wiederhole: beim Betrachten der Größenordnung beachten wir epsilon zunächst nicht.
Nun nehmen wir an, dass die Temperatur nicht gleichverteilt ist. Um uns die Sache leichter zu machen, modellieren wir eine nicht gleichverteilte Temperatur für eine Kugel mit einer gleichverteilten Temperatur auf der „heißen Seite“ von T + dT und einer gleichverteilten Temperatur auf der „kalten Seite“ von T – dT. Eine Hälfte der Kugel ist heiß, die andere kalt. Die räumlich durchschnittliche Temperatur, wohlgemerkt, bleibt T. Dann beträgt die abgestrahlte Leistung:

P’ = (4pi R^2)epsilonsigma ( 0.5*(T + dT)^4 + 0.5(T – dT)^4)

Wir interessieren uns nur für die Größenordnung, also: wir führen a) eine binomische Entwicklung von P’ zum Quadrat durch (die Ausdrücke erster Ordnung in dT heben sich auf); dann bilden wir b) das Verhältnis P’/P und erhalten:

P’/P = 1 + 6 (dT/T)^2

Dabei sehen wir etwas und können daraus eine Abschätzung treffen. Was wir sehen ist, dass P’ erheblich größer als P ist – bei nicht gleichverteilter Temperatur auf der Kugel strahlt die Energie erheblich rascher ab, als von einer Kugel gleichen Radius’ mit gleichverteilter Temperatur und gleicher Durchschnittstemperatur. Das ist gut verstehbar – auf der heißen Seite geht es mit der vierten Potenz viel schneller aufwärts, als es auf der kalten Seite mit der vierten Potenz runtergeht. Dabei tut es überhaupts nichts zur Sache, dass die Temperatur auf der kalten Sache von unten begrenzt wird auf T_c = 0.

Die Abschätzung: dT/T approx 0.03 für die Erde ergibt nicht besonders viel – es eine Abschätzung der Größenordnung, wobei T approx 300K und dT approx 10K. (0.03^2 = 0.0009 approx 0.001 so dass 6(0.03)^2 approx 0.006. Wenn man aber die geografische Breite anstelle einer Tag/Nachtseiten-Schichtung für dT annimmt, ist sie viel größer. Man sollte in Wirklichkeit beides benutzen und die wirkliche Temperaturverteilung integrieren (Momentaufnahme) – oder es noch genauer machen. Aber wir wollen ja zunächst nur ein Gefühl bekommen, wie sich die Dinge dabei verändern, keine genaue und stimmige Berechnung anstellen.

Wenn sich die Erde im Gleichgewichtszustand befindet, muss S/4 gleich P’ sein – so viel Wärme, wie einfällt, muss auch abgestrahlt werden. Das Modell halte ich nicht für bedenklich, nur die Größe des Skalierungsverhältnisses: 1375 * 0.006 = 8.25 W/m^2 geteilt durch vier. Weil die Temperatur der Erde in Wirklichkeit nicht gleichverteilt ist, bedeutet das eine Erhöhung der Rate, mit der Wärme verloren wird: (insgesamt) mit etwa 2 W/m^2. Das ist keine vernachlässigbare Menge. Sie ist noch weniger vernachlässigbar, wenn man nicht nur die Differenz zwischen den mittleren Tages- und Nachttemperaturen betrachtet, sondern zwischen den äquatorialen und den polaren Breiten. das dT ist dann eher 0.2 und der Effekt noch stärker ausgeprägt!
Entscheidend ist, dass mit dem Anstieg der Temperatur die Rate des Wärmeverlustes der Erde zwangsläufig hochgeht, unter sonst gleichen Bedingungen. Heiße Körper verlieren die Wärme (durch Abstrahlung) viel rascher als kalte wegen der ganz einfachen Stefan-Boltzmann-T^4-Zunahme; sodann tendiert alles, was die Inhomogeneität der Temperaturverteilung um den (erhöhten Mittelwert) verstärkt, noch zu einer weiteren Zunahme. Man beachte, dass sich das Gesagte auf diese Weise direkt nach oben abbildet:

P’/P = 1 + 4 dT/T + …

(Hier wird angenommen, dass T’ = T + dT, mit dT << T Erwärmung.)

Am oberen Ende der IPCC-Weltuntergangs-Skala bedeutet eine Temperatur-Erhöhung von 5.6C gleich 5.6/280 approx 0.02. Das würde die Rate des Stefan-Boltzmann’schen radiativen Leistungsverlusts um den Faktor 0.08, oder um fast 10% erhöhen. Ich halte das für absurdes ist schier unmöglich, durch eine Verdoppelung des CO_2 (auf eine Konzentration von immerhin noch < 0.1%) eine Veränderung der Energiebilanz der Erde um 10% zu erzeugen.
Das Schöne an der Berücksichtigung von P’/P in unseren Betrachtungen liegt darin, dass damit die ganzen ärgerlichen (oft unbekannten) Faktoren wie z. B. epsilon verschwinden. Man muss nur dafür sorgen, dass epsilon selbst sich zunächst nicht schneller vor dem diesbezüglichen Term in der Skalierungsbeziehung verändert.
Wir haben damit auch einige “Proben auf Richtigkeit”. Diese Proben zeigen, dass man nicht einfach annehmen kann, die Erde sei eine Kugel mit einer gewissen gleichverteilten Temperatur, ohne dabei gravierende Fehler zu machen. Sie zeigen auch, dass Veränderungen von über 1-2C über irgendwelche Temperaturdurchschnitte in geologischen Zeiträumen auf absurde Weise unwahrscheinlich sind, wegen des grundlegenden T^4 in der Stefan-Boltzmann-Gleichung. Im Grunde entspricht bei einem gegebenen T = 288 jede Zunahme von 1K bei T einer 1.4% Zunahme bei der abgestrahlten Leistung.
Auf der Suche nach einem „schlagenden Beweis“ zur Erklärung der globalen Temperatur-Veränderungen muss der Beweis auf der Ebene geführt werden, wo die Netto-Leistung auf der gleichen Skala verändert wird wie die Temperatur in Grad Kelvin.

Wo sind die Kandidaten für solche „schlagenden Beweise“?
Da ist zunächst die Albedo. 1% Veränderung in (absoluter) Albedo kann die Temperatur um etwa 1K verändern.
Noch besser ist die Veränderung der Temperatur-Verteilung. Soviel lehren uns die dekadischen Oszillationen: die Art und Weise der Temperaturverteilung auf der Erdoberfläche hat tiefgehende und manchmal unmittelbare Auswirkung auf die Netto-Erwärmung oder Abkühlung. Dies ganz besonders am oberen Rand der Troposphäre. Die Veränderungen der Treibhausgaskonzentrationen – ganz besonders Wasser – haben die richtige Größenordnung. Die Wärmespeicherung, Abgabe und Verteilung in den Weltmeeren ist bedeutend – Europa ist warm, nicht einfach nur wegen des CO_2, sondern weil der Golfstrom äquatoriale Wärme dorthin transportiert! Wenn man den “globalen Wärmeaustausch-Gürtel” unterbräche, könnte man Europa zufrieren sehen. (Und dann Nordasien, Nordamerika, und weiter …)
Am besten ist eine komplexe, nicht-lineare Mischung von allem Obigen! Albedo, globale Zirkulation (Konvektion), Ozeanischer Wärmetransport, atmosphärischer Wassergehalt, das alles verändert die Art der Temperaturverteilung (und auch die Strahlungsverluste).
Alles wirkt zusammen, darüber bin ich mir sicher, bei der Bildung der durchschnittlichen globalen Temperatur, und das auf nicht triviale Weise. Wenn Wärme in den Tropen konzentriert ist, ist T_h höher (T_c niedriger) im Vergleich zu T, die Welt kühlt schneller ab. Wenn Wärme zu den Polen verteilt wird (durch Konvektion), liegt T_h dichter an T_c, die Welt kühlt insgesamt langsamer ab, eher einem im Grunde „schwarzen Körper“ angenähert. Wenn die Tagestemperaturen viel höher als die Nachttemperaturen sind, kühlt die Welt relativ rasch ab; wenn sie näher beieinander liegen, verhält es sich in Näherung eher wie bei einem im Grunde „schwarzen/grauen Körper“. Wenn die Tages-Albedo hoch ist, wird zunächst weniger Leistung aufgenommen, eine Netto-Abkühlung findet statt; wenn die nächtliche Albedo hoch ist, gibt es weniger nächtliche Abkühlung, ein geringeres Temperatur-Differential usw.

Es handelt sich um ein komplexes Problem, nicht um ein einfaches. Wenn jemand behauptet, dass es einfach wäre, will er Sie vermutlich übertölpeln. Es ist wirklich kein einfaches physikalisches Problem und es ist nahezu gewiss, dass wir alle physikalischen Zusammenhänge noch nicht kennen. Ein wahres Ärgernis bei der gesamten Debatte über das Klima ist die allfällige Behauptung von der gesicherten wissenschaftlichen Erkenntnis. Nichts ist gesichert, noch nicht einmal annähernd! Im Laufe des nächsten Jahrzehnts werden wir noch Wichtiges über das Klima erfahren.
Bevor wir alle phyikalischen Vorgänge verstehen – dann wird es keine Überraschungen vom Watt/m^2-Ausmaß geben – werden wir kein genaues Modell bauen können. Und solange wir kein genaues Modell für geologische Zeiträume bauen können, werden wir die einfache Frage nicht beantworten können, die beantwortet werden muss, bevor wir uns an die Abschätzung der anthopogenen Klimaveränderung machen:

Wie hoch wäre die Temperatur, wenn das CO_2 noch auf der Höhe der vorindustriellen Konzentration wäre?

Ich meine, wir können diese Frage mit unserem heutigen Kenntnisstand nicht beantworten. Wir wissen nicht, warum es die Mittelalterliche Warmperiode gab (ohne CO_2-Veränderung). Wir wissen nicht, warum die Kleine Eiszeit gab LIA happened (ohne CO_2-Veränderung). Wir wissen auch nicht, warum es die anderen bedeutenden Klimaveränderungen gab, zurück bis zum Optimum im Holozän (viel wärmer als heute) oder bis zur unteren Trias (viel kälter als heute). Wir wissen nicht, warum es im Verlauf von jeweils 100.000 Jahren jeweils 90.000 Jahre Eiszeit gab, warum es vor 15 Millionen Jahren viel wärmer als heute war, warum in geologischen Zeiträumen kalte und warme Perioden sich in Millionen-Jahres- bis zu Hundert- Millionen-Jahres-Perioden ablösen. Wir wissen nicht, wie lange das Holozän noch andauern wird, nicht wann oder warum es enden wird, auch nicht, wie lange der Übergang von warmen zu kalten Bedingungen dauert.
Wir sind uns ziemlich sicher, dass die Sonne eine Menge damit zu tun hat, aber wir wissen nicht, auf welche Weise, auch nicht, ob mehr als nur die Sonne im Spiel ist. Wir können solare zehnjährige Zustände nicht vorhersagen, geschweige denn jahrhundertlange, wir sind noch nicht einmal gut bei der Vorhersage für einige Jahre. Wir können Zeit und Stärke der dekadischen Oszillationen nicht vorhersagen. Wir wissen nicht, wann sich die kontinentalen Strömungsverhältnisse, d. h. die ozeanischen und atmosphärischen Zirkulationsmuster, so weit ändern, dass ein neuer „Modus“ entsteht (ein Modus, der abrupte und heftige Klimaveränderungen in der ganzen Welt verursachen könnte).

Zum Abschluss: wir wissen nicht, wie wir ein vertrauenswürdiges globales Klimamodell bauen könnten, teilweise, weil wir noch Antworten auf viele dieser Fragen brauchen! Solange wir es nicht können, bauen wir nur Anpassungen von nicht-linearen Funktionen, die gut bei der Interpolation sind, bei der Extrapolation aber versagen.

rgb
Wer sich für den bereits erschienen Beitrag von Robert G. Brown interessiert, findet ihn undefinedhier.
Wer sich für das Original interessiert, findet es undefined  hier
Übersetzung: Helmut Jäger, EIKE




Öl und Benzin – der Faktencheck!

Tatsächlich ist nichts davon nachvollziehbar. Weder die Situationsbeschreibung, noch die Ideen zur Lösung eines Problems, das man zu sehen glaubt, ohne es wirklich zu erkennen.
Vor mir liegt die Studie “Reserven, Ressourcen und Verfügbarkeit von Energierohstoffen” der Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) des Jahres 2006. Dieses Papier scheint nicht mehr zum Download zur Verfügung zu stehen. Es heißt darin auf Seite 16:

“Das verbleibende Potenzial an konventionellem Erdöl kann aus geologischer Sicht bei moderatem Anstieg des Erdölverbrauchs die Versorgung mit Erdöl über einen Zeitraum von etwa 10 bis 15 Jahren gewährleisten. Nach diesem Zeitraum muss infolge des zu erwartenden Rückgangs der Erdölförderung nach Überschreiten der weltweit maximal möglichen Förderung mit einer Versorgungslücke bei Erdöl gerechnet werden, die durch andere Energieträger oder Erdölsubstitute (aus Erdgas, Kohle oder Biomasse) ausgeglichen werden müsste.”

Nun wird diese Untersuchung durch das BGR jährlich durchgeführt. Die aktuellste Version von Ende 2011 enthält zur Frage der Verfügbarkeit von Erdöl die folgende Aussage:

“Für die nächsten Jahre kann aus geologischer Sicht bei einem moderaten Anstieg des Erdölverbrauchs die Versorgung mit Erdöl gewährleistet werden. Nach der als optimistisch anzusehenden BGR-Projektion könnte die globale Erdölförderung bis etwa 2036 gesteigert werden und 4,6 Mrd. t/a erreichen.”

In nur fünf Jahren hat sich damit ein möglicher “Peak Oil” um fünfzehn Jahre nach hinten verschoben. Dies ist ein stabiler Trend in allen Prognosen dieser Art: Das erwartete Fördermaximum wandert schneller in die Zukunft, als die Zeit vergeht. Das erste Diagramm zeigt, warum das so ist. Bei nahezu gleichbleibender Produktion in den letzten Jahrzehnten steigt die Zahl der gesicherten Reserven immer weiter an. Die Erdölkonstante, die statische Reichweite, erhöht sich dadurch ständig. Lag sie 1980 noch bei etwa 30 Jahren (demzufolge hätten wir eigentlich schon seit zwei Jahren kein Benzin mehr), ist sie heute bei über 50 angekommen.

Oft kommt seitens der Peak-Oil-Vertreter an dieser Stelle das Argument, die Konstanz der Produktion wäre das eigentliche Problem. Viele der Reserven seien in Wahrheit nur mit hohem Aufwand und unter hohen Kosten zu erreichen. Die Ölförderung könne eben nicht mehr über das heute erreichte Niveau hinaus gesteigert werden. Das ist eine merkwürdige Argumentation. Warum sollte denn versucht werden, die Förderung zu erhöhen, wenn es keinen Bedarf gibt? Tatsächlich steigen die Ölreserven sogar doppelt so schnell, wie der Verbrauch (nachfolgende Abbildung – Leider enthält der “Ölverbrauch” in den mir vorliegenden Daten von BP auch Biodiesel und Bioethanol, auf die der moderate Anstieg von etwa 1 Prozent pro Jahr wesentlich entfällt.). Und wenn es eine Konstante im Ölgeschäft tatsächlich gibt, dann die, daß nur gefördert wird, was man auch verkaufen kann.


Die Reserven, die heute schon zu marktfähigen Kosten förderbaren Vorkommen, machen nur einen Bruchteil des Erdöls aus, das uns zur Verfügung steht. In den Diagrammen sind von den unkonventionellen Vorkommen nur  geringe Mengen der kanadischen Ölsande enthalten. Vor allem hinsichtlich des Potentials von Schieferöl (nicht zu verwechseln mit “Ölschiefer”) gibt es noch keine belastbaren Aussagen. Alles, was ich dazu finden konnte, ist eine Studie des privaten Washingtoner Think Tanks “Institute for Energy Research”, in der man aus verschiedenen Quellen Ressourcen in einer Größenordnung von etwa 1.800 Milliarden Barrel allein für Nordamerika abgeleitet hat (Seite 15) – mehr als die globalen Reserven von derzeit etwa 1.500 Milliarden Barrel. Darf man vermuten, dieses Öl würde im Boden belassen, wenn es jemand kaufen möchte? Wohl eher nicht.  
Es gibt keine Verknappung, noch ist eine solche für die kommenden Jahrzehnte absehbar. Die BGR sieht das fast ganz richtig, in ihrer Energiestudie von 2011:

“Insbesondere die fortschreitende Technologieentwicklung im vergangenen Betrachtungszeitraum hat die Trennung in konventionelle und nicht-konventionelle Vorkommen unschärfer werden lassen.”

Ich würde weiter gehen. Eine solche Trennung ergibt keinen Sinn mehr. Das Gerede von einer bevorstehenden Verknappung des Öls entbehrt damit jeder Grundlage.
Trotzdem habe ich heute für 1,72 Euro pro Liter getankt. Das ist mehr, als ich im Laufe meines Autofahrerlebens bislang gewohnt war. Die dritte Abbildung zeigt: Es ist wohl mehr als zum historischen Höchststand des Jahres 1953. Moment mal, werden jetzt viele einwerfen, in den 1950er Jahren hat Benzin doch nur ein paar Pfennige gekostet. Stimmt natürlich, 1953 waren es im Jahresdurchschnitt etwa 37 Pfennig pro Liter. Aber diese 37 Pfennig waren damals so viel wert, wie heute 160 Cent. Das Diagramm ist mit den Daten zum Verbraucherpreisindex des statistischen Bundesamtes inflationsbereinigt. Die Spritpreise (Jahresmittelwerte) stammen vom ADAC und die jeweiligen Sätze für Mineralöl- und Umsatzsteuer kann man bei Wikipedia nachlesen. Für das Jahr 2012 sind die Monate Januar bis März berücksichtigt. Es wird deutlich, wer am Autofahrer wirklich verdient. Nicht die Ölmultis, sondern Wolfgang Schäuble.

Gerade mal 60-70 Cent kostet der Liter heutzutage. Das ist im Verlauf der Jahrzehnte nicht ungewöhnlich. Langfristig zeigt der Trend nach unten, von Schwankungen auf kürzeren Skalen überlagert. Die Rekordwerte entstehen, weil von jedem Liter der Staat mittlerweile fast einen Euro einkassiert. Der rote Bereich im Diagramm zeigt den Steueranteil.
Nichts ist es mit dem knappen Öl. Und Preiskartelle der Konzerne haben und hatten, wenn es sie denn gibt oder gab, nur Ausschläge von wenigen Cent hervorgerufen. Der Kostentreiber bei Benzin ist der Staat – und niemand sonst. Es hilft hier auch keine Energiewende, es hilft keine Erhöhung der Pendlerpauschale und schon gar nicht hilft eine Debatte über Unternehmensstrategien. Allein eine schnelle und substantielle Senkung der Steuerlast, der Mehrwert- und vor allem der Mineralölsteuer, könnte Entlastung bringen. Auch langfristig. Dieses Thema aber scheuen alle Parteien. Was nicht verwundert.
Unsere wirklichen Probleme mit dem Öl werden in zwanzig oder dreißig Jahren ganz andere sein. Nicht zu wenig wird es geben, sondern zu viel. Vor allem in Nordamerika, in den USA, in Kanada und in Mexiko. Angesichts des unaufhaltsamen technischen Fortschrittes haben sowohl Exxon, als auch BP analog zu den Analysten der Citigroup ihre neuesten Zukunftsszenarien gegenüber dem Jahr 2010 deutlich verändert. Die baldige Unabhängigkeit des nordamerikanischen Wirtschaftsraums von Importen ist nicht mehr hypothetisch, sondern wahrscheinlich. Es wird dann niemand mehr da sein, der ein Interesse daran hat, auch die Versorgung Europas aus politisch instabilen Regionen abzusichern. Die Navy wird sich fein heraushalten, wenn irgendein Potentat mal wieder die Straße von Hormus zu sperren droht. Ein neues Erdölzeitalter beginnt. Und wir sind nicht darauf vorbereitet.
Dr. Peter Heller; zuerst erschienen bei Science Sceptical

ÄHNLICHE BEITRÄGE

Peak oil doomsayers ignore human ingenuity