Das Klima weigert sich hartnäckig, mit den Erwärmungsalarmisten zusammenzuarbeiten

Bild rechts: Autor Larry Bell
Hatte Al Gore also schließlich recht? Vielleicht haben Sie es gehört… er ist in die Antarktis gereist, um zusammen mit dem berühmten NASA-Klimaalarmisten James Hansen das Eis beim Schmelzen zu beobachten, zusammen mit der im Mittelpunkt von Klimagate stehenden Person Kevin Trenberth, dem Milliardär Richard Branson sowie etwa 100 panischen Begleitern. Ihr Timing ist perfekt, es gibt viel zu beobachten für sie. Die Ausdehnung des Meereises um die Antarktische Halbinsel ist fast 200% größer als normal.
Aber auch für diejenigen, die mehr die typischen Frostwerte und sich wechselnde Blizzards bevorzugen, habe ich gute Nachrichten. Obwohl derartige Ereignisse im vergangenen Winter einen Bogen um die USA gemacht haben hin zu anderen Regionen, sollten Sie ihre langen Unterhosen noch nicht wegräumen. Es gibt vielfältige Hinweise, dass Sie sie während der nächsten Jahre noch brauchen.
Um ein wenig die Hintergrundperspektive zu beleuchten, wollen wir uns bewusst machen, dass Klimaänderung sehr real ist und schon seit Urzeiten im Gange ist… bis zurück zum Anfang der Erde. Das Klima änderte sich sogar schon vor der Ankunft der ausgestorbenen Dinosaurier, industriellen Rauchwolken und SUVs [?]. Und obwohl die Temperaturen während der letzten 150 Jahre (seit dem Ende der „Kleinen Eiszeit“… keiner wirklichen Eiszeit) allgemein mild waren, sollten wir uns daran erinnern, dass signifikante Fluktuationen normal sind. Tatsächlich gab es im vergangenen Jahrhundert zwei ausgeprägte Perioden mit einer Erwärmung.
Die erste Periode ereignete sich in den Jahren von 1900 bis 1945. Das das CO2-Niveau damals verglichen mit heute relativ niedrig lag und sich nicht wesentlich verändert hatte, konnte hierin nicht der Grund für Erwärmungen vor 1950 liegen. Nach einer leichten Phase mit Abkühlung folgte ab 1975 die zweite Periode mit Erwärmung, die mit einer ziemlich konstanten Rate bis zum Jahr 1998 dauerte, einem Jahr mit einem besonders starken El Nino-Ereignis im Pazifik. Und die Analysen der Ballonmessungen vom UK Hadley Center und der NASA haben keinerlei Beweise irgendwelcher Art einer von anthropogenem CO2 beeinflussten Erwärmung gefunden, und zwar in Gestalt einer „Signatur“ eines Hotspots in der oberen Troposphäre über den Tropen, wie es die globalen Klimamodelle des IPCC vorhergesagt haben.
Seit 1998 sind die Temperaturen relativ stabil geblieben, lediglich mit Ausnahme einer kurzen El Nino-Spitze im Jahre 2010, der im Jahr 2011 die dramatische Abnahme eines La Nina-Ereignisses folgte. Etwa die Hälfte der seit 1900 aufgetretenen geschätzten Erwärmung ereignete sich vor Mitte der Vierziger Jahre trotz kontinuierlich steigenden CO2-Niveaus seit dieser Zeit.
Unser milder USA-Winter 2011/2012 wäre ein sehr willkommener Unterschied zu dem gewesen, was in anderen Gebieten der Welt geschah. Eine Kältewelle in Europa forderte über 500 Todesopfer, davon über 140 in der Ukraine sowie hunderter Anderer in Frankreich, Serbien und der Tschechischen Republik. Die für Transporte, die Stromgewinnung und die Industrie so wichtige, 2860 Kilometer lange Donau fror zu, ebenso wie fast alle Flüsse im Balkan. In mehr als 130 Dörfern in Bulgarien war die Stromversorgung zusammengebrochen.
Näher bei uns kam es in Fairbanks, Alaska, zum kältesten Januar seit 1971 mit Temperaturwerten bis -24°F [ca. -31°C]. Das kälteste Januarmittel war dort im Jahr 1906 aufgetreten (-36,4°F [-38°C]).
Die Temperaturmessungen an mehr als 30000 Stationen, deren Werte im Stillen vom UK Met Office und der CRU veröffentlicht worden sind, zeigen seit 15 Jahren keine Erwärmung mehr. Auch sieht es nicht so aus, als ob die Erwärmung wieder einsetzen würde. Viele wissenschaftliche Studien deuten darauf hin, dass das globale Klima wegen eines schwachen neuen Sonnenzyklus’ demnächst in eine Kaltphase eintreten wird. Diese Vorhersage basiert auf  wichtigen berechneten Eigenschaften kosmischer Strahlung auf die Wolkenbildung während einer Periode mit reduzierter Aktivität von Sonnenflecken. Mehr Wolken sorgen für kühlere Bedingungen, während weniger Wolken zu Erwärmung führen.
Der solare Output durchläuft 11-Jahres-Zyklen mit einer hohen Zahl von Sonnenflecken während des Maximums. Gegenwärtig laufen wir auf das Maximum des „Zyklus’ 24“ zu, und doch beträgt die Anzahl der Sonnenflecken weniger als die Hälfte von anderen Maxima im 20. Jahrhundert. Eine vom Met. Office veröffentlichte Studie projiziert eine Wahrscheinlichkeit von 92%, dass sowohl der Zyklus Nr. 25 sowie die Folgenden genauso schwach oder sogar noch schwächer ausfallen als während des „Dalton-Minimums“ von 1790 bis 1830, als es in Europa um etwa 2°C kälter war.
Nicola Scafetta, ein Klimawissenschaftler an der Duke University und dem Active Cavity Radiometer Solar Irradiance Monitor Lab (ACRIM), erzählte mir, dass er nicht glaubt, dass wir ein starkes „Maunder-Minimum“ oder selbst Bedingungen wie im Dalton-Minimum erleben werden, weil sich die Sonne gegenwärtig im Maximum eines 1000-jährigen Zyklus’ befindet, also ähnliche Bedingungen wie während der zwei Jahrhunderte währenden Mittelalterlichen Warmzeit. Allerdings steht die Sonne an der Schwelle zu einem Großen Minimum, das wahrscheinlich einem ausgeprägten 60-jährigen Zyklus folgt, mit Maxima um das Jahr 2000 und dann wieder 2060. Scafetta sagt voraus, dass es während der nächsten 20 bis 30 Jahre zu einer stetigen, aber moderaten Abkühlung kommen wird. Seine neue Studie mit dieser Vorhersage wurde vor Kurzem im Journal of Atmospheric and Solar Terrestrial Physics veröffentlicht und basiert auf Rekonstruktionen der Solardaten bis 10000 Jahre vor Christus.
Das Met. Office behauptet, dass sich der Treibhauseffekt des anthropogenen CO2 weit stärker auswirkt als der Einfluss der Sonne; ausreichend, um nicht nur eine potentielle Abkühlung durch solare Vorgänge deutlich überzukompensieren, sondern auch, um eine Gesamterwärmung auszulösen. Dies wird jedoch von Sonnenexperten heftig bestritten. Sie weisen darauf hin, dass die Hypothese des Met. Office lediglich auf hoch theoretischen Klimamodellen basiert, die den CO2-Einfluss übertreiben, während sie zahlreiche andere dazu beitragende Faktoren ignorieren. Zum Beispiel hat das Met. Office angesichts des anhaltend steigenden CO2-Gehaltes 2007 behauptet, dass die globale Erwärmung „mit Macht wieder einsetzen werde“, und sagte eine Erwärmung um 0,3°C zwischen 2004 und 2014 voraus. Im Jahre 2009 wurde diese Vorhersage dahingehend geändert, dass die Jahre zwischen 2009 und 2014 den bisherigen Temperaturrekord des Jahres 1998 brechen würden. Das scheint doch sehr unwahrscheinlich.
Da sie die globale Temperatur nicht direkt nachbilden können, basiert die Vorhersage des Met. Office aus dem Jahr 2009 auf einem einfachen „Energiebilanzmodell“ (EBM), mit dem ein voll Atmosphäre-Ozean-gekoppeltes „generelles Zirkulationsmodell“ (GCM) nachgebildet werden sollte. Allerdings enthielt das GCM, mit dem sie ihr EBM (das „HadCM3“) kalibriert haben, keinerlei solare Verstärkungsfaktoren (wie Einflüsse durch Feedbacks zwischen Wolken und kosmischer Strahlung) und zeigte folglich nur eine sehr begrenzte Klimasensitivität auf solare Variationen. Dies ist ein neues und sehr kreatives Beispiel von „garbage in-garbage out“-Hexerei, wobei von einem Klimamodell, das zur Modellierung eines anderen Klimamodells benutzt wird, behauptet wird, dass es irgendeinen Vorhersagewert hat.
Judith Curry, eine bekannte Klimatologin, die der School of Earth and Atmospheric Sciences am Georgia Institute of Technology vorsteht, findet die vertrauensvolle Vorhersage des Met. Office eines „vernachlässigbaren“ Einflusses der Sonne „schwer zu verstehen“. Sie hat festgestellt, dass „es von Verantwortung zeugen würde, wenn man akzeptiert, dass die Modelle ernste Schwächen haben, wenn es um den Einfluss der Sonne geht“. Hinsichtlich der vorhergesagten Pause bei der Erwärmung sagt sie, dass viele Wissenschaftler „nicht überrascht“ sind.
Curry benennt auch wichtige Beiträge von 60-jährigen Temperaturzyklen im Atlantik und Pazifik und hat beobachtet, dass diese „nur ungenügend hinsichtlich des globalen Klimas berücksichtigt worden sind“. Als beide Ozeane kühl waren, wie in der Zeit von 1940 bis 1970, kühlte sich das Klima ab. Der Pazifik trat dann erneut im Jahr 2008 von einer warmen in eine kalte Phase über, und es wird erwartet, dass der Atlantik während der nächsten Jahre das auch tut.
Habibullo Abdussamatov, ein Wissenschaftler am Pulkovo Observatory an der Russian Academy of Science in St. Petersburg, sagt voraus, dass unser Planet jetzt in eine sehr kalte und ausgedehnte Klimaphase eintritt. Er glaubt, dass „man nach dem Maximum des Sonnenzyklus’ 24, etwa im Jahr 2014, den Beginn des nächsten zweihundertjährigen Zyklus’ starker Abkühlung erwarten kann, mit einer Kleinen Eiszeit um das Jahr 2055 plus/minus 11 Jahre (dem 19. der letzten 7500 Jahre).
Eine weitere Kleine Eiszeit? Wenn Sie sich bisher Sorgen um eine vom Menschen verursachte globale Erwärmung gemacht haben, denken Sie daran! Obwohl es unwahrscheinlich ist, lassen Sie uns hoffen, dass das Met. Office ausnahmsweise einmal richtig liegt, und dass der Pflanzendünger CO2 uns vor solchen wirklich frösteln machenden Perspektiven bewahrt.
Weiteres von Larry Bell
Link: http://www.forbes.com/sites/larrybell/2012/03/27/climate-obstinately-refuses-to-cooperate-with-global-warming-alarmists/
Übersetzt von Chris Frey EIKE




Die 200 Milliarden Euro Lüge über die Förderung der Atomwirtschaft

Seit ca. 2 Jahren geistert der Betrag „165 Mrd. Euro”, mit dem die „Atomwirtschaft” insgesamt angeblich gefördert wurde, durch die Medien. Kein Moderator, der etwas auf sich hält, vergisst es, diese Zahl zu erwähnen. Viele runden diese auch noch großzügig auf 200 Mrd. auf – kann man sich so besser merken. Aber wo kommt sie her?
Sie kommt vom „Forum für Ökologisch-Soziale Marktwirtschaft” (FÖS), im Auftrag von Greenpeace, erstellt im Sept. 2009 (hier). Als Autoren der Studie sind 3 Personen, Bettina Meyer, Sebastian Schmidt und Volker Eidems, ohne Titel oder Qualifikation, angegeben. Zu diesen Personen ist nichts weiter zu finden, außer dass Bettina Meyer dem Vorstand des FÖS angehört.
Es handelt sich um eine phantasievolle Zusammenstellung von angeblichen Kosten von 1950 – 2008, alles, was den FÖS-Mitgliedern am Stammtisch so in den Sinn gekommen ist. Zum Beispiel: 41 Mrd. € für „Forschung”. Darunter versteht das wohl FÖS alles, was irgendwie „Kern” im Forschungsprogramm hatte, Grundlagenforschung vor allem aus der Anfangszeit, aber auch Fusionsforschung (was hat die „Atomwirtschaft” mit Fusionsforschung zu tun?) – inflationsbereinigt hochgerechnet und summiert über 60 Jahre. Welche Forschung das im einzelnen gewesen sein soll, verschweigt die Studie, bis auf einige Großprojekte wie den THTR. Wer also damals mit einem Beschleuniger Kernreaktionen, die relevant für die Energieerzeugung in der Sonne sind, durchgeführt hat, steht vermutlich auch auf der Liste.
Der zweite große Posten mit 65 Mrd. € sind „Steuervergünstigungen”. Davon sind 40 Mrd. € die „fehlende Brennelementesteuer”. Die Tatsache, dass diese Steuer 1950-2008 nicht erhoben wurde, zählt hier also als „Subvention”. (Dass wir alle noch keine Steuern für die Luft zahlen wäre demnach eine äußerst großzügige Subvention, die jedem Bürger zugute kommt – wir sollten dankbar sein!).
Bleiben also von den 165 Mrd. Euro nur noch 85 Mrd. Weitere 33 Mrd. € versteckt FÖS hinter „Budgetunabhängige staatliche Regelungen”. Damit ist vor allem gemeint, dass die Stromkonzerne über viele Jahre angeblich überhöhte Preise genommen haben, gefördert durch staatliche Regelungen und Intransparenz. Hier wird gar nicht mehr groß argumentiert, es fallen einfach ein paar Zahlen vom Himmel, die miteinander kombiniert werden, und das FÖS nimmt die Differenz zu den Strompreisen, die seiner Meinung nach angemessen gewesen wären. Heraus kommen jedenfalls 33 Mrd. €.
Bleiben also nur noch gut 50 Mrd. €. Wer bis hier noch nicht genug hat, kann sich ja die übrigen Posten noch ansehen. Da finden sich z.B. weitere 6 Mrd. € "Strompreiserhöhung durch Emissionshandel", die auch gleich noch mit 31. Mrd. € in die Zukunft gerechnet werden (was können die Kernkraftwerke dafür, dass sie kein CO2 emittieren?), u.v.m.
Übrig bleibt eigenlich nur der Schnelle Brüter (SNR-300), der THTR u.ä. Diese Anlagen hat der Staat in der Summe und inflationsbereinigt mit ca. 15 Mrd. € gefördert. Davon hat die „Atomwirtschaft” aber nur Verluste gehabt (in der Studie natürlich nicht verbucht), denn praktisch all diese Projekte wurde noch vor oder kurz nach der Inbetriebnahme aus politischen Gründen stillgelegt. Die Abbaukosten werden selbstverständlich in der „Studie” großzügig verrechnet.
Die 200 Mrd. € sind eine gewaltige Luftblase. Lässt man die Luft ab, bleiben praktisch keine direkten Subventionen übrig. Im Gegensatz zu den „Regenerativen”, die bereits jetzt mit über 100 Mrd. subventioniert wurden und immer noch nutzlos sind, hat die Nukleartechnik bis auf Grundlagenforschung nie Subventionen erhalten, dafür aber von Anfang an preiswerten Strom geliefert. Es handelt sich bei dieser „Studie” lediglich um ein Ablenkungsmöver der Ökolobby, den eigenen Subventionsirrsinn zu relativieren und zu rechtfertigen.
Für EIKE verfasst von
Dr. Götz Ruprecht
Nachtrag: aktuell zur Kenntnis auch (hier)
Guter weiterführender Link hier (mit Dank an Leser Stefan Steger)

Energiedebatte: Das Märchen vom subventionierten Atomstrom

Von Joachim Volz




Die großen Unbekannten im Energiefluss der Erde

Was wir alles NICHT über den Energiefluss der Erde wissen

von Robert G. Brown

[Vorbemerkung des Übersetzers:
Der folgende Aufsatz stammt aus der Diskussion eines Beitrag von Lord Monckton auf WattsUpWithThat. Bei EIKE unter dem Titel Rückkopplungen über Rückkopplungen und ähnliche Dummheiten erschienen, aber ohne die daranhängende englischsprachige Diskussion. Aus dieser Diskussion stammt der folgende Beitrag des amerikanischen Physikers Robert G. Brown, der sich grundsätzlich und tiefschürfend mit der Fragestellung beschäftigt. In seiner kurzen Einleitung bezieht er sich auf Lord Monckton, dann führt er seine Gedanken aus.]

Robert G. Brown: Ich kann nicht für Ihr Programm sprechen, ich bleibe bei meinem, um die „mittlere wirksame radiative Temperatur” eines masselosen grauen Körpers als „perfektem Strahler“ zu berechnen. Man möge daran denken, dass es keine wirkliche Temperatur in einem derartigen Beispiel geben kann, weil es keine Masse gibt. Man braucht Masse, um die Temperatur zu definieren. (Aber die meisten Klimatologen sehen darin kein Problem, daher liegen sie alle falsch – so leid mir das tut!)

Hier würde ich mich gerne einschalten und diese Behauptung untermauern, ohne notwendigerweise die Ergebnisse der Berechnungen für richtig zu halten. (Dazu müsste ich den Code und die Ergebnisse direkt anschauen).
Betrachten wir kurz die Skalierungen. Da gibt es einige Gleichungen:

P = (4pi R^2)epsilonsigma T^4

ist die gesamte Leistung, die von einer Kugel mit dem Radius R bei gleichverteilter Temperatur T ausgeht. sigma ist die Stefan-Boltzmann-Konstante, die während der Betrachtung Skalierung zunächst nicht beachtet wird, epsilon beschreibt die Emissivität des Körpers und sie ist konstant in der Größenordnung der Einheit (für einen „schwarzen Körper“, weniger für einen „grauen Körper“, noch allgemeiner gesprochen eine Funktion der Wellenlänge und keine Konstante). Ich wiederhole: beim Betrachten der Größenordnung beachten wir epsilon zunächst nicht.
Nun nehmen wir an, dass die Temperatur nicht gleichverteilt ist. Um uns die Sache leichter zu machen, modellieren wir eine nicht gleichverteilte Temperatur für eine Kugel mit einer gleichverteilten Temperatur auf der „heißen Seite“ von T + dT und einer gleichverteilten Temperatur auf der „kalten Seite“ von T – dT. Eine Hälfte der Kugel ist heiß, die andere kalt. Die räumlich durchschnittliche Temperatur, wohlgemerkt, bleibt T. Dann beträgt die abgestrahlte Leistung:

P’ = (4pi R^2)epsilonsigma ( 0.5*(T + dT)^4 + 0.5(T – dT)^4)

Wir interessieren uns nur für die Größenordnung, also: wir führen a) eine binomische Entwicklung von P’ zum Quadrat durch (die Ausdrücke erster Ordnung in dT heben sich auf); dann bilden wir b) das Verhältnis P’/P und erhalten:

P’/P = 1 + 6 (dT/T)^2

Dabei sehen wir etwas und können daraus eine Abschätzung treffen. Was wir sehen ist, dass P’ erheblich größer als P ist – bei nicht gleichverteilter Temperatur auf der Kugel strahlt die Energie erheblich rascher ab, als von einer Kugel gleichen Radius’ mit gleichverteilter Temperatur und gleicher Durchschnittstemperatur. Das ist gut verstehbar – auf der heißen Seite geht es mit der vierten Potenz viel schneller aufwärts, als es auf der kalten Seite mit der vierten Potenz runtergeht. Dabei tut es überhaupts nichts zur Sache, dass die Temperatur auf der kalten Sache von unten begrenzt wird auf T_c = 0.

Die Abschätzung: dT/T approx 0.03 für die Erde ergibt nicht besonders viel – es eine Abschätzung der Größenordnung, wobei T approx 300K und dT approx 10K. (0.03^2 = 0.0009 approx 0.001 so dass 6(0.03)^2 approx 0.006. Wenn man aber die geografische Breite anstelle einer Tag/Nachtseiten-Schichtung für dT annimmt, ist sie viel größer. Man sollte in Wirklichkeit beides benutzen und die wirkliche Temperaturverteilung integrieren (Momentaufnahme) – oder es noch genauer machen. Aber wir wollen ja zunächst nur ein Gefühl bekommen, wie sich die Dinge dabei verändern, keine genaue und stimmige Berechnung anstellen.

Wenn sich die Erde im Gleichgewichtszustand befindet, muss S/4 gleich P’ sein – so viel Wärme, wie einfällt, muss auch abgestrahlt werden. Das Modell halte ich nicht für bedenklich, nur die Größe des Skalierungsverhältnisses: 1375 * 0.006 = 8.25 W/m^2 geteilt durch vier. Weil die Temperatur der Erde in Wirklichkeit nicht gleichverteilt ist, bedeutet das eine Erhöhung der Rate, mit der Wärme verloren wird: (insgesamt) mit etwa 2 W/m^2. Das ist keine vernachlässigbare Menge. Sie ist noch weniger vernachlässigbar, wenn man nicht nur die Differenz zwischen den mittleren Tages- und Nachttemperaturen betrachtet, sondern zwischen den äquatorialen und den polaren Breiten. das dT ist dann eher 0.2 und der Effekt noch stärker ausgeprägt!
Entscheidend ist, dass mit dem Anstieg der Temperatur die Rate des Wärmeverlustes der Erde zwangsläufig hochgeht, unter sonst gleichen Bedingungen. Heiße Körper verlieren die Wärme (durch Abstrahlung) viel rascher als kalte wegen der ganz einfachen Stefan-Boltzmann-T^4-Zunahme; sodann tendiert alles, was die Inhomogeneität der Temperaturverteilung um den (erhöhten Mittelwert) verstärkt, noch zu einer weiteren Zunahme. Man beachte, dass sich das Gesagte auf diese Weise direkt nach oben abbildet:

P’/P = 1 + 4 dT/T + …

(Hier wird angenommen, dass T’ = T + dT, mit dT << T Erwärmung.)

Am oberen Ende der IPCC-Weltuntergangs-Skala bedeutet eine Temperatur-Erhöhung von 5.6C gleich 5.6/280 approx 0.02. Das würde die Rate des Stefan-Boltzmann’schen radiativen Leistungsverlusts um den Faktor 0.08, oder um fast 10% erhöhen. Ich halte das für absurdes ist schier unmöglich, durch eine Verdoppelung des CO_2 (auf eine Konzentration von immerhin noch < 0.1%) eine Veränderung der Energiebilanz der Erde um 10% zu erzeugen.
Das Schöne an der Berücksichtigung von P’/P in unseren Betrachtungen liegt darin, dass damit die ganzen ärgerlichen (oft unbekannten) Faktoren wie z. B. epsilon verschwinden. Man muss nur dafür sorgen, dass epsilon selbst sich zunächst nicht schneller vor dem diesbezüglichen Term in der Skalierungsbeziehung verändert.
Wir haben damit auch einige “Proben auf Richtigkeit”. Diese Proben zeigen, dass man nicht einfach annehmen kann, die Erde sei eine Kugel mit einer gewissen gleichverteilten Temperatur, ohne dabei gravierende Fehler zu machen. Sie zeigen auch, dass Veränderungen von über 1-2C über irgendwelche Temperaturdurchschnitte in geologischen Zeiträumen auf absurde Weise unwahrscheinlich sind, wegen des grundlegenden T^4 in der Stefan-Boltzmann-Gleichung. Im Grunde entspricht bei einem gegebenen T = 288 jede Zunahme von 1K bei T einer 1.4% Zunahme bei der abgestrahlten Leistung.
Auf der Suche nach einem „schlagenden Beweis“ zur Erklärung der globalen Temperatur-Veränderungen muss der Beweis auf der Ebene geführt werden, wo die Netto-Leistung auf der gleichen Skala verändert wird wie die Temperatur in Grad Kelvin.

Wo sind die Kandidaten für solche „schlagenden Beweise“?
Da ist zunächst die Albedo. 1% Veränderung in (absoluter) Albedo kann die Temperatur um etwa 1K verändern.
Noch besser ist die Veränderung der Temperatur-Verteilung. Soviel lehren uns die dekadischen Oszillationen: die Art und Weise der Temperaturverteilung auf der Erdoberfläche hat tiefgehende und manchmal unmittelbare Auswirkung auf die Netto-Erwärmung oder Abkühlung. Dies ganz besonders am oberen Rand der Troposphäre. Die Veränderungen der Treibhausgaskonzentrationen – ganz besonders Wasser – haben die richtige Größenordnung. Die Wärmespeicherung, Abgabe und Verteilung in den Weltmeeren ist bedeutend – Europa ist warm, nicht einfach nur wegen des CO_2, sondern weil der Golfstrom äquatoriale Wärme dorthin transportiert! Wenn man den “globalen Wärmeaustausch-Gürtel” unterbräche, könnte man Europa zufrieren sehen. (Und dann Nordasien, Nordamerika, und weiter …)
Am besten ist eine komplexe, nicht-lineare Mischung von allem Obigen! Albedo, globale Zirkulation (Konvektion), Ozeanischer Wärmetransport, atmosphärischer Wassergehalt, das alles verändert die Art der Temperaturverteilung (und auch die Strahlungsverluste).
Alles wirkt zusammen, darüber bin ich mir sicher, bei der Bildung der durchschnittlichen globalen Temperatur, und das auf nicht triviale Weise. Wenn Wärme in den Tropen konzentriert ist, ist T_h höher (T_c niedriger) im Vergleich zu T, die Welt kühlt schneller ab. Wenn Wärme zu den Polen verteilt wird (durch Konvektion), liegt T_h dichter an T_c, die Welt kühlt insgesamt langsamer ab, eher einem im Grunde „schwarzen Körper“ angenähert. Wenn die Tagestemperaturen viel höher als die Nachttemperaturen sind, kühlt die Welt relativ rasch ab; wenn sie näher beieinander liegen, verhält es sich in Näherung eher wie bei einem im Grunde „schwarzen/grauen Körper“. Wenn die Tages-Albedo hoch ist, wird zunächst weniger Leistung aufgenommen, eine Netto-Abkühlung findet statt; wenn die nächtliche Albedo hoch ist, gibt es weniger nächtliche Abkühlung, ein geringeres Temperatur-Differential usw.

Es handelt sich um ein komplexes Problem, nicht um ein einfaches. Wenn jemand behauptet, dass es einfach wäre, will er Sie vermutlich übertölpeln. Es ist wirklich kein einfaches physikalisches Problem und es ist nahezu gewiss, dass wir alle physikalischen Zusammenhänge noch nicht kennen. Ein wahres Ärgernis bei der gesamten Debatte über das Klima ist die allfällige Behauptung von der gesicherten wissenschaftlichen Erkenntnis. Nichts ist gesichert, noch nicht einmal annähernd! Im Laufe des nächsten Jahrzehnts werden wir noch Wichtiges über das Klima erfahren.
Bevor wir alle phyikalischen Vorgänge verstehen – dann wird es keine Überraschungen vom Watt/m^2-Ausmaß geben – werden wir kein genaues Modell bauen können. Und solange wir kein genaues Modell für geologische Zeiträume bauen können, werden wir die einfache Frage nicht beantworten können, die beantwortet werden muss, bevor wir uns an die Abschätzung der anthopogenen Klimaveränderung machen:

Wie hoch wäre die Temperatur, wenn das CO_2 noch auf der Höhe der vorindustriellen Konzentration wäre?

Ich meine, wir können diese Frage mit unserem heutigen Kenntnisstand nicht beantworten. Wir wissen nicht, warum es die Mittelalterliche Warmperiode gab (ohne CO_2-Veränderung). Wir wissen nicht, warum die Kleine Eiszeit gab LIA happened (ohne CO_2-Veränderung). Wir wissen auch nicht, warum es die anderen bedeutenden Klimaveränderungen gab, zurück bis zum Optimum im Holozän (viel wärmer als heute) oder bis zur unteren Trias (viel kälter als heute). Wir wissen nicht, warum es im Verlauf von jeweils 100.000 Jahren jeweils 90.000 Jahre Eiszeit gab, warum es vor 15 Millionen Jahren viel wärmer als heute war, warum in geologischen Zeiträumen kalte und warme Perioden sich in Millionen-Jahres- bis zu Hundert- Millionen-Jahres-Perioden ablösen. Wir wissen nicht, wie lange das Holozän noch andauern wird, nicht wann oder warum es enden wird, auch nicht, wie lange der Übergang von warmen zu kalten Bedingungen dauert.
Wir sind uns ziemlich sicher, dass die Sonne eine Menge damit zu tun hat, aber wir wissen nicht, auf welche Weise, auch nicht, ob mehr als nur die Sonne im Spiel ist. Wir können solare zehnjährige Zustände nicht vorhersagen, geschweige denn jahrhundertlange, wir sind noch nicht einmal gut bei der Vorhersage für einige Jahre. Wir können Zeit und Stärke der dekadischen Oszillationen nicht vorhersagen. Wir wissen nicht, wann sich die kontinentalen Strömungsverhältnisse, d. h. die ozeanischen und atmosphärischen Zirkulationsmuster, so weit ändern, dass ein neuer „Modus“ entsteht (ein Modus, der abrupte und heftige Klimaveränderungen in der ganzen Welt verursachen könnte).

Zum Abschluss: wir wissen nicht, wie wir ein vertrauenswürdiges globales Klimamodell bauen könnten, teilweise, weil wir noch Antworten auf viele dieser Fragen brauchen! Solange wir es nicht können, bauen wir nur Anpassungen von nicht-linearen Funktionen, die gut bei der Interpolation sind, bei der Extrapolation aber versagen.

rgb
Wer sich für den bereits erschienen Beitrag von Robert G. Brown interessiert, findet ihn undefinedhier.
Wer sich für das Original interessiert, findet es undefined  hier
Übersetzung: Helmut Jäger, EIKE




Öl und Benzin – der Faktencheck!

Tatsächlich ist nichts davon nachvollziehbar. Weder die Situationsbeschreibung, noch die Ideen zur Lösung eines Problems, das man zu sehen glaubt, ohne es wirklich zu erkennen.
Vor mir liegt die Studie “Reserven, Ressourcen und Verfügbarkeit von Energierohstoffen” der Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) des Jahres 2006. Dieses Papier scheint nicht mehr zum Download zur Verfügung zu stehen. Es heißt darin auf Seite 16:

“Das verbleibende Potenzial an konventionellem Erdöl kann aus geologischer Sicht bei moderatem Anstieg des Erdölverbrauchs die Versorgung mit Erdöl über einen Zeitraum von etwa 10 bis 15 Jahren gewährleisten. Nach diesem Zeitraum muss infolge des zu erwartenden Rückgangs der Erdölförderung nach Überschreiten der weltweit maximal möglichen Förderung mit einer Versorgungslücke bei Erdöl gerechnet werden, die durch andere Energieträger oder Erdölsubstitute (aus Erdgas, Kohle oder Biomasse) ausgeglichen werden müsste.”

Nun wird diese Untersuchung durch das BGR jährlich durchgeführt. Die aktuellste Version von Ende 2011 enthält zur Frage der Verfügbarkeit von Erdöl die folgende Aussage:

“Für die nächsten Jahre kann aus geologischer Sicht bei einem moderaten Anstieg des Erdölverbrauchs die Versorgung mit Erdöl gewährleistet werden. Nach der als optimistisch anzusehenden BGR-Projektion könnte die globale Erdölförderung bis etwa 2036 gesteigert werden und 4,6 Mrd. t/a erreichen.”

In nur fünf Jahren hat sich damit ein möglicher “Peak Oil” um fünfzehn Jahre nach hinten verschoben. Dies ist ein stabiler Trend in allen Prognosen dieser Art: Das erwartete Fördermaximum wandert schneller in die Zukunft, als die Zeit vergeht. Das erste Diagramm zeigt, warum das so ist. Bei nahezu gleichbleibender Produktion in den letzten Jahrzehnten steigt die Zahl der gesicherten Reserven immer weiter an. Die Erdölkonstante, die statische Reichweite, erhöht sich dadurch ständig. Lag sie 1980 noch bei etwa 30 Jahren (demzufolge hätten wir eigentlich schon seit zwei Jahren kein Benzin mehr), ist sie heute bei über 50 angekommen.

Oft kommt seitens der Peak-Oil-Vertreter an dieser Stelle das Argument, die Konstanz der Produktion wäre das eigentliche Problem. Viele der Reserven seien in Wahrheit nur mit hohem Aufwand und unter hohen Kosten zu erreichen. Die Ölförderung könne eben nicht mehr über das heute erreichte Niveau hinaus gesteigert werden. Das ist eine merkwürdige Argumentation. Warum sollte denn versucht werden, die Förderung zu erhöhen, wenn es keinen Bedarf gibt? Tatsächlich steigen die Ölreserven sogar doppelt so schnell, wie der Verbrauch (nachfolgende Abbildung – Leider enthält der “Ölverbrauch” in den mir vorliegenden Daten von BP auch Biodiesel und Bioethanol, auf die der moderate Anstieg von etwa 1 Prozent pro Jahr wesentlich entfällt.). Und wenn es eine Konstante im Ölgeschäft tatsächlich gibt, dann die, daß nur gefördert wird, was man auch verkaufen kann.


Die Reserven, die heute schon zu marktfähigen Kosten förderbaren Vorkommen, machen nur einen Bruchteil des Erdöls aus, das uns zur Verfügung steht. In den Diagrammen sind von den unkonventionellen Vorkommen nur  geringe Mengen der kanadischen Ölsande enthalten. Vor allem hinsichtlich des Potentials von Schieferöl (nicht zu verwechseln mit “Ölschiefer”) gibt es noch keine belastbaren Aussagen. Alles, was ich dazu finden konnte, ist eine Studie des privaten Washingtoner Think Tanks “Institute for Energy Research”, in der man aus verschiedenen Quellen Ressourcen in einer Größenordnung von etwa 1.800 Milliarden Barrel allein für Nordamerika abgeleitet hat (Seite 15) – mehr als die globalen Reserven von derzeit etwa 1.500 Milliarden Barrel. Darf man vermuten, dieses Öl würde im Boden belassen, wenn es jemand kaufen möchte? Wohl eher nicht.  
Es gibt keine Verknappung, noch ist eine solche für die kommenden Jahrzehnte absehbar. Die BGR sieht das fast ganz richtig, in ihrer Energiestudie von 2011:

“Insbesondere die fortschreitende Technologieentwicklung im vergangenen Betrachtungszeitraum hat die Trennung in konventionelle und nicht-konventionelle Vorkommen unschärfer werden lassen.”

Ich würde weiter gehen. Eine solche Trennung ergibt keinen Sinn mehr. Das Gerede von einer bevorstehenden Verknappung des Öls entbehrt damit jeder Grundlage.
Trotzdem habe ich heute für 1,72 Euro pro Liter getankt. Das ist mehr, als ich im Laufe meines Autofahrerlebens bislang gewohnt war. Die dritte Abbildung zeigt: Es ist wohl mehr als zum historischen Höchststand des Jahres 1953. Moment mal, werden jetzt viele einwerfen, in den 1950er Jahren hat Benzin doch nur ein paar Pfennige gekostet. Stimmt natürlich, 1953 waren es im Jahresdurchschnitt etwa 37 Pfennig pro Liter. Aber diese 37 Pfennig waren damals so viel wert, wie heute 160 Cent. Das Diagramm ist mit den Daten zum Verbraucherpreisindex des statistischen Bundesamtes inflationsbereinigt. Die Spritpreise (Jahresmittelwerte) stammen vom ADAC und die jeweiligen Sätze für Mineralöl- und Umsatzsteuer kann man bei Wikipedia nachlesen. Für das Jahr 2012 sind die Monate Januar bis März berücksichtigt. Es wird deutlich, wer am Autofahrer wirklich verdient. Nicht die Ölmultis, sondern Wolfgang Schäuble.

Gerade mal 60-70 Cent kostet der Liter heutzutage. Das ist im Verlauf der Jahrzehnte nicht ungewöhnlich. Langfristig zeigt der Trend nach unten, von Schwankungen auf kürzeren Skalen überlagert. Die Rekordwerte entstehen, weil von jedem Liter der Staat mittlerweile fast einen Euro einkassiert. Der rote Bereich im Diagramm zeigt den Steueranteil.
Nichts ist es mit dem knappen Öl. Und Preiskartelle der Konzerne haben und hatten, wenn es sie denn gibt oder gab, nur Ausschläge von wenigen Cent hervorgerufen. Der Kostentreiber bei Benzin ist der Staat – und niemand sonst. Es hilft hier auch keine Energiewende, es hilft keine Erhöhung der Pendlerpauschale und schon gar nicht hilft eine Debatte über Unternehmensstrategien. Allein eine schnelle und substantielle Senkung der Steuerlast, der Mehrwert- und vor allem der Mineralölsteuer, könnte Entlastung bringen. Auch langfristig. Dieses Thema aber scheuen alle Parteien. Was nicht verwundert.
Unsere wirklichen Probleme mit dem Öl werden in zwanzig oder dreißig Jahren ganz andere sein. Nicht zu wenig wird es geben, sondern zu viel. Vor allem in Nordamerika, in den USA, in Kanada und in Mexiko. Angesichts des unaufhaltsamen technischen Fortschrittes haben sowohl Exxon, als auch BP analog zu den Analysten der Citigroup ihre neuesten Zukunftsszenarien gegenüber dem Jahr 2010 deutlich verändert. Die baldige Unabhängigkeit des nordamerikanischen Wirtschaftsraums von Importen ist nicht mehr hypothetisch, sondern wahrscheinlich. Es wird dann niemand mehr da sein, der ein Interesse daran hat, auch die Versorgung Europas aus politisch instabilen Regionen abzusichern. Die Navy wird sich fein heraushalten, wenn irgendein Potentat mal wieder die Straße von Hormus zu sperren droht. Ein neues Erdölzeitalter beginnt. Und wir sind nicht darauf vorbereitet.
Dr. Peter Heller; zuerst erschienen bei Science Sceptical

ÄHNLICHE BEITRÄGE

Peak oil doomsayers ignore human ingenuity




Klimakatastrophenprophet der ersten Stunde Hartmut Graßl droht zu scheitern

Im Jahre 1990, also vor nunmehr 22 Jahren, alarmierte Hartmut Graßl mit seinem Buch “Wir Klimamacher” die Öffentlichkeit und sagte eine schlimme Klimakatastrophe vorher. Auf Seite 61 schrieb er damals zusammen mit seinem Co-Autor Reiner Klingholz:

“Schon in den nächsten 30 Jahren wird sich die Erde mit hoher Wahrscheinlichkeit um ein bis zwei Grad erwärmen.”

Nun sind die 30 Jahre bald um und wir erlauben uns nachzuschauen, ob sich die Natur an die Prognose gehalten hat. Das Ergebnis ist ernüchternd: Zwar ist die globale Durchschnittstemperatur von 1977 bis 2000 um 0,5°C angestiegen, wovon sich etwa die Hälfte davon, also 0,25°C, zwischen 1990-2000 ereignete. Danach begann jedoch der bekannte Erwärmungsstop, der bis heute andauert. Um auch nur die Untergrenze von Graßl’s Prognose zu erreichen, müsste die Temperatur in den kommenden 8 Jahren also um 0,75°C ansteigen; um die Obergrenze zu erreichen, sogar um 1,75°C. Zum Vergleich: Die gesamte Klimadiskussion dreht sich “nur” um 0,8°C, um die sich die Erde seit 1850 erwärmt hat. Zudem hat Kollege Mojib Latif gerade vorhergesagt, dass sich die “klimatische Atempause”, also der Erwärmungsstop bis 2020 fortsetzen wird. Es sieht also überhaupt nicht gut aus für Graßl’s Prognose. Man muss kein Hellseher sein, um die Prognose schon jetzt als gescheitert zu bezeichnen. 
Obwohl Graßls Vorhersage von 1990 voraussichtlich mit Pauken und Trompeten durchfallen wird, wird er von den Medien noch immer als akzeptierter Meinungsführer umgarnt, wie neulich wieder zu bestaunen war. Ist dies vielleicht ein klimawissenschaftliches Phänomen? In allen anderen Wissenschaftszweigen hätte es das Vertrauen in den Forscher vermutlich stark erschüttert.
Graßl war sich seiner Sache damals offenbar so sicher, dass er die Klimadebatte kurzerhand für beendet erklärte. Im Jahre 1994 sagte er:

„Von wissenschaftlicher Seite ist der Indizienprozess in Sachen Treibhauseffekt gelaufen, ist der Schuldspruch gefällt. Es geht jetzt nicht mehr um weitere Beweise, sondern einzig darum, das Strafmaß um einiges zu mildern. Die globalen Mitteltemperaturen steigen innerhalb der nächsten Jahrzehnte um ein bis zwei Grad. Jede globale Änderung einer Klimagröße, also auch der mittleren Temperatur, erzwingt an fast jedem Ort der Erde neue Wetterextreme. Dann kommt es da zu Überschwemmungen, dort zu Dürren und anderenorts zu Stürmen, wie man sie vorher nicht gekannt hat.“
(Graßl, H.: Technik München, Mitt.-Bl. Techn.-Wiss. Vereine München, 1994; 3,4. Zitiert z.B. in: Heinrich Röck „Klima und Politik“2001)

Oh lala. Achtzehn Jahre nach dieser Aussage schwankt das schöne und liebgewonnene CO2-zentrierte Klimagedankengebäude bedrohlich hin und her und droht dabei jeden Moment zusammenzubrechen. Es wird immer klarer, dass natürliche Klimafaktoren jahrelang unterschätzt wurden. Durch Zuordnungsfehler wurden dem CO2-Wärmeeffekte zugeschlagen, die in Wirklichkeit jedoch zu einem großen Teil auf eine verstärkte Sonnenaktivität, Ozeanzyklen sowie anthropogenen Rußeintrag zurückgehen. In der klimatischen Aufbruchsstimmung der 1990er war man offenbar noch so naiv anzunehmen, mit einem One-Stop-Shop, nämlich dem Kohlendioxid, die Welt zu erklären. Hierauf ist in seiner Euphorie wohl auch Graßl reingefallen. Dies wäre nicht weiter schlimm, da Irrtümer zur Wissenschaft gehören wie braune Spritzer auf dem Hemd beim Genuss von Schokoladenpudding. Allerdings wäre es allmählich nun an der Zeit, den Irrtum einzusehen und Kurskorrekturen am klimatischen Weltbild vorzunehmen. Doch Graßl schaltet auf stur, weicht keinen Deut von seinen mittlerweile überholten Ansichten ab.
Neben der wohl gescheiterten Temperaturprognose, sollte ihn jedoch auch das wissenschaftliche Umdenken in Punkto Wetterextreme nachdenklich machen, das kürzlich stattgefunden hat. Wie dem oben genannten Zitat von 1994 zu entnehmen ist, sah Graßl damals Überschwemmungen, Dürren und Stürme vom CO2 und der Klimaerwärmung verschuldet. Der aktuelle wissenschaftliche Stand hat diesen Gedanken mittlerweile jedoch weitgehend verworfen. Keines der genannten Extremwetter-Phänomene hat den natürlichen Schwankungsbereich bisher verlassen (siehe unsere kürzlichen Blogartikel „Mehr Überschwemmungen? Vermutlich eher nicht“ und „Dürre Beweislage für mehr Dürren“ sowie das Sturmkapitel auf S. 202-208 in „Die kalte Sonne“). Graßl hat damals wohl den falschen Schuldigen hinter Schloss und Riegel gebracht hat. Ein klassischer Justizirrtum.
Spulen wir jetzt eine ganze Dekade nach vorn und blättern ein bisschen in Graßl’s Buch „Klimawandel – Was stimmt? Die wichtigsten Antworten“ von 2007. Auch hier leider wieder das gleiche Problem. Auf Seite 68 beschreibt er die Zunahme von Stürmen, Dürren und anderer Extremwetterlagen als eines der größten Klimaprobleme. Wann hat er eigentlich vor, diesen Dauer-Fehler öffentlich aufzuklären?
Ganz nebenbei: Hätten Sie gewusst, dass Graßl Mitglied des Stiftungsrates der Münchener Rück Stiftung ist? Die enge Verbandelung führender deutscher Klimawissenschaftler mit der interessierten Versicherungsbranche bereitet Sorge. Wie können Interessenskonflikte ausgeschlossen werden, wenn Versicherungsprämien bei gesteigerter Angst vor Sturm-, Hagel- und Überschwemmungsschäden problemlos angehoben werden? Bereits 2011 kooperierte das Potsdam-Institut für Klimafolgenforscung (PIK) mit dem Gesamtverband der Deutschen Versicherungswirtschaft (GDV) in einer Studie, die auf wackeliger Grundlage eine Zunahme der Klimaschäden suggerierte.  Gerade Stefan Rahmstorf scheint hier in der Vergangenheit in Punkto Münchener Rück wenig Berührungsängste gehabt zu haben, wie klimaskeptiker.infokenntnisreich dokumentiert hat.
Im Kapitel “Das Klima hat sich immer geändert” seines Buches fehlt zudem jeglicher Hinweis auf natürliche Temperaturschwankungen der letzten 10.000 Jahre. Die wichtigen Begriffe „Römische Wärmeperiode“, „Mittelalterliche Wärmeperiode“ oder „Kleine Eiszeit“ wollen einfach nicht fallen. Was ist das für ein Buch, das ohne sie auskommen kann? Offensichtlich arbeitet Graßl immer noch auf Basis der diskreditierten Hockeystick-Kurve.
Schön auch sein Ablenkungsmanöver nach dem klassischen Vorbild von Al Gore’s Film „Eine unbequeme Wahrheit“. Auf Seite 15 beschreibt Graßl die gute Korrelation zwischen CO2 sowie Temperatur während der letzten 750.000 Jahre und postuliert die Erwärmung vor allem durch Treibhausgase. Leider vergisst er gänzlich zu erwähnen, dass das CO2 der Temperatur um 800 Jahre hinterherhinkt, und dass das CO2 der Atmosphäre wohl überwiegend durch Ausgasung aus den sich erwärmenden Ozeanen stammt. Dies relativiert die suggerierte Wärmewirkung des CO2 zu dieser Zeit signifikant. Der Fehlschluss wurde bereits Al Gore angekreidet und ist Mitgrund dafür, dass dessen Film laut Gerichtsbeschluss an britischen Schulen nicht mehr unkommentiert gezeigt werden darf.
Eine der jüngsten Äußerungen von Graßl zum Klimawandel betrifft unser Buch „Die kalte Sonne“. Auf die Frage, was er denn von dem Buch halte, antwortetet er im NDR Fernsehen im Februar 2012: “Ach, eigentlich habe ich keine Lust zu solchem Stuss irgendwas zu sagen”. Ein paar Tage später verspürte er offenbar doch noch Lust und äußert sich weniger einsilbig auf klima(rats)retter.info. Allerdings bleiben seine Aussagen auch hier so rätselhaft, dass man nicht richtig schlau daraus wird.
Noch einmal: Es geht hier nicht um eine schadenfrohe Fehlerschau. Jeder macht Fehler und jeder darf sie auch machen. Allerdings wäre es nur redlich, wenn man diese Fehlschläge später auch offen zugibt. Mit kosmetischen Reparaturversuchen ist es dabei nicht getan. Grundlegende Pfeiler des CO2-dominierten Klimamodells beginnen gerade einzustürzen. Die ertappten Fachwissenschaftler sollten die Gelegenheit nutzen und die Probleme ehrlich und ergebnisoffen diskutieren. Ein wenig Schmerzen wird dies zwar bereiten, aber der wissenschaftlichen Wahrheitsfindung wird es auf jeden Fall nutzen. Und daran sollte uns doch allen gelegen sein.
Sebastian Lüning Co Autor von "De kalte Sonne"
zuerst erschienen bei "Die kalte Sonne" 

Mit Dank an Rainer Hoffmann und Klaus-Eckhard Puls für Recherchehilfen.