Vom Unsinn der Klimasensivität CS im IPCC Bericht AR5

Dr. Kiehl’s Paradoxon

Von Willis Eschenbach

Im Jahre 2007 wies Jeffrey Kiehl in einem im GRL veröffentlichten Papier mit dem Titel Twentieth century climate Modell response and Climate Sensitivity auf ein sonderbares Paradoxon hin. Alle von den verschiedenen Forschergruppen betriebenen Klimamodellle konnten die historischen Temperaturen an der Erdoberfläche ganz vernünftig nachbilden. Aus dieser Übereinstimmung wurde von Leuten wie z. B. im IPCC viel Aufhebens gemacht. Nach deren Ansicht ist das der Beleg, dass die Modellle stimmen, dass sie die natürlich gegebene Wirklichkeit abbilden.

Fig. 1. Kiehls Ergebnis beim Vergleich der Klimasensitivität (ECS) mit allen Antrieben. 

Das Paradoxon besteht darin, dass alle Modellle eine stark unterschiedliche Klimasensitivität zeigen, aber dass sie alle in etwa zum gleichen Ergebnis kommen … was stimmt da nicht? Und so schrieb Kiehl in seinem Papier:

[4] Ein sonderbarer Aspekt dieses Ergebnisses ist, dass es allgemein bekannt ist [Houghton et al., 2001], dass die gleichen Modellle, die bei der Simulation der Anomalien bei den Temperaturen an der Erdoberfläche übereinstimmen, signifikant bei der vorhergesagten Klimasensitivität voneinander abweichen. Die angegebene Spannweite bei der Klimasensitivität aus einer großen Anzahl von Modellen reicht normalerweise bei einer Verdoppelung des CO2 von 1.5 bis 4.5C, wobei die meisten der für die Klimawandel-Studien benutzten globalen Klimamodelle wenigstens um den Faktor Zwei beim Gleichgewicht der Klimsensitivität voneinander abweichen.

[5] Die Frage ist: wenn die KlimaModellle sich um einen Faktor von 2 bis 3 in der Klimasensitivität unterscheiden, wieso können sie alle die globalen Temperatur-Aufzeichnungen in einem vernünftigen Genauigkeitsgrad nachbilden?

Kann es so etwas geben? Die Modellle haben stark unterschiedliche Sensitivitäten … aber sie können alle die historischenTemperaturgänge wiedergeben? Wie ist das möglich?

Die Antwort schieben wir zunächst auf, zuerst hier die Antwort von Kiehl (Hervorhebung vom Verfasser):

Man hat herausgefunden, dass der anthropogene Gesamtantrieb bei sehr vielen Klimamodellen sich um den Faktor Zwei unterscheidet und dass der Gesamtantrieb umgekehrt zur Klimasensitivität korreliert ist.

Irgendwie macht das Sinn, weil, wenn der Gesamtantrieb größer ist, man ihn stärker vermindern (geringere Sensitivität) muss, um beim Temperaturgang zu einer Darstellung zu gelangen, die zur historischen Aufzeichnung passt. Kiehl hat aber trotzdem nicht recht.

Meine eigene Forschung im Beitrag Climate Sensitivity Deconstructed  vom Juni dieses Jahre hat gezeigt, dass der entscheidende Faktor nicht der Gesamtantrieb ist, wie Kiehl vermutete. Ich habe herausgefunden, dass die Klimasensitivität der Modellle sehr genau durch ein einfaches Trendverhältnis emuliert wird – Trend des Antriebs geteilt durch den Trend des Modell-Outputs


Fig. 2. Lambda verglichen mit dem Trend-Verhältnis. Rot zeigt die transiente Klimasensitivität (TCR) von vier Modellen plus einen 19-Modelle-Durchschnitt. Dunkelblau zeigt das Gleichgewicht der Klimasensitivität (ECS) der gleichen Modelle. Hellblau ist das Ergebnis aus den Antriebs-Datensätzen, wie sie sich aus tatsächlichen historischen Temperatur-Datensätzen ergeben.

Man sieht, dass Kiehls Fehler bei der Erkennung der Ursache der Veränderungen naheliegend ist. Erstens sind die Outputs der Modelle alle ziemlich ähnlich dem historischen Temperaturverlauf. Deswegen konnte Kiehl den Modell-Output vernachlässigen, was die Frage vereinfacht, aber die Ungenauigkeit vergrößert. Zweitens ist der Gesamtantrieb eine Anomalie, die bei Null anfängt am Beginn der historischen Rekonstruktion. Im Ergebnis ist der Gesamtantrieb irgendwie proportional zum Trend des Antriebs. Und das vergrößert auch noch die Ungenauigkeit. Aber bevor ich das Paradoxon löse und zugleich als Erster, der darüber schreibt, möchte ich Dr. Kiehl meine hohe Anerkennung zollen.

Ich hätte eigentlich nicht davon überrascht sein sollen, dass die Sensitivität wie von den Modellen errechnet, nichts anderes als das Trend-Verhältnis ist. Schließlich ist die kanonische Gleichung des herrschenden Klima-Paradigmas, dass der Antrieb direkt mittels der Klimasensitivität (lambda) auf die Temperatur bezogen ist. So ausgedrückt:

Temperaturänderung (∆T) = Klimasensitivität (lambda) mal Veränderung im Antrieb (∆F), oder kürzer,

∆T = lambda ∆F

Das impliziert natürlich

lambda = ∆T / ∆F

Und der Ausdruck auf der rechten Seite ist nichts anderes als das Verhältnis der Trends. 

Wir sehen also, dass, wenn wir uns für einen speziellen Antriebs-Datensatz für das Modell entschieden und dazu einen historischen Datensatz festgelegt haben, der Output passen wird, und damit haben wir die Klimasensitivität hineingepackt. Jetzt brauchen wir nicht einmal mehr das Modell, um sie zu berechnen. Es ist das Trend-Verhältnis – der Trend des historischen Temperatur-Datensatzes geteilt durch den Trend des Antriebs-Datensatzes. Das ergibt sich zwangsläufig aus der Definition.

Damit haben wir die vollständige Erklärung, warum nach jahrelang und immer wieder verbesserten Computer-Modelllen diese Modellle in immer besserer Genauigkeit und Komplexität die Vergangenheit rückwärts gerichtet voraussagen können … aber bei der Klimasensitivität immer noch nicht übereinstimmen.

Der Grund liegt darin, dass die Klimasensitivität überhaupt nichts mit den Modelllen zu tun hat, aber alles mit den Trends bei den Inputs für die Modellle (Antriebe) und den Outputs (Nach-Berechnungen historischer Temperaturverläufe).

Um es zusammenzufassen, wie Dr. Kiehl vermutete, sind die Variationen in der Klimasensitivität, so wie sie die Modelle ausgeben, nur auf die Unterschiede in den Trend-Differenzen zwischen den von den unterschiedlichen Modellen benutzten Antriebe und den Trends der Outputs zurückzuführen.

Angesichts dessen habe ich laut lachen müssen, als ich den jüngsten UNO-IPCC- Mischmasch von Wissenschaft, Glauben und Pseudo-Wissenschaft durchstudierte, der auch Fünfter Zustandsbericht heißt (AR5). Man halte sich vor Augen, dass das Folgende, wie der Name sagt, von einem Ausschuss von Regierungen kommt, nicht von Wissenschaftlern:

Die Spannweite der Modelle reicht beim Gleichgewicht der Klimasensitivität von 2.1°C bis 4.7°C, und das ist sehr ähnlich wie schon beim AR4. Es besteht sehr hohes Vertrauen, dass der zur Spreizung des Gleichgewichts der Klimasensitivität beitragende Primärfaktor das Feedback der Wolken ist. Das gilt sowohl für das moderne Klima wie für das Maximum der vergangenen Eiszeit.

Ich musste lachen, obschon mir zum Weinen war.  … Die IPCC-ler verstehen wirklich überhaupt nicht, was sie machen. Wie können sie “sehr hohes Vertrauen” (95%) haben, dass die Ursache der “Wolken-Feedback” ist, wenn sie an anderer Stelle zugeben, dass sie die Wirkung der Wolken überhaupt nicht verstehen? So schreiben sie über die Beobachtungen von Wolken und deren Wirkungen und viel weniger darüber, was sie in den Modellen damit machen:

• Beträchtliche Ungewissheit und daher niedriges Vertrauen betrifft die Beobachtungen der Wolkenveränderlichkeit im globalen Ausmaß und den Trends. {2.5.7} 

• Es besteht geringes Vertrauen, dass ein globaler Trend bei Trockenperioden oder Niederschlagsarmut beobachtet wurde, weil es keine direkte Beobachtungen gibt und methodische Unsicherheiten bei der Auswahl und geographische Inkonsistenzen bei den Trends. {2.6.2} 

• Es besteht geringes Vertrauen, dass berichtete Langzeit-Veränderungen (über Jahrhunderte) bei den Eigenschaften der Tropischen Zyklonen robust sind, wenn man die jüngeren Veränderungen der Beobachtungsmöglichkeiten in Betracht zieht. {2.6.3}

Ich muss schon sagen, ich für meinen Teil habe “sehr geringes” Vertrauen in die Beurteilungen der Grade des Vertrauens durch das IPCC in allen Dokumenten … 

Wie dem auch sei, liebe IPCC-ler, die Spannweite der Modell-Sensitivität kann nicht auf die zugegebenermaßen schwächlich modellierten Wirkungen der Wolken zurückgeführt werden. Sie hat auch rein garnichts damit zu tun, wie die Modelle im Inneren ablaufen. Die Klimasensitivität ist eine Funktion der Auswahl der Antriebe und dem gewünschten Output (dem historischen Temperaturgang), und sonst nichts.

Unter Berücksichtigung des Mangels an Verständnis auf seiten der Regierungen kann das noch ein langer Kampf bergauf werden. … Aber ich weiß ja nichts Besseres zu tun.

w.

Nachsatz vom Verfasser: Ich halte die ganze Vorstellung von einer “Klimasensitivität” für bedeutungslos im Kontext von natürlichen thermoregulierten Systemen, wie das Klima eins ist. In derartigen Systemen wird eine Zunahme in einem Teilbereich von einer Abnahme in einem anderen Teilbereich oder über einen längeren Zeitraum konterkariert. Hierzu verweise ich auf meine Beiträge It’s Not About Feedback und Emergent Climate Phenomena als Diskussionsbeiträge.

Original hier 

Übersetzung: Helmut Jäger, EIKE




Energiewende wirkt: EEG-Umlage steigt 2014 auf 6,24 Cent

Pressemitteilung der Übertragungsnetzbetreiber 50Hertz, Amprion, TenneT und TransnetBW (Link)

(…) Die EEG-Umlage ist von allen Letztverbrauchern für jede bezogene Kilowattstunde zu entrichten. Dies bedeutet, dass die Verbraucher zur Förderung der erneuerbaren Energien im Stromsektor im Jahr 2014 mit 6,240 Cent pro Kilowattstunde beitragen. Damit liegt die EEG-Umlage im Jahr 2014 knapp 20 Prozent über Vorjahresniveau (5,277 Cent pro Kilowattstunde).

Für das Jahr 2014 wird eine weiter deutlich ansteigende Erzeugung an elektrischer Energie aus rege-nerativen Anlagen prognostiziert. Der Anstieg um ca. 15 Terawattstunden (TWh) (von rund 135 TWh in 2013 auf knapp 150 TWh in 2014) spiegelt sich hauptsächlich in den Energieträgern Wind onshore, Wind offshore und Photovoltaik wider.

Die Entwicklung der EEG-Umlage von 2003 bis 2014

Strompreisentwicklung in Deutschland (Quelle: Statista)

Die Entwicklung der Prognosen zur EEG-Umlage und deren tatsächlichen Werte im Wandel der Zeit

2004
Greenpeace

….Danach bleiben die von den Stromkunden aufzubringenden Kosten für das Erneuerbare-Energien-Gesetz (EEG-Umlage) auch bei weiterem Ausbau der Erneuerbaren Energien (EEG) gegenüber dem jetzigen Stand praktisch konstant.

Bundesumweltminister Jürgen Trittin

Es bleibt dabei, dass die Förderung erneuerbarer Energien einen durchschnittlichen Haushalt nur rund 1 Euro im Monat kostet – so viel wie eine Kugel Eis.

Die EEG-Umlage betrug 2004 0,58 Ct/kWh.

2005
Bundesumweltministerium

Der Anstieg der EEG-Umlage nimmt in Zukunft ab und wird einen Durchschnittshaushalt selbst bei sehr dynamischem Ausbau nicht mehr als 3 Euro pro Monat kosten. Ab Mitte des nächsten Jahrzehnts geht die EEG-Umlage wieder zurück.

Die EEG-Umlage betrug 2005 0,68 Ct/kWh

2006
Ingenieurbüro für neue Energien

Insgesamt ist zu erwarten, dass die monatliche EEG-Umlage von heute etwa 0,54 Ct/kWh bis zum Jahr 2017 auf maximal 0,93 Ct/kWh ansteigt.

Die EEG-Umlage betrug 2006 0,88 Ct/kWh

2007
Solarportal 24

Schon heute sparen die Verbraucherinnen und Verbraucher mit dem Erneuerbare-Energien-Gesetz deutlich mehr Geld ein, als sie für das Förderinstrument zahlen. Das größere Stromangebot aus Wind, Wasser, Sonne Bioenergie und Erdwärme führt zu einem dämpfenden Effekt auf die Strompreise, so der Bundesverband Erneuerbare Energie BEE.

Bundesumweltministerium

Durch die EEG-Novelle erhöht sich die EEG-Umlage auf den Strompreis etwas. Nach geltendem Recht wäre sie bis Jahr 2015 auf ein Maximum von etwa 1,4 ct/kWh angestiegen, danach sinkt sie wieder. Durch die jetzt beschlossene Novelle, die den Offshore-Windstrom besser vergütet, erwarten wir einen Wert von ca. 1,5 ct/kWh im Jahr 2015.

Die EEG-Umlage betrug 2007 1,02 Ct/kWh

2008
Bundesumweltministerium

Trotz eines anhaltend kräftigen Anstiegs der Stromerzeugung aus erneuerbaren Energien von derzeit etwa 15 Prozent auf rund 30 Prozent im Jahr 2020 und rund 50 Prozent im Jahr 2030 steigen die von den Stromkunden aufzubringenden Mehrkosten (die so genannten Differenzkosten) nur noch bis etwa Mitte des kommenden Jahrzehnts leicht an. Mit einer EEG-Umlage von maximal 1,5 Cent/kWh liegt diese dann nur geringfügig über ihrem aktuellen Wert von etwa 1,2 Cent/kWh.

Die EEG-Umlage betrug 2008 1,12 Ct/kWh

2009
Bundesverband Erneurbare Energien

Die EEG-Umlage …wird im Preispfad EE-Branche ihr Maximum bei rund 1,4 Ct/kWSh etwa 2013/2014 erreichen.

Die EEG-Umlage betrug 2009 1,13 Ct/kWh

2010
Bundesumweltministerium

Nachdem auch 2010 in den Medien immer wieder behauptet wurde, die Erneuerbaren Energien seien seit Jahren die wichtigsten Preistreiber der Strompreise, belegt jetzt eine Studie des BMU das Gegenteil. An der Untersuchung, waren unter anderen das Frauenhofer IWES und das Deutsche Zentrum für Luft- und Raumfahrt beteiligt.
Die EEG-Umlage für 2011 wird sich nach einer aktuellen Studie des Bundesministeriums für Umwelt (BMU) rund 2,8 Cent betragen. Die Untersuchung beschäftigte sich mit “Langfristszenarien und Strategien für den Ausbau der Erneuerbaren Energien in Deutschland bei Berücksichtigung der Entwicklung in Europa und global“ und sieht auch für die kommenden Jahre keine explodierende EEG-Umlage.

Die EEG-Umlage betrug 2010 2,05 Ct/kWh und stieg 2011 auf 3,53 Ct/kWh

2011

Bundeskanzlerin Angela Merkel am 09.06 in einer Regierungserklärung

Unsere Devise heißt: Die Unternehmen genauso wie die Bürgerinnen und Bürger in Deutschland müssen auch in Zukunft mit bezahlbarem Strom versorgt werden. Deshalb wollen wir die erneuerbaren Energien schneller zur Marktreife führen und effizienter gestalten. Die EEG-Umlage soll nicht über ihre heutige Größenordnung hinaus steigen; heute liegt sie bei etwa 3,5 Cent pro Kilowattstunde. Langfristig wollen wir die Kosten für die Vergütung des Stroms aus erneuerbaren Energien deutlich senken.

2012

Eicke R. Weber, Direktor des Fraunhofer-Instituts für Solare Energiesysteme

Der beherzte Zubau der erneuerbaren Energien wird die Umlage dafür auf den Strompreis nur wenig, für den Verbraucher unmerklich steigen lassen.

(…) Nach 2020 aber können wir erwarten, dass der Anteil der festpreisigen erneuerbaren Energien im Strommix hilft, die Preise zu stabilisieren, so dass wir eine Strompreisdämpfung erleben werden.

Die EEG Umlage wurde 2013 auf 5,27 Cent angehoben.

2013

Bundesumweltminister Peter Altmaier

Die Energiewende zahlen wir nicht aus der Portokasse

2014 steigt die EEG-Umlage weiter auf 6,24 Cent pro Kilowattstunde.

Zuerst erschienen bei ScienceSceptical




Erdgas oder Kernenergie? – Investitionskosten gegen Betriebskosten

In den letzten Monaten verschärft sich immer mehr die Diskussion um die zukünftige Gestaltung des Kraftwerkparks. Grundsätzlich ist die Fragestellung welcher Brennstoff zukünftig eingesetzt werden soll, so alt wie die Stromerzeugung und unterliegt immer noch dem gleichen Kräftedreieck unterschiedlicher Interessen:

1.      Welche Brennstoffe oder sonstige "Rohstoffe" (Wasserkraft, Wind etc.) sind am Standort zu welchen Preisen vorhanden?

2.      Wie hoch sind die erforderlichen Investitionskosten für die in Frage kommenden Kraftwerkstypen?

3.      Wie lauten die gesellschaftlichen Randbedingungen?

Den letzten Punkt könnte man auch als Politik bezeichnen. Er liegt zumeist weit außerhalb des Einflussbereichs von Investoren und kann sehr irrationale Gründe haben, wie die "Energiewende" eindrucksvoll zeigt. Er soll hier nicht weiter betrachtet werden. Allerdings kann er in seinen Auswirkungen die beiden ersten beiden Gesichtspunkte bei weitem übertreffen und kann äußerst kurzfristig wirken (z. B. Abschaltung der Kernkraftwerke nach Fukushima) und zerstörerisch sein. Oder anders ausgedrückt: Sachverstand ist gegen politischen Glauben völlig machtlos!

Stromerzeugung und -verteilung erfordert am Anfang sehr hohe Investitionen. Man muß über sehr lange Zeiträume Investitionsentscheidungen betrachten. Je weiter man aber in die Zukunft schauen muß, um so ungewisser sind die Randbedingungen. Will man akzeptable Preise für eine Energieeinheit erzielen, muß man sehr langsame Kapitalrückflüsse ansetzen. Dabei bewegt man sich auch noch in einem etablierten Markt: Anders, als z. B. bei der Erfindung von Computern oder Mobiltelefonen, hat man nicht die Nischen, für die auch ein extrem teures Produkt noch nutzen hat. Diese "Erstanwender" finanzieren dann die weitere Entwicklung. Elektrische Energie ist demgegenüber ein streng genormtes Produkt. Es macht für den Nutzer überhaupt keinen Unterschied, wie es erzeugt wurde. Technologische Fortschritte interessieren deshalb nur einseitig den Erzeuger.

Aus dem bereits etablierten Marktpreis ergibt sich folgendes Dilemma: Man muß den Anteil der Kapitalkosten möglichst gering halten, da ja die Brennstoffpreise ebenfalls festliegen. Je länger man jedoch den Amortisationszeitraum ansetzt, um so größer wird auch das Risiko steigender Brennstoffpreise. Dieses Risiko ist um so schlechter kalkulierbar, je breiter die Anwendung des Brennstoffs ist. Erdgas z. B. konkurriert auch mit Industrie und Gebäuden. Uran andererseits, ist praktisch nur in Kernkraftwerken nutzbar.

Betrachtet man die Investitionskosten für ein Kraftwerk, so bildet eine Gasturbine die untere Schranke und ein Kernkraftwerk die obere Schranke. Bei den Brennstoffpreisen verhält es sich genau umgekehrt. Eine Optimierung ist notwendig. Einfache Antworten können nur Laien liefern.

Preisschwankungen beim Brennstoff

Kraftwerke sind langlebige Investitionsgüter. Ihre technische Lebensdauer ist praktisch unendlich. Üblicherweise wird jedoch der Instandhaltungsaufwand und der technische Fortschritt nach vier bis sechs Jahrzehnten so groß, daß eine Verschrottung sinnvoll wird. Man muß also den Verlauf der Brennstoffpreise über so lange Zeiträume abschätzen. Bei den Kohlepreisen aus der nahen Grube ist dies noch einfach, bei frei handelbaren und auch anderweitig nutzbaren Brennstoffen, wie Öl und Gas, ist das weitaus schwieriger. So mußten beispielsweise Öl- und Gaskraftwerke vorzeitig (gemeint ist vor dem erreichen ihrer technischen Lebensdauer) ausscheiden.

Ein wichtiges Maß für das Investitionsrisiko ist die Volatilität der Brennstoffpreise (Schwankungen in der Höhe und zeitlichen Frequenz) in der Vergangenheit. Erdgas unterlag immer großen Schwankungen. In der Vergangenheit versuchte man diese, durch die sog. "Ölpreisbindung" im Griff zu behalten. Im letzten Jahrzehnt setzte sich immer mehr eine freie Preisbildung durch. Sinkende Preise waren sowohl für Anbieter (Marktanteil) als auch Nachfrager, einfach zu verlockend. Es lohnt sich daher, sich etwas näher mit den Einflussfaktoren zu beschäftigen.

Die Shale-Gas Revolution

Die typische Erdgaslagerstätte ist eine "Gasblase", die sich unterhalb einer undurchlässigen Schicht gebildet hat. Bohrt man diese an, strömt es meist unter hohem Druck aus. Bei entsprechend großen Vorkommen — wie z. B. in Rußland und dem Iran — kann das Jahrzehnte andauern, ohne daß die Fördermenge merklich absinkt. Weitaus größer sind jedoch die Vorkommen von sog. "unkonventionellem Gas". Darunter versteht man Erdgas, das in den feinen Poren von Schiefer (shale gas) oder tiefliegenden Kohlenflözen (coal seam gas) eingeschlossen ist. Ein nur senkrechtes Anbohren hilft da nicht weiter. Man muß waagerecht innerhalb dieser meist dünnen Schichten entlang bohren. Anschließend müssen die unzähligen Gasporen noch hydraulisch aufgebrochen werden. Eine sehr kostspielige Angelegenheit. Im Durchschnitt kostet eine einzelne Bohrung inclusive Fracking etwa 6 Millionen Dollar.

Führt man sich das Grundprinzip vor Augen: Eine zwar poröse, aber ziemlich undurchlässige Schicht wird durch künstliche Risse erschlossen, so wird eine charakteristische Eigenheit dieser Fördermethode erkennbar. Etwa 80 % der gesamten Ausbeute fallen in den ersten zwei Jahren nach dem Aufschluß an. Mit anderen Worten, will man aus einem Gasfeld eine langfristig konstante Ausbeute erzielen, muß man kontinuierlich immer neue Löcher bohren. Die älteren Bohrungen geben für Jahrzehnte nur noch einen kläglichen Gasstrom her, da das Gas aus den Poren nur sehr langsam zu den Rissen wandern kann.

Aus dieser technisch/geologischen Randbedingung wird klar, welche Investoren hier tätig werden. Es sind weniger die großen Mineralölkonzerne, als hochspekulative Kapitalanleger. In einer außergewöhnlichen Niedrigzinsphase kann man mit relativ wenig Eigenkapital große Geldmengen flüssig machen. Geht die Wette auf, fließt in kurzer Zeit das eingesetzte Kapital zurück. Man kann weitermachen oder sich der nächsten Geschäftsidee zuwenden. Parallelen zur Häuser-Spekulationsblase in USA sind auffällig. Auch der "Shale Gas Revolution" wohnt ein bischen Schneeballsystem inne. Die Sache läuft so lange weiter, wie die Gaspreise steigen (sollen). Welche Größenordnung das Ganze allein in USA angenommen hat, machen ein paar Zahlen deutlich: Um die derzeitige Gasförderung aufrecht zu erhalten, sind nach allgemeinen Schätzungen rund 42 Milliarden Dollar pro Jahr nötig. Bei den heute niedrigen Gaspreisen wird aber lediglich ein Umsatz von etwa 32 Milliarden Dollar jährlich erzielt. Die einschlägigen Gasproduzenten erzielen sogar nur einen cash flow von etwa 8 Milliarden Dollar. Die Reaktionen erfolgen prompt: So sind im Haynesville Shale nur noch 40 Bohrtürme im Einsatz. Man geht davon aus, daß unterhalb eines Gaspreises von 7 $/Mcf (1 Mcf entspricht rund 28,32 Kubikmeter) keine Bohrung mehr rentabel sein wird. Bereits 3500 Bohrungen sind im Süden der USA fast fertiggestellt, aber noch nicht in Betrieb gesetzt worden. Eine kurzfristige Steigerung ist noch möglich.

Die Transportfrage

Wenn man irgendwo Erdgas findet, ist es praktisch völlig wertlos, solange man keinen Anschluß an ein Rohrleitungsnetz hat. Dies ist ein ausschlaggebender Unterschied zu Kohle und Erdöl, die man notfalls mit dem LKW oder der Bahn bis zum nächsten Einspeisepunkt transportieren kann. Die schlechte Transportierbarkeit führt auch zu den regionalen Preisunterschieden. Ein einfaches umleiten eines Tankers oder Frachters ist nicht möglich. Derzeit ist Erdgas in Europa etwa 2,5 bis 3 mal teurer und in Asien sogar 4 bis 5 mal so teuer, als in den USA. Preisunterschiede — sofern sie hoch genug sind und längerfristig erscheinen — werden aber immer durch den Ausbau neuer Transportwege ausgeglichen. Ein typischer Ablauf findet derzeit in den USA statt. Ursprünglich wurden die großen Verbraucher an der Ostküste durch Ferngasleitungen vom Golf, aus Kanada und den Rockies versorgt. Seit die Förderung aus dem Marcellus und Utica Shale auf über 10 Bcf/d hochgeschossen ist, wird nun lokal mehr produziert als (zumindest im Sommer) verbraucht werden kann. Der Ausgleich geht über den Preis: Das "neue Gas" unterbietet lokal jeden Ferngaslieferanten, da es ohne Absatz ein wirtschaftlicher Totalverlust wäre. Der geringere Absatz in der Ferne, koppelt durch ein plötzlich entstandenes Überangebot in den Feldern des mittleren Westens, Kanadas und am Golf bis in weit entfernte Regionen zurück. Die Preise fallen weiträumig. Dies funktioniert aber nur, weil die USA über die erforderliche Infrastruktur verfügen und eine politische Einheit bilden.

In weiten Teilen der Welt sieht es gänzlich anders aus. Man könnte den Syrienkonflikt z. B. als den ersten Erdgaskrieg bezeichnen. Vordergründig handelt es sich um einen Bürgerkrieg zwischen Sunniten (unterstützt durch Qatar), Schiiten (unterstützt durch Iran) und dem Rest des Assad-Regimes (unterstützt durch Rußland). Was hat aber ein winziges Scheichtum am Persischen Golf mit Moskau und Teheran gemeinsam? Die Antwort ist simpel: Erdgas, in riesigen Mengen, zu extrem unterschiedlichen Preisen. Iran besitzt nach Rußland die zweitgrößten (konventionellen) Erdgasvorkommen der Welt. Anders als Rußland, ist es geografisch und politisch gefangen. Sein Erdgas ist wertlos. Es muß allein 1,4 Bcf/d Begleitgas aus der Erdölproduktion unter gewaltigen Umweltproblemen einfach abfackeln. Die einzigen potentiellen Märkte liegen in Pakistan (nur eingeschränkt möglich), der Türkei und Rußland und neuerdings im Irak mit Jordanien und Syrien im Anschluß. Über Syrien gelänge auch ein Anschluß an den lukrativen Markt Europa. Ein Albtraum für den roten Zaren aus Moskau. Der Kreis schließt sich mit Qatar. Qatar hat riesige Gasfelder gemeinsam mit Iran unter dem persischen Golf. Qatar kann diese solange allein nutzen, wie Iran — aus den vorgenannten Gründen — nichts damit anzufangen weis. Anders als Iran, konnte Qatar in gigantische Verflüssigungsanlagen (LNG) mit einer Transportkette nach Asien und die größten zwei Anlagen zur Erzeugung synthetischer Kraftstoffe (GTL) investieren. Es wäre doch wirklich schade, wenn diese Investitionen durch eine Pipeline nach Syrien entwertet würden.

Nachfrage erzeugen

Letztendlich entscheidend für die Nachfrage ist die Preisdifferenz zu Öl und Kohle. Sinkt der Erdgaspreis unter den Kohlepreis — wie in Teilen der USA — wird mehr Erdgas zur Stromerzeugung verfeuert. Steigt der Erdgaspreis über den (Braun)kohlepreis — wie in Deutschland und den Niederlanden — werden Erdgaskraftwerke stillgelegt. Ganz entscheidend, aber erst längerfristig wirksam, ist der Preisunterschied zu Erdöl. Das Energieäquivalent für Rohöl liegt aktuell bei etwa 17 $/Mcf. Es ist daher nicht verwunderlich, daß Sasol in Calcasieu Parish in Louisiana nach dem Muster von Qatar eine GTL-Anlage für 10 Milliarden Dollar baut. Diese Anlage soll 4 Millionen to Dieselkraftstoff und verwandte Produkte aus 305 Bcf/a herstellen. Das Erdgas soll aus dem Haynesville Shale stammen und etwa 1,3 bis 1,5 Milliarden Dollar kosten. Baubeginn war 2013, Fertigstellung soll 2018 sein. Ebenso plant Shell in Ascension Parish in Louisiana für 12,5 Milliarden Dollar eine weitere GTL-Anlage. Shell setzt damit seinen 1993 in Malaysia begonnen und in Qatar (Perl) weiter geführten Weg, der Erzeugung synthetischer Kraftstoffe aus Erdgas fort.

Kurzfristig läuft noch eine weitere Schiene, um die Erdgasproduktion in Nordamerika zu stabilisieren. Allein in den USA sind 12 LNG-Anlagen (Verflüssigung von Erdgas durch Abkühlung auf etwa – 170 °C) im Bau oder Betrieb. Vier weitere sind genehmigt (Dominion Resource in Cave Point Maryland, Lake Charles Export Houston, Cheniere Energy und Freeport LNG Expansion). Der Weltmarkt ruft. Toshiba hat allein mit Freeport einen 20 Jahresvertrag über jährlich 2,2 Millionen to LNG abgeschlossen. Hinzu kommen noch Anlagen in Kanada und Alaska. Als ein Abfallprodukt der Verflüssigungsanlagen, entsteht gerade ein weiterer Absatzmarkt. Der Einsatz von LNG als Treibstoff für Schwerlast LKW und Schiffe. Man baut gerade ein Tankstellennetz in den USA auf. LNG besitzt immerhin 60% des Energiegehaltes von Dieselkraftstoff. Somit eine echte Alternative zu irgendwelchen "Träumen vom Elektromobil".

Zusammenfassung

Erdgas unterliegt weit aus größeren Preisschwankungen als Öl und Kohle. Immer, wenn das Angebot die Nachfrage (in einer Region) übersteigt, sinkt der Preis. Die "Verwerter" kommen auf den Plan. Typische "Verwerter" sind Großverbraucher mit Gasanschluss aus Industrie und Kraftwirtschaft. Sie ersetzen (zeitweilig) Schweröl und Kohle. Steigt der Preis wieder, steigen sie ebenso schnell wieder aus. Darüber hinaus gibt es einen immer breiter werdenden Markt der ständigen Verbraucher, wie z. B. Gebäudeheizungen. Auch die chemische Industrie ersetzt immer mehr Öl durch Erdgas. Neu hinzu kommt der Verkehrssektor, sei es durch synthetische Kraftstoffe (GTL) oder verflüssigtes Erdgas (LNG). Teilweise flankiert durch Umweltschutzbestimmungen, wie z. B. in der Schifffahrt. Die Preise werden sich auf höherem Niveau wieder stabilisieren. Einerseits sind unkonventionelle Lagerstätten wesentlich teuerer zu erschließen, andererseits steigt die Nachfrage — insbesondere nach sauberen Energieträgern — weltweit weiter an. Wind- und Sonnenenergie sind ohnehin nur zur Stromerzeugung brauchbar und wegen ihrer Zufälligkeit auch dort nur zu höchstens 20% einsetzbar. Sollte sich der aus den USA kommende Trend verstärken, faktisch den Neubau konventioneller Kohlekraftwerke zu verbieten (EPA-Regel der Begrenzung auf 1000 lbs CO2 pro MWh) bleibt nur der Ausbau der Kernenergie. Energieversorger, die jetzt Investitionen in neue Kernkraftwerke versäumen, können schon in einem Jahrzehnt an explodierenden Kosten untergehen. Die Geschichten von Enron, Calpine und träumenden Politikern (wie einst in Kalifornien), können sich jederzeit wiederholen.

Dr. Klaus Dieter Humpich siehe auch unter Nuke-Klaus




Die Pleite des UN-Klimaberichts AR5: Was unabhängige Experten dazu sagen

Der preisgekrönte israelische Astrophysiker Dr. Nir Shaviv [siehe Bild rechts] verdammt ‚die Absurdität des neuen UN-Klimaberichtes‘ – ‚die IPCC-Autoren stellen unverblümt weitere lächerliche Behauptungen auf‘ – ‚Nachdem man vielleicht Milliarden Dollar über drei Jahrzehnte hinweg in die Klimaforschung gesteckt hat, sind wir hinsichtlich der wichtigsten Frage zum Klima immer noch nicht auch nur ansatzweise weitergekommen!‘

Dr. Richard Lindzen vom Massachusetts Institute of Technology MIT: Der IPCC-Bericht ist ein politisches Dokument: Jeder IPCC-Bericht sieht so aus, als ob die Dringlichkeit eines internationalen Abkommens hinsichtlich der Beschneidung von Kohlendioxid-Emissionen zugenommen hat‘

IPCC-Begutachter Dr. Don Easterbrook zum IPCC: ‚Es ist absolut keine Wissenschaft – es ist dogmatische, politische Propaganda‘.

Vorhersage-Experten stellen die IPCC-Modelle bloß: ‚Wir haben entdeckt, dass die IPCC-Szenarien 72 von 89 relevanten wissenschaftlichen Vorhersage-Prinzipien verletzt haben‘.

Monckton: ‚Einstein hat die Welt auf 30 Seiten verändert – das IPCC langweilt die Welt auf 10.000 Seiten!‘

Der preisgekrönte israelische Astrophysiker Dr. Nir Shaviv verdammt den UN-Klimabericht. Er unterstreicht ‚die Absurdität des neuen Berichtes‘ und sagt, dass die IPCC-Autoren unverblümt weitere lächerliche Behauptungen aufstellen, um die riesige Lücke zwischen ihren Modellen und der Wirklichkeit zu füllen [hier]. Und weiter: ‚Die wahrscheinliche Bandbreite der Klimasensitivität hat sich seit dem Charney-Bericht aus dem Jahr 1979 nicht verändert. Mit anderen Worten, nachdem man vielleicht Milliarden Dollar über drei Jahrzehnte hinweg in die Klimaforschung gesteckt hat, sind wir hinsichtlich der wichtigsten Frage zum Klima immer noch nicht auch nur ansatzweise weitergekommen!‘ Shaviv weiter: Das IPCC und seinesgleichen sind Gefangene eines falschen Konzeptes – das IPCC tut immer noch sein Bestes, um Beweise zu umgehen, dass die Sonne in großem Umfang das Klima beeinflusst [hier].

Ein Grund für das Fehlen eines besseren Verständnisses kann die Inkompetenz der beteiligten Personen auf diesem Gebiet sein [hier]. Falls die Grundpfeiler einer Theorie falsch sind, gibt es keine zunehmende Übereinstimmung, wenn immer mehr Daten gewonnen werden. Tatsächlich passiert normalerweise das Gegenteil, die Unstimmigkeit nimmt zu. Mit anderen Worten, das oben beschriebene Verhalten reflektiert die Tatsache, dass das IPCC und seinesgleichen Gefangene eines falschen Konzeptes sind. Das Auseinanderdriften von Theorie und Daten beschreibt exakt die Lage der vergangenen Jahre hinsichtlich des Fehlens eines Temperaturanstiegs … würde man ein legitimes wissenschaftliches Verhalten an den Tag legen, hätte man die Obergrenze parallel dazu erniedrigt, aber in diesem Fall war das nicht so. Und zwar deshalb, weil dies die Aufgabe der zugrunde liegenden großen Klimasensitivität erfordert hätte. Da die Daten eine geringe Klimasensitivität zeigen und der Alarmismus eine große Sensitivität fordert, wird die ‚wahrscheinliche Bandbreite‘ der Klimasensitivität groß bleiben, bis die Angst vor der globalen Erwärmung [the global warming scare] verschwindet. Ein zweiter wichtiger Aspekt des jetzigen Berichtes ist, dass das IPCC mit allen Kräften den Beweis verschleiern will, dass die Sonne in großem Umfang das Klima beeinflusst. Sie werden natürlich niemals diesen quantifizierbaren Effekt zugeben, weil dies die Argumentationslinie einer zumeist vom Menschen verursachten globalen Erwärmung eines sehr sensitiven Klimas zerschlagen würde‘.

Al Gore: Die Medien müssen sich bei der Verwendung des Wortes ‚Klima‘ zu Tode ängstigen – Er verdammt die Berichterstattung zur globalen Erwärmung als ‚lächerlich‘ [hier].

Klimawissenschaftler Dr. Richard Lindzen am MIT: ‚Der IPCC-Bericht ist ein politisches Dokument: Jeder IPCC-Bericht sieht so aus, als ob die Dringlichkeit eines internationalen Abkommens hinsichtlich der Beschneidung von Kohlendioxid-Emissionen zugenommen hat [hier]. Trotz der zunehmenden Diskrepanzen zwischen den Modellen und den Beobachtungen besteht das IPCC darauf, dass sein Vertrauen in die Modellvorhersagen größer denn je ist. Die Unterstützung des Alarms zur globalen Erwärmung zeigt kaum einen intelligenten Respekt vor der Wissenschaft‘.

UN IPCC-Begutachter Dr. Don Easterbrook: Es ist überhaupt keine Wissenschaft – es ist dogmatische, politische Propaganda! Man muss den IPCC-Bericht als die größte Fehlinterpretation von Daten aller Zeiten ansehen. Nach all den Jahren hat das IPCC es immer noch nicht verstanden: Wir sind seit mehreren hundert Jahren aus der Kleinen Eiszeit gekommen, haben aber immer noch nicht das Temperaturniveau vor dieser Kleinen Eiszeit erreicht. Dieses Niveau war während 90% der vergangenen 10000 Jahre vorherrschend. Seit Millionen Jahren hat es Erwärmungen und Abkühlungen gegeben, lange bevor das CO2 irgendetwas damit zu tun gehabt haben kann. Daher beweist die Erwärmung selbst in keiner Weise, dass sie durch CO2 verursacht worden ist‘.

Vorhersage-Experten stellen die IPCC-Klimamodelle bloß: Unser Audit der Prozesse, die zur Erstellung der IPCC-Szenarien geführt hatten, kam zu dem Ergebnis, dass 72 von 89 relevanten wissenschaftlichen Vorhersage-Prinzipien verletzt worden sind. Kesten C. Green (University of South Australia, Direktor von forecastingprinciples.com) und J. Scott Armstrong (University of Pennsylvania, Herausgeber der Prinzipien zur Vorhersage):  ‚Das IPCC und seine Unterstützer tun bei diesen Szenarien so, als seien es Vorhersagen. Szenarien sind jedoch nicht das Ergebnis von auf Beweisen fußenden Vorhersage-Verfahren.

Spitzenwissenschaftler stellen die UN-Studie zur globalen Erwärmung in Frage – Die Ergebnisse sind politisiert worden! Der Spiegel schreibt außerdem, dass nur 3 der 114 Klimamodelle in der Lage waren, den nunmehr 15 Jahre langen Stillstand abzubilden. Diese Tatsache wurde vollständig weggelassen in dem, was die UN den Politikern und der Öffentlichkeit mitgeteilt hatte‘.

‚Vorsätzlich geplante Ermordung der Wissenschaft:’ Klimatologe Dr. Tim Ball: Die von den UN proklamierte Gewissheit von 95% ist genau das ist, was passiert, wenn man die Wissenschaft ‚vorsätzlich ermorden‘ will. – Wir gehen derzeit auf Zeiten zu, wie sie um das Jahr 1800 geherrscht hatten. Man nannte es das Dalton-Minimum geringer Sonnenflecken-Aktivität. Wir haben diese geringe Anzahl von Sonnenflecken in diesem Jahr wieder erreicht. Das bedeutet, dass die Abkühlung noch mindestens bis zum Jahr 2030 dauern wird. Und doch bereitet sich die Regierung auf Erwärmung vor. Das ist empörend!‘

UK Express: ‚Das IPCC hat nicht eine einzige Person eingeladen, die dem zuvor festgelegten Ergebnis nicht zustimmt … das ist keine Wissenschaft! Vor dem IPCC-Treffen in Stockholm wurde ein Kommuniqué veröffentlicht, in dem genau die Schlussfolgerung stand, die zuvor festgelegt worden war. Das ist auch keine Wissenschaft. Wirkliche Wissenschaft probiert, zweifelt, testet, untersucht ununterbrochen und heißt Abweichungen willkommen. Hässliche Fakten (wie z. B. dass es derzeit auf der Welt überhaupt nicht wärmer wird) wurden in die Tonne getreten‘.

Das Schweizer Nachrichtenmagazin ‘Weltwoche’: Skeptiker auf dem Vormarsch … Keine Spur von Konsens in der Klimawissenschaft! Seit Jahren behauptet Al Gore, dass die Wissenschaft ‚settled‘ ist. Und doch gibt es absolut keine Anzeichen für irgendeinen Konsens in der Klimawissenschaft‘.

Rückschau: SPECIAL REPORT: Über 1000 internationale Wissenschaftler stimmen den Behauptungen über die vom Menschen verursachte globale Erwärmung nicht zu. Sie fordern das IPCC und Al Gore heraus.

Ein wöchentlich erscheinendes Schweizer Nachrichtenmagazin greift das IPCC massiv an: ‚Schicksals-Propheten, keine Wissenschaftler!‘ Skeptiker auf dem Vormarsch: Der Konsens unter den Klimawissenschaftlern, der seit Jahrzehnten zementiert worden ist, zerbricht – oder bricht sogar völlig in sich zusammen. Seit einem Vierteljahrhundert haben führende Klimawissenschaftler vor einer gefährlichen globalen Erwärmung infolge von CO2-Emissionen gewarnt. Jetzt veröffentlichen sie unter Schweizerischer Leitung (Thomas Stocker) einen neuen Bericht. Dieser zeigt: Die Wissenschaftler lagen falsch! Nach 25 Jahren können viele der Vorhersagen jetzt evaluiert werden – und das Ergebnis für das IPCC ist verheerend‘.

‘Politische Manipulation eines wissenschaftlichen’ Dokumentes?! 10 Seiten wissenschaftlicher Fehler des IPCC? Allein schon in Kapitel 2 sind die Autoren kollektiv verantwortlich für 18 Beispiele wissenschaftlicher Fehler, die jetzt der Korrektur bedürfen. Vor einigen Tagen hat das IPCC seine neue, verbesserte Summary veröffentlicht. Zwei Tage danach machte es die Versionen der 14 Kapitel öffentlich. Einer der Gründe, warum sich diese Kapitel immer noch im Entwurfsstadium befinden ist, dass jetzt Änderungen an ihnen vorgenommen werden müssen. Offensichtlich war es nicht nur die Summary, die während des viertägigen Treffens verfälscht worden ist. In vielen Fällen waren die Veränderungen so substantiell, dass das IPCC jetzt sagt, der Text von 9 der 14 Kapitel muss geändert werden … Ganze Absätze werden eingefügt, Daten und Zahlen werden verändert, Kursivsetzungen hinzugefügt, und Manches wird einfach verschwinden … Die Autoren von Kapitel 5 machten genauso 11 wissenschaftliche Fehler. Und die Autoren von Kapitel 11 machten 21 wissenschaftliche Fehler‘.

Analyse: Die vielleicht lächerlichste Graphik im 5. Zustandsbericht des IPCC ist diejenige, die eine ‚dekadische Mitteltemperatur‘ zeigt. Warum ist diese Graphik so schlecht? Weil nicht einzusehen ist, warum darauf hingewiesen wird. Erstens bedarf es einer Kurve mit 160 Datenpunkten darauf und reduziert diese auf 16, d. h. die meisten Daten werden effektiv weggeworfen. Die Einführung dieser Graphik in den AR 5, die in den vorigen Berichten nicht vorhanden ist, macht das IPCC offen für Anklagen, den ‚Rückgang zu verstecken [to hide the decline] hinsichtlich der Erwärmung in diesem Jahrzehnt, obwohl natürlich der begradigte Verlauf aus der obigen Graphik klar hervorgeht. Also scheint die Graphik ziemlich sinnlos.

Monckton: Einstein hat die Welt auf 30 Seiten verändert. Das IPCC hat die Welt auf 10.000 Seiten gelangweilt!

Judith Curry: ‚Trotz hysterischer Behauptungen sind die IPCC-Modelle nicht in der Lage, abrupte Klimawechsel zu simulieren‘. Und weiter: ‚Das IPCC hat hohes Vertrauen darin, dass wir uns über die wirklich gefährlichen Szenarien keine Sorgen machen müssen (z. B. Zusammenbruch der Eisschilde, Kollaps der AMOC), und zwar im Zeitrahmen eines Jahrhunderts. Diese Zusammenbrüche gab es schon in der Vergangenheit ohne AGW, und sie werden sich auch unvermeidlich irgendwann in der Zukunft wieder ereignen, mit oder ohne AGW. Ist das IPCC hinsichtlich seiner Schlussfolgerungen da genauso sicher?

Bob Tisdale: IPCC immer noch dem Wahn über Kohlendioxid verfallen – die Klimamodelle haben sich so weit von der Realität entfernt, dass sie nicht dazu verwendet werden können, um die globale Erwärmung natürlichen Prozessen oder anthropogenen Faktoren zuzuordnen, und auch nicht dazu, Vorhersagen des zukünftigen Klimas auf der Grundlage von Projektionen anthropogener Treibhausgase zu machen. Amüsanterweise benutzt das IPCC die Klimamodelle als „Beweis“, dass die letzte globale Erwärmung durch Kohlendioxidemissionen verursacht worden ist und dass die globalen Temperaturen weiterhin steigen werden aufgrund des weiter zunehmenden CO2-Gehaltes. Der unverrückbare Glauben der Klimawissenschaftler, dass Kohlendioxid die globale Erwärmung treibt, obwohl die Klimamodelle ganz klar das Gegenteil zeigen, ist Beweis für ihre Wahnvorstellungen über CO2 oder ihr dringendes Bedürfnis, ihre Modelle falsch zu interpretieren (aus welchen Gründen auch immer). Die Wassertemperatur war global in der Erwärmungsperiode von 1914 bis 1945 stärker gestiegen als während der jüngsten Erwärmungsperiode von 1975 bis heute‘.

Analyse: Klima wegen des Wasserkreislaufes, nicht wegen Kohlendioxids

Einer Studie zufolge hat sich die globale Erwärmung der Ozeane während der letzten 50 Jahre halbiert. Die Studie wurde 2012 in Nature Climate Change veröffentlicht.

Gute Nachrichten: Das IPCC verwirft den planetarischen Notfall: Es glaubt jetzt, dass ein Zusammenbruch der atlantischen Ozeanzirkulation im 21. Jahrhundert ‚sehr unwahrscheinlich‘ ist, dass der Kollaps der Eisschilde ‚extrem unwahrscheinlich‘ ist und dass eine katastrophale Freisetzung von Methan aus Methanhydraten ‚sehr unwahrscheinlich‘ ist.

Die Klimatologen PATRICK J. MICHAELS und CHIP KNAPPENBERGER: Wäre das IPCC stärker daran interessiert gewesen, die aktuelle Wissenschaft zu reflektieren anstatt sich der Rettung eines rasch zerfallenden Konsens‘ zu widmen, wäre der 5. Zustandsbericht ein viel freundlicheres und netteres Dokument gewesen. Damit die IPCC-Projektionen der Evolution der mittleren Temperatur der Erde die jüngsten wissenschaftlichen Schätzungen der Klimasensitivität besser reflektieren können, ist es notwendig, diese um 30% nach unten zu korrigieren in Richtung der Untergrenze der Bandbreite, etwa 50% weg von der Obergrenze und 40% tiefer als die Mitte.

Jetzt hören: Ein eine ganze Stunde dauerndes Interview mit Morano von Climate Depot in der Mike Rosen-Show: ‚Ein neues Klimagate! Das IPCC wird angeklagt, die Führer der Welt und die Öffentlichkeit in die Irre geführt zu haben! Hat das IPCC ‚die Fakten festgeschrieben‘? – Gesendet am 2. Oktober 2013 auf KOA Radio. –  Moderator Mike Rosen zu Marc Morano: ‚Sie bekommen mehr Redezeit in Gestalt von Wörtern pro Minute als jeder andere, den ich bisher in dieser Show zu Gast hatte!‘

Erwärmung mit einem Signal auf eine Rauschen-Rate von 0,00 lässt das Vertrauen der Wissenschaftler in die Erwärmung zunehmen [hier]

Nicola Scafetta: Die vom IPCC verwendeten Klimamodelle scheitern bei der Reproduktion dekadischer und multidekadischer Phänomene seit 1850.

Christopher Booker: Klimawissenschaftler sind lediglich eine weitere Interessengruppe.

Professor in der NYTimes: Das Scheitern der Klimamodelle an der Realität ist unwichtig, da wir sie zur Vorhersage der Zukunft nutzen

Klimatologe Dr. Tim Ball: Das IPCC: Ein Erzeugnis von Lügen, verdammten Lügen und auf ungeeigneten Daten beruhenden Statistiken [auf Deutsch beim EIKE hier]

Ein Schweizer Journalist sagt voraus: ‚Die Klimakatastrophe wird bald vergessen sein‘ – genau wie alle anderen Angst erzeugenden Umweltstorys‘.

Analyse: IPCC: Wenn die Daten nicht zur Theorie passen, ändere man die Daten – Das IPCC hat in Zusammenarbeit mit der NASA und der NOAA die Erdgeschichte völlig umgeschrieben. Im Jahre 1975 hat die National Academy of Sciences diese Graphik veröffentlicht und vor einer dramatischen globalen Abkühlung gewarnt.

Der politisch neutrale SPM-Autor des IPCC Rowan Sutton: ‚Alle Beweise zeigen eindeutig, dass das Hinterlassen des Themas Klimaänderung für zukünftige Generationen, sich damit zu befassen, eine phänomenal risikobehaftete Option ist‘.

Außenminister John Kerry: ‚Das Fehlen eines gemeinsamen globalen Vorgehens gegen die Klimaänderung ist wie die Einladung einer Katastrophe‘.

Die Warmisten machen für den Stillstand die Ozeane verantwortlich: Der Wärmegehalt der Ozeane ist das Wort des Tages. Die Graphik zeigt die Anzahl der bei einer Google-Suche auftauchenden Links zu ‚Ocean Heat‘ auf der (alarmistischen) Website Skeptical Science für jedes Jahr seit 2006. Im Jahr 2007 wurde es 7 mal angeklickt, in diesem Jahr (projiziert auf das gesamte Jahr 2013) 166 mal (125 mal bis heute).

Hauptschlagzeile in Der Spiegel: Widersprüchliche Prognosen: Forscher entdecken Unstimmigkeiten im Uno-Klimabericht. Renommierte Forscher kritisieren nun diverse Ungereimtheiten im Report. Sie erheben fünf Vorwürfe gegen den Welt-Klimarat.*

*Originalzitat, keine Rückübersetzung!

Nuttercelli: ‚Die katastrophal gescheiterten Klimamodelle waren auf den Punkt genau – offensichtlich hat das IPCC tatsächlich keine Erwärmung während der letzten 17 Jahre und auch die Rekord-Schneefälle vorhergesagt. Aber sie haben sich so ausgedrückt, dass es so klingt, als hätten sie genau das Gegenteil gesagt‘.

Analyse: Das IPCC hat vergessen, den spektakulären Eiszuwachs in der Arktis zu erwähnen. Man würde denken, dass zumindest einer unter den Tausenden Spitzen-Klimaexperten der Welt die Tatsache bemerkt hätte, dass das arktische Meereis inzwischen wieder das Niveau des Jahres 2006 erreicht hat. Vor allem, weil das Wort ‚Arktis‘ viele tausend Male in dem Bericht erwähnt wird.

Der vergangene Sommer war der kälteste jemals gemessene in der Arktis und war gekennzeichnet durch den größten Eiszuwachs von einem Jahr zum nächsten seit Beginn von Beobachtungen.

Ein 3 Minuten langes Nachrichten-Video auf der ABC-Radiostation KSTP stellt den IPCC-Bericht dem Bericht des NIPCC mit dem Titel ‚Climate Change Reconsidered II‘ gegenüber [Auszüge demnächst beim EIKE auf Deutsch] und lässt Joseph Bast vom Heartland Institute zu Wort kommen.

Reuters zum IPCC-Bericht aus dem Jahr 1995: ‚Nachrichten-Rückblick von 1995: ein früherer IPCC-Bericht war ausgelassen [hilariously] falsch‘.

Jüngster IPCC-Trick: Ausweitung der Bandbreite der Modelle, um diese richtig aussehen zu lassen.

‚Die Beobachtungen würden gut innerhalb der extrem breiten grauen Bereiche liegen, die im AR 4 nicht erschienen sind und die das ziemlich interessante Phänomen aufweisen, im Jahre 1990 eine Ungewissheit von Null zu zeigen. Daher lautet die Frage: Was sind diese Bereiche?‘ [hier]

AR 5 des UN IPCC: Die Behauptung einer ‚beispiellosen‘ dekadischen globalen Erwärmung ist durch jüngste empirische Beweise widerlegt. Nach 7 Jahren Forschung und Milliarden Dollar für den AR 5 ist das beste, mit dem das IPCC aufwarten kann, die dünne Schleimsuppe einer ‚beispiellosen‘ dekadischen Erwärmung, die sich bei näherem Hinsehen als falsche Repräsentation der jüngsten Erwärmung hinsichtlich Manipulation, Dauer und Größenordnung erweist. Haben doch die letzten 15 Jahre bewiesen, dass natürliche Klimaantriebe den CO2-Einfluss einfach überkompensieren. Die Wahrscheinlichkeit, dass die moderne dekadische Erwärmung mehr eine Folge natürlicher (nicht anthropogener) Klimakräfte ist, beträgt mehr als 95%.

Jetzt ansehen: Prof. Roger Pielke Jr. Zum, Thema Extremwetter – er verwirft die Proklamation einer ‚neuen Normalität‘ bzgl. des Wetters. Das Interview führte Dr. David Whitehouse für die Fernsehstation GWPF TV.

Auch ansehen: Das Interview mit der Alarmistin Jennifer Francis, in dem sie von zunehmenden AGW-Trends beim Wetter faselt.

Alarmisten: Die Schließung [wegen des US-Haushaltstreites] hindert die NOAA-Bediensteten daran, den IPCC-Bericht für Medien und Politiker zu interpretieren.

Analyse: Was könnte die Zunahme des Vertrauensniveaus von 90 auf 95% rechtfertigen, und in welcher Hinsicht sind zusätzliche Beweise für den menschlichen Einfluss seit dem AR 4 2007 aufgetaucht? Hier folgen ein paar Ereignisse seit 2007, die das Vertrauensniveau verändert haben könnten: Es gab weitere sechs Jahre ohne jede Erwärmung; die Klimawissenschaftler waren nicht in der Lage, dies vorherzusagen (tatsächlich haben sie vorhergesagt, dass die Erwärmung wieder einsetzen werde). Klimagate enthüllte die privaten Sorgen der Klimawissenschaftler in dieser Hinsicht und auch die Beeinflussung von Journalen und das Zurückhalten von Daten. In vielen  neuen  Studien  von Mainstream-Klimawissenschaftlern wurde eingeräumt, dass es eine zunehmende Inkonsistenz zwischen Modellen und Beobachtungen gibt. Und doch hat das Vertrauen zugenommen, und die Beweise haben sich vermehrt?

Analyse: Die IPCC-Behauptung, man hätte ein sehr hohes Vertrauen in die Abnahme der Schneebedeckung, ist nicht wahr – das ist wie ‚Rosinen picken im Schnee‘.

U.S. TV Networks: Bericht über den IPCC-Bericht: CBS News sendet eine ‚unverantwortliche‘ Behauptung über einen Temperaturanstieg um 212 Grad.

Rückblende: In dem Hollywood-Film ‚The 11th Hour‘ aus dem Jahr 2007, in dem es um die globale Erwärmung ging, wird der Physiker Stephen Hawking mit der unwidersprochenen Hypothese zitiert, dass es das ‚worst-case-Szenario wäre, wenn die Erde wie ihr Schwesterplanet Venus werden würde mit einer Temperatur von 250°C‘.

Die Medien tun alles, um den Hype um die globale Erwärmung wiederzubeleben – es gibt Ärger darüber, dass man skeptischen Stimmen Raum gibt: Ein Gremium wird zusammengerufen, um zu diskutieren, ob man das zulassen sollte oder nicht.

Der Meteorologe Art Horn: Das IPCC hat hohes Vertrauen darin, nicht sicher zu sein

Eine Begutachter-Studie kommt zu dem Ergebnis, dass es während der Mittelalterlichen Warmzeit signifikant wärmer war als heute, als der CO2-Gehalt im ‚grünen Bereich‘ lag.

Die Warmisten erzeugen buchstäblich ein Klima der Verrücktheit: Ein Wettermann drückt es so aus: ‚Wir leben derzeit in einer Welt, in der es für einen erwachsenen Menschen völlig normal ist, über ein modernes Märchen zu heulen wie ein Kind über ein Schauermärchen mit Hexen und Geistern‘.

‚Wenn Klimadaten Aktien wären, wäre es jetzt an der Zeit, sie zu verkaufen‘.

Und nochmal der Wettermann Eric Holthaus: Was das IPCC so wichtig macht, ist einfach: Sie sind dazu aufgefordert übereinzustimmen. Das IPCC hat ‚vertrauensvoll‘ düsterste Konsequenzen projiziert, sollten die Regierungen der Welt nicht agieren.

Link: http://tinyurl.com/mmztr4u

Übersetzt von Chris Frey EIKE




Unbequeme Wahrheiten über den Kanzlerinnen-Berater Schellnhuber! Teil 7: Globale Mitteltemperatur?

In dieser Zeit (1992) wurde nämlich in mehreren offiziellen Publikationen eine (absolute !) “globale Mitteltemperatur” von 15,5°C ausgewiesen. Und bekanntlich soll heutzutage die absolute globale Mitteltemperatur nur bei lediglich 14,5°C liegen, also 1°C niedriger als damals im Jahr 1992 bzw. 1990. Also, so fragt sich nicht nur der Laie, wo ist seit über 20 Jahren die angebliche “globale Erwärmung”, vor der alle diese “Schellnhubers” doch so warnen?? Ist dieser Widerspruch der heimliche Grund, warum die absolute globale Mitteltemperatur aus dem am 27.09.2013 veröffentlichten 5. Weltklimabericht entfernt worden ist ??

Der Inhalt und die Recherchen der Kapitel 6 und 7 der “Unbequemen Wahrheiten”  lassen sich schriftlich auch auf zwei DIN-A4-Seiten wie folgt zusammenfassen:

Die beiden Seiten können auch als pdf unten abgerufen werden

Das nächste Kapitel 8 am 21.10.2013 beleuchtet den angeblichen “Meeresspiegelanstieg” und die offiziellen und “weniger offiziellen” Ursachen für diesen Meeresspiegelanstieg. Kapitel 8 (Link zu Trailer zu Kapitel 8) ist mit knapp 60 Minuten das längste aller 11 Kapitel der “Unbequemen Wahrheiten” und das persönliche “Favorit”-Kapitel des Autors. Der 6-minütige Videotrailer (mit integrierter Playlist) über das gesamte 11-teilige Filmprojekt ist seit dem 27.08.2013 online

Related Files