„Der Welt geht das Öl nicht aus“

Und dann passierte das Unerwartete.

Unkonventionelle Ressourcen erlebten ihre Blühte in den USA. Mit steigender Rohölproduktion hörte die U.S. auf, überschüssige Ölmengen der Welt zu benötigen.

Anstatt die Rohölproduktion zu reduzieren, um den Markt auszugleichen, hat Saudi-Arabien die Produktion erhöht, um seinen Marktanteil zu schützen.

Und ta-da! – Wir haben eine globale Flut von Rohöl und Flüssigkeiten, zusammen mit einem wirklich großen Preiskollaps. Heute werden Sie eher hören, dass die Leute über einen möglichen weltweiten Höhepunkt der Ölnachfrage sprechen, anstatt über einen Höhepunkt der Ölproduktion.

Aber die Hauptargumente für Peak Oil haben sich kaum verändert.

Roosevelt 1908

U.S. Präsident Theodore Roosevelt, 13. Mai 1908:

Vergessen wir für den Augenblick moralische Ziele, so ist es sicher zu sagen, dass der Wohlstand unseres Volkes direkt von der Energie und Intelligenz abhängt, mit der unsere natürlichen Ressourcen verwendet werden. Ebenso ist klar, dass diese Ressourcen die Grundlage nationaler Macht und unveräußerlicher Besitz sind. Letztendlich ist es jedoch offensichtlich, dass diese Ressourcen in Richtung einer schnellen Erschöpfung laufen.

 

Der Jüngste Tag ist abgewandt

Das Konzept des Peak Oil entwickelte sich aus einer Theorie des amerikanischen Geowissenschaftlers M. King Hubbert. Basierend auf den Schätzungen der Gesamtreserve – und dem Muster und der Geschichte der Ölfeld Entdeckungen in den Vereinigten Staaten, kreierte Hubbert eine zusammengesetzte Mega-Rückgangs-Kurve, die der U.S.-Rohölproduktion voraussagte, sie würde in der Zeit von 1965-70 ihre Spitze erreichen.

Und die U.S. Ölproduktion erreichte einen Höhepunkt, ein wenig später als es die ursprüngliche Hubbert-Kurve vorhergesagt hatte. Aber mit der Entdeckung von North Slope Oil in Alaska, begann sie die Produktion wieder zu erhöhen. Die inländische Peak Oil Schätzung wurde als die Unteren 48 [Bundesstaaten] Vorhersage neu gekennzeichnet.

Nun scheint es, dass der Ansatz von Hubbert, ein Profil für die konventionelle Ölförderung in einem definierten geografischen Gebiet prognostiziert, wenn die technologische Entwicklung und der Ölpreis innerhalb begrenzter Limits bleiben.

„Wenn die Leute fragen, „wie viel Öl gibt es noch „, lautet die Antwort: „Zu welchem Preis?“, bemerkt Sternbach. „Dinge wie Ölsand [tar sands] können riesige Mengen Öl zum richtigen Preis freigeben.“

Durchbrüche in der Technik, vor allem bei horizontalen Bohrungen und hydraulischen Frakturen – nennen wir sie „hydrozontale Entwicklung“ – kombiniert mit den heutigen verbesserten Explorations- und Produktionswerkzeugen, haben den Rückgang der US-Ölproduktion umgekehrt.

In ihrer Juni Energievorhersage prognostiziert die US-Energiebehörde, dass die US-Rohölproduktion im Jahr 2018 ein Allzeithoch von mehr als 10 Millionen Barrel pro Tag (b/d – barrel per day) erreichen wird, zusammen mit 4,19 Millionen b/d Erdgasflüssigkeiten und 1,02 Millionen b/d Ethanol.

Anstatt Peak Oil, hat die Welt den Blick auf eine neue Energie-Zukunft bekommen.

Innovation ist „Erhöhung des Wertes der Ressourcen und es ist die Verringerung der Kosten um sie zu fördern. Wenn diese beiden Dinge sich vereinen, kommen Sie zu einem optimalen wirtschaftlichen Antrieb“, sagte Sternbach. „Das ist ein Paradigmenwechsel, der Aufschwung von erhöhtem Wert schafft.“

AAPG Explorer

 

Siehe Aufmacherbild: Die originale Hubbert Kurve mit moderner Graphik dargestellt (AAPG Explorer)

Hubberts Original 1956er Studie finden Sie hier.

Hubbert bringt Wachstum und Verfall der Ölförderung in eine Formel (Hubbert Math).

„Peak Oil“ ist eine Grundfunktion der Ressourcenextraktion. Die maximale Produktion erfolgt in der Regel, wenn etwa die Hälfte der nutzbaren Ressource extrahiert wurde. Das Eugene Island 330 Ölfeld im Golf von Mexiko ist ein gutes Beispiel:

Grafik 2. Eugene Island 330 Ölfeld, Förderrate vs kumulative Produktion (Quelle: The Oil Drum) … (Bevor jemand zu schwätzen anfängt, The Oil Drum wäre eine Peak Oil Propaganda Website, die EI 330 Grafik ist korrekt. Ich kann es aus Produktionsdaten reproduzieren, für jeden, der eine Lizenz für die OLL-Datenbank von Lexco besitzt.)

EI 330’s erster Peak tritt bei etwa der Hälfte der Extraktion der ersten 250 Millionen Barrel Öl auf. Alte Ölfelder, besonders große alte Ölfelder, werden oft mehrere sekundäre Produktionsspitzen aufweisen. Im Fall von Eugene Island 330 waren die sekundären Gipfel eine Kombination von guten Wiederholungen, Nebenbohrungen und begrenzter [Wieder-] Aufladung von einigen der Reservoirs (Nein, dies ist kein Beweis für abiotisches Öl).

Die Hubbert-Gleichung ist eine gültige Methode zur Vorhersage der Spitzenrate der Ressourcenextraktion. Denn, die Tatsache, dass „der Welt das Öl nicht ausgeht“, lässt die Gleichung oder das Konzept von „Peak Oil“ nicht ungültig werden.

 

08. SEP., 2016

Robert Rapier, Mitwirkender

Was Hubbert über Öl wirklich falsch gemacht hat

[…]

Hubberts Ruhm in Spitzenöl-Kreisen kommt in erster Linie aus der Behauptung, dass er genau den 1970 U.S. Peak vorhergesagt hat. Wegen dieser Vorhersage ist Hubbert bei den Peak Oil Anhängern weithin als Visionär angesehen. Er ist ein Orakel und ein Prophet genannt worden. Ein kürzlich veröffentlichter Artikel – What Hubbert And Pickens Got Right About Oil, And What’s Next  [Wo Hubbert und Pickens über Öl richtig lagen und Was kommt nun] – erzählt die unheimliche Genauigkeit seiner Vorhersage.

Die Wahrheit ist jedoch viel nuancierter. Hubbert lag bei eine Menge von Dingen ungeheuerlich falsch, und seine oft verkündete 1970 Vorhersage enthält eine große Einschränkung, die den meisten Menschen nicht bewusst ist. Hier ist, was seine 1956 Studie tatsächlich angab:

Hubbert schätzte, dass die endgültige potenzielle Reserve der unteren 48 U.S. Staaten und Offshore-Gebiete bei 150 Milliarden Barrel Öl läge. Basierend auf dieser Reserve-Schätzung, und den 6,6 Millionen Barrel pro Tag (bpd) Extraktionsrate im Jahr 1955 und die Tatsache, dass 52,5 Milliarden Barrel Öl kumulativ bereits produziert worden waren, schätzte Hubbert, dass die Ölproduktion in den USA ihre maximale Produktion im Jahr 1965erreichen würde. Das war seine Grundvorhersage. Er schrieb: „Die Kurve muss in etwa 1965 gipfeln und muss dann mit einer Rate abnehmen, die mit ihrer früheren Wachstumsrate vergleichbar ist.“ Hubbert veranschaulichte diesen 1965-Gipfel in seinem Paper:

Quelle: Nuclear Energy and the Fossil Fuels by M. King Hubbert

Wie in der Abbildung gezeigt, projizierte Hubbert im Jahre 1965 eine US-Ölproduktionsspitze mit einer jährlichen Produktionsrate von etwa 2,8 Milliarden Barrel oder 7,7 Millionen Barrel pro Tag (bpd). Beachten Sie jedoch, dass es eine weitere Kurve gibt, die oberhalb und weiterführend über die Spitze von 1965 hinausgeht. Dies war Hubberts „Kontingenzfall“. Er berechnete, dass, wenn die US-Ölreserve 200 Milliarden Barrel wäre, der Höhepunkt im Jahr 1970 stattfinden würde, eine Verzögerung von fünf Jahren gegenüber seinem Basisfall. Allerdings zeigte er Skepsis gegenüber einer so hohen Reserve und bemerkte, dass dies „einen Betrag in Höhe von acht Ost-Texas-Ölfeldern“ implizieren würde – weit mehr als die Schätzung von 150 Milliarden Barrel. Dennoch, falls die US-Reserve so hoch wie 200 Milliarden Barrel wäre, schätzte Hubbert eine Spitze der U.S. Ölproduktion in 1970 von 3 Milliarden Barrel oder 8,2 Millionen bpd. Die Ölproduktion in den USA erreichte im Jahr 1970 tatsächlich eine Spitze, wenn auch bei 9,6 Millionen bpd.

Während Hubberts Vorhersage in der Größenordnung korrekt war, scheint denjenigen, die ihn zitieren, nicht bewusst zu sein, dass seine „perfekte“ 1970-Vorhersage auf einem sekundären Fall beruhte, über den er Skepsis ausdrückte und die angenommene Fördermenge um etwa 15% zu niedrig war. Hubbert’s base case — a prediction made in 1956 of a 1965 peak — was off by 5 years and was 20% too low [Hubbert’s Basismodelle – eine Vorhersage im Jahr 1956 über einen 1965er Peak gemacht – lag um 5 Jahre daneben und war 20% zu niedrig – der letzte Satz ist mit Twitter verlinkt, funktioniert jedoch nur mit Anmeldung.]. Oder anders ausgedrückt, seine Kernaussage zu dieser Zeit war, dass die Ölproduktion der U.S. noch 9 Jahre lang ansteigen würde, aber sie erreichte ihr Maximum nach 14 Jahren und bei 15% höherer Produktion als projiziert.

Mein Punkt hier ist, seine Vorhersagen der Ölproduktion basiertem auf dem, was er eigentlich geschrieben hat. Mehr noch, als jemand, der häufig Vorhersagen macht, würde ich sagen, dass seine Vorhersagen über die Ölproduktion von U.S. ziemlich gut waren. Sie waren nicht prophetisch oder fast genauso genau wie viele Peak-Oil-Anhänger annehmen. Aber sie lagen in der Größenordnung.

Doch wenn wir uns anschauen, was er über die weltweite Ölproduktion und die Erdgasproduktion zu sagen hatte, dann waren seine Vorhersagen weit daneben. Er kam zu einer Schätzung der endgültigen konventionellen Ölproduktion der Welt durch Vergleich einer Reihe von Schätzungen. Er setzte eine Schätzung von 1,25 Billionen Barrel für die ultimative potentielle konventionelle Ölproduktion ein. Wir wissen jetzt, dass diese Schätzung viel zu niedrig war. Aber auf dieser Schätzung projizierte Hubbert, dass die globale Spitze in der Rohölproduktion um das Jahr 2000 mit 34 Millionen bpd auftreten würde [der letzte Satz ist mit Twitter verlinkt, funktioniert jedoch nur mit Anmeldung.] In Wirklichkeit war die Rohölproduktion im Jahr 2000 mehr als doppelt so hoch bei etwa 75 Millionen bpd. Während die konventionelle Rohölproduktion sich im Jahr 2005 abflachte, gibt es nach mehr als einem Jahrzehnt später keine Anhaltspunkte dafür, dass die Ölausbeute damit begonnen hat, weniger zu werden. (Die globale Produktion hat sich weiter erhöht, vor allem wegen des Anstiegs der Schieferölproduktion). Das hatte Hubbert nicht voraus gesehen.

Hubbert-Verteidiger werden argumentieren, dass er nur das Datum des konventionellen Rohölpeaks um 5 Jahre verpasst hat. Aber seine Methodik legt einen Höhepunkt und Niedergang fest. Das ist nicht das, was tatsächlich eingetreten ist. Solange die konventionelle Rohölproduktion nicht ernsthaft abnimmt, wissen wir wirklich nicht, wie weit daneben seine Vorhersage vom Peak 2000 sein wird.

[…]

 

Forbes [Link zur Homepage – in deren Suchfeld (rechts oben) Hubbert eingeben]

Hubbert unterschätzte schlicht das Gesamtvolumen des abbaubaren Öls (vergangene Produktion + bestätigte Reserven + zukünftige Entdeckungen).

.

Figure 3. Hubbert Curve, US. mit 2014er Produktion, Reserven and geschätzten unendeckten Reserven

Wenn wir davon ausgehen, dass die bestätigten U.S. Ölreserven und die [damals] noch nicht entdeckten, abbaubaren Ressourcen abgenommen hätten, wäre der Hubbert „Peak“ für die USA im Jahr 2004 aufgetreten. Denken Sie daran, dass die Hubbert-Kurve nicht als exakt an die Daten angepasst verstanden werden sollte. „Hubbert math“ passt zu den Daten der Kurve. Der „Hubbert-Peak“ wäre zwischen den beiden tatsächlichen Spitzen aufgetreten. Ein alternativer Ansatz wäre, die Produktion in zwei Phasen zu betrachten, mit zwei getrennten logistischen Funktionen. In jedem Fall, wenn die bestätigten Reserven und die geschätzten unentdeckten, abbaubaren Ressourcen nicht mehr angestiegen wären, wären wir derzeit in der Nähe von Peak Oil.

Die Welt erwartet die „schnelle Erschöpfung“ der Rohöllieferungen seit mindestens 100 Jahren.

Wird es für die nächsten 100 so weiter gehen, immer kurz vor dem versiegen der Ölquellen?

Da die bestätigten Reserven im Laufe der Zeit voraussichtlich weiter wachsen und die gesamten, noch nicht entdeckten Ressource wahrscheinlich abnehmen, wird Peak Oil für die absehbare Zukunft voraussichtlich erhalten bleiben. Die Antwort ist ein qualifiziertes „Ja“ – Menschen, die das Konzept des Peak Oil nicht erfassen, werden die „schnelle Erschöpfung“ des Rohöls für viele weitere Jahre erleben.

 * * *

Im Interesse der vollständigen Offenlegung: Ich bin seit 1981 in der U.S. Ölindustrie als Geophysiker / Geologe beschäftigt, mit einem sechsjährigen Exil im Management. Ich habe immer für „kleines Öl“ gearbeitet (im Gegensatz zu BIG OIL). Ich bin Mitglied der American Association of Petroleum Geologen (AAPG), Society of Exploration Geophysicists (SEG) und Houston Geological Society (HGS). Ungeachtet meiner Vorliebe für lächerliche Greenschisten, ist grün eigentlich meine Lieblingsfarbe … Öl wird grün auf Landkarten und Bohrloch-Protokolle dargestellt. Peak Oil ist echt, aber nicht wirklich relevant, abiotisches Öl ist möglich (trotz aller fehlenden Beweise dafür [dieses wird von anderen Forschern anders gesehen, der Übersetzer]) und ist auch irrelevant. Weder die Realität von Peak Oil noch der Mangel an Beweisen für abiotisches Öl ist Teil einer Verschwörung, um den Ölpreis hoch zu halten. Wenn es so wäre, wäre es eine ziemlich schlechte Verschwörung, weil die Ölpreise in der meisten Zeit meiner Karriere niedrig waren. Und nein, ExxonMobil versteckt nicht die geheime Formel für das Umwandeln von (setzen Sie an diese Stelle ein, was Sie meinen) in Öl … Aber sie wussten alles über Gorebal Warming laaange bevor Al Gore es erfand … Sie wussten, dass es falsch war.

Wie üblich ist jeder Sarkasmus rein vorsätzlich … Außer dem bisschen über Gorebal Warming.

David Middleton

Erschienen auf WUWT vom 10.07.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/07/10/the-world-keeps-not-running-out-of-oil/

 

Ergänzung durch den Übersetzer:

Am Anfang dieses Beitrages wurde das damalige Original Dokument von Mr. Hubbert .pdf verlinkt.

Der Titel der Ausarbeitung lautet: Kernenergie und fossile Brennstoffe

Ich habe es im Groben überflogen und auf Seite 52 / 53 das hier gefunden:

Unter der Überschrift: Zukunftsperspektive, wagt Herr Hubbert einen Ausblick um 5.000 Jahre in die Zukunft. Fossile Brennstoffe werden erschöpft sein, nur ein Wimpernschlag in der Geschichte. Aber es besteht Hoffnung, das die Menschheit das Energieproblem gelöst haben wird (und sich nicht selbst ausgelöscht) und auch die Geburtenkontrolle im Griff haben wird. Dann wird es die Kernkraft als Energiequelle der Zukunft erschlossen haben. Dass er den Anstieg der Kernkraft ab etwa dem Jahr 1980 sieht – zu mindestens für die Welt – (und nicht für Deutschland,) zeigt den damaligen noch unverkrampften Blick auf die Innovationsfähigkeit der Ingenieure und Wissenschaftler.

Quelle wie oben beschrieben.




Super-Idee: Aussterben fürs Klima!

„Kinderwunsch streichen, Klima retten“. So ist ein Beitrag auf Spiegel-online überschrieben, der immerhin den Warnhinweis trägt „provokante These“. Und die lautet schlicht: Stellt die Fortpflanzung ein, um die Menschheit zu retten. Und dann kommen Sätze wie diese:

„Eine US-amerikanische Familie, die auf ein Kind verzichtet, spart genauso viel Emissionen ein wie 684 Teenager, die für den Rest ihres Lebens strikt recyceln“, schreiben Wynes und Nicholas. Ein Kind weniger, das entspricht in der Studie dem Einsparen von 58,6 Tonnen Kohlendioxid im Jahr (die Emissionen anderer Treibhausgase wie Methan wurden entsprechend umgerechnet und sind enthalten). Ohne Auto leben: 2,4 Tonnen jährlich. Recyceln: weniger als 0,2 Tonnen jährlich.“

Diesen Fragen seien Seth Wynes von der Universität Lund, Schweden, und Kimberly Nicholas von der University of British Columbia im kanadischen Vancouver nachgegangen. Erstaunlich ist, dass SPIEGEL-ONLINE diese zutiefts anti-humanistischen Thesen ernsthaft diskutiert.

Das Ganze ist nämlich ein totalitäres Déjà-vu. Solche Aussagen haben eine lange und unsägliche Tradition. Alexander King, einer der Gründer des Club of Rome und Initiator der Studie „Die Grenzen des Wachstums“ , meinte einst zum Thema der Malariabekämpfung: „Mein Problem ist, dass es die Überbevölkerung verstärkt.“ Der Verhaltensforscher und Umweltaktivist Konrad Lorenz bekannte in einem seiner letzten Interviews: „Gegen Überbevölke­rung hat die Menschheit nichts Vernünftiges unternommen. Man könnte daher eine gewisse Sympathie für Aids bekommen.“ Und er fügte hinzu: „Es zeigt sich, dass die ethischen Menschen nicht so viele Kinder haben und sich die Gangster unbegrenzt und sorglos weitervermehren.“

Der Biologe Paul Ehrlich veröffentlichte 1968 sein berühmtes Buch mit dem Titel „The Population Bomb“, dessen Geist vielfach heute noch weht.  Das Titelbild zeigt eine Bombe mit Zündschnur kurz vor der Explosion. Ehrlich beklagte darin die rasante Zunahme der Kinderzahl und sagte voraus, dass die Hälfte der Menschheit verhungern würde.  Sabine Höhler von der Fakultät für Wirtschafts- und Sozialwissenschaft der Universität Hamburg nennt Ehrlichs Publikation ein Beispiel für die „Radikalität des Umwelt- und Bevölkerungsdiskurses der 1960er- und 1970er-Jahre“. Ehrlich stellt das Bevölkerungswachstum als eine unmittelbar bevorstehende Katastrophe dar, seine Vorschläge zur Abwendung sind schlicht menschenverachtend (hier ist der inflationierte Ausdruck tatsächlich einmal angebracht).  Was als fürsorglicher Vorschlag zum Umgang mit dem Planeten daher kommt, entpuppt sich bei näherer Analyse oft als brachialer Anti-Humanismus.

Ehrlich verlangte, die Familienplanung als erfolglose, individualistische Form der Geburtenkontrolle durch eine übergreifende Bevölkerungskontrolle abzulösen. So sollte sich die Zahl der Menschen nach einem kontrolliertes Massensterben („die-back“) bei etwa zwei Milliarden einpendeln: „Kennzeichnend für die damalige Bevölkerungsdebatte ist es, dass Ehrlich Geburtenraten ausschließlich nach verursachten gesellschaftlichen Kosten bewertete“, schreibt Sabine Höhler dazu, „Familien mit mehr als zwei Kindern bezichtigte er der Verantwortungslosigkeit“. Sie hätten ihre finanziellen Belastungen künftig selbst zu tragen, etwa durch „Luxussteuern“ für Babyausstattungen. „Nötigung? Vielleicht aber zum Wohle der Genötigten“, rechtfertigte Ehrlich seine Vorschläge, schließlich ginge es um das schiere „Überleben“ der Menschheit auf einem begrenzten Globus.

Heutzutage formuliert man das lediglich ein wenig sensibler. Die Autoren der von Spiegel-online vorgestellten Studie sagen:  „Uns ist klar, dass dies zutiefst persönliche Entscheidungen sind“, meint Studienautorin Kimberly Nicholas. Aber wir dürften nicht ignorieren, welchen Einfluss aufs Klima unser Lebensstil tatsächlich habe. „Wir hoffen, dass diese Information eine Diskussion auslöst und Menschen hilft, Entscheidungen zu treffen.“ Und wenn sie diese Entscheidungen nicht freiwillig treffen, kann man ja ein wenig nachhelfen.

Zuerst erschienen bei ACHGUT hier

Wer noch mehr Leser Verdummung in der ehemals seriösen FAZ lesen möchte möge hier schauen

Hier der link zur Studie




Zwölf Minuten bleiben bis zum Stromausfall

Zwölf Minuten bleiben bis zum Stromausfall

So titelt die Wetzlarer Zeitung über ein kaum thematisiertes Megaproblem für das ganze Land, das durch die Energiewende erst geschaffen wurde und welches zuvor hierzulande fast völlig unbekannt war,. Es ist das Problem der unmittelbaren Gefahr des totalen Stromausfalles -neudeutsch Blackout genannt- welcher wegen unerwartetem Lieferausfall oder ebenso unerwartetem Überangebot aus unstabilen, nicht steuerbaren Stromerzeugern aus Wind und Sonne entsteht. Dabei führt diese Überschrift den Leser in die Irre. Denn „Ausfall“ bedeutet etwas zufälliges, von höheren, nicht beeinflussbaren Ereignissen bestimmt. Das ist aber hiermit nicht gemeint. Denn dieser „Ausfall“ ist die zwingende Konsequenz planvollen Handelns. Und sollte deshalb – wie zu Zeiten der Berliner Blockade, die ich leider als Kind mit erleben musste, „Zwölf Minuten bleiben bis zur Stromsperre“ heißen.

Denn die notwendige Abschaltung ganzer Bezirke – im Techniksprech „Lastabwurf“ genannt- ist die zwingende Konsequenz, wenn man verhindern will, dass in Folge der Energiewende in Minutenbruchteilen das ganze Land nicht nur im Dunkeln liegt, sondern überhaupt keinen Strom mehr hat.

Um das zu möglichst verhindern, hat der Bundestag Anfang Februar 2017 fast unbemerkt und daher ohne jeden Aufruhr seitens der Medien, wieder mal das Energiewirtschaftsgesetz novelliert.

Es wurde dabei, die zuvor vom VDE vorgeschlagene, „Kaskadierung“ in geltendes Recht umgesetzt, was bedeutet, dass, bedingt durch Störungen, die durch die Flatterstromerzeugung entstehen, und nicht mehr ausgeregelt werden können, Teile des Stromnetzes zwanghaft und in Kaskaden (also von klein- auf mittel- bis großräumig) vom Netz genommen, also abgeschaltet werden müssen. Die Vorwarnzeit für die lokalen Stromversorger beträgt extrem kurze nur 12 Minuten, dann muss er handeln und Vollzug melden.

Was das bedeutet beschreibt Autor Steffen Gross von der Wetzlarer Zeitung so(Hervorhebungen von mir)

Zitat

EnWAG Geschäftsführer Detlef Stein hatte im Interesse aller Stadtwerke beim Verband der Elektrotechnik Elektronik und Informatt­ollstechnik (VDE) Einspruch gegen die Zwölf-Minuten­regel eingelegt und war ab­geblitzt. Das sei für die klei­neren Netzbetreiber, die üb­licherweise nicht über dau­erbesetzte Leitwarten ver­fügten, nicht einzuhalten, kritisierte er. Die Enwag wird sich nun mit einem Dienst­leistervertrag nun der Ener­gienetz Mitte GmbH und de­ren beiden Umspannwerken Altenberger Straße und Rechtenbach behelfen.

Ebenfalls erfahren wollte Stein, was auf die Enwag im Fall der Fälle zukommt, welche Megawattmengen in kürzester Zeit abgeschaltet, werden müssen. Doch auch dazu gab es nichts Konkretes. In zwei Testläufen war es mal um ein, dann um acht Megawatt gegangen – also , rund ein Fünftel der Höchst­last von 43 Megawatt im ge­samten Enwag-Netz. Der, größte Einzelverbraucher in Wetzlar kommt auf ein Megawatt.

Und weiter lesen wir:

Mit dem Abschalten ein­zelner Großkunden sei es bei acht Megawatt nicht mehr getan, sagte Stein, dann müssten komplette Stadttei­le für mehrere Stunden vom Netz genommen werden. An eine Vorwarnung der betrof­fenen Kunden sei in der Kür­ze der Zeit nicht zu denken. Die Abschaltung komme so einer Netzstörung gleich.

Dem Energiewirtschafts­gesetz zufolge sind alle Kun­den gleich, die Abschaltun­gen müssen „diskriminie­rungsfrei“ erfolgen. Sensible Kunden gibt es nicht, wenn abgeschaltet wird, kann es auch Krankenhäuser, Feuer­wehr oder Polizei treffen. , Nicht nur ihnen, auch In­dustrieunternehmen, Arztpraxen, Gewerbe und stark von Strom abhängigen . Haushaltskunden empfiehlt, der Enwag-Chef, Vorkehrungen für die Bewältigung ,des Stromausfalls zu treffen. Denn Schadensersatzan­sprüche schließe das Gesetz , aus., Alle Kosten, ganz gleich welcher Höhe, bleiben am Verbraucher hängen.“ Zitatende

Fassen wir zusammen:

Weil das Eingestehen von Fehlern in der Moral der Politiker nicht vorkommt, man denke nur an die lahme und vor allem für ihn kosten- und völlig folgenlose „Entschuldigung“ des 1. Hamburger Bürgermeisters Olaf Scholz, für den Schaden den er den Hamburgern wider besseres Wissen, angetan hatte, weil also niemand eingesteht, dass die Energiewende ein Riesenfehler war und ist, müssen die Verbraucher wieder mal die Zeche zahlen. Und wie das so ist, wenn man Brände mit Brandbeschleunigern bekämpft, wird der angerichtete Schaden immer größer.

Diesmal nicht nur am Geldbeutel sondern buchstäblich an Leib und Leben. Denn das ist die unmittelbare Folge des Lastabwurfes – zigtausende von Menschen, insbesondere die, die unserer Zuwendung besonders bedürftig sind, die Alten, die Schwachen, die Armen, die Kranken, die Babys, die Kinder, werden mit und dank dieser Politik an Leib und Leben bedroht.

Nur die wenigsten wissen, dass Krankenhäuser nur für die Intensivstationen Notstromversorgung vorhalten, und die auch nur für max. 24 Stunden. Oder, wie unlängst geschehen, eine Feuerwehr nicht ausrücken konnte, weil das elektrisch betriebene Tor sich nicht öffnen ließ. Es muss wohl erst eine weitere Grenfell- Tragödie – von der es hierzulande bereits einige gab (wir berichteten darüber z.B. hier und hier) – geschehen, bevor den Menschen die Augen aufgehen. Doch dann ist die Wahl vorbei und die Verderber sind wieder gewählt und machen ungerührt weiter.

 

 

 

 

 

 




Eine grüne Ökonomie ist möglich, aber zu welchen Kosten?

Solche Ökonomien gab es früher schon mal, und das ist noch gar nicht so lange her. Man gehe zurück in das Europa des 17.Jahrhunderts, als sich praktisch die gesamte Energieerzeugung auf die Kultivierung von Äckern, das Management von Wäldern und Viehwirtschaft konzentrierte. Dies bedeutetet, dass sehr viel Landfläche notwendig war, um eine Bevölkerung zu stützen, die nur einen winzigen Bruchteil der heutigen globalen Milliarden ausmachte.

Die Frage lautet nicht so sehr, ob man eine solche Art Gesellschaft wieder erschaffen kann. Es geht vielmehr darum, ob man das will, womit sich sofort die Frage nach akzeptablen Kosten auftut.

Das Problem mit Erneuerbaren dreht sich nicht darum, ob sie ihrer Aufgabe gerecht werden können, sondern besteht in deren geringer Produktivität. Dem Institute for Energy Research zufolge macht der Energiesektor etwa 9 Prozent des globalen BIP aus. Das bedeutet, dass es uns mit fast einem Zehntel unseres kollektiven Outputs zu stehen kommt, die gesamte Energie zu erzeugen, um die Weltwirtschaft am Laufen zu halten.

Es ist eine Zahl, hinter der sich Technologien verbergen, die auf verschiedenen Niveaus der Produktivität arbeiten. Man bekommt einen Sinn für das zugrunde liegende Bild, wenn man den so genannten Energie-Rückfluss in Bezug zur Investition in eine bestimmte Technologie berechnet, oder das Verhältnis zwischen dem von diesem Treibstoff oder Prozess erzeugten Einkommen zu Kapital- und Betriebskosten (ohne die Kosten für den Treibstoff), um die Energie tatsächlich zu erhalten.

Dies weist eine Bandbreite auf, die von praktisch nichts beim Verbrennen von Dung bis zu einem 50:1-Rücklauf bei Kohle und Gas sowie einem noch viel höheren 70:1-Rücklauf für Kernkraft reicht. Dies geht aus Forschungen von Prof. Michael Kelly von der Cambridge University hervor. Man kombiniere alles zusammen, dann kommt man auf ein Verhältnis von etwa 11:1.

Wie würde sich dieses Verhältnis ändern, wenn man vollständig auf erneuerbare Energie wechselt? Nun, einige diesbezügliche Rückschlüsse aus Studien zu Solarenergie gibt es aus Spanien während der Jahre 2006 bis 2009. Man extrapoliert die Erträge eines Solarparks während seiner 25-jährigen Lebensdauer und berechnet dann die zu verrechnenden Kosten in aller Vollständigkeit, darunter Pacht für die benötigte Landfläche, Wartung, Kosten für die Genehmigungen zum Herstellen und Installieren der Paneele. All diese Kosten addieren sich zu etwa 40% der Erträge, und der Energie-Rückfluss im Verhältnis zu den Investitionen beläuft sich Prof. Kelly zufolge etwa auf 2,5:1.

Was sagt uns das jetzt? Nun, es sagt, dass der Anteil unserer Ressourcen, die wir zur Energieerzeugung brauchen, stark steigen würde. Man vergleiche beispielsweise den Stahlverbrauch für die Erzeugung von Strom aus Gas mit dem Stahlverbrauch für Windenergie. Ein Kilogramm Stahl für eine Gasturbine hat die Kapazität, 2 Kilowatt zu erzeugen; die gleiche Menge Stahl im Gehäuse einer Windturbine erzeugt lediglich 2 Watt…

Full post (paywalled)

Link: https://www.thegwpf.com/a-green-economy-is-possible-but-at-what-cost/

Übersetzt von Chris Frey EIKE




Warum Klimamodelle heiß laufen

1. CO2 ist ein „Treibhaus“-Gas, welches die Strahlungs-Abkühlung verzögert. Dies sollte angesichts des experimentellen Nachweises von Tyndall im Jahre 1895 nicht mehr ernsthaft in Zweifel gezogen werden.

2. Die Erde erwärmt sich. Obwohl die Details umstritten sind wegen Problemen mit der Qualität der Temperaturdaten und „Adjustierungen“ ist es die allgemeine Tatsache nicht. Die Erde hat sich seit dem Ende der Kleinen Eiszeit LIA intermittierend erwärmt. Der letzte Eis-Jahrmarkt auf der Themse wurde im Jahre 1814 abgehalten.

3. CO2 und dessen Dominoeffekte verursachten die jüngste Erwärmung, und Klimamodelle (wie das CMIP5-Archiv für den 5. IPCC-Zustandsbericht) prophezeien, dass dies immer weiter gehen wird bis hin zu einem katastrophalen Niveau. Dies ist ein extrem zweifelhaftes Theorem.

In diesem Beitrag geht es um Theorem Nummer 3. Er besteht aus einem Kurz-Abstract und einem vollen Beitrag für WUWT.

Kurz-Abstract

Die Klimamodelle sind seit dem Jahr 2000 heiß gelaufen. Mit Ausnahme des El Nino-Ausreißers 2015/16, nach welchem es sich inzwischen vollständig wieder abgekühlt hat, gab es in diesem Jahrhundert keine Erwärmung außer durch ,Karlisierung‘ oder (neuerdings) Mearisierung. Und das, obwohl in diesem Jahrhundert der Anteil der CO2-Zunahme seit 1958 etwa 35% betragen hatte (Keeling-Kurve).

Die Klimamodelle irrten sich hinsichtlich der Zuordnung. Die Erwärmung etwa von 1920 bis 1945 ist kaum unterscheidbar von derjenigen von etwa 1975 bis 2000. Die Abbildung im AR 4 zeigte, dass die frühere Periode zumeist natürlichen Ursachen geschuldet war (weil die CO2-Änderung einfach zu gering war). Das CMIP5-Archiv nimmt nun an, dass die spätere Periode zumeist CO2 (und anderen Treibhausgasen) geschuldet ist. Diese Hypothese ist grandios gescheitert; die natürliche Variation ist nicht mit dem Jahr 1975 wie durch Zauberhand verschwunden.

Der vollständige Beitrag

Die CMIP5-Klimamodelle sind seit der Jahrtausendwende heiß gelaufen, und die Abweichung der CMIP5-Ergebnisse von den Beobachtungen ist statistisch hoch signifikant. Details hierzu zeigte Dr. Christy in seiner schriftlichen Aussage vor dem Kongress am 29. März 2017. Die Abbildung 2 daraus liefert den aktualisierten Beweis:

Diese Diskrepanz hat ihre Wurzeln in dem Zuordnungs-Problem zwischen natürlicher und anthropogener Erwärmung. Es steckt unvermeidlich inhärent in den CMIP5-Modellen, und zwar aus einem sehr wichtigen und einfachen Grund.

Um bedeutende Klima-Ereignisse wie konvektive Zellen (Gewitter) angemessen zu modellieren, muss man ein Gitternetz mit einem Abstand von weniger als 4 km zwischen den Gitterpunkten konstruieren. Die feinste Auflösung der CMIP5-Modelle beträgt am Äquator 110 km; die typische Auflösung beträgt 280 km. Dies liegt daran, dass eine Halbierung der Gitterpunkts-Abstände eine Größenordnung mehr Rechenleistung erfordert. Derartige Prozesse also angemessen zu simulieren ist computertechnisch unlösbar.

Die Lösung ist, solche Prozesse zu parametrisieren (Beispiel: Man erstelle eine Wahrscheinlichkeit, wie viele Gewitter pro Gitterzelle pro Zeitschritt entstehen – eher ein konzeptionelles als ein aktuelles Beispiel, sind doch Parameter noch etwas komplizierter). Parameter sind offensichtlich lediglich Vermutungen. Also werden sie im Nachhinein so frisiert, dass sie zu den Beobachtungen passen. Für die CMIP5-Modelle wurde das ,experimentelle Design‘ von Ende 2005 drei Jahrzehnte zurück erstellt bis zum Jahr 1975 [1].

Diese Bearbeitung der Parameter bringt das Zuordnungs-Problem implizit in die CMIP5.

Prof. em. Dr. Richard Lindzen vom MIT machte erstmals die Beobachtung, dass die Erwärmungsperiode von 1920 bis 1945 im Wesentlichen nicht unterscheidbar ist von der Erwärmung von 1975 bis 2000. Dies ist augenfällig offensichtlich und auch statistisch wahr.

Die Abbildung SPM.4 aus dem IPCC-Bericht 4 sowie der Begleittext machen klar, dass die frühere Periode (blau eingekreist) zumeist natürlichen Ursprungs war. Es gab einfach keine ausreichende Änderung des atmosphärischen CO2-Gehaltes, welche die Erwärmung ohne die natürliche Variabilität erklären könnte. Ein Teil der Abbildung SPM.4 wird hier als hinreichender Beweis reproduziert:

Die Absicht des IPCC bzgl. der Abbildung SPM.4 war es, politische Entscheidungsträger davon zu überzeugen, dass die zweite Erwärmungsperiode (rot eingekreist) AGW sein muss. Aber diese IPCC-Logik ist grandios falsch. Die SPM hat den Politikern nichts gesagt hinsichtlich der Bearbeitung von Modellparametern, welche eindeutig die natürliche Variation in die Periode der Modellparameter-Bearbeitung bringt, was vom IPCC als AGW apostrophiert worden ist. Folglich wird die Erwärmung fälschlich nur dem CO2 zugeordnet. Man beachte auch die subtile „Schummelei“ in der Abbildung SPM.4 der Modelle, welche nur natürliche Antriebe berücksichtigen. Das sind keine vermuteten natürlichen Antriebe. Wir wissen nicht, welche Ursachen die natürliche Variation hat, sondern nur, dass es sie gibt (kein Modell erfasst die ENSO-Periodizität, nur mal als Beispiel).Natürliche Antriebe sind kein Thema, lediglich die resultierende natürliche Erwärmung ist es. Natürliche Temperaturvariation, nicht ,Antriebe‘, ist die ordnungsgemäße Aussage des Zuordnungs-Problems. Die SPM des IPCC-Berichtes 5 macht den irrigen und unwissenschaftlichen Glauben des IPCC explizit:

§D.3 Dieser Beweis des menschlichen Einflusses hat seit dem AR 4 zugenommen. Es ist extrem wahrscheinlich, dass menschlicher Einfluss der dominante Grund für die beobachtete Erwärmung seit Mitte des 20. Jahrhunderts ist. (Fettdruck von mir [dem Autor]).

Die natürliche Variation ist Mitte des 20. Jahrhunderts NICHT zu Ende gegangen. Und darum laufen die CMIP5-Modelle jetzt heiß.

Link: https://wattsupwiththat.com/2017/07/06/why-climate-models-run-hot/

Übersetzt von Chris Frey EIKE