Offener Brief zum Klimawandel und zur Klimapolitik, 2 v. 3

Dieser Brief wurde ursprünglich vom dänischen Geologen Prof. em. Dr. Johannes Krüger an den dänischen Premierminister Lars Løkke Rasmussen gerichtet. Anschließend wurde der Brief ins Norwegische übersetzt und – mit geringfügigen Änderungen – an die norwegische Ministerpräsidentin Erna Solberg gerichtet, zusammen mit den Unterschriften von 20 norwegischen Wissenschaftlern, die allesamt Klimaforscher sind.

– – –

Hokus Pocus mit Klima Daten

Im Jahr 2014 hat das nationale NCDC (National Climate Data Center) seinen Rekord in Irreführung der Öffentlichkeit übertroffen. Es betrifft die Temperatur in den USA im Zeitraum 1895–2014. In Abbildung 4 links ist die Durchschnittstemperatur basierend auf den ursprünglichen Temperaturdaten dargestellt. Der Zugriff auf die Originaldaten ist häufig ein Problem, entweder weil sie gelöscht wurden, möglicherweise wegen Speichermangel, oder weil der Computer, der zur Datenverarbeitung verwendet wurde, abgestürzt ist. Die Grafik zeigt, dass es in den USA in den letzten 90 Jahren keinen Temperaturanstieg gegeben hat. Der Temperaturanstieg, den wir in den 1980er und 1990er Jahren erlebt haben, ist ähnlich wie in den 1930er und 1940er Jahren. Abbildung 4 rechts zeigt die gleiche Temperaturserie, die jedoch vom NCDC eingestellt wird. Diese Kurve der durchschnittlichen Jahrestemperatur in den Vereinigten Staaten hat die NCDC veröffentlicht. Die Temperaturen vor 2003 wurden nach unten angepasst, die nach 2003 nach oben, um sie mit der klimapolitischen Agenda in Einklang zu bringen. Fazit: Die Klimadaten wurden Hokus Pokus und groben Manipulationen unterzogen.

Abbildung 4: Die Kurve links zeigt die Jahresmitteltemperatur für die USA im Zeitraum 1895–2014, basierend auf den Originaldaten. Quelle: Das Nationale Klimadatenzentrum (NCDC).
Die Kurve rechts zeigt die angepasste Jahresmitteltemperatur für die Vereinigten Staaten. Die Temperaturen vor 2003 wurden nach unten angepasst, während die Temperaturen nach 2003 nach oben korrigiert wurden. Quelle: Das Nationale Klimadatenzentrum.

Die globalen Temperaturen wurden ebenfalls manipuliert. Die offizielle, von NOAA (National Oceanic and Atmospheric Administration) entwickelte Temperaturkurve der globalen Temperatur für den Zeitraum 1900-1999, die das IPCC in seinen Berichten vorgestellt hat, wurde umfassend angepasst, um einen viel höheren Temperaturanstieg als die ursprünglichen Temperaturdaten zu zeigen. Wie Abbildung 5 zeigt, trägt die Anpassung bis zu 0,3 ° C der postulierten globalen Erwärmung von 0,7–0,8 ° C während des 20. Jahrhunderts bei. Die Schlussfolgerung ist daher, dass die globale Temperatur zwischen 0,4 ° C und 0,7 ° C angestiegen ist, wobei die erste Zahl auf der ursprünglichen Temperaturreihe und die letzte auf angepassten und manipulierten Daten basiert. Keiner dieser Werte ist in irgendeiner Weise alarmierend.

Am Sonntag, dem 5. Februar 2017, erlebte die Welt eine Fortsetzung des Climategate-Skandals, als klar wurde, dass ein revolutionärer Artikel in der angesehenen wissenschaftlichen Journals Science auf fehlerhaften Daten beruhte und durch den Veröffentlichungsprozess gedrängt wurde. Offenbar um Einfluss auf die internationale Klimadiplomatie zu erzeugen. Der Hauptautor des Artikels war Thomas R. Karl, damals einer der führenden Forscher der NOAA, der weltweit führenden Organisation zur Erfassung von Klimadaten. In dem Artikel wurde behauptet, dass die globale Erwärmungspause („Hiatus“) seit 1998 nicht bestanden habe und dass die Temperatur schneller gestiegen sei, als die Forscher erwartet hatten. Die Nachrichten gingen nicht nur um die ganze Welt, sondern es war auch Wasser auf die Mühlen des IPCC, denn noch in ihrem fünften Hauptbericht von 2013 bestätigte der IPCC, dass die langfristige Pause in der globalen Erwärmung real war. Ein Jahr weiter, wurde dies sowohl von der NASA als auch von der NOAA [wieder] bestätigt, jedoch ohne plausible Erklärung.

Abbildung 5: Die Kurve zeigt beispielhaft den Umfang der NOAA-Anpassungen der globalen Temperatur für den Zeitraum 1900-1999. Die angepasste Datenreihe wurde von der ursprünglichen Temperaturmessreihe abgezogen. Beachten Sie, dass die Anpassung einen künstlichen Beitrag von 0,3 ° C zum Temperaturanstieg in den späten 1900er Jahren liefert. Quelle: Nationale Ozeanische und Atmosphärische Verwaltung NOAA.

Der angebliche Temperaturanstieg in Thomas Karls „Ablehnung der Erwärmungspause“ basierte auf Temperaturdaten von 3000 ARGO-Bojen in den Ozeanen. Diese wurden jedoch nach oben hin so eingestellt, dass sie mit den länger laufenden, aber weniger zuverlässigen Temperaturaufzeichnungen, die in den Einlasskanälen des Motors in Seeschiffen erfasst werden, „homogen“ werden. Außerdem hatte Thomas Karl die NOAA-eigenen Regeln zur Qualitätskontrolle und Veröffentlichung ignoriert. Dies wurde vom Management der NOAA bestätigt, wie der ehemalige Klimaforscher der NOAA, John Bates, erklärt hat. Er enthüllte die Geschichte hinter dem Artikel „Ablehnung der Pause“ in The Daily Mail. Für andere Forscher war es unmöglich, die Arbeit von Thomas Karl zu überprüfen, da die fraglichen Daten nicht archiviert wurden. Aber der Schaden war passiert. Der Artikel ‚Ablehnung der Pause‘ bot ein perfektes wissenschaftliches Alibi für weit reichende politische Entscheidungen.

 

Ist der heiße, trockene Sommer 2018 in Dänemark durch die globale Erwärmung verursacht?

Viele partielle Erklärungen zu diesem Phänomen wurden veröffentlicht. Der extreme Sommer 2018 wird sicherlich als die wärmste und trockenste Zeit ’den Menschen’ in Erinnerung bleiben. Nicht nur Dänemark, sondern auch große Teile Europas waren betroffen. Es ist verständlich, dass Hitze und Dürre, die die Landwirtschaft schwer beschädigt haben, als Folge der globalen Erwärmung wahrgenommen wurden. Die Medien berichteten, und mächtige Interessengruppen nutzten die Situation aus, um den „Kampf gegen den Klimawandel“ erneut zu fördern. Die Medien haben Kinder und Jugendliche verängstigt, die auf den Straßen der europäischen Großstädte demonstriert haben – und die Medien haben Öl ins Feuer gegossen. Es ist tragisch, die 16-jährige Schwedin Greta Thunberg im Fernsehen zu sehen. Die Vereinigten Staaten und Zentralasien erlebten ebenfalls einen heißen Sommer. Gleichzeitig war es jedoch – wie in Abbildung 6 dargestellt – in Ostkanada und in Grönland für die Jahreszeit ungewöhnlich kalt, wo wie in Ostasien Kälterekorde gebrochen wurden.

Der extrem trockene und heiße Sommer 2018 kann jedoch durch das atmosphärische Phänomen des Polar-Jetstream erklärt werden, der sich manchmal sehr stark schlängelt, was zu einer Umverteilung von Wärme und Kälte führt und dazu beiträgt, regional [unterschiedliche] Wärme- und Kältewerte zu erzeugen. Die globale Durchschnittstemperatur für den Zeitraum von Juni bis Juli lag etwas unter dem Durchschnitt des letzten Jahrzehnts – eine Tatsache, die von den Medien und sogenannten Klimaexperten gerne ignoriert wird. Die Mäanderung des Polaren Jetstreams ist nicht neu. Gut bekannt sind Perioden von 20–30 Jahren mit häufigeren Schwankungen des Polaren Jetstreams , bei dominierenden Nord-Süd-Winden, unterbrochen durch Perioden ähnlicher Länge mit geringeren Fluktuationen und häufigeren West-Ost-Winden.

Das extreme Wetter im Sommer 2018 in Dänemark wurde nicht durch globale Erwärmung verursacht, sondern sollte uns daran erinnern, dass wir in einem lokalen oder regionalen Klima leben – nicht in einem globalen Klima. Rückblickend zeigen Zahlen von DMI (Danish Meteorological Institute) – wie in Abbildung 7 dargestellt -, dass die Temperatur in Dänemark in den letzten Jahrzehnten nicht gestiegen ist, der Öffentlichkeit ist das jedoch nicht bewusst.

 

Abbildung 6: Der Gürtel entlang des Jetstreams, in dem es im Juni 2018 im Vergleich zu den Durchschnittstemperaturen des betreffenden Monats in den letzten 10 Jahren niedrigere oder höhere Temperaturen gab. Datenquelle: Goddard-Institut für Weltraumforschung (GISS).

Abbildung 7: Die Säulen zeigen die monatliche Temperaturabweichung von den letzten offiziellen Klimadaten-Aufzeichnungen der [früheren Jahre] 1961-1990 (Durchschnittstemperatur 7,7 ° C) in Dänemark für den Zeitraum 2000-2017. Die Kurve zeigt den gleitenden Mittelwert. Ebenso wie die globale Temperatur ist auch die Temperatur in Dänemark in den letzten Jahrzehnten nicht gestiegen. Datenquelle: DMI.

 

Wasserdampf ist das wichtigste Treibhausgas

Das IPCC suggeriert, dass CO2 das dominierende Treibhausgas ist, aber das Treibhauskonzept des IPCC ist eine irreführende Vereinfachung. In seinen Berichten lässt der IPCC entscheidende Aspekte des Treibhauseffekts aus, die andernfalls die sehr geringen Auswirkungen des CO2-Treibhausgases auf das Klima aufzeigen würden. Die Bedeutung von CO2 als Treibhausgas wird stark übertrieben, da tatsächlich Wasserdampf das dominierende Treibhausgas ist. Im Gegensatz zu CO2 erhöht Wasserdampf jedoch die Wolkenbildung und somit die Abkühlung.

Kurz und ohne allzu fachspezifisch zu sein, ist die Erklärung wie folgt. Wenn die Sonne die Erdoberfläche erwärmt, wird ein Großteil der Wärme für die Verdampfung von Wasser absorbiert, das mehr als 70% der Erdoberfläche bedeckt. Der unsichtbare Wasserdampf ist wie CO2 ein Treibhausgas, da er die infrarote, langwellige rückwärtige Strahlung der Erde absorbieren kann. Während CO2 und ebenfalls Methan die langwellige Strahlung nur in einem sehr engen Bereich des Wellenspektrums absorbieren können, kann Wasserdampf – wie in Abbildung 8 dargestellt – die Rückstrahlung fast im gesamten Spektrum des infraroten Lichts absorbieren, auch die Bereiche des Wellenspektrums, die von CO2 und Methan abgedeckt werden. Daher kann Wasserdampf auch die meiste Infrarotstrahlung von der Erdoberfläche absorbieren, bevor er die höher liegenden, infrarotaktiven CO2-Moleküle erreicht, ebenso den Teil der zufällig in Richtung Erde strahlenden Anteile der von CO2 [in alle Richtungen] ausgesandten  Strahlen nach Co2 Anregung. Diese Prozesse tragen dazu bei, die Auswirkungen des seit den 70er Jahren erfolgten Anstiegs des atmosphärischen CO2 zu reduzieren.

Die aktuelle CO2-Konzentration [wird am Mauna Loa Vulkan in Hawai gemessen] und liegt z.Zt. über 400 ppm, während die durchschnittliche Wasserdampfkonzentration auf das zehnfache, also  4000 ppm geschätzt wird. Aufgrund der molekularen Eigenschaften von Wasserdampf und der großen Wasserdampfmenge in der Atmosphäre ist Wasserdampf das dominierende Treibhausgas. Wasserdampf trägt laut DMI am meisten zum Treibhauseffekt bei, da im Durchschnitt etwa 60% der gesamten Strahlungsauswirkungen von Treibhausgasen auf Wasserdampf entfallen. Zum Vergleich: Bei CO2 sind es fast 30%.

Abbildung 8. Links oben in dieser Abbildung ist das Wellenlängenspektrum der Sonnenstrahlung dargestellt, das die Erde erreichen kann. Unten rechts ist das Spektrum der Wärmeabstrahlung der Erde, wenn die Bodentemperatur um den Mittelwert von 15 ° C liegt. In den Tropen, wo die Oberfläche wärmer ist, ist der Strahlungsbereich nach links verschoben (kürzere Wellenlänge). In den Polargebieten ist es nach rechts verschoben. Rechts oben in der Figur ist der Wellenlängenbereich dargestellt, in dem Strahlung von der Oberfläche in die Atmosphäre in den Weltraum gelangen kann. Die schwarzen Balken in der Mitte der Abbildung zeigen die Bereiche des Wellenspektrums, in denen Wasserdampf, CO2 und Methan die langwellige Strahlung der Erde absorbieren können. Es ist klar, dass sowohl CO2 als auch Methan als Treibhausgase eine marginale Bedeutung haben, während Wasserdampf das dominierende Treibhausgas ist. Datenquelle: Atmosphärenphysiker Ole Henrik Ellestad 2017.

Wasserdampf ist das dominierende Treibhausgas, aber Wasserdampf wandelt die absorbierte Strahlung in Wärme, wodurch [mehr] Wasserdampf aufsteigt. Laut Atmosphärenphysikern ist diese Konvektion ein zentrales, aber unterschätztes Element des Treibhausmechanismus. Tatsächlich ist die Konvektion 10-mal wirksamer als Strahlung und beherrscht den Energiefluss von der Erde in den Weltraum in den unteren Schichten der Atmosphäre vollständig. „Fließt“ die Temperatur durch die Troposphäre, die die untere Schicht der Atmosphäre bildet, wird der Wasserdampf abgekühlt und allmählich zu Wolken kondensiert. Wolken machen 65 ± 3% der Oberfläche des Planeten aus und reflektieren ca. 20% der einfallenden Sonnenenergie, weil Wolken eine weiße Oberfläche haben. Die globale Wolkendecke wirkt daher wie ein riesiger Sonnenschirm – wie eine Kühldecke, die verhindert, dass die Sonnenstrahlung die Erdoberfläche erreicht und somit das Klima der Erde entscheidend beeinflusst.

Durch die Analyse der vom International Satellite Cloud Climatology Project gesammelten Satellitenbilder haben Wissenschaftler die geringe Wolkenbedeckung seit 1983 gemessen und kartiert und das Ergebnis mit den Änderungen der globalen Temperatur verglichen. Wie in Abbildung 9 dargestellt, wurde eine klare Verbindung zwischen der globalen Wolkenbedeckung und der Temperatur demonstriert. Die gesamte globale Erwärmung am Ende des 20. Jahrhunderts lässt sich durch einen Rückgang der globalen Wolkenbedeckung um 3% erklären, und der Zusammenbruch der globalen Erwärmung in den letzten zwei Jahrzehnten fällt mit einer stabilen Wolkenbedeckung zusammen.

Abbildung 9. Die Wechselwirkung zwischen der gesamten globalen Wolkenbedeckung und den Änderungen der globalen Oberflächentemperatur 1983-2010. Quelle: Had-CRUT (Temperatur). Internationales Projekt für Satellitenwolken-Klimatologie

Das IPCC berücksichtigt nicht die Auswirkungen so entscheidender thermodynamischer und hydrologischer Prozesse wie Konvektion und Wolkenbildung, da es einfach nicht in der Lage ist, diese zu berechnen und in Computersprache zu übersetzen. Dies ist ein wesentlicher Grund dafür, dass Klimamodelle nicht mit den tatsächlichen Klimabedingungen übereinstimmen. Das IPCC selbst räumt ein, dass es nur geringes Wissen darüber gibt, dass die Wolkenbildung einen dominierenden Einfluss auf das globale Klima hat, aber die Öffentlichkeit ist sich dessen nicht bewusst.

 

Wird der anhaltende CO2-Ausstoß zu einer globalen Klimakatastrophe führen?

Ein Team von internationalen Wissenschaftlern hat davor gewarnt, dass die Welt bereits vor einer globalen Klimakatastrophe steht, die langfristig in ein heißes Klima mündet- wie in der Tertiär- und Kreidezeit vor Millionen von Jahren, aufgrund unkontrollierbarer Dominoeffekte im komplexen Klima System. Und das passiert auch, wenn der CO2-Ausstoß reduziert wird. Diese Ansicht hat einen tiefen Eindruck bei Politikern hinterlassen, nicht zuletzt beim dänischen Energie- und Klimaminister Lars Christian Lilleholt, der internationales Handeln fordert. Gibt es wissenschaftliche Beweise für eine katastrophale Entwicklung oder ist dies nur eine aus einer Reihe gewöhnlicher, von Klimaalarmisten propagierter Geschichten, um die Panik zu schüren?

Am 7. August 2018 konnte man in den Nachrichtensendungen in Radio und Fernsehen einen deutlich geschockten Energie- und Klimaminister hören und sehen, nachdem er einen kürzlich veröffentlichten Klimabericht gelesen hatte. Der Bericht bezweifelte nicht nur das 2-Grad-Ziel des Pariser Abkommens, sondern zeigte auch ein düsteres Bild der Zukunft des Planeten. „Wir wissen sehr gut, dass wir vor einer sehr großen Herausforderung stehen, die sowohl nationale als auch internationale Maßnahmen erfordert“, sagte der Minister.

Dieser Bericht, den der Minister als bedrohlich eingestuft hat, ist ein Artikel: Bahnkurven des Erdsystems im Anthropozän, den ein internationales Wissenschaftlerteam unter Leitung des Klimatologen Theologe Will Steffen in der renommierten wissenschaftlichen Zeitschrift Proceedings of the National Academy of Sciences (PNAS). Das Team hatte das Risiko untersucht, dass sich selbst verstärkende klimatische Rückkopplungen – eine Art unkontrollierbarer Dominoeffekt – das Erdklima auf einen kritischen Schwellenwert bringen könnten, der – wenn er überschritten wird – dazu führen kann, dass die globale Temperatur außer Kontrolle gerät und die Erde ein Backofen wird. Der Artikel ist ziemlich schockierend – basiert jedoch auf den fehlerhaften Klimamodellen des IPCC, von denen das IPCC in den eigenen Berichten selbst zugibt: In der Klimaforschung und Modellierung sollten wir begreifen, dass es sich um ein gekoppeltes nicht-lineares chaotisches System handelt und daher sind zeitliche lange Vorhersagen zukünftiger Klimazustände nicht möglich. Daher sollte es eher als ein Stück Science-Fiction Roman betrachtet werden, was einen Minister nicht schockieren sollte.

Ein gewisser Verdacht könnte aufkommen, als ein Fernsehjournalist im März 2009 vor der COP-15 auf einem Mini-Klimasymposium an der Universität Kopenhagen einen Mitautor dieses Artikels fragte, ob CO2 wirklich der Hauptverursacher ist : ‚Alle eingeladenen Wissenschaftler sind sich einig.‘

Bislang konnte das IPCC nicht nachweisen, dass atmosphärisches CO2 die globale Temperatur beeinflusst, weder langfristig noch kurzfristig. Bohr-Eiskerndaten hingegen zeigen, dass CO2 erst nach einer Temperaturerhöhung ansteigt und aktuelle Untersuchungen zeigen, dass dies auch heute gilt. Es ist die Temperatur, die das CO2 steuert und nicht umgekehrt. Dies liegt daran, dass eine warme Atmosphäre mehr CO2 aufnehmen kann, welches aus den Ozeanen ausgegast wird. Darüber hinaus nimmt die Wirkung von CO2 als Treibhausgas mit zunehmender CO2-Konzentration logarithmisch ab. Der Effekt wird flacht einfach aus. Wie in Abbildung 10 zu sehen ist, ist der Klimaeffekt einer erhöhten CO2-Emission so gering, dass der Einfluss des Menschen nicht erkannt werden kann. Daher sollte CO2 nicht als Bedrohung angesehen werden, sondern als Elixier des Lebens. Mehr CO2 produziert eine grünere Erde, die eine wachsende Bevölkerung ernähren kann – Gärtner verwenden CO2 bereits seit vielen Jahrzehnten in den Gewächshäusern, um die Produktion zu steigern.

Abbildung 10. Temperaturanstieg aufgrund erhöhter CO2-Emissionen. Der Effekt ist bei kleinen CO2-Konzentrationen am größten, während der Effekt bei Konzentrationen, die jetzt bei etwa 400 ppm oder höher liegen, marginal ist. Wenn der atmosphärische CO2-Gehalt massiv auf 140 ppm verringert wird, wird das gesamte Pflanzenwachstum auf der Erde aufhören. Quelle: Atmosphärenphysiker Ole Henrik Ellestad 2017 – basierend auf dem Lambert & Beer’schen Gesetz.

Als Antwort auf die Behauptung, dass das Vieh ein Klimaproblem verursacht, haben die dänischen Landwirte auf der Landwirtschaftsmesse am 7. und 8. November 2018 in Herning erklärt: „Zeigen Sie, dass Sie sich auch um den Planeten, unsere Kinder und die Zukunft sorgen.‘ Die Landwirtschaft muss sich jedoch nicht der Klimahysterie anschließen. Sie beruht weder auf wissenschaftlichen Erkenntnissen noch auf Beweisen dafür, dass Veganismus das Klima beeinflussen wird.

Ende Teil 2 von 3

Teil 1 finden Sie hier

Übersetzung durch Andreas Demmig

 

Eine niederländische Übersetzung der norwegischen Version wurde auf Climategate.nl veröffentlicht:

Open brief Noorse klimaatrealisten aan premier Erna Solberg




Offener Brief zum Klimawandel und zur Klimapolitik, 1 v. 3

Dieser Brief wurde ursprünglich vom dänischen Geologen Prof. em. Dr. Johannes Krüger an den dänischen Premierminister Lars Løkke Rasmussen gerichtet. Anschließend wurde der Brief ins Norwegische übersetzt und – mit geringfügigen Änderungen – an die norwegische Ministerpräsidentin Erna Solberg gerichtet, zusammen mit den Unterschriften von 20 norwegischen Wissenschaftlern, die allesamt Klimaforscher sind.

– – –

Afs. Johannes Krüger
Professor emeritus, dr. scient.
Institut for Geovidenskab og Naturforvaltning
Københavns Universitet
Geocenter Danmark
Øster Voldgade 10
DK-1350 Copenhagen K

12 März, 2019

Statsminister Lars Løkke Rasmussen
Statsministeriet
Prins Jørgens Gård 11
1218 København K

Die Medien sind mit Berichten über das Scheitern des Gesundheitssystems, den Missbrauch von Sozialgeldern und anderen ähnlichen Berichten überschwemmt. Diese Berichte sind oft ans Licht gekommen, weil Journalisten entschlossen waren, die richtigen Fragen zu stellen. Kürzlich erhielten drei Journalisten den Cavling-Preis für die Offenlegung der Beteiligung der dänischen Bank an einem Geldwäscheskandal in Höhe von 200 Mrd. €.

Geht es jedoch um Klimawandel und globale Erwärmung, dann lehnen die Medien es ab, sich eingehend mit investigativem Journalismus zu beschäftigen. Sie verlassen sich fast ausschließlich auf sogenannte Klimaexperten, die so tun, als würden sie die gesamte wissenschaftliche Gemeinschaft vertreten. Es gibt mehrere Beispiele extremer Äußerungen über den Klimawandel, die von den Medien unkritisch übernommen werden oder dass Journalisten die Medien als Plattform für Klimakampagnen und Aktivismus nutzen. Zum Beispiel lies ein Moderator kategorisch ein ernstes Gegenargument nicht zu, geschehen in einer Debatte zu „Klimarealismus lehnt die Verantwortung ab“ (in Kristeligt Dagblads Ethisk, 4. Februar 2019). Das dabei die Regeln für eine gute Medienethik verletzt werden, scheint nicht zu stören. Die Aufmerksamkeit der Medien richtet sich fast ausschließlich auf diejenigen, die die Behauptungen des IPCC der Vereinten Nationen (UNCC) unterstützen [und hier besonders die vom Bericht der Arbeitsgruppen ”unbeeinflusste”  Zusammenfassung für Entscheidungsträger und Politiker, Einschub des Übersetzers]

Die Frage nach der Ursache des heutigen Klimawandels und seinen zahlreichen Auswirkungen ist weitaus umstrittener, als es vom IPCC und den Nachrichtenmedien vertreten wird. Denn die wissenschaftlichen Messungen und Beobachtungen [der Realität] zeigen etwas, das sich vom Ergebnis der unzulänglichen computergenerierten Klimamodelle unterscheidet. Politiker sind jedoch nicht in der Lage, diese Informationen zu verstehen und als Grundlage für eine rationale Entscheidungsfindung zu verwenden, weil sie relevante Erkenntnisse ignorieren. Dies ist darauf zurückzuführen, dass das politische Umfeld ebenso wie die Medienwelt stark durch Gruppendenken und Selbstzensur geprägt ist [-political correctness].

Ich war schockiert, als mir ein Schüler der 9. Klasse erzählte, dass er sich entschlossen hatte, eine Ausarbeitung über die stark eingeschränkte Redefreiheit in der Klimadebatte zu schreiben (alle anderen in der Klasse schrieben über die schädlichen Auswirkungen von CO2). Der begabte Student hatte ein Interview mit einem der Klimasprecher in Christiansborg (dänisches Parlament) über die globale Erwärmung. Er war entsetzt darüber, dass der betreffende Politiker die CO2-Emissionen nur als reines Übel darstellte.

Deshalb wende ich mich an Sie und andere ausgewählte Politiker in der Hoffnung, dass Sie sich zum Lesen des Folgenden einige Zeit in Anspruch nehmen werden. Ich bin sicher, dass es Ihnen nützliche Denkanstöße geben wird. Wir stehen vor Parlamentswahlen, bei denen die Klimaproblematik auf der Tagesordnung steht und einer gründlichen Überarbeitung bedarf.

Die Zurückhaltung der Medien und der Politik, sich über Ergebnisse der internationalen Forschung zu informieren, welche nicht mit der Botschaft des IPCC übereinstimmen, wird sicherlich verstärkt, durch die wiederholte Verbreitung unhaltbarer Behauptungen: Wie z.B. das 97% der Klimaforscher der Ansicht wären, dass der größte Teil der globalen Erwärmung von Menschen verursacht werden würde (AGW = Anthropogenic Global Warming) und dass es katastrophale Folgen für den Planeten haben wird, wenn wir nicht handeln.

Die Medien verkündeten die Behauptung von 97% Konsens, als ob jegliche globale Erwärmung von Menschen gemacht sei. Dieses Bild stammt insbesondere aus einem Artikel von J. Cook et al. (2013): ): ‚Quantifying the consensus on anthropogenic global warming in the scientific literature‘ [„Quantifizierung des Konsenses über die anthropogene globale Erwärmung in der wissenschaftlichen Literatur“], in der die Autoren 11.944 Zusammenfassungen von Artikeln zum globalen Klimawandel und zur globalen Erwärmung in vier Kategorien klassifiziert haben. Von diesen Zusammenfassungen nahmen 7.930 keine Stellung zu AGW und wurden aussortiert. 3.896 folgten der Behauptung  von AGW oder lehnten sie nicht ab, während  118 AGW ablehnten oder Zweifel daran äußerten. Vor diesem Hintergrund schlussfolgern Cook et al., dass 97% der Klimawissenschaftler die AGW-Hypothese unterstützen.

Diese Geschichte, die eigentlich keinen Platz in einer ernsthaften Klimadiskussion [unter Wissenschaftlern] verdient, steht im Mittelpunkt von B. Shollenberger in: The Climate Wars: How the Consensus is Enforced  [„Die Klimakriege – wie der Konsens durchgesetzt wird“] und von A. Montford Full paper (pdf) – Fraud, Bias And Public Relations: The 97% ‘Consensus’ And Its Critics [„Betrug, Voreingenommenheit und Öffentlichkeitsarbeit – der 97% Konsens und seine Kritiker‘]

[Stellungnahmen auf WUWT, auf Eike, und sogar der Spiegel schreibt ausgewogen]

 Cooks Ausarbeitung ist irreführend. Zum einen, weil es nicht hinnehmbar ist, 7.930 relevante Klimastudien zu verwerfen, und zum anderen, weil Cooks Daten, deren Zugang zunächst untersagt wurde, weil der Computer angeblich zusammengebrochen wäre, tatsächlich nur 41 Artikel enthielten, die die Behauptung von AGW bedingungslos unterstützten. Denn es stellte sich heraus, dass die Gruppe von 3.896, die anscheinend die Behauptung von AGW unterstützt hat, auch Wissenschaftler umfasst, die glauben, dass der Mensch nur 20–30% zur globalen Erwärmung beiträgt, und – was noch schlimmer ist – sogar so genannte Skeptiker, die glauben, dass der menschliche Beitrag nur wenige Prozent beträgt. Ein Fehler der Zugangssicherung auf einer Webseite enthüllte, dass Cooks Artikel ursprünglich [nur] auf die Medien abzielte – um tatsächlich unkritische Journalisten als Botschafter zu verwenden. Aber Cooks Artikel ist manipulativ. Es ist, als würde man aus einem Maulwurfshügel einen Berg machen.

Der Konsensanspruch von 97% lauert noch immer und wird nicht nur verwendet, um Skeptiker abzulehnen und jede ernsthafte Klimadebatte zu blockieren, sondern auch um ein wissenschaftliches Alibi für politische Entscheidungen zu schaffen. Die ehemalige norwegische Premierministerin Gro Harlem Brundtland erklärte: „Im Klimafall ist es unmoralisch zu zweifeln.“ Aber Zweifel sind genau das Markenzeichen der Wissenschaft, während Anti-Skeptizismus Pseudowissenschaft ist und die Redefreiheit und eine gesunde Demokratie herausfordert.

Das IPCC wird von vielen als das Orakel des Klimawandels wahrgenommen. Das IPCC ist jedoch eine politische Organisation, die von Politikern ernannt wurde und mit dem Mandat beauftragt ist, Politiker in Bezug auf die „Klimapolitik“ zu beraten, und die Verbindung mit den menschlichen CO2-Emissionen nicht in Zweifel zu stellen. Rupert Darwall hat die Ursprünge des IPCC untersucht. Sein Fazit: Das IPCC ist eine Organisation, die sich selbst überprüft. Politiker üben die Kontrolle über ihre wissenschaftlichen Berichte aus, die untermauert werden müssen und gleichzeitig ein Alibi für politische Entscheidungen sind. Die Schlussfolgerungen der Zusammenfassung für politische Entscheidungsträger [werden durch grüne Aktivisten und Funktionäre vorgegeben, wie von Donna Laframboise ausführlich recherchiert wurde]  richten sich an Politiker und Nachrichtenmedien. Die Wissenschaftler, die den IPCC-Prozess dominieren, verhalten sich daher eher wie Politiker anstatt als unabhängige Wissenschaftler und sind sich sehr wohl bewusst, dass ihre Daten und Schlussfolgerungen gravierende Probleme haben.

Dies wurde von Chris Landsea in einem offenen Brief enthüllt, als er sich aus Protest gegen den Umgang des IPCC mit dem Thema der Statistik von Stürmen, die „auf vorgefertigten Agenden beruht und wissenschaftlich unzuverlässig ist“, aus der Hauptautorenschaft beim IPCC zurückzog. Diese und andere Manipulationen wurden auch aus den durchgesickerten E-Mails des sogenannten Climategate im Jahr 2009 ersichtlich, einem Skandal, der anschließend geschickt unter den Teppich gekehrt wurde.

Politik, Wissenschaft und besondere Interessen vermischen sich so zu einem gefährlichen Cocktail, der zu einem weit verbreiteten Denken und Selbstzensur der Gruppe geführt hat. 154 Regierungen unterzeichneten die Erklärung von Rio im Jahr 1992, in der auf äußerst schwachen wissenschaftlichen Grundlagen behauptet wurde, dass die CO2-Emissionen des Menschen die Ursache der globalen Erwärmung sind. Dies ist der Ursprung einer klimapolitischen Agenda und etwas völlig Unbekanntes: die Schlussfolgerung der wissenschaftlichen Untersuchung wurde vorher festgelegt. Seitdem hat das IPCC zur zunehmenden Politisierung der wissenschaftlichen Disziplin beigetragen. Die gesamte Agenda der Klima- und Energiepolitik basiert auf der Ansicht [dem Dogma] – dass CO2 die Ursache für alles Mögliche ist. Die Überprüfung des Geschehens ist daher eine wichtige soziale Aufgabe, wenn man die aufgeklärte Demokratie stärken will.

Im Folgenden werden einige konkrete Beispiele für Tatsachenbeobachtungen und robuste Forschungsergebnisse angeführt, die für den IPCC unbequem sind und denen sich Politiker und die Öffentlichkeit nicht bewusst sind. Es ist kein Überblick über emotional aufgeladene Briefe, Beiträge zur hitzigen Debatte oder die Auswirkungen des Klimaalarmismus auf Kinder, Enkelkinder und die aussichtslose Zukunft unseres Planeten. Es konzentriert sich stattdessen auf Beobachtungen und Fakten.

 

„Hot Spot“ – menschlicher Fingerabdruck zur globalen Erwärmung!

Im IPCC-Bericht von 2007 wird argumentiert, dass steigende Treibhausgasemissionen die Ursache für die globale Erwärmung sind und dass die Modelle zeigen, dass sich die Erwärmung in einem „Hot Spot“ in einem weiten Bereich über dem Äquator in einer Höhe von 8 bis 12 km manifestieren würde. Es wird angenommen, dass sich aufgrund der erhöhten CO2-Konzentration in der Atmosphäre das Gleichgewicht zwischen kurzwelliger Sonnenstrahlung und der langwellig aus der Erde austretenden Strahlung auf ein höheres Niveau in der Atmosphäre in eine kältere Schicht bewegt. Diese Schicht wird anschließend aufgewärmt, um das Gleichgewicht zu halten. Den Modellen zufolge sollte die Atmosphäre über dem Äquator fast doppelt so schnell erwärmt werden wie die Erdoberfläche, wodurch sich in der oberen Troposphäre ein „Hot Spot“ entwickeln könnte. Wie in Abbildung 1 dargestellt, entspricht die vorhergesagte Erwärmung jedoch nicht der Realität. Daten von Ballonen seit 1958 und von Satelliten seit 1979 zeigen in höheren Lagen einen viel geringeren Temperaturanstieg als auf Bodenhöhe. Was laut IPCC ein deutliches Signal für die besorgniserregende Wirkung der anthropogenen CO2-Emission sein sollte, das zeigt sich nicht.Abbildung 1: Ein entscheidender Punkt in der CO2-Hypothese geht davon aus, dass die Atmosphäre in 8–12 km Höhe über den Tropen etwa doppelt so schnell wie die Bodenoberfläche erwärmt wird und einen „Hot Spot“ erzeugt. Wie in der Abbildung gezeigt, besteht jedoch eine erhebliche Diskrepanz zwischen den Ergebnissen der Klimamodelle des IPCC und der Realität. Quelle: Douglas et al. International Journal of Climatology 2008. Grafiken: O. Humlum.

Fehler und Unsicherheiten in den IPCC-Klimamodellen

Die vom IPCC-Projekt verwendeten Klimamodelle prognostizieren drastische globale Temperaturanstiege, Meeresspiegelanstiege und andere schädliche Auswirkungen in den nächsten 100 Jahren aufgrund der CO2-Emissionen des Menschen. Nach Angaben des IPCC ist der gesamte Temperaturanstieg nach 1970 auf einen erhöhten Treibhauseffekt zurückzuführen, ohne den die Temperatur gesunken wäre. Es ist jedoch eine Pseudo-Wissenschaft, wenn das IPCC behauptet, dass die Klimamodelle richtig sind – die Software-Modelle berücksichtigen die wesentlichen Aspekte des komplexen Klimasystems nicht und stimmen mit den beobachteten Temperaturen nie überein. Konsequenterweise glauben viele Forscher daher, dass natürliche Klimaschwankungen die treibenden Kräfte des globalen Klimawandels [sind und] bleiben.

Um ein Klimamodell als Grundlage für politische Entscheidungen verwenden zu können, muss sichergestellt werden, dass ein Modell alle Hauptfaktoren des komplexen Klimasystems enthält. Wissenschaftler auf der ganzen Welt können jedoch eine lange Liste von physikalischen und chemischen Prozessen bereitstellen, die nicht vollständig verstanden werden und daher in den Klimamodellen entweder weggelassen oder nur unzureichend dargestellt werden. Daher stimmen die Ergebnisse der Klimasimulationen nicht mit den beobachteten Daten überein. Dies gilt zum Beispiel für Cloud-Formationen, die auf räumlicher Ebene stattfinden, was viel zu klein [und damit zu umfangreich] ist, als das selbst Supercomputer damit umgehen können. Dies gilt auch für viele natürliche Schwankungen des Klimasystems über einen langen Zeitraum und für Probleme, die ein so wichtiges Element wie den Strahlungsausgleich der Erde simulieren.

Unsicherheit besteht auch hinsichtlich der Bedeutung der Aerosolkonzentration der Atmosphäre. Diese Staubkörner können die Albedo der Sonnenstrahlung erhöhen und die Erde abkühlen lassen. Aerosole können jedoch auch Wärme von Sonnenstrahlen absorbieren und so die Bildung von Wolken verhindern. Viele dieser Prozesse sind nicht ausreichend quantifiziert und gehören daher zu den größten Herausforderungen für Klimamodellierer. Die Modellbauer selbst sind sich natürlich der Beschränkungen ihrer Modelle bewusst, aber politische Entscheidungsträger und die Öffentlichkeit sind sich dessen nicht bewusst [oder wollen nichts davon wissen].Abbildung 2. Sowohl das Modell von James Hansen als auch das Modell im 3. IPCC-Bericht aus dem Jahr 2001 weichen von den Beobachtungen ab, die durch die grüne Kurve dargestellt werden. Sie zeigt den Trend der globalen Jahrestemperatur 1980–2014 als gleitender Durchschnitt der monatlichen Durchschnittswerte aus den drei am häufigsten verwendeten Datensätzen. Bis etwa 2002 steigt die Temperatur allmählich an, danach hört der globale Temperaturanstieg auf. Quelle: University of Alabama in Huntsville, USA (UAH), Fernerkundungssystem, USA (RSS) und Hadley Center für Klimavorhersagen und -forschung an der Climate Research Unit der University of East Anglia, Großbritannien (HadCRUT).

Abbildung 3. Vergleich zwischen Beobachtungen von Ballonen und Satelliten und dem Durchschnitt der Temperaturabweichung von 102 Klimamodellen ab 1979 bei 5–6 km über den Tropen für den Zeitraum 1979–2016. Die Grafik wurde von Atmosphärenforscher John Christy während einer Anhörung im US-Repräsentantenhaus präsentiert. Quelle: J. R. Christy 2017: Annahmen, politische Implikationen und die wissenschaftliche Methode. Climate Science.

Wie in Abbildung 2 dargestellt, konnte keines der IPCC-Klimamodelle die tatsächlichen globalen Temperaturen projizieren. Eine andere Projektion, die ebenfalls fehlschlägt, ist in Abbildung 3 dargestellt. Sie zeigt eine vereinfachte Version eines Diagramms, das von den US-Atmosphärenforschern J. Christy während einer Anhörung des Senats im Repräsentantenhaus am 29. März 2017 in den Vereinigten Staaten präsentiert wurde und die Gültigkeit der Klimamodelle des IPCC in Frage stellte. Es zeigt eine zunehmende Divergenz zwischen Modellen und Beobachtungen. Keines der IPCC-Klimamodelle hat seit 2000 die „Erwärmungspause“ projiziert.

Ende Teil 1 von 3

Übersetzung durch Andreas Demmig

01.05.2019 Korrektur Tippfehler

 

Eine niederländische Übersetzung der norwegischen Version wurde auf Climategate.nl veröffentlicht:

Open brief Noorse klimaatrealisten aan premier Erna Solberg




Strom aus der Energie der Wellen – keine Garantie auf Erfolg

Eines der neueren Unternehmen, bei dem es nicht so gut läuft, ist Ocean Power Technologies, Inc. (OPT) aus Monroe Township, New Jersey, USA. Laut seiner Website (https://oceanpowertechnologies.gcs-web.com/ ) ist es „ein Pionier der erneuerbaren Wellenenergietechnologie, die Energie der Meereswellen in Elektrizität umwandelt „, und sie halten mehrere Patente, um dies nachzuweisen.

OPT wurde vor mehr als zwanzig Jahren gegründet. Im Jahr 2007 wurden seine Aktien an der NASDAQ-Börse gehandelt, bereinigt nach mehreren Aktienkonsolidierungen (1 neue gegen 10 alte Aktien) in der Nähe von 4.000 USD je Aktie. Im Moment erhalten Sie diese für weniger 3 Dollar pro Stück, eine heißer Investitionstipp? – siehe Firmenseite (Link oben)

Schauen wir uns die verschiedenen Grundideen an, um die Kraft des Ozeans zu nutzen

Energie aus Ozeanwellen

Dies ist wahrscheinlich der häufigste Versuch zur Energiegewinnung aus den Ozeanen. Schließlich kommen fast immer und überall kleine Wellen (0,5 m) an jedem Ufer an. Es wurden verschiedene stationäre (fest auf dem Boden platzierte) und schwimmende Konstruktionen vorgeschlagen. Zum Beispiel Pelamis Wave Power- die Idee von großen, teilweise wassergefüllten, länglichen Tanks, bei der das interne Hin- und Herschwappen des Wassers (wie Ihr Kind Wellen in der Badewanne macht) eine interne Turbine antreiben würde. Es hat nicht geklappt und die Firma hat dicht gemacht.

Zu den OPT-Ideen gehören auch schwimmende Vorrichtungen in Form von unten verankerten Bojen. Ihre technischen Spezifikationen geben eigentlich keine Details darüber an, wie die Wellenenergie in Elektrizität umgewandelt werden soll.

Ein anderes, stationäres Konzept wurde vom Projekt SeWave Wave Farm in Nípanin, Färöer, ins Auge gefasst. Das (steigende) Wasser sollte einen festen Luftraum im Gestein an Land komprimieren, der eine Luftturbine antreiben würde. Es sollte bis 2010 eingerichtet sein. Seitdem ist nichts mehr davon gehört worden.

Die gleiche Idee wurde im Jahr 2000 gebaut, war das Islay LIMPET , das damals das erste kommerzielle Wellenkraftgerät der Welt war, 2002 wurde über die ersten Ergebnisse berichtet. 2012 wurde die Anlage stillgesetzt und bis 2018 ist fast alles abgebaut worden.

Leistung aus dem Salzgehalt des Wassers (Osmose)

Diese Idee stützt sich auf das seit langem anerkannte Konzept der Osmose, bei dem es sich um den natürlichen Prozess der Gleichgewichtseinstellung des Salzgehalts zwischen Wasser mit niedrigem Salzgehalt (Süßwasser) und hohem Salzgehalt (Salzwasser) handelt. Es erfordert beide Wasserqualitäten in ähnlichen Mengen als auch eine semipermeable Membran, durch die Wassermoleküle hindurchtreten können, nicht jedoch die Salzionen. Es wurde vor einigen Jahren in einer Pilotanlage in Norwegen getestet. In einer Laborumgebung mit sauberem Wasser kann dies gut funktionieren, mit echtem Meerwasser jedoch nicht. Die winzigen Membranporen verstopfen sich leicht mit anderen Materialien, und das System erwies sich als nicht wirtschaftlich.

Energie aus Gezeitenströmungen

Das Cape Sharp Tidal (CST) -Unternehmen hat im Jahr 2016 mit großem Fleiß seine „lang erwartete“ Unterwasser-Testturbine in der Bay of Fundy lanciert. Die Bucht  von Fundy im kanadischen Neuschottland (Nova Scotia) gehört zu den Stränden mit den höchsten Veränderungen des Gezeitenniveaus der Welt und hat daher auch starke Gezeitenströmungen. [15 m werden hier angegeben!] Das Projekt baute eine große Unterwasserturbine, die die Gezeitenströmungen in elektrische Energie umwandeln sollte.

Die Euphorie hielt nicht lange an. Ende 2018 hat CST das Ende der „Fahnenstange“ erreicht (CST im Miteigentum von Nova Scotias Emera Inc. (EI), und der irischen Firma OpenHydro Ltd. (OH), einer Tochtergesellschaft der französischen Co. Naval Energies (NE)). Sowohl CST als auch OH haben Insolvenz angemeldet.

Es hat mich nicht überrascht. Die große Unterwasserturbine, die etwas vor der Küste liegt, wo die Bucht etwa 500 m oder mehr breit ist, konnte unmöglich die erwartete Leistung liefern. Die Wellen hatten viel Platz, um „um das Hindernis“ der Turbine zu fließen, ohne viel Kraft zu erzeugen.

Kraft aus den Gezeiten

Es gibt einige bekannte Gezeitenkraftwerke, die tatsächlich funktionieren. Sie befinden sich in Kanada , Frankreich, Südkorea und Großbritannien . Alle haben große Barrieren, durch die die ankommende Flut den Wasserstand hinter der Barriere anheben kann und bei Ebbe treibt das rückfließende Wasser normale Turbinen an. Sie arbeiten im Wesentlichen auf dieselbe Weise wie jedes Speicherwerk, das die Energie der verschiedenen Wasserspiegel im Aufwärtsbecken und den unteren Abgabepunkt verwendet.

Trotzdem haben solche Systeme auch ihre Einschränkungen und andere Probleme. Eine Einschränkung ist die nahezu konstante Änderung der Gezeiten. Die Zeitfenster um das „Hoch“ (um das Reservoir zu füllen) und um die „Ebbe“ (um Energie durch Entleeren zu erzeugen), in denen die meiste Energie vorhanden ist, ist recht kurz. Dann beeinträchtigen solche Strukturen andere Aktivitäten, wie den Seeverkehr in einen Hafen und einen gesunden Bereich, in dem Fische nach Futter oder Laich suchen. Darüber hinaus können gelegentlich Buckelwale und möglicherweise “ Treibgut und Jetsam “ Probleme verursachen. [Jetsam, absichtlich abgeworfener Ballast]

Zusammenfassung

Die Kraft des Ozeans ist nicht leicht zu nutzen. Bisher gibt es nur wenige Gezeitenkraftwerke, die tatsächlich eine vernünftige Menge an elektrischer Energie erzeugen – in vorhersagbaren Intervallen. Alle Versuche, aus Wellen und Strömungen eine konstante Stromerzeugung zu erhalten, haben die Versprechungen nicht halten können. Natürlich sind Windkraftanlagen nicht viel anders.

Die Gründe sind seit langem bekannt.

Wie bereits 2006 auf einer britischen Regierungsseite zu lesen ist:

Das Hauptproblem der Wellenkraft ist, dass das Meer eine sehr raue, unnachgiebige Umgebung ist. Eine wirtschaftlich rentable Wellenkraftmaschine muss Strom über einen breiten Wellenlängenbereich erzeugen und den größten und schwersten Stürmen sowie anderen potenziellen Problemen wie Algen, Seepocken und Korrosion standhalten können.

Aber geben Sie Ihre „Free Ocean Energy“ -Träume noch nicht auf – es gibt noch viel Steuergeld, um sie zu fördern.

Gefunden auf Canada Free Press vom 13.04.2019

Übersetzt durch Andreas Demmig

https://canadafreepress.com/print_friendly/ocean-power-generating-systems-going-nowhere-fast

Dr. Klaus LE Kaiser ist Autor von CONVENIENT MYTHS, der Grünen Revolution – Wahrnehmungen, Politik und Fakten Komfortable Mythen




Schwarze Zukunft – unberechenbare Erneuerbare erhöhen die Anzahl und Dauer der Stromabschaltungen

Das dortige Stromnetz arbeitet in den letzten Jahren immer am Rande des Zusammenbruchs.

Aber es ist nicht einzigartig für Südaustralien. Jeder Landstrich, der versucht, seinen Strom mit Sonnenschein und Wind zu erzeugen, hat große Schwierigkeiten, das Stromversorgungssystem vor dem Zusammenbruch zu schützen.

Es sei daran erinnert, dass es nicht Ingenieure waren, die Windmühlen und Sonnenkollektoren forderten; das kam von schwachsinnigen Politikern, die den Wählerstimmen von klimabesessenen, innerstädtischen Grünen nachjagten. Während die Ingenieure das Problem nicht verursacht haben, bleibt es ihnen überlassen, sich dem Chaos anzunehmen und zu versuchen, „die Lichter eingeschaltet zu lassen“ (soweit möglich).

Wie bei jedem technischem-Problem lohnt es sich, genauer hinzusehen, so wie für uns David Watson im folgenden Artikel. Er ist diplomierter Elektroingenieur und war vor seiner Pensionierung Manager bei Foster Wheeler Energy in Glasgow.

 

Bei Marktversagen könnte Großbritannien fünf Tage lang unter Stromausfall leiden.

Engineering & Technology, David Watson, 11. März 2019

Die heutige Strom-Infrastruktur, die von kommerziellen Kräften sehr beeinflusst ist, wird schwer zu handhaben sein, wenn die Dinge ernsthaft schief gehen.

Selbst in den Industrieländern des 21. Jahrhunderts ist der Ausfall von Stromnetzen, wie er in den letzten Jahren in Teilen Australiens beobachtet wurde, nicht ungewöhnlich. In Großbritannien steigt das Risiko eines Totalausfalls oder einer erheblichen teilweisen Abschaltung des Übertragungsnetzes.

Die Zunahme von erneuerbaren Energien am Netz macht ein Versagen wahrscheinlicher. Durch das Wachstum von Windparks entstehen Frequenz-Regelungsprobleme, die auf eine verringerte Trägheit des Systems zurückzuführen sind, während eine Verringerung der Netzwerkstärke längere, stabilitätsgefährdende Fehlerbeseitigungszeiten verursachen kann. Dann gibt es die Herausforderungen, das Angebot [unterbrechungsfrei] an die Nachfrage anzupassen, nachdem plötzliche Schwankungen bei der Windstromerzeugung auftreten und Eingangsschwankungen der europäischen Verbindungsleitungen weniger als eine Stunde vorher bekannt gegeben wurden. Andere Risikofaktoren sind ein Ausfall der Netzstation, Blitzeinschläge in oder Ausfälle von Überlandleitungen und Cyberangriffe.

Für das Wiederherstellen des Netzes nach einem weitreichenden Zusammenbruch wird ein als „Schwarz-Start“ bezeichneter Prozess gestartet, unter Berücksichtigung der im Plan bestimmten Reihenfolge der verschiedenen Bereiche im Vereinigten Königreich. In der Lage zu sein, das Stromnetz und die Stromversorgung im Land schnell wieder herstellen zu können – Priorität der öffentlichen Gesundheitseinrichtungen kann zu Recht erwartet werden – aber in Schottland und wahrscheinlich in London ist dies nicht realisierbar. Die Wiederherstellung der Netzwerke würde mehrere Tage dauern. Das Problem ist so ernst geworden, dass es die Aufmerksamkeit des staatlichen Ausschusses für zivile Notfälle „Cobra civil contingencies committee“ auf sich gezogen hat.

Die professionelle Erwartung an die Dauer bis zur Rückkehr der Stromversorgung in Schottland ist inzwischen, wie mir gesagt wurde, auf fünf Tage gestiegen, was hauptsächlich darauf zurückzuführen ist, dass großräumige, disponierbare und bedarfsgesteuerte Erzeugung von Strom durch zeitweilig verteilte erneuerbare Energien ersetzt wurde. In London wurde eine ähnliche progressive Reduzierung verzeichnet, und der [wieder Auf-] Ladevorgang wird auch länger dauern, da ein Großteil des Hochspannungsnetzes Kabel und keine Freileitungsübertragung verwendet.

[Nur an meine Nicht-Elektrotechnischen Leser – die Elektrotechniker kennen das:  Ein Kabel muss sich nach dem Einschalten (anlegen von Spannung) erst aufladen. Vergleichsbeispiel: Ein langer Gartenschlauch muss nach dem Wasser-aufdrehen erst volllaufen, bevor hinten etwas rauskommt. Bei richtig langen Stromversorgungskabeln kann das eine Zeitlang dauern und es ist auch nennenswerte Energie. Umgekehrt dauert es eine Zeitlang nach dem Abschalten, bis das Kabel keine Spannung (Energie) mehr hat. Wenn es wichtig ist, wird gezielt „entladen“. Diese „Energie im Kabel“ kann aber als Speicher nicht genutzt werden. Denken Sie wiederum an den Gartenschlauch, wenn sie den Hahn zudrehen. Freileitungen benötigen aufgrund anderer physikalischer Eigenschaften weniger „Füllung“.

Das Thema greife ich demnächst mit auf, Demmig.]

Die Schottische Arbeitsgruppe zur Wiederherstellung der Energieversorgung nach einem Schwarz-Start, hat ihre Prozeduren im September 2018 überprüft. Diese basieren auf lokalen gemeinsamen Wiederherstellungsplänen, bei denen die Übertragungsbetreiber die lokalen Übertragungsinseln [gemeint ist z.B. die Versorgungseinheit eines Stadtteils sein] hochfahren und stabilisieren, die dann synchronisiert [alle im Gleichtakt des Wechselstromes] und schrittweise miteinander verbunden werden müssen.

Der Bericht der Gruppe warnt davor, dass es nach der Schließung des Kohlekraftwerks Longannet [es wurde gesprengt] in Fife im Jahr 2016, zu erheblichen Verzögerungen bei der Wiederherstellung der Stromversorgung kommen wird. Das Peterhead Gaskraftwerk, jetzt Schottlands einziges hochleistungsfähiges und mit hoher Trägheit (unverzichtbar für die Frequenzstabilisierung da rotierende Generatoren mit hoher Schwungmasse) einsetzbares Kraftwerk, bittet um eine Genehmigung zur Installation von 31 Dieselgeneratoren, die sieben Tage lang volle Leistung bringen können, um den Wiederanlauf sicherzustellen. Das Gaskraftwerk hat jedoch nur die Hälfte der Kapazität von Longannet und kann nicht ganz Schottland neu starten, ohne die Kapazitäten der Pumpspeicherwerke bei Cruachan und Foyers und, ganz entscheidend, aus England, zu verwenden – eine bislang noch nicht getestete Kombination.

Windparks können das Netz nicht hochfahren. Die verwendeten Generatortypen benötigen externe Energie, um mit der Stromerzeugung zu beginnen. Einige neuere Konstruktionen sind selbststartend, aber die Verbindung zu einem toten Netz über lange (Offshore-) Wechselstrom-Kabelverbindungen bleibt ein ungelöstes Problem, da die Generatoren nicht genug Blindleistung bereitstellen können, um tatsächlich große Kabelstrecken aufzuladen. In jedem Fall sind sie nicht in der Lage, die Anforderungen des National Grid für Hochfahren des Speiseabschnittes, Regelung der Netzspannung oder Frequenzsteuerung zu erfüllen.

Die erste lokale gemeinsame Netzwiederherstellungsaktivität besteht darin, die gesamte Offshore-Erzeugung abzuschalten. Onshore-Windparks können nach Wiederherstellung des Netzes schrittweise wieder eingetaktet werden, jedoch nur, wenn sie nicht stromlos [in ihren Regelkreisen] sind und der Wind weht. Die beiden schottischen Kernkraftwerke Hunterston und Torness können nur in ein stabiles Netz eingebunden werden, was mehrere Tage dauert.

Die neuen HGÜ-Verbindungen [Hochspannungs-Gleichstrom-Übertragungsleitungen] im Wert von 2,4 Mrd. GBP von Wales in die Gegend von Hunterston und von Moray Firth nach Spittal wurden nicht für den Schwarzstart konzipiert, da sie nicht die neueste 4-Quadranten-Umwandlungstechnologie (VSC) enthalten und nicht in ein totes Netz liefern [kommutieren ~Betrieb der Leistungshalbleiter] können. Schottland steht jetzt buchstäblich am Ende der Leitung [Versorgungsnetz], und ein notwendiger  Wiederanlauf würde erst gelingen, wenn das Netz im Norden Englands wiederhergestellt worden wäre. In ähnlicher Weise können für London die beiden HGÜ-Verbindungsleitungen nach Frankreich und in die Niederlande keinen Schwarzstart unterstützen.

National Grid bestätigte im Jahr 2016, dass die Wiederanlaufstrategie „angepasst werden muss“, da „Systemstärke und die Anzahl der Schwarz-Start-[geeigneten] Anbieter sinken“ und dass die Kosten für den Schwarz-Start „in den nächsten 10 Jahren um einen Faktor 7-10 ansteigen wird“. Während National Grid, wie Ofgem [Amt für Gas- und Elektrizitätsmärkte], die Bereitstellung von bis zu sieben neuen VSC-Verbindungsleitungen zwischen Großbritannien und dem europäischen Festland begünstigt, sind diese noch nicht gebaut, und die Verfügbarkeit von Strom hängt von den Marktbedingungen ab. Großbritannien ist ein Nettoimporteur von Elektrizität. Und außerdem gibt es den Brexit…

Die Situation ist eindeutig unhaltbar. Es zeigt beispielhaft die Notwendigkeit einer ordnungsgemäßen Steuerung des britischen Elektrizitätssystems, um die derzeit unterschiedliche, gewinnorientierte Schwächung des Netzes, die der „Markt“ verursacht hat, zu ersetzen.

Einige der technisch orientierten Institutionen plädieren für Veränderungen, darunter das IET – Institution of Engineering and Technology, das IMechE: Institution of Mechanical Engineers und die IESIS Institution of Engineers and Shipbuilders in Scotland. Wir müssen gehört werden.

Engineering and Technology

 

Gefunden auf Stopthesethings vom 10.04.2019

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2019/04/10/all-black-future-intermittent-renewables-chaos-means-longer-blackouts-much-more-often/




“Peak Oil” nach Venezuela-Art!

Und Venezuelas Wirtschaft ist fast ausschließlich von den Einnahmen aus Ölexporten abhängig. Als Hugo Chávez sein Amt antrat, produzierte Venezuela täglich fast 3,5 Millionen Barrel Öl (bbl / d). Bis 2015 waren es rund 2,4 Millionen Barrel / Tag und im März unter 1 Million Barrel / Tag.

Wie konnte das passieren? In gewisser Weise ist es ein Déjà Vu, die Wiederholung von schon mal erlebten. Robert Rapier schrieb eine schöne Zusammenfassung in diesem Forbes- Artikel:

Die Ölproduktion Venezuelas erreichte 1970 einen historischen Höchststand, als das Land 3,8 Millionen Barrel pro Tag (BPD) produzierte. 1971 verstaatlichte Venezuela seine Erdgasindustrie und begann mit der Verstaatlichung seiner Erdölindustrie. Die Erdölindustrie wurde 1976 offiziell verstaatlicht. Damals wurde die staatseigene venezolanische Ölgesellschaft Petróleos de Venezuela SA (PDVSA) gegründet.

Zwischen 1970 und 1985 ging die Ölproduktion in Venezuela um über 50% zurück. Aber dann begann die Produktion wieder anzusteigen. Im Jahr 1997, als es darum ging, ausländische Investitionen anzuziehen und das Schweröl im Orinoco-Gürtel zu fördern, öffnete Venezuela seine Ölindustrie für ausländische Investitionen.

Bis 1998 hatte sich die Erdölproduktion Venezuelas auf 3,5 Millionen BPD erholt und fast ihren bisherigen Höchststand erreicht. Im Jahr 1999 begann Hugo Chávez als Präsident von Venezuela. Während des Generalstreiks in Venezuela 2002–2003 entließ Chávez 19.000 PDVSA-Angestellte und ersetzte sie durch Angestellte, die seiner Regierung gegenüber loyal waren.

[PDVSA Petróleos de Venezuela S.A. ist die größte Erdölgesellschaft Lateinamerikas und Venezuelas größter Exporteur. Sie wurde 1976 im Zuge der Verstaatlichung der Erdölindustrie des Landes gegründet und unter dem Kürzel Petroven bekannt.]

[…]

Im Jahr 2007 stiegen die Ölpreise, und die Regierung von Chávez suchte ihre [eigenen] Einnahmen zu erhöhen, als sich die Investitionen der internationalen Ölfirmen auszuzahlen begannen. Venezuela forderte Änderungen der mit den internationalen Mineralölgesellschaften getroffenen Vereinbarungen, um PDVSA die Mehrheit der Projekte zu übertragen [~an sich zu reißen].

ExxonMobil und ConocoPhillips lehnten dies ab, und ihre Vermögenswerte wurden enteignet. (Diese Enteignungen wurden später als illegal eingestuft und beide Unternehmen erhielten eine Entschädigung).

Forbes

Eingesetzte Hinweise: Robert Rapier, Datenquelle BP Statistik 2018

Um es mit Margaret Thatcher zu sagen: „Der Sozialismus funktioniert nur solange, bis das Geld anderer Menschen ausgeht.“ Durch die Ersetzung der qualifizierten Arbeitskräfte von PDVSA durch politische Kumpane und die Vertreibung von ausländischem Fachwissen und Kapital aus Venezuela blieb viel schweres Öl „zurück“, was schwierig zu fördern ist und die Mittel wurden weniger, um es zu verarbeiten. Aber es dauerte noch bis zum Januar 2019, dass die Produktion auf nur noch rund 1,2 Mio. Barrel / Tag sank. Danach war der Bodensatz erreicht. [nein, siehe Nachsatz am Ende]

Quelle US EIA, Einfügung Robert Rapier: „USA verhängte harte Sanktionen gegen PDVSA“

Die Naptha-Klippe!

Die US-Sanktionen gegen PDVSA behinderten in zwei Punkten:

  1. Ihr Exportkunde Nr. 1 [USA] fiel aus
  2. Das Naptha und andere Verdünnungsmittel, die zum Transportieren des schweren Rohöls erforderlich sind.

Dieser „Doppelschlag“ hatte in weniger als einem Monat gravierende Auswirkungen…

Die Sanktionen der USA sind ein Doppelschlag für Venezuela.

Die Vereinigten Staaten war nicht nur der Nummer Nr. 1 Kunde von Venezuela, sondern auch die wichtigste Naphtha-Quelle des Landes, das flüssige Kohlenwasserstoffgemisch, das zur Verdünnung von Rohöl verwendet wird. Ohne sie kann Venezuelas schweres Rohöl nicht ohne weiteres transportiert werden. Rystad Energy prognostiziert, dass bei einigen Betreibern in Venezuela das Verdünnungsmittel bis März aufgebraucht sein wird.

CNN

Tut mir leid, Peak Oilers… Venezuela ist vielleicht schon als Nation von der Seneca Klippe [… ist ein mathematisches Modell für Ökonomie] in die Olduvai-Schlucht gesprungen; aber es hat nichts mit Peak Oil zu tun. Venezuelas Ölproduktion wird sich schließlich erholen.

[Die Olduvai-Schlucht ist eine Schlucht im Norden Tansanias. Sie gilt – gemeinsam mit dem Afar-Dreieck in Äthiopien und Fundplätzen in der südafrikanischen Provinz Gauteng – als die „Wiege der Menschheit“. International bekannt wurde die Schlucht durch den Fund zahlreicher pleistozäner Fossilien von Menschenaffen.]

Das „Low Case“ -Szenario von Rystad Energy führt nach Schätzungen dazu, dass die Ölproduktion Venezuelas in diesem Jahr auf 800.000 Barrel / Tag und im nächsten Jahr auf 680.000 Barrel / Tag zurückgeht, bevor sie sich erholt. Die Erholung wird trotz Regimewechsel nur langsam vor sich gehen, aber sie wird geschehen…

Rystad_Energy_Ucube-080219-venezuela-crude-production-base-high-low-cases-1

** Kurzfristig: Die Produktion wird ihren Abwärtstrend verlangsamen. [Die Öl-Sand-] Felder im Orinoco-Gürtel, [mit den größten Erdölvorkommen der Welt], die derzeit unterhalb ihrer Kapazität arbeiten, können relativ leicht verjüngt werden. Weitere Produktionssteigerungen werden viel komplizierter, da die reifen Felder ihren natürlichen Produktionsrückgang erreicht haben und einer großen Anzahl von Bohrungen erheblicher Schaden zugefügt wurde.

** Mittelfristig: Die Verbesserung von Produktionsrückgängen und Schäden an den reifen Feldern – die den größten Beitrag zur Produktion der venezolanischen Produktion von mehr als 2 Millionen Bpd leisteten – wird technisch und finanziell eine große Herausforderung darstellen. Um die Produktion zu steigern, muss Venezuela die Felder im Orinoco-Gürtel weiter ausbauen.

** Langfristig: Rystad Energy erwartet kein massives Wachstum, sieht jedoch ein erhebliches Aufwärtspotenzial im Laufe der Zeit. Venezuela sitzt auf massiven nachgewiesenen Reserven. Die Kostenstruktur ist relativ niedrig und das Explorationsrisiko ist minimal. Darüber hinaus sind die [Verarbeitung der] Ölsande des Orinoco Belt durch das wärmere Klima Venezuelas. weniger energieintensiv als die Ölsande in Kanada. Dies bedeutet, dass weniger Energie erforderlich ist, um das schwere Rohöl ausfließen zu lassen. Schließlich erwarten wir, dass trotz der möglichen CO2-Vorschriften und der IMO 2020-Beschränkungen für Schiffstreibstoffe, die Nachfrage nach Schweröl hoch bleiben wird, da komplexe Raffinerien wie die in den USA, diese Art von Rohöl umweltgerecht verarbeiten können.

Rystad Energy

Es könnte verlockend sein, sich eine Grafik wie diese anzusehen und zu folgern, dass sich eine „Peak Oil“ Seneca Klippe wie aus dem Nichts gebildet haben könnte.

Quelle H/T Javier

Wenn Sie sich jedoch die größere Grafik betrachten …

BP and Restuccia- 2018_venezuela_2

Venezuelas Öl Produktion 1920-2017 (millions of bbl/yr and thousands of bbl/d).

Die „Seneca Klippe“ erweist sich eher als eine Hubbert-Kurve. Peak Oil ist echt. Irgendwann wird die weltweite Erdölproduktion ihren Höhepunkt erreichen und dann wird sie langsam zurückgehen… Aber sie wird nicht von einer Seneca-Klippe in die Olduvai-Schlucht fallen.

[Die Hubbert-Kurve ist eine Annäherung an die Produktionsrate einer Ressource über die Zeit. Es handelt sich um eine symmetrische logistische Verteilungskurve, die oft mit der „normalen“ Gaußschen Funktion verwechselt wird. Wikipedia (Englisch)]

BP _ Global petroleum production 2018

Mineralölproduktion (einschließlich Rohöl, Kondensat, Ölschiefer, Ölsand und NGL). USA in Rot, Venezuela in Gelb.

 

References

Egan, Matt. “How US Sanctions on Venezuela Are Rippling through Oil Markets.” CNN, Cable News Network, 19 Feb. 2019, www.cnn.com/2019/02/19/investing/venezuela-oil-sanctions-pdvsa/index.html.

Hubbert, M. King. “Nuclear Energy and the Fossil Fuels. Presented before the Spring Meeting of the Southern District, Division of Production, American Petroleum Institute, San Antonio, Texas, March 7-8-9, 1956.” Nuclear Energy and the Fossil Fuels. Presented before the Spring Meeting of the Southern District, Division of Production, American Petroleum Institute, San Antonio, Texas, March 7-8-9, 1956, 1956. https://debunkhouse.files.wordpress.com/2017/03/1956_hubbert.pdf

Peak Oil. “The Seneca Cliff of Oil Production”. Exploring Hydrocarbon Depletion. June 7, 2016. https://peakoil.com/production/the-seneca-cliff-of-oil-production

“Peak Oil And The Olduvai Gorge.” Peak Oil And The Olduvai Gorge  |  Peak Oil News and Message Boards, peakoil.com/generalideas/peak-oil-and-the-olduvai-gorge.

Rapier, Robert. “Charting The Decline Of Venezuela’s Oil Industry.” Forbes, Forbes Magazine, 5 Feb. 2019, www.forbes.com/sites/rrapier/2019/01/29/charting-the-decline-of-venezuelas-oil-industry/#1be7ec664ecd.

Restuccia, Diego. “The Monetary and Fiscal History of Venezuela: 1960–2016.” SSRN Electronic Journal, 2018, doi:10.2139/ssrn.3237748. https://www.economics.utoronto.ca/diegor/research/MFHLA_paper.pdf

“Short-Term Energy Outlook > International Petroleum and Other Liquids > Supply > OPEC.” U.S. Energy Information Administration (EIA) – Qb, www.eia.gov/opendata/qb.php?category=1039874.

“Statistical Review of World Energy | Energy Economics | Home.” BP Global, www.bp.com/en/global/corporate/energy-economics/statistical-review-of-world-energy.html.

“Venezuela-Related Sanctions.” U.S. Department of State, U.S. Department of State, www.state.gov/e/eb/tfs/spi/venezuela/.

“Venezuela Update: Production Could Fall below 700,000 Bpd by 2020.” Rystad Energy, www.rystadenergy.com/newsevents/news/press-releases/Venezuela-update-Production-could-fall-below-700000-bpd-by-2020/.

Gefunden auf WUWT vom 11.04.2019

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2019/04/11/la-cumbre-del-petroleo-venezuela-style/

¡La cumbre del petróleo! Venezuela-Stil!

 

Nachsatz:

Auf der Webseite der PDVSA ist von einem Sabotageakt gegen die Stromversorgung die Rede (Wasserkraftzentrale „Simón Bolívar“ im Bundesstaat Bolívar, speziell im El Guri-Staudamm). … „Durch unermüdlichen Einsatz der Mitarbeiter kann die Produktion von 165.000 Barrel pro Tag gehalten / erreicht werden.“ ist im weiteren Text zu lesen.

PDVSA Ölproduktion – Sabotage

Weitere Informationen habe ich nicht gesucht.