Der Kreuzzug gegen das normale Leben

In New York State, welcher mit Kalifornien im Wettbewerb steht, das umweltlich extremste Nirwana auf der Erde zu sein, sind Gesetze erlassen worden, die verbieten, mehr als 25 Latex-Ballone innerhalb von 24 Stunden steigen zu lassen.

Mindestens fünf weitere US-Staaten verbieten Ballonaufstiege, darunter – dreimal darf geraten werden – Kalifornien.

Das Verbot derartiger Ballone wäre ein weiterer Schritt zum „Schutz unseres Planeten“, sagt einer der Befürworter des Gesetzes, primär in Gestalt des Schutzes von Vögeln, welche sich in den Schnüren verheddern oder das Latex fressen könnten.

Vögel zu schützen ist mit Sicherheit wünschenswert, aber ein Verbot von Ballonaufstiegen, so es sich überhaupt durchsetzen lässt, dürfte kaum die Auswirkungen von Windrädern kompensieren, die schon jetzt Vögel zu Tausenden töten. CFACT hat wiederholt während der letzten Jahre darüber berichtet, wie Windturbinen bis zu 39 Millionen Vögel jährlich töten. Diese Schande wurde ebenfalls seitens der Industrie und von Interessengruppen heruntergespielt, welche sich bemühen, Windenergie als eine Quelle erneuerbarer Energie immer mehr auszuweiten.

Opfer der Windturbinen werden nicht nur geflügelte Geschöpfe. Offshore-Windturbinen fordern ihren Tribut von Walen.

Die Regierung von New York State befindet sich mitten in der Förderung von Windenergie zur Stromerzeugung. Die Energiebehörde des Staates hat soeben einen Mega-Vertrag mit Sunrise Wind unterzeichnet, einen Offshore-Windpark vor der Küste von Long Island zu errichten.

Falls der Gesetzgeber in New York damit Erfolg hat, eine Handvoll Vögel davor zu retten, Latex-Ballone zu fressen, die anlässlich von Hochzeiten oder Kindergeburtstagen aufgelassen werden, dürfte den Vögeln kaum ein längeres Leben beschieden sein, werden sie doch geschreddert durch die wuchernden Windturbinen des Staates [unübersetzbares Wortspiel: Die Vögel werden sliced and diced. Anm. d. Übers.]

Während New York danach trachtet, dem Beispiel einer kleinen Anzahl von US-Staaten zu folgen und Ballone zu unterbinden, verbieten viele lokale Behörden in den gesamten USA Drive Ins an Schnellrestaurants, wobei die Stadt Minneapolis das jüngste Beispiel ist. Damit will man zweierlei erreichen: Verhinderung von Automobil-Emissionen und die Leute davon abzuhalten, Fast Food zu verzehren und Adipositas zu verhindern.

Forschungen aus dem Jahr 2015 bei Schnellrestaurants in Los Angeles enthüllten die Narretei derartiger Bemühungen, welche nicht die geringste Auswirkung auf die Gesundheit zeitigte. Mit oder ohne diese Einrichtungen nehmen die Menschen Fast Food zu sich, wenn sie das wollen, was besonders für Haushalte mit geringem Einkommen gilt, die nicht so oft ein teureres Restaurant aufsuchen. Das Fehlen würde außerdem ältere Personen und Menschen mit Behinderungen benachteiligen, für welche das Verlassen ihrer Autos mühsam ist.

Bevor man eine Politik umsetzt, welche Ältere, Behinderte oder Ärmere Kunden von Schnellrestaurants benachteiligen, sollten die Befürworter derartiger Verbote zumindest verpflichtet werden, die Vorteile dieser Verbote zu belegen. Natürlich können sie das nicht. Stattdessen verbreiten sie typischerweise gut klingende Klang-Häppchen über reduzierte Emissionen und Kampf gegen Fettleibigkeit, obwohl nichts dergleichen zu erkennen ist.

Unabhängig von Fakten oder Belegen, die Umwelt- und Fast-Food-Extremisten werden fortfahren den Amerikanern einzureden, wie sie leben sollen und wie nicht. Und das alles im Interesse ihrer Doktrin, die da lautet, die vom Menschen verursachte globale Erwärmung zu beenden, um die Erde nicht in ein paar Jahren, Jahrzehnten oder Jahrhunderten in Flammen aufgehen zu lassen.

Staaten und Behörden haben Papier-Belege, Plastikhalme, Styropor-Becher und -Behältnisse verboten – und nicht zu vergessen Plastiktüten. Hier wird es aber nicht aufhören. Der Green New Deal, gesponsert von so vielen nationalen und lokalen Politikern, ist darauf aus, eines Tages Verbrennungs-Motoren zu verbieten ebenso wie den Verbrauch von Öl, Gas und Kernkraft.

Dieser moralische Kreuzzug, um unsere Wahlmöglichkeiten als Verbraucher bzw. unseren Lebensstil zu beeinträchtigen, wird weitergehen auf immer höheren Ebenen. Das große Ziel dieser Bemühungen sind, wie so viel Anderes im Leben, Macht und Kontrolle. Der unstillbare Drang, andere zu kontrollieren mittels eines dummen Vorschlags nach dem Anderen wird niemals nachlassen – bis die Menschen rufen „es reicht!“. Dann hört es vielleicht auf.

[Nun ja, in Frankreich, Brasilien und Chile haben die Menschen bereits gerufen! Anm. d. Übers.]

Autor

CFACT, founded in 1985 by Craig Rucker and the late (truly great) David Rothbard, examines the relationship between human freedom, and issues of energy, environment, climate, economics, civil rights and more.

Link: https://www.cfact.org/2019/10/28/the-crusade-to-curb-ordinary-life/




Die wirkliche Klima-Krise ist nicht globale Erwärmung, sondern Abkühlung – und sie könnte schon begonnen haben

[Bemerkung: Alle der zahlreichen Hervorhebungen in diesem Beitrag sind aus dem Original übernommen! Anm. d. Übers.]

Die widerlegte CAGW-Hypothese ging davon aus, dass der gestiegene atmosphärische CO2-Gehalt durch die Verbrennung fossiler Treibstoffe eine gefährliche runaway-globale Erwärmung auslöst. Die vermeintlichen Beweise für diesen Betrug sind lediglich Klima-Computermodelle, welche die gegenwärtige gemessene Erwärmung drastisch übertreiben, im Mittel um 300% bis 500%. In diese Klimamodelle gehen absichtlich viel zu hohe Werte der Klima-Sensitivität von CO2 ein, und sie sind so programmiert, dass sie falschen Alarm geben.

Seit Mitte der 1990er Jahre hat sich die globale Erwärmung verlangsamt, so dass die Klima-Alarmisten jetzt behaupteten, dass der gestiegene atmosphärische CO2-Gehalt zu extremerem und chaotischerem Wetter führen werde. Es gibt aber vielfache Beweise, dass diese Behauptung ebenfalls falsch ist (hier). In Wirklichkeit ist das Wetter weniger chaotisch geworden (hier).

Der Betrug ist reichlich belegt durch den Mann’schen Hockeyschläger (MBH98 etc.), die Klimagate-E-Mails, willkürliche Veränderungen historischer Temperaturaufzeichnungen und nicht zuletzt durch das aggressive Vorgehen der Klima-Extremisten.

All das sind hinreichende Beweise dafür, dass die/der durch CO2 verursachte globale Erwärmung/Klimawandel eine falsche Krise ist.

In früheren geologischen Epochen waren die atmosphärischen CO2-Konzentrationen sehr viel höher als heute, und zu einer runaway-globalen Erwärmung ist es während der Milliarden Jahre der Erdgeschichte niemals gekommen. Es gab geologische Epochen, während derer es viel wärmer und auch viel kälter war als heute. Die Erde befindet sich derzeit in einer glazialen Epoche. In einer solchen überdecken Kilometer dicke Eisschilde den Planeten etwa 100.000 Jahre lang. Sie wird von Zwischeneiszeiten unterbrochen, die jeweils etwa 10.000 Jahre dauern. Derzeit befindet sich die Erde in einer warmen Zwischeneiszeit, aber die letzte Vereisung endete schon vor 10.000 Jahren. Daraus lässt sich folgern, dass eine weitere Vereisungs-Epoche auf der Erde fällig ist.

Während der Mittelalterlichen Warmzeit etwa vom Jahre 900 bis zum Jahre 1300 lagen die Temperaturen viel höher als heute. Danach suchte die Kleine Eiszeit die Menschheit heim, etwa von 1300 bis 1850. Sie brachte enorme Leiden und den Tod von Millionen Menschen mit sich.

Aus den USA gibt es einige der besten Temperaturdaten der Welt. Die höchsten Temperaturen traten hier in den 1930er Jahren auf, bevor die Verbrennung fossiler Treibstoffe etwa ab 1940 in Fahrt kam:

Die Verbrennung fossiler Treibstoffe verstärkte sich zu Beginn des 2.Weltkriegs erheblich. Trotzdem gab es von 1940 bis 1977 eine signifikante ABKÜHLUNG! Diese eine Beobachtung reicht schon aus, um die CAGW-Hypothese zu widerlegen – die globalen Temperaturen steigen NICHT katastrophal infolge des zunehmenden CO2-Gehaltes.

Selbst wenn man einmal annimmt, dass die GESAMTE globale Erwärmung einem gestiegenen atmosphärischen CO2-Gehalt zugeordnet werden kann, berechneten die folgenden beiden Studien die MAXIMALE Klima-Sensitivität auf eine hypothetische atmosphärische CO2-Verdoppelung mit etwa 1°C, was viel zu wenig ist, um eine katastrophale globale Erwärmung auszulösen:

Christy und McNider (2017) analysierten Temperaturdaten aus der unteren Troposphäre seit 1979 (hier).

Lewis und Curry (2018) analysierten den HadCRUT4v5-Datensatz der Temperatur an der Erdoberfläche seit 1850 (hier)

Dieses 1°C pro Verdoppelung ist kein Mittelwert, sondern ein MAXIMUM der Klima-Sensitivität, da ein Teil der oder auch die gesamte beobachtete Erwärmung natürlichen Ursachen geschuldet sein könnte. Noch einmal: In die vom IPCC und anderen Alarmisten herangezogenen Klima-Computermodelle geht eine um das 3- bis 5-fache höhere Klima-Sensitivität ein, damit diese Modelle falsche Ängste bzgl. einer gefährlichen globalen Erwärmung erzeugen.

Es ist aufgrund der derzeitigen Beweislage höchst wahrscheinlich, dass die Sonnenaktivität und nicht das atmosphärische CO2 der primäre Treiber der Temperatur auf der Erde ist (hier). In diesem neuesten Video des Astrophysikers Willie Soon zeigt der die Relation zwischen Sonne und Klima ebenso wie die Belege für diese Relation. Es gibt eine starke Korrelation zwischen den täglichen Temperatur-Höchstwerten und der Gesamt-solaren Einstrahlung (TSI; 54:51 im Video:

… in den USA:

in Kanada (55:16):

und Mexiko (55:20):

Die TSI liegt derzeit nahe 1360 W/m² und damit auf einem ähnlichen Niveau wie in den Tiefen sehr kalter Epochen wie etwa zwischen den Jahren 1700 und 1800. Die Temperaturen dürften daher in naher Zukunft sinken – vielleicht ist dies jetzt schon im Gange.

http://woodfortrees.org/plot/pmod/offset:-1360/scale:1 Note: Offset = -1360 means 0 = 1360.

Wir wissen genau, dass sich die Sonne derzeit am Ende des Sonnenzyklus‘ 24 (SC24) befindet, dem schwächsten seit dem Dalton Minimum (ca. 1800+), und es wird erwartet, dass auch der SC25 sehr schwach ausfällt. Wir wissen ebenfalls, dass sowohl das Dalton- als auch das Maunder-Minimum (~1650 bis ~1700) sehr kalte Epochen waren, die erhebliches menschliches Leiden mit sich brachten.

Die globale Temperatur wird mit Sicherheit NICHT primär getrieben durch einen steigenden CO2-Gehalt in der Luft, weil Änderungen desselben globalen Temperaturänderungen zeitlich HINTERHER laufen. Das geht sowohl aus Proxys in Eisbohrkernen als auch in modernen Daten-Aufzeichnungen hervor. Dem Eisbohrkern aus Wostok zufolge beträgt die zeitliche Verzögerung einer Änderung des CO2-Gehaltes nach einer Erwärmung etwa 800 Jahre (hier).

Im Januar 2008 veröffentlichte Allan MacRae die folgenden bedeutenden Beobachtungen in dieser Studie mit dem Titel „Carbon Dioxide Is Not The Primary Cause Of Global Warming”, Januar 2008 (Link).

a) Die Abfolge der Änderungen des atmosphärischen CO2-Gehaltes (dCO2/dt) folgt weitgehend den Änderungen der globalen Temperatur.

b) Daher erfolgen die Änderungen des atmosphärischen CO2-Gehaltes der Integration von dCO2/dt zufolge ~ 9 Monate nach Änderungen der Temperatur.*

[*Das habe ich inhaltlich nicht verstanden. Erst war von 800 Jahren die Rede, jetzt von 9 Monaten. Wo liegt der Denkfehler? Anm. d. Übers.]

Die sehr enge Relation zwischen dCO2/dt (rot) und der globalen Temperatur (blau) tritt eindeutig hervor. Große Vulkanausbrüche (einige VE15- und die meisten VE16-Ereignisse) unterbrechen die Relation.

Die Integration der dCO2/dt-Daten ergibt die Änderungen des atmosphärischen CO2-Gehaltes, welche den Änderungen der Temperatur um ~ 9 Monate hinterher laufen.

Obige Graphiken enthalten Werte der am Mauna Loa gemessenen CO2-Daten. Ähnliche Ergebnisse zeigen sich in globalen CO2-Daten wie in Mac Rae (2008). Die Auswirkung großer Vulkanausbrüche ist offensichtlich.

Das 12-monatige Delta des CO2-Verlaufs spiegelt die „jahreszeitliche Sägezahn-Kurve“ in der Keeling-Kurve.

Die ~9-monatigen Verzögerungen atmosphärischer CO2-Änderungen (rot) nach Temperaturänderungen (blau) ist offensichtlich.

(Link)

Im Jahre 2013 machten Humlum, Stordahl und Solheim eine ähnliche Entdeck ung: dass nämlich atmosphärische CO2-Änderungen der globalen Wasser- und Lufttemperatur um 9 bis 12 Monate hinterher laufen. Referenz: Die Studie mit dem Titel „The phase relation between atmospheric carbon dioxide and global temperature“ (Link):

a)Änderungen des globalen atmosphärischen CO2-Gehaltes laufen Änderungen der globalen Wassertemperatur um 11 bis 12 Monate hinterher

b) Änderungen des globalen atmosphärischen CO2-Gehaltes laufen Änderungen der globalen bodennahen Lufttemperatur um 9,5 bis 10 Monate hinterher.

c) Änderungen des globalen atmosphärischen CO2-Gehaltes laufen Änderungen der globalen niedertroposphärischen Lufttemperatur um etwa 9 Monate hinterher.

Die Phasen-Relation zwischen CO2-Gehalt der Atmosphäre und der Temperatur, Januar 2013:

Unsere prognostischen Ergebnisse erweisen sich im Nachhinein als exzellent. Das IPCC und seine Gefolgsleute lagen konsistent falsch.

Die Fähigkeit der Prognose ist die vermutlich beste objektive Maßzahl wissenschaftlicher Kompetenz. Das IPCC und dessen globale Erwärmung-Alarmisten sind konsistent gescheitert – keine einzige ihrer ängstigenden Prognosen bzgl. globale Erwärmung/Klimawandel ist eingetreten (hier).

Im Jahre 2002 schrieben die Autoren Dr. Sallie Baliunas (Astrophysikerin), Dr. Tim Patterson (Paläoklimatologe) und Allan MacRae hier:

Die Klimawissenschaft stützt nicht die Theorie einer katastrophalen, vom Menschen verursachten globalen Erwärmung – die vermeintliche Erwärmungs-Krise existiert nicht.

Die ultimative Agenda der Kyoto-Propagandisten lautet, fossile Treibstoffe zu eliminieren, aber dies würde zu einer katastrophalen Verknappung der globalen Energieversorgung führen – die verschwenderischen, ineffizienten, von den Propagandisten ins Spiel gebrachten Lösungen bzgl. Energie können einfach kein Ersatz für fossile Treibstoffe sein“.

Beide Statements sind ganz offenbar bis dato zutreffend. Trotz einer Zunahme der Verbrennung fossiler Treibstoffe, vor allem ab dem Jahr 1940, und eines gemessenen gestiegenen atmosphärischen CO2-Gehaltes seit 1958 kam es lediglich zu sehr vorteilhaften Steigerungen der Erntemengen und einer milden, günstigen globalen Erwärmung.

Trotz der nunmehr Jahrzehnte langen Kampagne zur Eliminierung fossiler Treibstoffe haben diese immer noch einen Anteil von 85% an der globalen Primärenergie. Der Rest geht zumeist auf das Konto von Kern- und Wasserkraft. Trotz Zehner-Billionen an Subventionen verschwendeter Dollars deckt grüne Energie nur 4% der globalen Primärenergie. Infolge ihrer Intermittenz reduzieren grüne Energie-Programme bei der Einspeisung in das Netz nicht einmal deutlich die CO2-Emissionen, muss doch zu fast 100% eine Reserve, üblicherweise fossil erzeugt, bereit gehalten werden, die sofort abrufbar sein muss, wenn der Wind nicht weht und/oder die Sonne nicht scheint.

Entgegen der grünen Propaganda ist die CO2-Konzentration viel zu niedrig; auf der Erde ist es kälter als es für die Menschheit und die Umwelt optimal wäre.

Die atmosphärische CO2-Konzentration ist keineswegs zu hoch – sie ist vielmehr viel zu niedrig für optimales Pflanzenwachstum und den Getreideanbau – und viel zu niedrig für das fortgesetzte terrestrische Leben der Erde (hier). CO2-Reduktions- und Abscheidungs-Programme sind nicht nur falsch, sondern kostspielig, destruktiv und idiotisch [imbecilic].

Durch kaltes Wetter kommen 20 mal so viele Menschen zu Tode als durch warmes oder gar heißes Wetter (hier). In den USA belaufen sich exzessive Todesfälle im Winter im Mittel auf etwa 100.000 pro Jahr, das ist äquivalent zu 9 bis 11 Menschen pro Woche über 17 Wochen IN JEDEM JAHR!

Exzessive Todesfälle im Winter werden berechnet als die Differenz zwischen Todesfällen während der vier Wintermonate (auf der Nordhemisphäre Dezember bis März) und der Anzahl der Todesfälle in den acht übrigen Monaten.

Exzessive Winter-Todesfälle treten weltweit auf, sogar in warmen Ländern wie Thailand und Brasilien. Einer vermutlich niedrig angesetzten Schätzung zufolge beläuft sich diese Anzahl auf etwa zwei Millionen Seelen pro Jahr weltweit.

In England und Wales kam es im Winter 2017/18 zu über 50.000 exzessiven Winter-Todesfällen – das ist eine Rate, die etwa DREI MAL SO HOCH liegt wie das Pro-Kopf-Mittel in den USA und Kanada. Proportional sind das in UK etwa 35.000 mehr Todesfälle als es der mittleren Rate der USA und von Kanada entsprechen würde. Exzessiv hohe Energiekosten in UK aufgrund einer völlig verfehlten globale-Erwärmung-/anti-Fracking-Hysterie sind eine wesentliche Ursache dafür – befeuert durch globale-Erwärmung-Alarmisten und deren korrupte Handlanger in Regierungen und Institutionen.

Prognosen einer unmittelbar bevorstehenden globalen Abkühlung, die jetzt jederzeit beginnen kann

Allan MacRae veröffentlichte am 1. September 2002 auf der Grundlage einer Konversation mit Dr. Tim Patterson die Prognose, wonach eine globale Abkühlung wie im Zeitraum ~1940 bis 1977 ab dem Jahr 2020 bis 2030 wieder einsetzen würde (hier):

Während der letzten eintausend Jahre zeigten die globalen Temperaturen eine starke Korrelation mit Variationen der Sonnenaktivität. Diese Erwärmungs- und Abkühlungs-Phasen waren mit Sicherheit nicht verursacht durch Variationen des atmosphärischen CO2-Gehaltes, weil fossile Treibstoffe bis zum 20. Jahrhundert keine Rolle spielten.

Die Temperaturen im 20. Jahrhundert korrelieren auch kaum mit dem atmosphärischen CO2-Niveau, welches über das gesamte Jahrhundert hinweg gestiegen ist. Allerdings erfolgte ein großer Teil der beobachteten Erwärmung im 20. Jahrhundert vor dem Jahr 1940. Dem folgte eine Abkühlung von 1940 bis 1977 und mehr Erwärmung ab 1977. Da 80% des anthropogenen CO2 erst nach 1940 erzeugt worden war – warum war die Erwärmung davor eingetreten? Außerdem, warum die Abkühlung zwischen 1940 und 1977 bei steigendem CO2-Niveau? Noch einmal, diese Erwärmungs- und Abkühlungs-Trends korrelieren sehr gut mit Variationen der Sonnenaktivität.

Erst seit dem Jahr 1977 korreliert die Erwärmung mit gestiegenem CO2-Gehalt, aber auch die Sonnenaktivität hat während dieses Zeitraumes zugenommen. Diese Erwärmung wurde lediglich an der Erdoberfläche gemessen, und Satelliten maßen in Höhen zwischen 1,5 und 8 Kilometern kaum oder gar keine Erwärmung. Dies ist inkonsistent mit CO2 als primären Treiber von Erwärmung. Falls die Sonnenaktivität der Haupt-Treiber der Temperatur der bodennahen Luftschichten ist und nicht das CO2, sollte es zwischen 2020 und 2030 zur nächsten Abkühlungs-Periode kommen“.

Während der letzten ~fünf Jahre schrieb MacRea, dass die globale Abkühlung eher um das Jahr 2020 beginnen würde als später. Diese globale Abkühlung wird sporadisch einsetzen, an verschiedenen Orten der Welt. Ähnliche Prognosen einer globalen Abkühlung sind im Anhang gelistet.

Es ist bemerkenswert, dass das Aussäen von Getreide einen Monat später als üblich in den nördlichen zentralen US-Staaten erfolgte, und zwar sowohl in diesem als auch im vorigen Jahr. Im Jahre 2019 wurden viel mehr Kälte- als Wärmerekorde in den USA verzeichnet – während der letzten 30 und 365 Tage sowie dieses Jahr bis dato (hier). Diese Ereignisse mögen einfach nur Wetter gewesen sein, nicht Klima – oder sie könnten als frühe Indikatoren einer globalen Abkühlung stehen.

[Dazu passt ganz aktuell die gemessene Temperatur am Flughafen von Denver, Colorado: dort wurden am Morgen des 31. Oktober (Ortszeit) -20 Grad gemessen, ein Wert, der fast um Größenordnungen unter dem bisherigen Oktober-Rekord liegt. Anm. d. Übers.]

Das US-Landwirtschaftsministerium veröffentlicht wöchentlich einen Ernte-Report:

[Aus diesem Report zitieren die Autoren ausführlich die Auswirkungen auf verschiedene Getreidesorten. Insgesamt ist allgemein von schweren Ernteverlusten durch Kälte während der letzten Jahre die Rede, deren Ausmaß zumindest für dieses Jahr noch gar nicht abzuschätzen ist. Die graphische Darstellung der jeweiligen Erntemengen zeigt durchweg während der letzten Jahre fallende Tendenz.

Auf eine Detaillierte Übersetzung wird hier verzichtet. Die Belege sind aber eindeutig. Und die aktuelle Kältewelle in den USA wird sich vorerst fortsetzen. Anm. d, Übers.]

Summary and Conclusions

Es ist bemerkenswert, dass das Aussähen in den Getreide-Gebieten der nördlichen USA erst einen Monat später als üblich erfolgen konnte, sowohl in diesem als auch im vorigen Jahr. Während die Ernte im Jahre 2018 noch durch warmes Sommerwetter gerettet werden konnte, wurde die Ernte von Mais und Sojabohnen in den nördlichen USA in diesem Jahr durch einen kalten Sommer und sehr früh einbrechendem kalten Wetter schwer beeinträchtigt.

Anhang – andere Prognosen globaler Abkühlung in chronologischer Reihenfolge seit 2003:

Im Jahre 2003 verfasste Dr. Theodor Landscheidt eine Studie, in welcher er eine ernsthafte Abkühlung prognostizierte (hier):

„Eine genaue Analyse der variierenden Sonnenaktivität über die letzten beiden Jahrtausende deutet darauf hin, dass es im Gegensatz zu Spekulationen des IPCC bzgl. einer vom Menschen verursachten Erwärmung um bis zu 5,8°C während der nächsten 100 Jahre zu einer langen Periode eines kühlen Klimas kommt, wobei die kälteste Phase um das Jahr 2030 zu erwarten ist“.

[Einschub des Übersetzers: Seines Wissens nach ist dies die erste ernst zu nehmende Prognose einer Abkühlung. Darum kam der Gedanke auf, diese Kaltphase als das „Landscheidt-Minimum“ zu bezeichnen. – Ende Einschub]

Im Jahre 2005 prognostizierte Piers Corbyn Abkühlung bis zum Jahr 2040 (hier):

Am 2. Februar 2005 hielt Piers Corbyn einen Vortrag am Institute of Physics Energy Management Group. Darin führte er u. A. aus:

„Während der nächsten 5 bis 10 Jahre wird sich die Erwärmung wahrscheinlich halten, da es zu einer trans-polaren Verschiebung [?] kommt. Dem wird eine Verlagerung des magnetischen Pols weg vom geographischen Pol folgen ebenso wie eine Abnahme der Sonnenaktivität, einer Verlagerung des Golfstromes nach Süden und merkliche Abkühlung der Welt bis zum Jahre 2040“.

Im Jahre 2006 prognostizierte die NASA, dass der „Sonnenzyklus 25 mit seinem Höhepunkt um das Jahr 2022 einer der schwächsten Zyklen seit Jahrhunderten sein könnte (hier).

Im Jahre 2006 stellten Khabibullo Abdusamatov et al. an der Russian Academy of Science fest (hier):

„Globale Abkühlung sollte sich auf der Erde über die nächsten 50 Jahre einstellen. Sie könnte ernste Konsequenzen haben, bevor es zu Beginn des 22. Jahrhunderts wieder wärmer wird. …

Auf der Grundlage unserer Forschungen bzgl. solarer Emissionen entwickelten wir ein Szenario einer globalen Abkühlung bis Mitte dieses Jahrhunderts sowie nachfolgend einen regulären, 200 Jahre währenden Zyklus der Erwärmung mit Beginn des 22. Jahrhunderts“.

Khabibullo Abdusamatov sagte, dass er und seine Kollegen zu dem Ergebnis gekommen seien, dass eine Periode globaler Abkühlung ähnlich derjenigen zum Ende des 17. Jahrhunderts – als Kanäle in den Niederlanden zufroren und man landwirtschaftlich genutzte Gebiete in Grönland [!] aufgeben musste – im Zeitraum 2012 bis 2015 beginnen und ihren Höhepunkt im Zeitraum 2055 bis 2060 erreichen könnte. Dieser zukünftige Klimawandel dürfte seiner Ansicht nach sehr ernste Konsequenzen haben. Daher sollten die Behörden sich heute schon darauf vorbereiten, weil „die Klima-Abkühlung verbunden ist mit sich ändernden Temperaturen, vor allem in nördlichen Ländern.

„Schaut man sich einem genauer die Vergangenheit der Sonne an, dann erkennt man, dass wir in einer Epoche mit einer anomal hohen Sonnenaktivität leben. Derartige Perioden dauern aber nicht lange, vielleicht 50 bis 100 Jahre, bevor es zu einem Einbruch kommt. Einen solchen Einbruch würde ich in naher Zukunft erwarten“.

Leif Svalgaard, Stanford University, stellte im Jahre 2006 fest (hier):

„Die Anzahl der Sonnenflecken wird im nächsten Jahrzehnt drastisch abnehmen. Die Sonnenfleckenzahl wird extrem klein werden, und wenn die Sonne einbricht, wird dieser Einbruch markant sein. Er dürfte eine Abkühlung der Erde auslösen“.

[Bemerkenswert an diesen Prognosen bzgl. der Sonnenaktivität ist, dass sie bereits eingetroffen sind – ganz im Gegensatz zu den Prophezeiungen des IPCC. Also dürften auch die Folgerungen der Forscher daraus eine ziemlich hohe Eintrittswahrscheinlichkeit aufweisen. Anm. d. Übers.]

Link: https://wattsupwiththat.com/2019/10/27/the-real-climate-crisis-is-not-global-warming-it-is-cooling-and-it-may-have-already-started/

Übersetzt von Chris Frey EIKE




Kann die Kernfusion das Klima retten?

Als „Klimaleugner“ staunt man, wie viele Artikel die Qualitätspresse in letzter Zeit zum Thema alternative Energien heraushaut. Wenn unsere verwirrten Eliten gleichzeitig Kernkraft- und Kohlekraftwerke dichtmachen und Wärmekraftmaschinen in Autos verbieten wollen, fragt sich mittlerweile wohl selbst der linke Klimajournalist in der Metropole, woher in Zukunft dann diese Elektronen-Dinger in der Steckdose kommen sollen und mit welchem Auto man zum Flughafen fahren kann (die Berliner Öffis meidet die Elite aus tabuisierten Gründen bekanntlich eher).

Zumindest fragen sich die Hauptschriftleiter der großen Zeitungen (und TV-Sender) wohl, was sich auch Otto Normalverbraucher fragen könnte. Da der Windradbau von Bürgern zunehmend via Klage blockiert wird und der Lithium-Akkumulator selbst vom Klima-Lesch verdammt wird, müssen unbedingt neue Visionen her, um Hoffnung zu stiften, denn die Hoffnung stirbt zuletzt. Da die Grünen und ihre Hofmedien in den 1980ern den Kernspaltungsreaktor trotz neuer Konzepte pauschal mit dem Etikett „Weltuntergangsmaschine“ versehen haben, muß nun die Kernfusion verstärkt promoviert werden, wenn auch nur medial. Die Fusion hat im grünen Lager erstaunlicherweise kaum Feinde, warum auch immer. Am technischen Verständnis kann es nicht liegen; eine hüpfende FFF-Demonstrantin, die den Begriff „Massendefekt“ erklären kann, ist kaum vorstellbar. Heise.de behauptet nun, daß „just zu dieser Zeit“, also in unserer Gretchen-Ära, bedeutende Fortschritte im Bereich der Fusionsforschung gemacht wurden. Diese vermögen angeblich, „den Traum, unbegrenzte saubere und sichere Energie aus der thermonuklearen Fusion von Atomkernen“ einzulösen.

Jede Technologie hat allerdings immer Nachteile. Wie soll die angeblich bald zur Verfügung stehende Fusionierung funktionieren? Grundsätzlich werden schwere Wasserstoff-Atome (Deuterium) mit überschweren Wasserstoff-Atomen (Tritium) gewaltsam miteinander verschmolzen. Dabei entsteht gigantisch viel Energie, die man gerne nutzen würde. Die Sache geht aber leider nur bei Drücken um 200 Millionen bar und etwa 15 Millionen Grad Celsius (hier) und (hier). Fertig gebracht hat man das bereits in sehr unschöner Form als „Wasserstoffbombe“, bei welcher die hier als etwas euphorisch bezeichneten „warmen, druckhaltigen“ Bedingungen von einer „Atombombe“ erzeugt werden, um welche das eigentliche Fusionsmaterial als Lithiumdeuterid-Hülle angebracht ist.

Diese unschöne Nutzung der Kernfusion friedlich zu zähmen bemüht sich seit vielen Jahrzehnten die Fusionsforschung. Glücklicherweise sind Grüne bekanntlich naturwissenschaftlich nicht gut gebildet (um den Ausdruck „total bekloppt“ zu vermeiden), sonst wäre ihre Begeisterung für die Kernfusion nämlich schnell dahin. Der überschwere Wasserstoff (Tritium) ist nämlich ein höchst gefährlicher radioaktiver Strahler. Seine Halbwertszeit beträgt so um die zwölf Jahre, und er ist deswegen gefährlich, weil die Körperchemie nicht zwischen normalem Wasserstoff-Atom ohne Neutron und einem überschweren mit zwei Neutronen (Tritium) unterscheiden kann. Verzeihung, liebe Grüne, das ist für Euch zu schwer, daher speziell für Annalena Baerbock: Wenn Tritium in größeren Mengen geschluckt oder eingeatmet wird, sollte man sein Testament besser schon mal gemacht haben. Tritium ist weit gefährlicher als das dank Annalena entdeckte, neue Element Kobold.

Die Kernfusion wird seit Jahrzehnten mit Milliardenaufwand öffentlich beforscht; zentrale Probleme konnten aber bislang nicht gelöst werden. Einem, nämlich der Erfüllung des Lawson-Kriteriums ist man schon sehr nahe gekommen. Wesentlich ferkeliger sind aber die folgenden Probleme:

– die bei der Fusion entstehenden Strahlungs- und Teilchenprodukte zerstören ihrerseits wieder das Fusionsplasma, das man mühsam in entsprechenden Anordnungen erzeugen muss.

– sie zerstören auch die Wände des Reaktors.

– und wie holt man die für Dampfturbinen brauchbare Wärme aus dem Fusionsreaktor heraus, ohne dabei den sensiblen Fusionsprozess zu zerstören? Es weiß bis heute niemand.

Diese geringfügigen Probleme haben dazu geführt, dass seit Beginn der Fusionsforschung vor vielen Jahrzehnten immer von einem Zeitraum von 50 Jahren die Rede ist, ab dem der Durchbruch erzielt sein wird. Dieser Zeitraum hat sich bis heute nie geändert – vermutlich wird er es auch nicht bis zum St.-Nimmerleinstag. Denn selbst dann, wenn alles technisch gelöst sein sollte, steht es in den Sternen, ob der Kostenaufwand solch einer Maschine mit den vergleichsweise simplen Spalt-Kernreaktoren der Generation IV mithalten kann. Immerhin laufen diese Dinger schon, als russische BN-Typen. Deutschland hat es dagegen vergeigt und vergurkt, bei den Generation IV – Brütern vorne mitzumachen. Den Generation IV-Reaktor in Kalkar hat die Politik punktgenau dicht gemacht, als er alle Genehmigungsverfahren absolviert hatte. „Wir schaffen das“, ans Ende der technologischen Wertschöpfungskette dieser Welt zu rutschen, auf dem besten Wege dahin sind wir bereits, oder nicht, liebe Grüne?

Laut Heise.de wollen nun neben den staatlichen Projekten wie ITER private Firmen kleinere, billigere Reaktoren entwickeln und dafür unterschiedlichste Ideen umsetzen. Besonders aussichtsreich seien Konzepte mit mittleren Dichten des Plasmas (Zahl der Ionen pro Volumeneinheit) und mittleren Einschlußzeiten (Zeit der Zusammenführung der Ionen durch das Magnetfeld). Die privaten Firmen seien durch den Druck der Geldgeber besser in der Lage, schnell funktionierende Parameter-Kombinationen zu finden.

Der geneigte Leser, der an dieser Stelle konkretere Informationen vermißt, denkt richtig. Im Heise-Artikel wird keine Firma genannt, kein neues Konzept genauer vorgestellt. Der Text ist ein im schlechten Sinne typisch journalistisches Erzeugnis; also eines, das ohne Grund eine Technologie bejubelt, und das auch noch im Sinne einer frei erfundenen Ideologie der Church of Global Warming. Pikant in dem Zusammenhang ist, daß der Heise-Autor typisch kapitalistisch handelnde Firmen als kompetenteste Akteure darstellt. Angesichts der um sich greifenden Antifa-isierung von Fridays for future einschließlich deutlich geäußertem Antikapitalismus fragt man sich, was die Klimaretter eigentlich wollen, außer unserem Besten natürlich, unserem Geld.

In den nächsten Jahrzehnten aber sind Kohle und Öl noch ausreichend vorhanden und billig genug. Ergänzend dazu könnte zur Bereitstellung elektrischer Energie die Kernspaltung wieder eingeführt oder weitergeführt werden, sofern nicht im Bund und den Ländern überall klimasozialistische Parteien unterschiedlicher Färbung von schwarz-weißblau bis grün an der Macht sind, die von ihren Ablaßhändlern in Redaktionen und Schulen propagandistisch unterstützt werden.

Mal sehen, welche Wunderwaffe gegen den Klimawandel die Ablaßhändler von Heise und den anderen Organen als nächstes bejubelt wird. Als V4 sozusagen, damit haben wir ja Erfahrung (wenn auch nichts daraus gelernt). Mit der Fusion wird das sicher die nächsten 50 Jahre nichts, zumindest nicht am Markt. Die Zappelstrom-Windräder werden in den kommenden Monaten und Jahren immer mehr Stromausfälle verursachen, so daß auch Stadtbewohner die Propeller-Monster immer mehr hassen werden. Welche klimafreundliche Energietechnologie wird als nächstes als DIE Lösung angepriesen werden? Wetten werden angenommen!




Trotz Netz-Chaos laufend Rekordmeldungen – die Erneuerbaren-Gaukelei

Doch je mehr Strom mittels Wind- und Sonnenkraft erzeugt werden wird, desto kritischer wird es werden mit der Versorgungssicherheit. Denn die von mir so genannte Netzausregelungsreserve, die nicht nur aus der im Vorfeld kalkulierten und eingekauften Regelenergie besteht, sondern auch aus Kohlekraftwerken, die dann, wenn erneuerbar erzeugter Strom wegbricht, aus einem Bereitschaftsmodus Strom erzeugen, der, wenn er für die Versorgung  Deutschlands benötigt wird, in das Netz eingespeist, oder – bei Nichtbedarf in Deutschland – ins benachbarte Ausland verkauft wird. Dahinter verbirgt sich auch ein spekulatives Moment. Wichtig: Das Kraftwerks- und Netzmanagement ist insgesamt ein höchst komplex-komplizierter Vorgang, der hier von mir nur ansatzweise und vor allem in seinen Auswirkungen abgehandelt werden kann.

Jetzt, zum Herbst, zum Winter, ist der tägliche Strombedarf hoch. Es kommt immer wieder – Paradebeispiel 42. Woche – zu erheblichen Einbrüchen der Wind- und Sonnenstromerzeugung. Nun müssen die auf „Reserve“ laufenden thermischen Kraftwerke einspringen. Manchmal reicht aber auch das nicht aus. Dann wird Strom aus dem benachbarten Ausland importiert. Bei entsprechenden Kosten. Wie wir unten sehen werden. Am 14., 15. und 17. Oktober 2019.

Die Detailzahlen der 42. Woche in der Tabelle und der daraus generierte Chart. Wie immer mit den Werten des Fraunhofer ISE.

Die Tagesanalysen

Sonntag, 13.10.2019: Anteil Erneuerbare an der Gesamtstromerzeugung 59,68 Prozent

Der heutige Sonntag ist von einer durchgängig mehr als ausreichenden Stromübererzeugung gekennzeichnet. Mit der Folge, dass der Export-Strompreis bis auf zwei Ausnahmen (00:00 und 18:00 Uhr) die 30.000 Euro Marke pro GWh nicht erreichte. Weil nach Sonnenuntergang die über Tag angestiegene Windstromerzeugung die untergehende Sonne strommäßig ausgeglichen hat, fiel der Preis ab 19:00 Uhr noch mal stark. Um 23:00 Uhr wurden – wie bereits um 14:00 Uhr – lediglich unter 5.000 Euro pro GWh erzielt.

Montag, 14.10.2019: Anteil Erneuerbare an der Gesamtstromerzeugung 43,71 Prozent

Zum Sonnenaufgang hin nahm die Windstromerzeugung stark ab. Es entstand von 6:00 bis 9:00 Uhr eine Versorgungslücke – Regelenergie hin, (auch spekulative) Kraftwerksreserve her – die durch Importstrom, vor allem aus Dänemark, aus Frankreich und der Schweiz, geschlossen werden musste. Die Länder lassen sich das gut bezahlen.

Dienstag, 15.10.2019: Anteil Erneuerbare an der Gesamtstromerzeugung 34,93 Prozent

Zum Glück zog die Windstromerzeugung ab 18:00 Uhr wieder an. Sonst wäre es in der Nacht zum Mittwoch recht eng geworden. So tat sich nur zwischen 16:00 und 21:30 Uhr eine recht ordentliche Versorgungslücke auf. Etwa 20 GWh fehlender Strom musste zugekauft werden. Preis: Bis zu 67.000 € pro GWh um 19:00 Uhr für 4,569 GWh.

Mittwoch, 16.10.2019: Anteil Erneuerbare an der Gesamtstromerzeugung 44,16 Prozent

Der „ruhigste“ Tag der Woche.  Es gibt sogar Zeiträume, in denen Strom zu auskömmlichen Preisen exportiert werden kann.

Donnerstag, 17.10.2019: Anteil Erneuerbare an Gesamtstromerzeugung 38,82 Prozent

Nach Sonnenuntergang tut sich eine Lücke bei der Bedarfsdeckung auf. Die Schweiz hilft aus. Sie verkauft Deutschland einen Teil der Strommenge zu Preisen von weit über 50.000 €, welchen sie genau diesem Deutschland in den Stunden zuvor um einiges günstiger abgenommen hat. So, wie die Schweiz es auch wieder ab 21:00 Uhr tut.

Freitag, 18.10.2019: Anteil Erneuerbare an der Gesamtstromerzeugung 50,32 Prozent

Im Verlauf des Freitags – ab 8:00 Uhr – zieht die Windstromerzeugung an. Die Sonne scheint ziemlich schwach. Überschüssiger Strom muss dennoch zu recht günstigen Preisen abgegeben werden.

Samstag, 19.10.2019: Anteil Erneuerbare an der Gesamtstromerzeugung 50,74 Prozent

Wochenende. Das bedeutet verhältnismäßig wenig Strombedarf in Deutschland. Nur am Sonntag ist er noch geringer. Im Herbst, im Winter aber immer über 1 TWh pro Tag. Auch am Wochenende. Die in Deutschland erzeugte Strommenge ist mehr als ausreichend. Es wird durchgängig Strom exportiert. Sogar an der kritischen Schnittstelle 17:00 Uhr. Etwas später, um 19:00 Uhr, werden sogar 47.900 Euro pro GWh erzielt. Für immerhin 4,519 GWh. Ansonsten liegt der Exportpreis nahezu durchgängig unter 40.000 Euro pro GWh.

Rekordmeldungen sind Gaukelei

Der BDEW meldet einen neuen Rekord in Sachen Stromerzeugung mittels erneuerbarer Energieträger, (Abbildung 1 bitte unbedingt anklicken. Sie öffnen gleichzeitig alle Abbildungen und Mehr.) In den ersten 3 Quartalen 2019 wurden 183 TWh Strom aus Wind, Sonne, Biomasse und Wasserkraft gewonnen. Wenn man 3/4 des Primärenergiebedarfs Deutschlands, das sind 2.688 TWh zugrunde legt, machen die 183 TWh Strom aus Erneuerbaren insgesamt 6,39 Prozent aus. Das hört sich ganz anders als die jubilierend „Rekord“ genannten 42,9 Prozent an. Der Korrektheit ist es geschuldet, wenn erwähnt wird, dass neben der Stromerzeugung durch Erneuerbare weitere Teile des Primärenergiebedarfs erneuerbar erzeugt werden. Biomasse wird in erheblichem Umfang auch zwecks Energieerzeugung zum Heizen, zum Fahren usw. verwendet. Insgesamt betrug der Anteil der Erneuerbaren an der Primärenergie 2018 in Deutschland gut 14 Prozent. Wobei der Anteil von Wind- und Sonnenenergie lediglich 4,45 Prozent betrug (Abbildung 2). Auch wenn dieser Anteil im Jahr 2019 und später insgesamt auf über 5 Prozent, vielleicht sogar an die 6 Prozent steigen sollte, ist und bleibt das Ergebnis ernüchternd. Vor allem auch im Hinblick auf den finanziellen Aufwand, der dafür nötig war, ist und sein wird.

Energiewendefreunde in Politik und Medien gaukeln dem angesichts der höchst komplexen Materie praktisch ahnungslosen Bürger immer wieder vor, die Energiewende sei mit „Rekorden“ auf einem guten Weg. Eine Energiewende, die ja kein Selbstzweck ist, sondern anderen Ländern Vorbild sein soll, damit diese auch endlich in die Rettung der Welt einsteigen. Was die anderen Staaten ganz sicher nicht tun werden. Dafür sind die Kosten zu hoch, ist das Ergebnis der bisherigen Energiewende in Deutschland einfach viel zu schwach.

Weit weg von der ganz großen Bühne „Primärenergie Deutschland“ möchte ich auf ein aktuelles Detailproblem der Stromversorgung in Deutschland hinweisen. Die Netzentgelte müssen zum Teil dort gezahlt werden, wo sie anfallen. Bundesländer, zum Beispiel Brandenburg oder Schleswig-Holstein, mit vielen Windkraftanlagen werden benachteiligt. Die vielen Windkraftwerke müssen selbstverständlich an das allgemeine Stromnetz angeschlossen werden. Die entstehenden Kosten werden nicht auf die Netzentgelte deutschlandweit umgelegt, sondern auf das Netz des/der Netzbetreiber(s) des jeweiligen Bundeslandes, das Netz, welches die Gemeinde versorgt, das Netz, wo die Windkraftanlagen gebaut und angeschlossen wurden. Mit der Folge, dass die Stromkunden in diesem Bereich nicht nur die Windräder vor der Haustür haben, sondern oft auch noch die dadurch entstandenen Mehrkosten tragen müssen.

Den Anbieter gegebenfalls wechseln

Beispiel (Abbildung 3): Ein Haushalt in Neuruppin (Brandenburg) zahlt für 3.500 KWh Haushaltsstrom gemäß Vergleichsportal bei den Stadtwerken Neuruppin 1.149,48 Euro. Die 3.500 KWh Haushaltsstrom kosten bei den Münchener Stadtwerken 1.091,21 Euro. Das sind 9,5 Prozent weniger als in Neuruppin. Hinzu kommt, dass die Menschen in Neuruppin wesentlich weniger verdienen als in der bayerischen Landeshauptstadt. Das verschärft die Ungerechtigkeit noch mal. Selbstverständlich ist jedem – egal, ob in Neuruppin, München oder sonst wo – zu empfehlen, jedes (!) Jahr einen Stromvergleich zu fahren und den Anbieter gegebenfalls zu wechseln. Damit kann eine Menge Geld gespart werden.

Das ändert aber nichts an der Tatsache, dass die Menschen in den Ländern mit vielen Solar- und Windkraftanlagen in Sachen Energiewende durch Lärm, Flächenversiegelung und den höheren Preis doppelt belastet werden. Sie haben nicht nur die Windkraftanlagen mit allen Nachteilen vor der Haustür, sie bezahlen auch noch mehr für ihren Strom. Immerhin wird dieses Problem aktuell angegangen. Bis 2023 sollen die Netzentgelte schrittweise bundesweit vereinheitlicht worden sein (Abbildung 4).

Vergangene Woche habe ich über das klimapolitisch vollkommen unsinnige Abschalten des KKW Philippsburg 2 berichtet. In diesem Zusammenhang habe ich auch die geringe Ausbeute von Strom aus Wind- und Sonnenkraftanlagen in Baden-Württemberg erwähnt. Da bin ich einer statistischen Ungenauigkeit aufgesessen. In der Übersicht „Kraftwerke der allgemeinen Versorgung“ (Abbildung 5) sind unter dem Punkt „Sonstige erneuerbare Energieträger“ nicht Wind- und Sonnenkraftwerke, sondern nicht näher bezeichnete Energieträger wie vielleicht die Geothermie gemeint. Um die Angelegenheit wieder ins richtige Licht zu rücken, habe ich mir die Zahlen für Baden-Württemberg 2017 (Abbildung 6) angeschaut. Da macht die Windstromerzeugung 3,3  Prozent der Gesamtstromerzeugung Baden-Württembergs aus. Der Sonnenstromerzeugungsanteil liegt immerhin bei 8,2 Prozent. Macht mit 11,5 Prozent  insgesamt nur einen Bruchteil, konkret nicht mal die Hälfte des durchschnittlichen Anteils der bundesdeutschen Wind- und Sonnenstromerzeugung (Abbildung 7) aus.

Die Sache mit der „Windhöffigkeit“

Der geringe Ausbau insbesondere der Windkraftwerke hat Gründe. Zum einem ist es ganz sicher landschaftspolitisch nicht gewollt, die wenigen nahezu hundertprozent-windhöffigen (Windhöffigkeit meint die Eignung des Windes an einem Ort, ein Windrad anzutreiben) Gebiete wie zum Beispiel die Höhen des Schwarzwaldes oder der Schwäbischen Alb zu verunstalten, und damit Einbrüche im Tourismus zu riskieren. Zum anderen ist die Windhöffigkeit in Baden-Württemberg im Verhältnis zu den norddeutschen Bundesländern Niedersachsen, Brandenburg usw. insgesamt recht gering (Abbildung 8).

Hinzu kommt eine physikalische Besonderheit. In der Vergangenheit wurden Windkraftanlagen da gebaut, wo die Windhöffigkeit für Deutschland verhältnismäßig groß ist. Wenn denn nun aber zusätzliche Anlagen erstellt werden müssen, um z.B. den Wegfall des Stroms aus Kernkraftwerken – das sind bis Ende 2022 immerhin 76 TWh – auszugleichen, muss naturgemäß auch auf Standorte zurückgegriffen werden, wo der Wind nicht (so) ergiebig weht. Man könnte denken, dass z.B. 10 oder 20 Prozent weniger Wind auch nur 10, 20 Prozent weniger Stromerzeugung zur Folge hätten. Dem ist nicht so.

Die Windstromerzeugung steigt und sinkt mit der dritten Potenz der Windgeschwindigkeit. Was bedeutet, dass zum Beispiel 20 Prozent weniger Wind fast 50 Prozent weniger Strom erzeugen. Um den gleichen Stromertrag, wie am Referenzstandort (= 100 Prozent = beste Windhöffigkeit) zu erzielen, wäre dementsprechend eine Verdoppelung der installierten Leistung Windkraft notwendig. Wenn man die Windkarte Baden-Württembergs und die Brandenburgs (Abbildung 8) nebeneinander betrachtet, wird der Unterschied sichtbar. Um den gleichen Stromertrag zu erlangen, müsste – wenn man von den Höhen des Schwarzwaldes und der Schwäbischen Alb absieht – wesentlich mehr Windkraftleistung installiert werden, um den gleichen Ertrag wie in der Fläche Brandenburgs zu erzielen. Allein der Unterschied zwischen den hellgelben Bereichen = 3,4 m/s und den dunkelgelben Bereichen der Windkarte Brandenburg = 4 m/s beträgt 15 Prozent. Da braucht es dann bereits gut 60 Prozent mehr installierte Windkraftleistung, um mit 3,4 m/s die gleiche Strommenge zu generieren wie mit 4 m/s.

Die Windhöffigkeit spielt für die Stromausbeute und damit für die Wirtschaftlichkeit einer Windkraftanlage deshalb eine mehr als entscheidende Rolle. Deshalb werden in verhältnismäßig windschwachen Gebieten wie z.B. Baden-Württemberg und Bayern nur relativ wenige Windkraftwerke gebaut (werden). Im Zusammenhang mit der Windhöffigkeit möchte ich erwähnen, dass mich Gerald Pesch aus Raeren (Belgien) auf diesen wesentlichen Sachverhalt im Einzelnen aufmerksam gemacht hat. Von Gerald Pesch stammt auch das Berechnungsprogramm zur Windhöffigkeit und ihrer Auswirkung, welches Sie neben diversen Musterberechnungen unter Abbildung 8 ganz unten aufrufen können.

Im Übrigen bekomme ich viele, viele Zuschriften – sogar in Neuseeland wird die Kolumne gelesen – mit wertvollen Hinweisen und Fragen. Etliches fließt in meine Artikel ein. Vieles hilft, meine Kenntnisse zu erweitern. Vor allem aber beweist es, dass es noch eine große Anzahl Menschen gibt, die sich nicht ein X für ein U vormachen lassen. Vielen Dank dafür.

Ordnen Sie Deutschlands CO2-Ausstoß in den Weltmaßstab ein. Es wurden die Zahlen 2017 – bisher 2015 – hinterlegt. Es gibt tatsächlich Länder mit wirklich wenig CO2-Ausstoß. Schauen Sie mal in den Tschad oder nach Mali. Das wären doch so richtige Paradiese für unsere FFF- und XR-Zeitgenossen. Zum interaktiven CO2-Rechner: Hier klicken.

Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr.

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

Rüdiger Stobbe betreibt seit über 3 Jahren den Politikblog www.mediagnose.de.

Mit freundlicher Genehmigung des Autors. Zuerst erschienen bei der Achse des Guten.




Klima-Gaga: „Klimawandel wird Infrastruktur massiv stressen“

Die Eidgenossen unter unseren Lesern kennen ihre Umweltministerin Simonetta Sommaruga sehr genau. Man könnte sie, für die anderen deutschsprachigen Leser, mit Katrin Göring-Eckardt vergleichen, der obersten Bieneretterin aus Thüringen. Die kompetente Politikerin erwähnte kürzlich, daß die Lebensadern der Schweiz deren Infrastrukturen seien. Eine wichtige Erkenntnis, auf die konservative EIKE-Leser niemals gekommen wären; stand doch immer die Vermutung im Raum, die Infrastruktur eines hochentwickelten Industrielandes diene hauptsächlich ästhetischen Zwecken.

Die eidgenössische Politikerin, mit ähnlich intellektuellem Tiefgang ausgestattet wie ihre Kollegin aus dem Bundestag, erklärte auf einer Tagung von Einsteins Alma mater, der ETH Zürich,

„Murgänge, verschüttete Straßen, aber auch eine Stromversorgung, die nicht mehr funktioniert. All das ist für die Bevölkerung, aber auch für die Wirtschaft mit einem großen Schaden verbunden.“

Seltsam, ihre Argumente passen eigentlich eher auf die Gefahren der Energiewende. Man denke an die flächendeckenden Stromausfälle in den australischen Metropolen.

Ein von der Regierung beauftragter Ökonom, wohl so eine Art PIK-Edenhofer, errechnete jährliche Schäden an Infrastruktur und Energiewirtschaft von bis zu einer Milliarde Franken per annum im Jahr 2050. Der geneigte Leser weiß, daß diese Kosten wohl eher den Schweizer Klimaschutzmaßnahmen zuzuordnen sind; wobei die eine Milliarde etwas tief gegriffen sein dürfte.

Nun hat der Ökonom ja „gerechnet“, was recht rational klingt. Woran macht er es denn fest? Konkret meint unser Experte, daß die Heißzeit-Katastrophe mit „stärkeren Niederschlägen“ (also doch keine Wüstenbildung?) einherginge, die die Verkehrswege „degradierten“, zu deutsch, abbauten. Schienen und Straßen leiden also unter dem Wetter, das war ja bislang nicht so. Unser Ökonom scheint weder ein gutes historisches Gedächtnis zu besitzen, noch jemals vom Zweiten Hauptsatz der Wärmelehre gehört zu haben.

Jetzt bereits müsse die Schweizer Bahn SBB 15 Millionen Franken per annum ausgeben, um die Schienen vor Naturgefahren zu schützen. Ich schätze, daß die SBB das auch schon tat, bevor jemand Eiszeit- oder Heißzeitkatastrophen erfand. Interessanterweise unterstützt der Leiter der Abteilung „Naturrisiken“ der SBB den Unfug. Sitzt der auf einem Versorgungspöstchen für Richtig-Gesinnte? Die Eidgenössische Technische Hochschule jedenfalls betreibt „Forschung“ für die SBB zum Thema.

Weiterhin sehen die „Berechnungen“ des Regierungs-Ökonomen in den nächsten Jahren trockenere Sommer vorher, was die Produktion der Schweizer Wasserkraftwerke drossele. Die Aufheizung der Atmosphäre verursache höhere Kosten durch Klimaanlagen.

Man merkt: Hier werden ganz normale natürliche Vorgänge, die es immer schon gab, als menschgemachtes Problem hingestellt; eine primitive, aber effiziente Taktik, weil der Laie nicht nachhakt.

Interessanterweise sieht der Ökonom auch positive Folgen der Klimakatastrophe: Die angeblich milderen Winter verursachten weniger Straßenschäden und geringere Kosten der Heizung. Da hat er sich ja praktisch widersprochen: Gleichen die Einsparungen im milden Winter nicht die Kosten der heißen Sommer aus? Dann wäre doch alles schick.

Nein, das wäre aus politischer und finanzieller Sicht natürlich verheerend und darf deswegen nicht sein. Die Schweiz muß jetzt schon reagieren, sagt Sommaruga. „Ganz konkret“ müsse abgeklärt werden, wo Forschung nötig sei. Was die „Abklärung“ allein kosten mag? Und, als Kern der Klimaschutzmaßnahmen, sei die Reduktion der CO2-Emissionen nötig. Also, liebe Nachbarn in den Alpen, macht Euch auf etwas gefasst.