Karlsruhe contra Freiheit der Wissenschaft

Wenn sie denn könnte würde Justitia in Tränen ausbrechen ob der Art und Weise, wie in D „Recht“ gesprochen wird! Bild: Thomas Max Müller / pixelio.de

Fred F. Mueller

Wenn die „Klimaschützer“ erstmal an der Macht sind, ist es mit ihrem Motto „follow the science“ schnell vorbei. Der Beschluss des Bundesverfassungsgerichts zum sogenannten Klimaschutzgesetz vom 24.März 2021 wird sicherlich in die Geschichtsschreibung eingehen. Obwohl das Wort „Klima“ in der aktuellen Fassung des Grundgesetzes nirgendwo vorkommt, werden „Klimaschutz“ und darüber hinaus sogar die „Herstellung der Klimaneutralität“ quasi zu Verfassungszielen erhoben. Nach Ansicht des höchsten deutschen Gerichts rechtfertigt die Einhaltung des „2-Grad-Ziels“ und möglichst sogar des „1,5 -Grad-Ziels“ des Pariser Klimaabkommens sogar erhebliche staatliche Eingriffe in die im Grundgesetz verankerten Freiheitsrechte.

Als erstes Freiheitsrecht haben Gerichtspräsident Stephan Harbarth und seine sieben Richterkollegen in der ersten Kammer schon mit der Urteilsbegründung die Freiheit von Forschung und Lehre ins Visier genommen: Das Bundesverfassungsgericht sieht sich befugt, über naturwissenschaftliche Fragen durch Richterspruch statt wie sonst üblich durch naturwissenschaftlichen Nachweis zu entscheiden. Man könnte dies geradezu als eine Art Rückfall ins Mittelalter ansehen. Auch den religiösen und politischen Machthabern jener Epoche waren Menschen, die auf ihren eigenen Verstand vertrauten, ein Dorn im Auge. Diese unabhängigen Geister wagten es doch glatt, all das anzuzweifeln, was dem Volk von Fürsten und Priestern vorgesetzt wurde. In den jahrhundertelangen Auseinandersetzungen zwischen Naturwissenschaften einerseits und den religiösen sowie weltlichen Eliten andererseits markierte das Urteil der Inquisition gegen Galileo Galilei – einen der wesentlichen Begründer der modernen Naturwissenschaften – in gewisser Weise einen Wendepunkt. Bei diesem Prozess ging es im Grunde darum, ob es einem Untertanen erlaubt sei, die Vorgänge in der Natur durch Experiment und Logik zu klären oder ob die Machthaber – damals die Kirche mithilfe von Inquisitionsgerichten, die auch weltliche Macht bis hin zu Scheiterhaufen und Kerkerhaft ausübten – auch hier das letzte Wort hatten. Nach dem Skandalurteil gegen Galilei verlor die Kirche mehr und mehr an Ansehen. Die Naturwissenschaften konnten sich dagegen in langem, zähen Ringen nach und nach durchsetzen, auch wenn es bei der katholischen Kirche bis 1992 dauerte, bevor Galileo Galilei offiziell rehabilitiert wurde. Weltliche Gerichte hatten sich dagegen schon sehr viel länger davor gehütet, naturwissenschaftliche Fragen juristisch „klären“ zu wollen. In Fächern wie Physik, Chemie oder Mathematik gelten weder Mehrheitsmeinungen noch Gerichtsurteile, sondern ausschließlich Logik, Experiment und Beweisführung.

Bild 1. Das Henry-Gesetz in Aktion: Unter Druck in Sprudelwasser gelöstes CO2 gast beim Einschenken unter Blasenbildung aus (Foto: Autor)

Umso mehr überrascht es, wenn sich in der heutigen Zeit ein weltliches Gericht daranmacht, die Auffassungen von lediglich zwei akademischen Gremien zu quasi verbindlichen Verfassungsgeboten zu erheben. Hierbei handelt es sich zum einen um das IPCC (UN Intergovernmental Panel on Climate Change), das seit Jahren als Weltautorität in Klimafragen dargestellt wird. Zweiter Ideengeber des Karlsruher Urteils ist sodann der Sachverständigenrat für Umweltfragen (SRU). Dieses Gremium wurde von der Regierung mit handverlesenen Spezialisten besetzt, die allesamt Professortitel führen. Sie verfügen über Kompetenzen auf zahlreichen Gebieten wie Medizin, Biologie, Abfall und Recycling, Umweltrecht und Umweltforschung sowie Politikwissenschaft. Allerdings weist nur ein einziges Mitglied – ein Physiker und Geograf – die zur Beurteilung von Fragen der Klimawissenschaften erforderliche Ausbildung auf. Stellvertretende Vorsitzende des SRU ist Fr. Prof. Kemfert. Diese telegene und wortgewandte blonde Wirtschaftswissenschaftlerin wird in Presse und Medien gern interviewt beziehungsweise zu Talkshows eingeladen. Zwar wird sie dort als kompetent in Energiefragen dargestellt, doch ist sie de facto eine vehemente Lobbyistin der Solar- und Windenergiebranche. Auch fällt sie gelegentlich durch den Gebrauch von Begriffen aus dem Vokabular einer obskuren neomarxistischen Sekte auf.

Henrys Gesetz höchstrichterlich für unzutreffend erklärt

Naturwissenschaftliches Opfer des Karlsruher Urteils ist das Henry-Gesetz, das kaum jemand kennen dürfte, wenn er auf der Straße danach gefragt würde. Dabei sind seine Auswirkungen allgemein bekannt, denn es wirkt sicht- und hörbar jedesmal, wenn man eine Flasche Sprudelwasser oder eine Dose mit Erfrischungsgetränken öffnet: Unter intensivem Zischen bilden sich im Getränk über einen längeren Zeitraum Gasblasen. Bei diesem Gas handelt es sich um CO2, welches der Abfüller vorher dem Getränk unter hohem Druck zugefügt hatte, wobei es in der Flüssigkeit in Lösung ging. Beim Öffnen sinkt dieser Druck, und das CO2 drängt aus der Flüssigkeit wieder in Form von Gasblasen heraus.

Bild 2. Diese Aussage des Bundesverfassungsgerichts steht nicht im Einklang mit dem Henry-Gesetz

 

Das gleiche Gesetz erklärt auch, warum Fische im Hochsommer ersticken, weil im warmen Wasser zuwenig Sauerstoff enthalten ist, oder warum Taucher schwere Gesundheitsschäden durch Stickstoffblasen im Blut erleiden, wenn sie zu schnell auftauchen.

Bild 3. Henry erkannte, dass an der Grenzfläche zur Luft ein ständiger Gasaustausch stattfindet, so dass sich ein Gleichgewicht zwischen dem „inneren Druck“ des Gases in der Flüssigkeit und seinem Teildruck in der Atmosphäre einstellt (Grafik: Autor)

Das Henry-Gesetz ist nicht schwer zu verstehen: Die Grenzfläche zwischen Wasser und Luft ist für Gasmoleküle gut durchlässig, so dass ständig Moleküle aus der Atmosphäre ins Wasser wandern bzw. umgekehrt aus dem Wasser in die Atmosphäre. Dabei bildet sich nach einiger Zeit ein Gleichgewicht, sobald die Zahl der pro Zeiteinheit in die jeweilige Richtung wandernden Moleküle gleich ist. Man kann sich das Ganze so vorstellen, dass das Gas in der Flüssigkeit unter einem „inneren Druck“ steht, der den Ausgleich mit seinem Druckanteil (Partialdruck) in der Atmosphäre herbeiführt. Würde man den Stickstoffanteil der Atmosphäre plötzlich erhöhen, so würde sich solange zusätzlicher Stickstoff im Wasser lösen, bis das Gleichgewicht wieder hergestellt ist. Dieses Gesetz gilt auch für alle anderen Gase in der Atmosphäre. Berechnen kann man das Ganze recht einfach mithilfe der sogenannten Henry-Konstanten. Darüber hinaus hat auch die Temperatur einen großen Einfluss.

Erkannt und naturwissenschaftlich untersucht wurden diese Zusammenhänge bereits 1802/03 von dem englischen Arzt und Chemiker William Henry (1774 bis 1836). Das nach ihm benannte Henry-Gesetz beschreibt den Einfluss von Drücken und Temperaturen auf die Menge von in Wasser gelösten Gasen. Er hätte es sich wahrscheinlich nie träumen lassen, dass seine Erkenntnisse mehr als 200 Jahre später im fernen Deutschland höchstrichterlich angezweifelt werden könnten. Doch genau das ist in Karlsruhe geschehen.

Bild 4. Auch diese Aussage widerspricht den Erkenntnissen von William Henry

Kernaussagen des Karlsruher Urteils

Entscheidende Aussagen im Karlsruher Urteil sind:

  • Nur kleine Teile der anthropogenen Emissionen werden von den Meeren und der terrestrischen Biosphäre aufgenommen…
  • Der große Rest anthropogener CO2-Emissionen verbleibt aber langfristig in der Atmosphäre, summiert sich, trägt dort zur Erhöhung der CO2-Konzentration bei und entfaltet so Wirkung auf die Temperatur der Erde.
  • Im Gegensatz zu anderen Treibhausgasen verlässt CO2 die Erdatmosphäre in einem für die Menschheit relevanten Zeitraum nicht mehr auf natürliche Weise. Jede weitere in die Erdatmosphäre gelangende und dieser nicht künstlich wieder entnommene (unten Rn. 33) CO2-Menge erhöht also bleibend die CO2-Konzentration und führt entsprechend zu einem weiteren Temperaturanstieg.

Je mehr Wasser, desto mehr Gas kann es aufnehmen

Das Verhältnis der Gesamtmengen des Gases in der Atmosphäre und im Ozean hängt dabei von den Gesamtmengen des Gases im Wasser und in der Atmosphäre ab. Das ist einfach zu verstehen: Erhöht man die Wassermenge, so erhöht sich auch die Menge an Gas, die es bei gleichen Druck- und Temperaturverhältnissen aufnehmen muss, um das Druckgleichgewicht wieder herzustellen. Da unsere Ozeane im Verhältnis zur Atmosphäre riesig sind, enthalten sie um ein Vielfaches mehr an Gasen als die Atmosphäre selbst.

Bild 5. Je mehr Wasser, desto größer die Gasmenge, die in die Ozeane strömen muss, bis das Gleichgewicht wiederhergestellt ist (Grafik: Autor)

Bild 6. Mit seiner Aussage befindet sich das Karlsruher Gericht im Widerspruch nicht nur zum Henry-Gesetz, sondern auch zu Erkenntnissen der NOAA (National Oceanographic and Atmospheric Organisation) der USA

Da bekannt ist, welche Mengen an CO2 in der Atmosphäre bzw. im Meer enthalten sind, kann man bei Annahme konstanter Temperatur- und Luftdruckverhältnisse recht einfach berechnen, welche Anteile einer vom Menschen zusätzlich in die Atmosphäre freigesetzten Menge CO2 in der Atmosphäre verbleiben und wieviel davon im Ozean in Lösung gehen werden. Im Jahr 2008 enthielt die Erdatmosphäre angenähert 3.000 Gigatonnen CO2 (1 Gigatonne = 1 Milliarde Tonnen). Die Menge des in den Meeren gelösten CO2 liegt mit rund 140.000 Gigatonnen um etwa den Faktor 50 darüber. Daraus ergibt sich ein Verhältnis von 98 zu 2. Nach Henry werden somit von jeder zusätzlich in die Atmosphäre eingebrachten Tonne CO2 rund 98 % bzw. 980 kg in den Ozeanen dauerhaft in Lösung gehen. Behauptungen über Klimakatastrophen aufgrund einer „Vermüllung der Atmosphäre durch CO2“ mit der Folge einer „Selbstverbrennung“ sowie darauf fußende Berechnungen von „CO2-Restbudgets“ widersprechen elementaren naturwissenschaftlichen Erkenntnissen. Dies gilt auch für die Urteilsbegründungen deutscher oder niederländischer Gerichte. Die dadurch ermutigten Klima-NGO’s haben schon angekündigt, die „böse“ Industrie in ganz Europa mit einer Klagewelle zu überziehen. Die Klimakids von „Fridays for Future“ werden in voraussichtlich wenigen Jahren in einem Alptraum aufwachen und sich fragen, wie sie da nur hineinrutschen konnten. Wie sagte man dazu früher in China: „Mögest du interessante Zeiten erleben“.

Bild 7. Der Austausch von CO2 zwischen Ozean und Atmosphäre wird von Wissenschaftlern wie z.B. Prof. Andrew Watson ganz anders bewertet als vom Bundesverfassungsgericht, das seiner Interpretation allerdings quasi Verfassungsrang verliehen hat

Quellen

https://www.bundesverfassungsgericht.de/SharedDocs/Entscheidungen/DE/2021/03/rs20210324_1bvr265618.html

www.gesetze-im-internet.de/gg/BJNR000010949.html

https://ec.europa.eu/clima/policies/international/negotiations/paris_de https://www.un.org/en/global-issues/climate-change

https://www.ipcc.ch/

https://www.umweltrat.de/DE/SRU/Ratsmitglieder/ratsmitglieder_node.html

https://de.wikipedia.org/wiki/Galileo_Galilei

https://de.wikipedia.org/wiki/Henry-Gesetz

https://www.pmel.noaa.gov/co2/story/Ocean+Carbon+Uptake#:~:text=It%20takes%20about%20one%20year%20to%20equilibrate%20CO,the%20oceans%20due%20to%20biology%20and%20ocean%20circulation

https://de.wikipedia.org/wiki/Kohlenstoffdioxid_in_der_Erdatmosph%C3%A4re

https://worldoceanreview.com/en/wor-1/ocean-chemistry/co2-reservoir/

https://phys.org/news/2020-09-ocean-carbon-uptake-widely-underestimated.html

https://uitspraken.rechtspraak.nl/inziendocument?id=ECLI:NL:RBDHA:2021:5339




Wann ist es mit dem deutschen Wohlstand zu Ende?

Die Mene Tekel an der Wand sind nicht mehr zu übersehen. Die deutsche Infrastruktur hinkt zunehmend der von vergleichbaren Ländern hinterher. Ein stellvertretendes Beispiel unter vielen: Schon vor einer Woche am 18.Juni 2021 fiel die Salzbachtalbrücke über die A66 teilweise in sich zusammen und muss nun wohl gesprengt werden. Unter dieser Brücke verlaufen so gut wie alle Bahngleise, welche die Landeshauptstadt Wiesbaden mit Frankfurt verbinden (hier). Man kann sich die daraus wohl entstehende Verkehrskatastrophe vorstellen. Bemerkenswerterweise war dieses Mene Tekel den großen Medien bis jetzt (25.06.2021) keine Erwähnung wert, weil es, wie viele andere Vorzeichen, der Kenntnisnahme der Öffentlichkeit besser vorbehalten wird.

Die Fußball-Em ist wichtiger. Wer wagt es da noch, mit zusammenfallenden Brücken zu kommen! Noch wichtiger war es der Bundesregierung, sich auf fragwürdigen Wegen ein Verfassungsschutzurteil zu „bestellen“ (hier), um schärfere Klimaschutzmaßnahmen leichter gesetzlich durchzusetzen. Weil schon genug über Kosten und Wirkung dieser Klima-Maßnahmen geschrieben wurde, möge die zutreffende  Charakterisierung „Kosten gegen unendlich, Wirkung gegen Null“ ausreichen. Statt für Renten zu sorgen, die wenigstens thesaurierte Einzahlungen erreichen, will man die Kohlenutzung sowie das Diesel- und Benzinbetriebene Auto abschaffen. Mit der Kernenergie ist die Entsorgung bereits erledigt. Die entsprechenden Arbeitsplätze sind glücklicherweise nicht verloren, sie wandern bloß in andere Länder, in die sich die deutsche Autoindustrie und ihre Zulieferer zurückziehen.

Aber was sind schon verlorene Arbeitsplätze von deutschen Arbeitnehmern und Mitbürgern: Hat nicht während einer Demo 1990 die Grünenpolitikerin  Claudia Roth „Deutschland du mieses Stück Scheiße“ von sich gegeben (hier), eine Politikerin, der sogar das deutsche Grundgesetz unbekannt ist (hier). Und hat nicht die aktuelle zweite Hauptfigur der Grünen, Robert Habeck, geschrieben „Vaterlandsliebe fand ich stets zum kotzen, ich wusste mit Deutschland noch nie etwas anzufangen“ (in seinem Buch „Patriotismus – Ein linkes Plädoyer“, hier)? Dennoch liegen die Grünen nach der CDU auf dem zweiten Platz der Wählergunst – zweifellos von Wählern, deren Arbeitsplätze staatsversorgt/sicher sind, denn wer zu dem Teil der arbeitenden Bevölkerung gehört, der echte Realwerte schafft, wie beispielsweise gute Handwerker, ist vermutlich klüger. Das Bonmot Lenins vom „Strick liefern, an denen wir sie aufhängen werden…“ drängt sich hier auf (hier). Ein letztes Beispiel, welches fast jeden betrifft, liefert uns die Deutsche Bahn, die trotz erkennbarer Bemühungen nie mehr an die Zuverlässigkeit und Pünktlichkeit anknüpfen konnte, welche sie einmal besaß, als sie noch rein staatlich war.

Nun kann man für all diese schädlichen Entwicklungen mit etwas Recherche unschwer ihre zugehörigen individuellen Ursachen finden. So sind beispielsweise die marode Infrastruktur und die Bahnprobleme Folgen ungeeigneter Privatisierungen von Funktionen, die um jeden Preis verlässlich sein müssen und daher besser wie früher in Staatshand bleiben. Die Finanzindustrie hatte zudem auch in Deutschland zu viel Vorrang vor der Schaffung von Realwerten.

Es verbleibt dennoch eine Kernfrage: Gibt es vielleicht einen tieferen Grund aller Übel, die Deutschland zur Zeit heimsuchen, also einen Hauptmangel, der in wenigen Worten beschrieben werden kann und den jeder versteht? Ja, es gibt ihn! Er wird in einem sehr guten informativen Video des Youtube-Kanals von Roland Tichy (hier) deutlich ausgesprochen und beschrieben. Man stimmt sofort zu: genau, dies ist der Hauptmangel. Roland Tichy diskutierte hier mit seinen drei Gästen Thilo Sarrazin, dem Verfassungsrechtler Ulrich Vosgerau und dem CDU Bundestagsabgeordneten Klaus-Peter Willsch.

Eigentlich kennt den maßgebenden Hauptmangel jeder, der sich hinreichend illusionslos und mit klarem Kopf durch die Zeitläufte hangelt. Kaum jemand macht sich aber seine ungeheure Wirkung in allen Ausmaßen und Folgen klar. Jetzt ist er im Tichy-Video wohl am besten beschrieben und am deutlichsten artikuliert worden. Damit es nicht zu langweilig wird, soll der besagte Hauptmangel hier nicht genannt werden. Schauen Sie sich das Video einfach selber an, die etwa eine Stunde Zeit lohnt wirklich ! Wer es zu eilig hat, kann ihn ab etwa Minute 47 finden, vom Gast Thilo Sarrazin ausgesprochen und mit Beispielen belegt. Er ist leider nicht so einfach und rasch zu beheben. Wenn die Politik mit Unterstützung des Großteils der Bevölkerung es wirklich will, aber auch nur dann, wird dies eine Sache von mehreren Jahrzehnten werden.

Thilo Sarrazin? Sie wissen schon, der unverzichtbare Analytiker und Buchautor, einer der hellsten Köpfe unserer Republik. Seine Bücher werden von unserer Bundeskanzlerin Angela Merkel gemäß eigenem Eingeständnis nicht gelesen, aber dennoch als „nicht hilfreich“ bezeichnet. Gibt es eigentlich einen schöneren Ritterschlag für einen Buchautor als dieses Urteil?

 




Kältereport Nr. 15

Kühle Sommer im Vormarsch! Foto: © Chris Frey

Einführung des Übersetzers: Hier werden wieder einige Meldungen über Kalt-Ereignisse präsentiert, aber auch von einer Hitzewelle ist weiter unten die Rede. Dazu unten mehr.

Ende Einführung

Rekord-Junikälte: Frost in Teilen von UK

22. Juni: Westeuropa hat in letzter Zeit noch mehr unter ungewöhnlichen Kältegraden gelitten, die das bisher historisch kühle Jahr noch vervollständigen. Bei mir in Portugal zum Beispiel lagen die Tageshöchsttemperaturen in der letzten Woche etwa 10 bis 12 Grad unter der saisonalen Norm.

In England wurde in Ravenseat, North Yorkshire ein Tiefstwert von –1,4°C gemessen.

In den schottischen Highlands wurden Messwerte von bis zu -3,3°C registriert, was den kältesten 22. Juni in der Geschichte Großbritanniens bedeutete und die bisherige Rekordmarke von –0,7°C in Braemar, Aberdeenshire im Jahr 1999 brach.

Außerdem war der Messwert von heute Morgen der zweitniedrigste, der jemals in Großbritannien so spät in der Saison gemessen wurde.

Seit dem 24. Juni 1957 mit -3,3 °C (26 °F) war es in Großbritannien nicht mehr so spät so kalt.

Link: https://electroverse.net/rare-summer-frosts-sweep-the-uk-as-record-june-cold-sets-in/

———————————-

Antarktische Luft sucht West-Australien heim

22. Juni: Während der Osten Australiens in letzter Zeit für Kalt-Schlagzeilen sorgte, wird nun auch der Westen von antarktischer Luft heimgesucht. Perth, die Hauptstadt von Westaustralien, bekam am Dienstagmorgen, 22. Juni, einen brutalen Schuss antarktischer Kälte ab.

Perth erlebte gerade die kälteste Nacht seit zwei Jahren, verursacht durch Winde aus der Antarktis, berichtet abc.net.au.

Das Bureau of Meteorology (BOM) registrierte einen nächtlichen Tiefstwert von 1.9°C – die niedrigste Temperatur in der Stadt seit Mai 2019. Während ein Tiefstwert von 0.5C Am Flughafen Perth wurde ein Tiefstwert von 0,5°C aufgezeichnet – der niedrigste Wert seit 2015.

Link: https://electroverse.net/antarctic-air-engulfs-western-australia/

———————————-

Rekord-Kälte zum Sommeranfang in Saskatchewan, Kanada

23. Juni: Es war ein historisch kalter Start in den Sommer für Zentral- und Ostkanada, mit den Städten Lucky Lake, Rosetown und Leader in Saskatchewan unter den Orten, die diese Woche Rekord-Tiefsttemperaturen verzeichneten.

In Lucky Lake sank das Quecksilber am Montag, dem 21. Juni, auf 1 Grad Celsius, was den bisherigen Rekord von 3,5 Grad Celsius aus dem Jahr 2020 unterbot.

Im Leader-Gebiet wurde am Montag ein Tiefstwert von 2°C beobachtet, was kalt genug war, um den alten Richtwert von 3.3°C aus dem Jahr 1951 zu brechen.


Darüber hinaus haben historische Sommerfröste auch die Provinzen Manitoba, Ontario und das südliche Quebec heimgesucht.

[Link siehe nach der nächsten Meldung]

———————————-

Sommer in West-Virginia bringt stellenweisen Frost mit

24.Juni: Auf dem Kalender steht zwar Sommer, aber das Thermometer und die niedrige Luftfeuchtigkeit deuteten auf Winter im Canaan Valley hin, mit einem Wert von -0,6 °C am Mittwoch – einer der tiefsten Werte in den USA für diesen Tag.

Es war ein kühler, knackiger Morgen am dritten vollen Sommertag in Washington und am gesamten Mittelatlantik.

Und 125 Meilen westlich der Hauptstadt der Nation fühlte es sich tatsächlich wie Winter an.
Eine Wetterstation auf dem Boden des Canaan Valley in West Virginia registrierte mit einem morgendlichen Tiefstwert von –0,6°C eine der niedrigsten Juni-Messungen überhaupt.

Außerdem wurde am Washingtoner Reagan National Airport ein Tiefstwert von 13,9°C aufgezeichnet, während am Dulles International Airport 9,4°C) registriert wurden – das sind die niedrigsten Temperaturwerte an diesen Standorten für dieses Datum seit fast 3 Jahrzehnten (seit 1992).

Sieht das nach einer „katastrophalen globalen Erwärmung“ aus?

Link: https://electroverse.net/freezing-summer-lows-invade-west-virginia-as-polar-change-looms-for-nz/

———————————-

Rekord-Schnee- und Eis-ZUWACHS in Grönland

25. Juni: Nach den historischen SMB-Zuwächsen von Ende Mai hat Grönland nun ein enormes WACHSTUM verzeichnet, und das zu einer Zeit, in der es normalerweise Schnee und Eis verlieren würde.

Ein Blick auf die offiziellen Zahlen des Dänischen Meteorologischen Instituts (DMI) zeigt, dass gestern, am 24. Juni, ein Tageszuwachs von 4 Gigatonnen verzeichnet wurde – erstaunlich für die Jahreszeit: Nie zuvor in der aufgezeichneten Geschichte hat Grönland so spät in der Saison so viel Schnee und Eis ZUGEWONNEN.

[DMI]

Eine so große Ansammlung wurde zu dieser Jahreszeit noch nie dokumentiert – zumindest nicht seit Beginn der DMI-Aufzeichnungen im Jahr 1981. Ein Wachstum dieser Größenordnung würde im November bis Februar als normal gelten, aber nicht Ende Juni.

Laut den Klimaalarmisten sollte das Grönlandeis mittlerweile geschmolzen sein und in Vergessenheit geraten.

Und doch sind wir hier und verzeichnen rekordverdächtige Zuwächse:

[DMI]

Link: https://electroverse.net/yesterday-greenland-gained-a-record-breaking-amount-of-snow-and-ice/

———————————-

Und hier mal ein Musterbeispiel für Alarmismus bei www.wetteronline.de:

Spitzenwerte bis nahe 50 Grad: Rekordhitze im Nordwesten der USA

Auf noch nie dagewesene Temperaturen bis nahe 50 Grad müssen sich der Nordwesten der USA und die kanadische Provinz British Columbia einstellen. Zum Start in die neue Woche steigen die Temperaturen in den US-Bundesstaaten Washington und Oregon verbreitet über 40 Grad, vielfach wird sogar die 45-Grad-Marke geknackt. Selbst die nächtlichen Tiefsttemperaturen sinken dann kaum noch unter 25 Grad.

Link: https://www.wetteronline.de/wetterticker/1ee5930a-32fb-4953-af02-63758f3d52c5

Kommentar von Christian Freuer dazu: Soweit wetteronline.de dazu. Die Abweichung der Temperatur im 850 hPa-Niveau zeigt tatsächlich eine erhebliche positive Abweichung im Nordwesten der USA und dem angrenzenden Pazifik. Dem steht jedoch ein gewaltiges Defizit in weiten Teilen der USA gegenüber, wie diese Graphik zeigt:

Die simulierte Temperatur am Dienstag Nachmittag (Ortszeit) in den USA sieht so aus:

Schon im letzten Kältereport war von einer gewaltigen negativen Temperaturabweichung die Rede gewesen, damals aber in weiter östlich gelegenen Gebieten. Natürlich gibt es dabei nicht mehr Schnee und/oder Frost, aber eine Temperatur um rund 10 K unter dem Üblichen wird man sicher bemerken.

Zwar war ich nie im Nordwesten der USA, aber es ist doch sehr zu bezweifeln, ob das wirklich Rekordwerte sind. Die negative Temperaturabweichung im größten Teil der USA ist viel bedeutsamer. – Ende Kommentar

———————————-

wird fortgesetzt …

Zusammengestellt und übersetzt von Christian Freuer für das EIKE




Klimamodelle: Schlimmer als gar nichts?

Klimamodelle: Als ob man mit einem Taschenrechner das Wetter in 100 Jahren simulieren kann. Bild: Thorben Wengert / pixelio.de

Robert L. Bradley Jr., übernommen von AIER

Wenn in ferner Zukunft die Geschichte der Klimamodellierung geschrieben wird, könnte die wichtigste Geschichte sein, wie sich die einfache, berechenbare Antwort als die falsche herausstellte, was zu einer überschätzten Erwärmung und falschen Ängsten vor dem verstärkten (vom Menschen verursachten) Treibhauseffekt führte.

In der Zwischenzeit häufen sich die empirischen und theoretischen Beweise, die auf dieses spielverändernde Urteil hinweisen, trotz der besten Bemühungen des Establishments, wegzuschauen.

Betrachten Sie eine Pressemitteilung in diesem Monat von der University of Colorado Boulder, „Warmer Clouds, Cooler Planet“, mit dem Untertitel „precipitation-related ‚feedback‘ cycle means models may overestimate warming“ [etwa: Niederschlags-bezogener „Rückkopplungs“-Zyklus bedeutet, dass Modelle die Erwärmung überbewerten können].

„Die heutigen Klimamodelle zeigen mehr Wärme als ihre Vorgänger“, beginnt die Ankündigung:

Aber eine in dieser Woche veröffentlichte Arbeit zeigt, wie die Modelle sich auf der Seite der zu starken Erwärmung irren können: Die sich erwärmenden Wolken der Erde kühlen die Oberfläche stärker ab als erwartet, berichtet das Team unter deutscher Leitung in „Nature Climate Change“.

„Unsere Arbeit zeigt, dass der Anstieg der Klimasensitivität aus der letzten Generation von Klimamodellen mit einem großen Körnchen Salz genommen werden sollte“, sagte CIRES-Mitglied Jennifer Kay, eine außerordentliche Professorin für atmosphärische und ozeanische Wissenschaften an der CU Boulder und Co-Autorin des Papiers.

In der Pressemitteilung heißt es weiter, dass die Einbeziehung dieser negativen Rückkopplung die Klimamodelle der nächsten Generation verbessern wird, was angesichts der bevorstehenden Sechsten Bewertung des Intergovernmental Panel on Climate Change (IPCC) von größter Bedeutung ist. Aber werden konfliktbehaftete Modellierer und das politisierte IPCC mit dem Elefanten im Raum offen umgehen?

Hintergrund

Starke positive Rückkopplungen durch die Freisetzung von Kohlendioxid (CO2) und anderen vom Menschen verursachten Treibhausgasen (THG) sind es, die eine bescheidene und sogar positive Erwärmung in das Gegenteil verwandeln. Man geht davon aus, dass eine erhöhte Verdunstung in einer wärmeren Welt (vor allem aus den Ozeanen) eine stark positive Rückkopplung verursacht, die die primäre Erwärmung verdoppelt oder sogar verdreifacht.

Technisch ausgedrückt: Wassermoleküle fangen Wärme ein, und Wolken oder Dampf in der oberen tropischen Troposphäre – wo die Luft extrem trocken ist – fangen wesentlich mehr Wärme ein und verdicken das Treibhaus. Wie das Wasser in dieser oberen Schicht (≈30.000-50.000 Fuß) die Wärme entweder blockiert (vergrößert) oder freisetzt (vermindert), ist umstritten, so dass das Vorzeichen der Externalität für die Klimaökonomie unbekannt ist. Und es ist die obere Troposphäre, in der die Klimamodelle mit den Daten nicht zurechtkommen.

Die Annahme einer festen relativen Luftfeuchtigkeit erlaubt es den Modellierern, sich ceteris paribus auf veränderte physikalische Prozesse zu berufen, die die sekundäre Erwärmung durchaus negieren könnten. Diese umstrittene Annahme öffnet die Tür für Hyper-Modellierung, die im Widerspruch zur Realität steht. (Für Ökonomen wäre die Analogie die Annahme von „perfektem Wettbewerb“, um Hypermodellierung zu entfesseln.)

Seit Jahrzehnten haben Modellkritiker die vereinfachte Behandlung von Komplexität in Frage gestellt. In der Zwischenzeit haben die Klimamodelle viel mehr Erwärmung vorhergesagt, als eingetreten ist.

Theoretiker sind seit langem mit Modelltechnikern zerstritten. Richard Lindzen vom MIT, Autor von Dynamics in Atmospheric Physics, hat verschiedene Hypothesen darüber aufgestellt, warum die Wasserdampf-Rückkopplung viel geringer ist als modelliert. Judith Curry, deren Blog Climate Etc. eine führende Quelle ist, um physikalisch-wissenschaftliche und verwandte Entwicklungen zu verfolgen, ist eine weitere Kritikerin der hoch sensitiven Modelle.

Es gibt eine Reihe von glaubwürdigen Perspektiven, die ich versuche zu berücksichtigen“, sagt sie. „Es ist ein sehr komplexes Problem, und wir haben die Antworten noch nicht.“ Und weiter:

Und jetzt haben wir viel zu viel Vertrauen in einige sehr zweifelhafte Klimamodelle und unzureichende Datensätze. Und wir fassen das Problem nicht weit genug, um … glaubwürdige Vorhersagen über die Bandbreite der Dinge zu machen, die wir möglicherweise im 21. Jahrhundert noch erleben werden“.

Wie geht der ‚Mainstream‘ damit um?

Klimawissenschaftler wissen, dass Klimamodelle extrem kompliziert und anfällig sind. In What We Know About Climate Change (2018, S. 30), erklärt Kerry Emanuel vom MIT:

Die Computermodellierung des globalen Klimas ist vielleicht das komplexeste Unterfangen, das je von der Menschheit unternommen wurde. Ein typisches Klimamodell besteht aus Millionen von Zeilen mit Computeranweisungen, die eine enorme Bandbreite an physikalischen Phänomenen simulieren sollen….

Obwohl die Gleichungen, die die physikalischen und chemischen Prozesse im Klimasystem darstellen, gut bekannt sind, können sie nicht exakt gelöst werden. …. Das Problem dabei ist, dass viele wichtige Prozesse auf viel kleineren Skalen ablaufen.

Das Problem der Parametrisierung ähnelt den Irrtümern der Makroökonomie, wo die entscheidende Kausalität des individuellen Handelns ignoriert wird. Die Mikrophysik ist die treibende Kraft des Klimawandels, doch die Gleichungen sind ungeklärt und unter dem Gitterniveau. Wie die Makroökonomie hätte auch die Makroklimatologie schon längst hochqualifiziert und degradiert werden müssen.

Mein Mentor Gerald North, ehemaliger Leiter der Abteilung für Klimatologie an der Texas A&M, hatte bereits 1998-99 eine Reihe von Anmerkungen über die krude, überbewertete Natur von Klimamodellen, die auch heute noch relevant sind:

Wir wissen nicht viel über die Modellierung von Klima. Es ist so, als ob wir einen Menschen modellieren würden. Die Modelle sind endlich in der Lage, uns zu sagen, dass die Kreatur zwei Arme und zwei Beine hat, aber wir werden gebeten, Krebs zu heilen.

Es gibt einen guten Grund für den fehlenden Konsens in der Wissenschaft. Es ist einfach noch zu früh. Das Problem ist schwierig, und es gibt erbärmlich wenige Möglichkeiten, Klimamodelle zu testen.

Man muss herausfinden, was zwischen 5 km und der Oberfläche vor sich geht. Der Standardweg ist über atmosphärische Modelle. Eine bessere Ausrede kann ich nicht finden.

Die verschiedenen Modelle koppeln unterschiedlich an die Ozeane. Hier gibt es eine ganze Menge Spielraum (unbestimmte Fudge-Faktoren). Wenn ein Modell zu empfindlich ist, kann man einfach ein wenig mehr Ozean einkoppeln, damit es mit den Aufzeichnungen übereinstimmt. Das ist der Grund, warum Modelle mit unterschiedlichen Empfindlichkeiten die Aufzeichnungen alle etwa gleich gut nachahmen. (Modellierer wären von meiner Erklärung beleidigt, aber ich denke, sie ist richtig.)

Modellergebnisse könnten auch soziologisch sein: die sozial akzeptable Antwort zu bekommen.

Der 5. Sachstandsbericht des IPCC (2013), der „offizielle“ oder Mainstream-Bericht, erkennt die grundlegende Unsicherheit an, während er die Modellmethodik und -ergebnisse für bare Münze nimmt. „Die Komplexität der Modelle“, so heißt es (S. 824), „hat seit dem Ersten Sachstandsbericht des IPCC von 1990 erheblich zugenommen….“. Und weiter:

Jedoch führt jedes bisschen zusätzliche Komplexität, während es dazu gedacht ist, irgendeinen Aspekt des simulierten Klimas zu verbessern, auch neue Quellen möglicher Fehler (z.B. durch unsichere Parameter) und neue Wechselwirkungen zwischen Modellkomponenten ein, welche, wenn auch nur vorübergehend, die Simulation eines Modells von anderen Aspekten des Klimasystems verschlechtern können. Darüber hinaus besteht trotz der erzielten Fortschritte nach wie vor eine wissenschaftliche Unsicherheit bezüglich der Details vieler Prozesse.

Die demütigende Natur der Klimamodellierung wurde von The Economist im Jahr 2019 veröffentlicht. „Predicting the Climate Future is Riddled with Uncertainty erklärt:

Klimamodellierung ist ein komplizierter Prozess. Der Code eines Modells muss alles darstellen, von den Gesetzen der Thermodynamik bis hin zu den Feinheiten, wie Luftmoleküle miteinander interagieren. Die Ausführung bedeutet, dass Quadrillionen von mathematischen Operationen pro Sekunde ausgeführt werden – daher der Bedarf an Supercomputern.

Solche Modelle sind sehr grob. Millionen von Gitterzellen mögen viel klingen, aber das bedeutet, dass die Fläche einer einzelnen Zelle, von oben gesehen, etwa 10.000 Quadratkilometer beträgt, während eine Luft- oder Meereszelle ein Volumen von bis zu 100.000 km3 haben kann. Wenn man diese enormen Flächen und Volumina als Punkte behandelt, entgehen einem viele Details.

Wolken zum Beispiel stellen eine besondere Herausforderung für Modellierer dar. Je nachdem, wie und wo sie sich bilden, können sie das Klima entweder erwärmen oder abkühlen. Aber eine Wolke ist viel kleiner als die kleinsten Gitterzellen, so dass ihre individuelle Wirkung nicht erfasst werden kann. Das Gleiche gilt für regionale Effekte, die durch Dinge wie topografische Merkmale oder Inseln verursacht werden.

Die Erstellung von Modellen wird auch durch mangelndes Wissen über die Art und Weise erschwert, wie sich Kohlenstoff durch die Umwelt bewegt.

„Aber die Forscher tun das Beste, was sie können“, folgerte The Economist.

Tatsächlich überschätzen die Klimamodelle die Erwärmung deutlich, sogar um die Hälfte. Und die Lücke vergrößert sich, da ein kühles 2021 in vollem Gange ist. Und was die Zukunft betrifft, so wird die anthropogene Erwärmung durch den logarithmischen und nicht linearen Effekt des Treibhauseffekts begrenzt. Der Sättigungseffekt bedeutet, dass der Anstieg der Erwärmung immer geringer wird, je mehr CO2 in der Atmosphäre enthalten ist. Die Erwärmung aus einer Verdopplung des CO2 tritt also nicht bei einer Verdreifachung, sondern bei einer Vervierfachung wieder ein.

Das Mitigationsfenster schließt sich also rapide, was die schrille Sprache prominenter Politiker erklärt. Aber es sind die zugrunde liegenden Klimamodelle, nicht das Klima selbst, dem die Zeit davonläuft.

Unsettled“ gelangt in den Mainstream

Die krude Methodik und die falschen Schlussfolgerungen der Klimamodellierung treten aus dem Schatten. Der Physiker und Computerexperte Steven Koonin erklärt in seinem einflussreichen Werk Unsettled: What Climate Science Tells Us, What it Doesn’t, and Why It Matters (Kapitel 4):

Klimamodellierung ist zentral für die Klimawissenschaft….. Doch viele wichtige Phänomene treten auf Skalen auf, die kleiner sind als die 100 km (60 Meilen) Gittergröße (z.B. Berge, Wolken und Gewitter), und so müssen Forscher „Untergitter“-Annahmen machen, um ein vollständiges Modell zu bauen….

Da die Ergebnisse im Allgemeinen nicht viel mit dem von uns beobachteten Klimasystem übereinstimmen, passen die Modellierer diese Parameter an („frisieren“), um eine bessere Übereinstimmung mit einigen Merkmalen des realen Klimasystems zu erzielen.

Untertuning macht das Modell unrealistisch, aber Übertuning „riskiert, die Antwort vorher zu bestimmen“, fügt Koonin hinzu. Er zitiert dann aus einem Papier, das von 15 Weltklasse-Modellierern mitverfasst wurde:

… Tuning wird oft als ein unvermeidlicher, aber schmutziger Teil der Klimamodellierung gesehen, mehr Technik als Wissenschaft, ein Akt der Bastelei, der es nicht verdient, in der wissenschaftlichen Literatur festgehalten zu werden…. Tuning kann in der Tat als ein unsäglicher Weg gesehen werden, um Modellfehler zu kompensieren.

Conclusion

Die Klimamodellierung war also wohl schlimmer als nichts, weil falsche Informationen als wahr und als „Konsens“ präsentiert wurden. Alarmismus und störender politischer Aktivismus (erzwungene Substitution von minderwertigen Energien; Infragestellung von Lebensstil-Normen) haben sich verselbständigt. Achtung, fertig, los hat die Besonnenheit ersetzt, von der Wissenschaft bis zur öffentlichen Politik.

Die Daten widersprechen weiterhin naiven Klimamodellen. Eine sehr schwierige Theorie erklärt langsam aber sicher, warum. Die Klimadebatte ist zurück in der physikalischen Wissenschaft, aus der sie sich nie hätte entfernen dürfen.

Link: https://wattsupwiththat.com/2021/06/24/climate-models-worse-than-nothing/

Übersetzt von Christian Freuer für das EIKE

 




Windenergie in der Krise – Teil 2: Jetzt geht es dem Wald an den KragenVon

Von Alex Reichmuth Nebelspalter

In Deutschland ist der Ausbau der Windkraft ins Stocken geraten. Nun sollen die Regeln für den Bau neuer Windräder gelockert und mehr Flächen dafür reserviert werden – auch im Wald. In der Schweiz kommt die Windenergie ebenfalls nicht vom Fleck.

Jedes fünfte neue Windrad in Deutschland wird in den Wald gebaut. Bild: Shutterstock

(Lesen Sie hier Teil 1: In Deutschland stockt der Ausbau)

Deutschland will seine Stromerzeugung ganz auf erneuerbare Energiequellen umstellen. Das Land nimmt laufend Atom- und Kohlekraftwerke vom Netz. Die letzten AKW sollen nächstes Jahr abgestellt werden. Der Kohleausstieg soll bis 2038 gelingen. Deutschland plant, den Anteil der erneuerbaren Energien am Stromverbrauch bis 2030 auf 65 Prozent zu steigern.

Heute sind es 45 Prozent.

Doch der Ausbau der erneuerbaren Stromproduktion stockt. In Deutschland häufen sich darum×Stimmen, die vor einem Strommangel warnen. Wenn Fotovoltaik und Windenergie nicht schneller ausgebaut würden, könnte sich der Ausstieg aus der Kohleverstromung um viele Jahre verzögern, mahnte etwa das Marktforschungsunternehmen EUPD. Schon in zwei Jahren sei mit einer erheblichen Unterdeckung des Strombedarfs zu rechnen. Die Bundesregierung renne «sehenden Auges» in eine Stromlücke.

«Wir müssen durch die verschärften Klimaziele Deutschlands und der EU von einem deutlich höheren Strombedarf ausgehen, als es bisher zugrunde gelegt wurde.»

Peter Altmaier, Wirtschaftsminister Deutschland

Bundeswirtschaftsminister Peter Altmaier (CDU) hat kürzlich eingeräumt, sein Ressort habe unterschätzt, wie stark der Strombedarf in Deutschland künftig steige – dies etwa wegen der Elektrifizierung des Strassenverkehrs und der Umstellung auf Wärmepumpen zum Heizen. «Wir müssen durch die verschärften Klimaziele Deutschlands und der EU von einem deutlich höheren Strombedarf ausgehen, als es bisher zugrunde gelegt wurde», sagte Altmaier zur «Wirtschaftswoche». Nötig seien viel mehr Windkraft- und Solaranlagen.

Mindestabstände verhindern Windkraft-Projekte

Vor allem der Ausbau der Windenergie kommt in Deutschland nur noch schleppend voran. Während 2016 und 2017 noch Windparks mit einer Leistung von 4625 Megawatt (MW) beziehungsweise 5334 MW neu in Betrieb genommen wurden, waren es 2018 noch 2402 MW, 2019 noch 1078 MW und letztes Jahr 1431 MW. In einzelnen Bundesländern, wie Bayern oder Baden-Württemberg, werden fast gar keine neuen Windräder mehr errichtet.

Aufwändige Planungs- und Genehmigungsverfahren stehen der Windkraft im Weg. Die vorgeschriebenen Mindestabstände zu Siedlungen verhindern viele Projekte. Auflagen in Sachen Lärm und Vogelschutz erschweren den Ausbau. Vielerorts kämpfen Anwohner erbittert gegen geplante Windparks und nutzen jede rechtliche Möglichkeit zur deren Verhinderung.

Vielen bestehenden Windparks in Deutschland droht die Abschaltung. Denn nach zwanzig Jahren Betrieb eines Windrads läuft die finanzielle Förderung aus.

Zudem droht vielen bestehenden Windparks die Abschaltung. Nach zwanzig Jahren Betrieb eines Windrads läuft die finanzielle Förderung aus. Ohne garantierte Abnahmepreise aber lohnt sich der Weiterbetrieb meistens nicht. Bis 2025 könnten darum 15’000 MW WindkraftLeistung wegfallen – mehr als ein Viertel der Leistung, die an Land installiert ist.

Um der Windenergie neuen Schwung zu verleihen, sollen in Deutschland nun die

Bedingungen für den Ausbau gelockert werden. Wirtschaftsminister Peter Altmaier hat sich für ein einfacheres und zügigeres Verfahren zur Bewilligung von Windkraftanlagen ausgesprochen. Es brauche schnellere Verfahren und andere Regeln in Sachen Naturschutz, sagt er zur «Wirtschaftswoche». Die Genehmigungen sollten künftig wenn immer möglich innerhalb eines Jahres erteilt werden. Zudem müssten nicht einzelne Tiere vor den Rotoren geschützt werden, so Altmaier, sondern nur Tierarten als Ganzes. Sonst werde die Energiewende nicht gelingen.

Zwei Prozent der Fläche für Windräder

Umweltministerin Svenja Schulze (SPD) fordert, mehr Flächen für den Bau von Windparks zu reservieren. «Wer ja sagt zu mehr Klimaschutz, der muss auch ja sagen zu mehr Strom aus Wind und Sonne», sagte sie zur Deutschen Presse-Agentur. Zwei Prozent der Landesfläche müssten für die Errichtung von Windrädern zur Verfügung stehen. Denn ohne ausreichende Flächen brächten die schnellsten Genehmigungsverfahren nichts.

Bundesländer wie Bayern und Baden-Württemberg × gingen beim Windkraft-Ausbau «im Schneckentempo» voran, kritisierte

Umweltministerin Svenja Schulze (SPD).

Bundesländer wie Bayern und Baden-Württemberg gingen beim Windkraft-Ausbau «im Schneckentempo» voran, kritisierte Schulze. «So kann es nicht weitergehen, wenn wir unseren Industriestandort mit seinem Energiebedarf nicht gefährden wollen.»

Mehr Flächen für Windräder zu reservieren, würde aber mit Sicherheit bedeuten, dass vermehrt Standorte im Wald vorgesehen werden. Im Bundesland Hessen etwa will die Regierung zwei Prozent der Landesfläche zu Windvorranggebieten erklären. Naturschützer warnen vor gravierenden Folgen für die letzten ungestörten Wälder, etwa den weitläufigen Pfälzerwald. Auch die Regierung von Baden-Württemberg will zwei Prozent der Fläche für erneuerbare Energien zur Verfügung stellen. Ziel sei es, den Staatswald stärker für den Ausbau zu öffnen, und dort bis zu 500 Windanlagen zu bauen.

In den letzten zehn Jahren wurden in Deutschland schon 1400 Hektaren Wald für den Bau von Windparks gerodet – eine Fläche so gross wie 2000 Fussballfelder. Mittlerweile stehen 2020 Anlagen in Waldgebieten, was sieben Prozent aller Windparks ausmacht. Von den neu gebauten Windräder kommen sogar 20 Prozent im Wald zu stehen.

Erst 43 Windturbinen in der Schweiz

Auch in der Schweiz geht bezüglich dem Ausbau der Windkraft fast nichts. Hierzulande sind gerade mal 43 Windturbinen in Betrieb. Der Widerstand der Bevölkerung gegen den Bau neuer Windanlagen ist gross. So brachte die Gemeindeversammlung von Muttenz bei Basel vor einigen Tagen ein geplantes Windrad im Hardwald zu Fall. Auch in der Ortschaft

Murzelen bei Bern gibt es keinen Windpark: Der Gemeinderat hat sich gegen den Bau von vier Anlagen mit einer Höhe von 240 Metern entschieden – auch wegen der Gegenwehr der Anwohner. Seit der Bundesrat vor zehn Jahren die Energiestrategie aufgegleist hat, kamen nur gerade in Haldenstein, auf dem Gotthard und in Peuchapatte neue Windräder zu stehen. Gemäss der Botschaft zum ersten Massnahmenpaket der Energiestrategie von 2013 sollte die Windenergie 2020 eigentlich 0,66 Terawattstunden zur Schweizer Stromproduktion beitragen. Doch de facto waren es 2019 erst 0,1 Terawattstunden.×

Vor allem in der Deutschschweiz gehe der  Windenergie «langsam die Puste aus», schreibt Freie Landschaft Schweiz, der Verband der Windkraftgegner.

Im Rahmen der Energiestrategie des Bundes ist seit 2013 vorgesehen, dass die Windkraft 2050 jährlich 4,3 Terawattstunden Strom beisteuert. Das sind verglichen mit dem Verbrauch von 2020 fast acht Prozent. Der Bundesrat hält im revidierten Energiegesetz, das er letzte Woche an das Parlament überwiesen hat, zwar an diesem Ziel fest, hat aber das Zwischenziel für 2035 gesenkt: von 1,76 Terawattstunden auf 1,2 Terawattstunden.

Doch selbst das scheint schwer zu erreichen. Vor allem in der Deutschschweiz gehe der Windenergie «langsam die Puste aus», schreibt Freie Landschaft Schweiz, der Verband der Windkraftgegner. Insgesamt gebe es diesseits des Röstigrabens nicht einmal mehr zwölf Standorte, wo aktiv ein Windstrom-Projekt in der Planung vorangetrieben werde. Dagegen seien in der Schweiz in den letzten fünf Jahren 16 Windparks abgelehnt oder sistiert worden, zwölf davon in der Deutschschweiz. «Die Politik muss einsehen: Die Windenergie-Pläne des Bundes zerbrechen je länger je mehr am Widerstand der Bevölkerung», bilanziert Freie Landschaft Schweiz.

 

Der Beitrag erschien zuerst beim Nebelspalter hier