Fracking – und der deutsche Kampf dagegen

ERDGASFÖRDERUNG IN DEUTSCHLAND

Beim 2017 eingeführten Fracking-Verbot spielten Umwelt-NGOs eine entscheidende Rolle: Sie zeichneten ein Schreckensbild der Technologie, das mit der Realität nichts zu tun hat. Das Verbot sollte bis mindestens 2021 gelten, danach sollte der Bundestag entscheiden. Doch der rührt sich nicht. 

von Holger Douglas

Der Erdgaspreis stieg dramatisch an. Die Erdgasmengen, die die Gasfelder in Nordamerika und in der Nordsee lieferten, gingen zurück. Das war 2008, also noch gar nicht so lange her. ‚Das war’s jetzt mit dem Erdgas‘ – war die Stimmung zu jener Zeit.

Doch bereits vor 25 Jahren hatte der amerikanische Erdöl-Ingenieur Nick Steinsberger probiert, wie man Schiefergestein tief unter der Erde aufspaltet, damit Erdgas entströmen kann. Eine alte Idee: Bereits in den 1940er Jahren war die sogenannte hydraulische Frakturierung erfunden worden. Dabei pumpen die Ingenieure Erdölgele in gashaltige Schichten, um das Gas zum Fließen zu bringen. Doch das funktionierte nicht im Schiefergestein, das jedoch erhebliche Mengen an Gas und Öl enthält. Die Schieferschichten schließen die Gasvorkommen ein; es galt also, das Gestein durchlässig zu machen.

Steinsberger probierte es, indem er Wasser und dann Sand in die Risse leitete. So wurde das Gas aus den Bläschen im Gestein herausgedrückt. Mit dieser »Slick-Water-Fracking«-Methode kam er mit weit weniger Chemikalien aus als bei früheren Technologien – der Weg zur Ausbeutung mächtiger weltweiter Schiefergasvorkommen war frei.

Ein Ergebnis dieser neuen Methode: Die Erdgasproduktion in den USA stieg rasch an, bald darauf ebenso die Öl-Produktion. Die USA überholten Russland als größten Gasproduzenten der Welt und Saudi-Arabien als größten Ölproduzenten. Heute ist Steinberger Chef eines Gasconsulting-Unternehmens und war bereits an mehr als 1000 Schieferbohrungen beteiligt.

Der billige Gaspreis zog zahlreiche Chemieunternehmen an, die Fabriken in den USA aufbauten – darunter auch die deutsche BASF. Dies ist die große Energiegeschichte des letzten Jahrzehnts, so sagen Öl- und Gasexperten – im Gegensatz zur Wind- und Solarenergie, die kaum mehr als zwei Prozent der weltweiten Primärenergie liefern. Damals dachte man sich nichts dabei, ölhaltige Stoffe ins Gestein zu pumpen. Denn diese Gesteine sind schließlich bereits mit Öl und Gas getränkt. Die Panik vor dem Fracking kam erst später auf, als NGOs Kampagnen gegen Fracking als lukratives neues Geschäftsfeld entdeckten.

Es war im Wesentlichen ein Videofilm aus dem Jahr 2010, der mit zweifelhaften Methoden massive Angst vor dem Fracking erzeugte: »Gasland«. Vor allem eine Szene schürte die Angst, in der aus einem Wasserhahn strömendes Methan angezündet wurde. Doch ist dies an einer Reihe von Orten ein natürliches Phänomen, wenn Grundwasser mit Gas in Verbindung kommt und »verunreinigt« wird. In diesem Fall, von dem der Film erzählt, wurde das Wasser vom Wasserwerk durch Kohleflöze geleitet; dabei reicherte es sich auch etwas mit Methan an. Mit Frackingmethoden hatte dies nichts zu tun.

Auch hierzulande wird eine Verschmutzung des Grundwassers bei der Gewinnung von Schiefergas als Argument gegen das Fracking vorgeschoben. Doch Grundwasser kommt meist aus Tiefen zwischen 20 und 50 Meter, mitunter auch maximal bis 400 Meter. Erdgas dagegen wird aus 3000 bis 5000 Meter Tiefe gefördert. Die notwendigen Chemikalien sollen wie Seife die Gleitfähigkeit erhöhen, Bakterien bekämpfen und Ablagerungen verhindern. Je nach Bohrloch-Lagerstätten werden unterschiedliche Mittel in sehr verdünntem Maßstab eingesetzt.

Der ehemalige Generalsekretär der Nato, Anders Rasmussen, hat seinerzeit sogar  Russland vorgeworfen, die Umweltbewegung im Westen zu unterstützen – mit dem Ziel: die Abhängigkeit Europas von importiertem russischen Gas aufrechtzuerhalten.

In Deutschland werden nur noch etwa fünf Prozent des Bedarfs an Erdgas selbst gefördert. Doch die Mengen ließen sich relativ rasch wesentlich erhöhen. Nach der Bundesanstalt für Geowissenschaften und Rohstoffe würden die Vorkommen ausreichen, den Bedarf von Deutschland für etwa 25 Jahre zu decken. Die Förderung könnte innerhalb eines halben Jahres beginnen und schnell gesteigert werden.

Doch seit 2017 besteht ein Frackingverbot in Deutschland. Die damalige CDU-Kanzlerin hat mit der damaligen SPD-Umweltministerin Barbara Hendricks in einer Nacht- und Nebelaktion das sogenannte Fracking-Verbot durchgedrückt. Das Verbot des sogenannten unkonventionellen Frackings sollte bis mindestens 2021 gelten. Danach sollte der Bundestag eigentlich entscheiden, ob es bei den Regelungen bleibt. Tut der Bundestag nichts, würde das Verbot weiter gelten. Doch der Bundestag rührte sich nicht.

Im Augenblick stellt auch der stellvertretende Vorsitzende der Expertenkommission Fracking, Holger Weiß, das in Deutschland geltende Verbot der Erdgasförderung in Frage. »Man kann das eigentlich nur mit ideologischen Vorbehalten erklären. Einer sachlichen Grundlage entbehrt das«, so Weiß gegenüber der Frankfurter Allgemeinen Sonntagszeitung. Die beim Fracking mittlerweile verwendete Flüssigkeit sei kein Gift. »Das ist Spüli!« Weiß: »Heutzutage kann man Fracking mit einem vertretbaren Restrisiko machen.« Auch der Geologe Christoph Hilgers vom Karlsruher Institut für Technologie meinte: »Wenn man Fracking richtig macht, ist das Risiko gering. Das ist eine etablierte Technologie.«

Der ehemalige Präsident der Bundesanstalt für Geowissenschaften und Rohstoffe, Hans-Joachim Kümpel, wies in einem Gespräch mit der Welt auf die hohen Sicherheitsstandards und umfangreiche Genehmigungsverfahren hin, die es hier gebe. Einige Frackingvorhaben in den USA wären hier nicht genehmigt worden. Außerdem verfügten die Geologischen Dienste über hochaufgelöste Daten aus dem Untergrund und wüssten daher ziemlich genau über die Verhältnisse im Untergrund Bescheid. Nicht nur im Untergrund von Niedersachsen, sondern auch in Nordrhein-Westfalen sei mit den alten Flözgasen ein großes Potenzial vorhanden.

Doch hierzulande geht die derzeit bescheidene inländische Erdgasförderung weiter zurück – anstatt ausgeweitet zu werden. Die Frage ist jetzt: Wie viele Unternehmen, die viel Gas benötigen, müssen noch dicht machen, bevor Bewegung in die Förderung eigener Energievorkommen kommt? In Großbritannien wurde das Frackingverbot Ende September aufgehoben. Ein entsprechendes Fracking-Moratorium wurde Ende September aufgehoben, damit solle die Energiesicherheit des Landes gestärkt werden.

Außerdem will Großbritannien bis 2040 zum Netto-Energieexporteur werden. Die Kurzzeit-Premierministerin Lizz Truss hatte noch am Rande der UN-Generalversammlung in New York die Aufhebung verteidigt: »Fracking ist ein Teil des Energiemixes, wir sollten alle Optionen prüfen«. Alles müsse auf den Tisch, um die Energiesicherheit zu verbessern. »Denn das ist das Hauptproblem, mit dem wir konfrontiert sind.« Großbritannien verfügt ebenfalls über sehr reichhaltige Schiefervorkommen vor allem in Lancashire und Yorkshire, die für viele Jahrzehnte ausreichen.

Der Beitrag erschien zuerst bei TE hier

 




Ein verstecktes Universum der Unsicherheit

Kip Hansen

Jedes Mal, wenn jemand in unserer Gemeinschaft, der Gemeinschaft der Wissenschaftsskeptiker oder Realisten®, über Unsicherheit und deren Auswirkungen auf von Experten begutachtete wissenschaftliche Ergebnisse spricht, wird er sofort beschuldigt, Wissenschaftsleugner zu sein oder zu versuchen, den gesamten Bereich der Wissenschaft zu untergraben.

Ich habe hier immer wieder darüber geschrieben, dass die Ergebnisse der meisten Studien in der Klimawissenschaft die Unsicherheit ihrer Ergebnisse bei weitem unterschätzen.  Lassen Sie mich dies so deutlich wie möglich sagen: Jedes Ergebnis, das keine ehrliche Diskussion der mit der Studie verbundenen Unsicherheiten enthält, angefangen bei den Unsicherheiten der Rohdaten bis hin zu den Unsicherheiten, die durch jeden Schritt der Datenverarbeitung hinzugefügt werden, ist die digitale Tinte nicht wert, mit der es veröffentlicht wird.

[Hervorhebung vom Übersetzer]

Eine neue große, von mehreren Forschungsgruppen durchgeführte und in den Proceedings of the National Academy of Sciences veröffentlichte Studie wird die Forschungswelt aufrütteln. Sie stammt ausnahmsweise nicht von John P.A. Ioannidis, der für sein Buch „Why Most Published Research Findings Are False“ bekannt ist.

Der Titel der Studie lautet [übersetzt]: „Die Beobachtung vieler Forscher, die dieselben Daten und Hypothesen verwenden, enthüllt ein verborgenes Universum idiosynkratischer Ungewissheit“ [ oder als .pdf hier].

Das ist gute Wissenschaft. So sollte Wissenschaft gemacht werden. Und so sollte Wissenschaft veröffentlicht werden.

Erstens, wer ist der Verfasser dieser Studie?

Das waren Nate Breznau und viele viele andere. Breznau ist an der Universität Bremen tätig. Bei den Koautoren gibt es eine Liste von 165 Koautoren aus 94 verschiedenen akademischen Einrichtungen. Das bedeutet, dass es sich nicht um die Arbeit einer einzelnen Person oder einer einzelnen verärgerten Forschungsgruppe handelt.

Was haben sie getan?

Die Forschungsfrage lautet wie folgt: „Werden verschiedene Forscher zu ähnlichen Ergebnissen kommen, wenn sie dieselben Daten analysieren?

Sie taten dies:

Dreiundsiebzig unabhängige Forschungsteams haben identische länderübergreifende Umfragedaten verwendet, um eine etablierte sozialwissenschaftliche Hypothese zu testen: dass mehr Einwanderung die öffentliche Unterstützung für die Bereitstellung von Sozialmaßnahmen durch die Regierung verringert.“

Was haben sie herausgefunden?

Anstelle einer Konvergenz variierten die numerischen Ergebnisse der Teams stark und reichten von großen negativen bis zu großen positiven Auswirkungen der Einwanderung auf die öffentliche Unterstützung.“

Eine andere Möglichkeit, dies zu betrachten, besteht darin, die tatsächlichen numerischen Ergebnisse der verschiedenen Gruppen zu betrachten, die dieselbe Frage unter Verwendung identischer Daten stellten:

Der Diskussionsteil beginnt mit folgendem Satz:

„Diskussion: Die Ergebnisse unseres kontrollierten Forschungsdesigns in einem groß angelegten Crowdsourcing-Forschungsprojekt, an dem 73 Teams beteiligt waren, zeigen, dass die Analyse derselben Hypothese mit denselben Daten zu erheblichen Unterschieden bei den statistischen Schätzungen und inhaltlichen Schlussfolgerungen führen kann. Tatsächlich kamen keine zwei Teams zu den gleichen numerischen Ergebnissen oder trafen während der Datenanalyse die gleichen wichtigen Entscheidungen.“

Will jemand noch mehr wissen?

Wenn Sie wirklich wissen wollen, warum Forscher, die dieselbe Frage stellen und dieselben Daten verwenden, zu völlig unterschiedlichen und widersprüchlichen Antworten kommen, müssen Sie die Studie lesen.

Was hat dies mit dem Many-Analysts-Ansatz zu tun?

Im Juni letzten Jahres habe ich über einen Ansatz für wissenschaftliche Fragen geschrieben, der sich „The Many-Analysts Approach“ nennt.

Der Many-Analysts-Ansatz wurde wie folgt angepriesen:

Wir argumentieren, dass die derzeitige Art der wissenschaftlichen Veröffentlichung – die sich mit einer einzigen Analyse begnügt – die „Modell-Myopie“, eine begrenzte Berücksichtigung statistischer Annahmen, verfestigt. Dies führt zu übermäßigem Selbstvertrauen und schlechten Vorhersagen. … Um die Robustheit ihrer Schlussfolgerungen zu beurteilen, sollten die Forscher die Daten mehreren Analysen unterziehen, die idealerweise von einem oder mehreren unabhängigen Teams durchgeführt werden.

In der neuen Studie, die heute diskutiert wird, heißt es dazu:

Selbst hoch qualifizierte Wissenschaftler, die motiviert sind, zu genauen Ergebnissen zu kommen, unterscheiden sich enorm in dem, was sie herausfinden, wenn ihnen dieselben Daten und Hypothesen zur Prüfung vorgelegt werden. Die übliche Präsentation und der Konsum wissenschaftlicher Ergebnisse legten nicht die Gesamtheit der Forschungsentscheidungen im Forschungsprozess offen. Unsere Schlussfolgerung ist, dass wir ein verborgenes Universum idiosynkratischer Forschervariabilität erschlossen haben.

Und das bedeutet für Sie und mich, dass weder der Ansatz mit vielen Analysten noch der Ansatz mit vielen Analyseteams das Real World™-Problem lösen wird, das sich aus den inhärenten Unsicherheiten des modernen wissenschaftlichen Forschungsprozesses ergibt – viele Analysten/Teams werden leicht unterschiedliche Ansätze, unterschiedliche statistische Verfahren und leicht unterschiedliche Versionen der verfügbaren Daten verwenden. Die Teams treffen Hunderte von winzigen Annahmen, die sie meist als „beste Praktiken“ betrachten. Und aufgrund dieser winzigen Unterschiede kommt jedes Team zu einem absolut vertretbaren Ergebnis, das mit Sicherheit einer Peer-Review standhält, aber jedes Team kommt zu unterschiedlichen, ja sogar widersprüchlichen Antworten auf dieselbe Frage, die an dieselben Daten gestellt worden ist.

Das ist genau das Problem, das wir in CliSci jeden Tag sehen.  Wir sehen dieses Problem in der Covid-Statistik, der Ernährungswissenschaft, der Epidemiologie aller Art und vielen anderen Bereichen. Dies ist ein anderes Problem als die unterschiedlichen Voreingenommenheiten bei politisch und ideologisch sensiblen Themen, der Druck in der Wissenschaft, Ergebnisse zu finden, die mit dem aktuellen Konsens im eigenen Fachgebiet übereinstimmen, und die schleichende Krankheit der Kumpel-Begutachtung (Pal-Review).

In der Klimawissenschaft herrscht der Irrglaube vor, dass mehr Verarbeitung – Mittelwertbildung, Anomalien, Kriging, Glättung usw. – die Unsicherheit verringert. Das Gegenteil ist der Fall: mehr Verarbeitung erhöht die Unsicherheiten. Die Klimawissenschaft erkennt nicht einmal die einfachste Art der Unsicherheit an – die ursprüngliche Messunsicherheit – sondern wünscht sie sich weg.*

[*Einschub des Übersetzers: In seiner über 40-jährigen Praxis im Bereich Wetteranalyse und -vorhersage konnte der Übersetzer die Erfahrung machen, dass numerische Modelle im Kurzfristbereich zwar eine enorme Verbesserung der Vorhersagegüte erzielt werden konnte, während mittel- und langfristig (4 bis 10 Tage) im Voraus die Unsicherheiten direkt proportional zur Anzahl der Modellrechnungen stiegen.

Um die Güte numerischer Modellrechnungen zu testen, wird der Anfangszustand in ein und demselben Modell künstlich geringfügig verändert. Denn auch die Numerik kann nur auf der Grundlage aktueller Meldungen funktionieren. Nun gibt es aber bekanntlich riesige Meldelücken, die zwar mit High Tech überbrückt werden können (z. B. Fernerkundung mittels Satelliten), aber Extrapolationen müssen trotzdem gemacht werden. Die winzigen Änderungen des Ausgangszustandes sind mit bloßem Auge gar nicht erkennbar.

Lässt man nun aber die Modelle mit diesen geringfügigsten Änderungen immer wieder laufen, zeigt sich Folgendes:

Abbildung 2: Numerische Simulation der Änderung im 500-hPa-Niveau. Links: nach 24 Stunden (1 Tag; Quelle), Mitte: nach 168 Stunden (1 Woche; Quelle), Rechts: nach 384 Stunden (15 Tage; Quelle)

Fazit: Nach einer Woche ist immerhin noch tendenziell ein Strömungsmuster erkennbar, nach 15 Tagen aber nicht mehr. Alle Lösungen beruhen auf der gleichen Ausgangslage und sind gleich wahrscheinlich!

Nun ja, unsere werten Alarmisten, Politiker und MSM wollen uns ja einreden, dass sie derartige Simulationen für viele Jahrzehnte im Voraus berechnen können – mit einer Zuverlässigkeit, die angeblich schon jetzt drastische Maßnahmen mit in jeder Hinsicht verheerenden Folgen erfordert!

Ende Einschub]

Ein anderer Ansatz, der sich sicher anbietet ist, die Ergebnisse der divergierenden Befunde nun einer Mittelwertbildung zu unterziehen oder den Mittelwert – eine Art Konsens – der Vielzahl von Befunden zu finden. Die Abbildung der Ergebnisse zeigt diesen Ansatz als den Kreis mit 57,7% der gewichteten Verteilung. Diese Idee ist nicht valider als die Mittelwertbildung von chaotischen Modellergebnissen, wie sie in der Klimawissenschaft praktiziert wird – mit anderen Worten: wertlos.

Pielke Jr. schlägt in einer kürzlich gehaltenen Präsentation und einer anschließenden Frage- und Antwortrunde mit der National Association of Scholars vor, dass es wahrscheinlich der beste Ansatz ist, die besten echten Experten in einem Raum zusammenzubringen und diese Kontroversen zu klären.  Pielke Jr. ist ein anerkannter Fan des vom IPCC verwendeten Ansatzes – allerdings nur, solange dessen Ergebnisse nicht von Politikern beeinflusst werden. Trotzdem neige ich dazu zuzustimmen, dass es zu besseren Ergebnissen führen könnte, wenn man die besten und ehrlichsten (nicht kämpfenden) Wissenschaftler eines Fachgebiets zusammen mit Spezialisten für Statistik und die Bewertung von Programmmathematik in einem virtuellen Raum versammelt, mit dem Auftrag, die größten Unterschiede in den Ergebnissen zu überprüfen und zu beseitigen.

Man frage nicht mich

Ich bin kein aktiver Forscher. Ich habe keine spontane Lösung für die „Drei Ks“ – die Tatsache, dass die Welt 1) kompliziert, 2) komplex und 3) chaotisch ist. Diese drei Faktoren addieren sich und schaffen die Unsicherheit, die jedem Problem innewohnt. Diese neue Studie fügt eine weitere Ebene hinzu – die Ungewissheit, die durch die vielen kleinen Entscheidungen verursacht wird, die die Forscher bei der Analyse einer Forschungsfrage treffen.

Es hat den Anschein, dass die Hoffnung, die Ansätze mit vielen Analysten und vielen Analyseteams würden zur Lösung einiger der kniffligen wissenschaftlichen Fragen unserer Zeit beitragen, enttäuscht wurde. Es hat auch den Anschein, dass wir eher misstrauisch als beruhigt sein sollten, wenn Forschungsteams, die behaupten, unabhängig zu sein, zu Antworten kommen, die den Anschein einer zu engen Übereinstimmung haben.

[Hervorhebung vom Übersetzer]

Kommentar des Autors:

Wenn Sie sich dafür interessieren, warum sich Wissenschaftler selbst bei einfachen Fragen nicht einig sind, dann müssen Sie diese Studie unbedingt lesen, und zwar jetzt. Pre-print .pdf hier.

Wenn es Ihr Verständnis für die Schwierigkeiten, gute und ehrliche Wissenschaft zu betreiben, nicht ändert, brauchen Sie wahrscheinlich eine Gehirntransplantation. … Oder zumindest einen neuen Kurs über kritisches Denken für Fortgeschrittene.

Wie immer sollten Sie sich nicht auf mein Wort verlassen. Lesen Sie den Artikel, und gehen Sie vielleicht zurück und lesen Sie meinen früheren Artikel über Many Analysts.

Gute Wissenschaft ist nicht einfach. Und da wir immer schwierigere Fragen stellen, wird es auch nicht einfacher werden.

Die einfachste Sache der Welt ist es, neue Hypothesen aufzustellen, die vernünftig erscheinen, oder unrealistische Vorhersagen für die Zukunft zu machen, die weit über unsere eigene Lebenszeit hinausgehen. Die Zeitschrift Popular Science hat mit solchen Dingen einen Geschäftsplan gemacht. Die heutige „theoretische Physik“ scheint ein Spiel daraus zu machen – wer kann die verrückteste und dennoch glaubwürdige Idee darüber entwickeln, „wie die Dinge wirklich sind“.

Link: https://wattsupwiththat.com/2022/10/17/a-hidden-universe-of-uncertainty/

Übersetzt von Christian Freuer für das EIKE

 




Klimaaktivisten von „Letzte Generation“ attackieren 110 Millionen Dollar teures Gemälde von Claude Monet in Potsdam

Grünfeld, Robert

In der Potsdamer Villa Barberini griffen Aktivisten ein dort ausgestelltes Gemälde von Claude Monet mit flüssigem Kartoffelbrei an. Die Höhe der Schäden sind noch unbekannt. Wie bekannt wurde, ist das Gemälde selber evtl. nicht betroffen, wohl aber der sehr wertvolle historische Rahmen.

In der Klimaretter-Szene ist ein interessantes Phänomen zu beobachten: Sobald eine Gruppierung an einem Ort eine neue Form des Aktivismus ausprobiert hat, verbreitet sich die Idee rasend schnell – sogar in ganz Europa. So hat sich das Straßen-Festkleben, wohl in Hamburg erfunden, schnell nach Berlin, Wien, Rom und Paris, und die ganze deutschsprachige Provinz ausgebreitet.

Da das Asphaltkleben nun nicht mehr „cool“ genug war, wechselte man zum Kunstwerk-Kleben in Museen. Im August pappten sich zwei Aktivisten an ein Bild von Lucas Cranach d. Ä. in der Berliner Gemäldegalerie und in Dresden an die weltberühmte Sixtinische Madonna mit den beiden berühmten Engelchen, von Raffael. Nachdem in London Täter die 15 Sonnenblumen (1888) von Vincent van Gogh, zum Glück glasgesichert, mit Tomatensoße überschütteten, imitierte nun eine Gruppe ausgerechnet in Potsdam, wo sich das gleichnamige Klima-Institut gar nicht weit weg vom Palais Barberini befindet, die Idee.

In Brandenburg wurde etwas bodenständigerer Kartoffelbrei für den Anschlag genutzt. Das Video zeigt, wie die Aktivisten von „Letzte Generation“ völlig unbehelligt das Gemälde Monets mit Brei bedecken und dann ungerührt in einer Art Sprinter-Start-Pose ihre Parolen aufsagen. Zum Glück ist auch dieser Monet mit einer Glasscheibe gesichert – dennoch ist nicht ganz sicher, ob das Bild keinen Schaden genommen hat.

Von Claude Monet – http://www.wikipaintings.org, Gemeinfrei, https://commons.wikimedia.org/w/index.php?curid=29921399

Warum gerade dieses Werk aus der Serie „die Getreideschober“ das Opfer ist, begründen die Täter so:

Monet liebte die Natur und hielt ihre fragile Schönheit in seinen Werken fest.

Das Bild soll zudem das heute teuerste des Malers Claude Monet sein, es wird auf ca. 111 Mio. € geschätzt.  Man zerstört oder beschädigt ein Symbol für die fragile Natur, um die fragile Natur zu retten? Die Logik der Täter aus dem Umfeld von FfF ist wie so häufig nur schwer nachvollziehbar. PR ist sowieso meist nur Propaganda im Sinne der Verschleierung des echten Motivs. Die Achse des Guten analysiert:

Unsere „altehrwürdige“ Kultur ist in ihren Augen nichts wert vor dem nahen Ende der Welt. Das wollen sie uns sagen.

Die Sachbeschädigungen und Nötigungen sind neben den juristischen Tatbeständen aber auch als Drohung an die träge Mehrheitsgesellschaft adressiert, deren Klassensymbole (Kunst, Mobilität, Bequemlichkeit, Konsum) infrage gestellt werden sollen. Die Klima-Rotgardisten wollen uns belehren und prangern unseren Lebensstil an, den sie als Bedrohung sehen und nun selbst handgreiflich ins Visier nehmen. Als Gesten des Konjunktivs kündigen sich hier Tatrechtfertigungen an, die die Dialektik des Terrors in sich tragen.

Ähnlich bewertet der Philosoph Dushan Wegner die Taten:

Wenn Klima-Aktivisten tatsächlich zuerst an innerer Zerrissenheit leiden, ähnlich wie radikale Islamisten, dann müssten wir ja erleben, dass diese Leute die Infrastruktur, aber auch die Kultur des Westens angreifen, oder?

Nun, genau das erleben wir.

Oder, etwas profaner, wie es Michael Klein auf Sciencefiles vor Jahren schon ausdrückte: Bedingt durch ewig lange Ausbildungszeiten und/oder nutzlose Blümchen-Studien wollen junge Menschen ihre Selbstwirksamkeit oder ihren Status schneller und leichter erreichen, indem sie sich einer ideologischen Gruppe anschließen und „Aktionen“ machen, mit denen sie in den Medien erscheinen. Andy Warhol hätte gesagt: „15 Minuten Ruhm“.

Der Text der Attentäter in Potsdam ist recht interessant:

Menschen hungern, Menschen frieren, Menschen sterben. Wir sind in einer Klimakatastrophe!

Das Hungern und Frieren ist eher das Ergebnis der Energiewende – oder klimatologischer Umweltschutzpolitik wie auf Sri Lanka, wo wegen Düngerverbot die Ernte einbrach und die hungernden Menschen die Regierung verjagten. In Bangladesch passiert gerade ähnliches. Man faßt es nicht – die Aktivisten drehen die Verhältnisse einfach um und behaupten, daß die Folgen ihrer politischen Haltung, in Deutschland seit 22 Jahren politisch umgesetzt, die Schuld des fossilen „Gegners“ sei.

Pikant ist auch, daß massive Kälteeinbrüche seit Winter 20/21 auf der ganzen Nordhalbkugel belegen, daß die Theorie von der Erderwärmung Unfug ist, weswegen von Seiten der Profiteure auch vermehrt die Begriffe „Klimakrise“ oder „Katastrophe“ genutzt werden – Orwellsches Doppeldenk ist damit leichter möglich. Im Süd-Sommer 21/22 kam es in Südamerika zu massiven Kaffeernte-Ausfällen, weil es kalt war wie lange nicht mehr.

Das Palais Barberini in Potsdam, nach einem sehr ähnlichen Gebäude in Rom benannt, wurde übrigens mit Spenden des Software-Unternehmers Hasso Plattner rekonstruiert, nachdem es nach dem Zweiten Weltkrieg schwer beschädigt abgetragen wurde. Die Monet-Gemälde der Ausstellung sind auch von Plattner finanziert. Eine Stellungnahme des Milliardärs und Mäzens ist noch nicht bekannt.

Wer jedoch Stellung nahm, war eine NDR-Rundfunkrätin, die die Gemälde-Attacke verteidigt: „Tomatensuppe und Kartoffelbrei sind Kunst“.
Wetterfrosch und Aktivist Özden Terli sieht es ähnlich:

Also würde es ein Künstler machen, wäre es eine Kunstaktion. Machen es Klimaschützer ist man empört und sieht die Unterstützung der Bevölkerung beim Klimaschutz (Behauptung) gefährdet oder man versagt selbst die Unterstützung des Klimaschutzes. Ernsthaft?

Die beiden Attentäter sind trotz des Angiffs auf den Millionen teuren Monet schon wieder auf freiem Fuß.

Nicht nur, das, wie Boris Reitschuster aufklärt: Kartoffelbrei-Werferin war trotz 1296 Nötigungs-Fällen nicht in Haft. Mirjam Herrmann kommt aus Passau und ist schon seit Jahren politisch aktiv – sie wechselt aber offenbar schnell das Thema:

Mirjam, bin 23 Jahre alt und studiere Jura in Passau und London. Sie beratet Geflüchtete im Asylrecht bei der Refugee Law Clinic Passau und bin Teil des Teams für politische Bildung im Verein „Chancen Gestalten Passau“. Sie reist gerne und lernt neue Kulturen und Menschen kennen und freut sich darüber, wenn neue Kulturen und Menschen direkt hier nach Deutschland kommen und unsere Gesellschaft ein wenig herausfordern.

https://twitter.com/jam_mi_tz/status/1584297157682921472




Windräder und Solarpanelen: Eine Anleitung für Surfer auf dem Meer der Unkenntnis (Teil 1)

von Prof. Dr. Horst-Joachim Lüdecke

Niedersachsen hat gewählt, und die Wähler bekommen, was sie gewählt haben. So funktioniert Demokratie – gemäß Winston Churchill immer noch die beste aller ausnahmslos schlechten Regierungsformen. Ob sich Niedersachsens Wähler jetzt an mehr Windräder und Photovoltaik gewöhnen müssen, ist angesichts der aktuellen Mangellage an Material und manpower noch nicht ganz klar. Den Stadtbewohnern sind Windräder und Solarpanelen natürlich weitgehend schnuppe, schließlich stehen Riesenpropeller nicht neben ihren Wohnungen in Hannover, Braunschweig oder Göttingen. Nur die bedauernswerte Landbevölkerung trifft es.

Wer weiß aber wirklich, was Windräder und Photozellen so bringen? Schließlich ist von den deutschen Printmedien zu diesem Thema in freiwilliger Selbstgleichschaltung nur Staatspropaganda zu vernehmen, von seltenen Ausnahmen abgesehen (hier) und (hier). Selbstredend wird immer wieder nicht nur von EIKE, sondern auch allen anderen kritischen Medien wie Tichys Einblicke, Achgut, Politically Incorrect, freie Welt, Köppels Weltwoche daily usw. die prekäre Situation unserer Stromversorgung und Naturumgebung durch Windräder und Photovoltaik thematisiert. Offenbar ungenügend, denn die Wähler scheinen immer noch nicht begriffen zu haben, was ihnen mit grün-rot blüht – böse Zungen sprechen schon vom „grünen Reich“.

Um das Wissen über Wind- und Sonnenenergie zu testen, genügt es Freunde, oder gute Bekannte zu fragen, wie hoch der prozentuale Anteil von Wind- und Sonnenstrom an Deutschlands Primärenergie im Jahr 2021 war. Unter Primärenergie versteht man die gesamte Versorgungsenergie, von der Wohnungsheizung über den Spritverbrauch des eigenen Autos bis hin zum Energiebedarf der Industrie. Die häufigste Antwort: „hmm, genau kann ich nicht sagen, ist aber sicher viel und wird immer mehr“. Sich klüger wähnende Surfer auf dem Meer der Unkenntnis werden sagen „so um die 30%, hab ich mal in der Zeitung gelesen, ist doch toll, oder nicht?“ Liebe Surfer, ist auch falsch. Es sind weniger als mickrige 5% der Primärenergie Deutschlands. Und das bei heute schon über 30.000 Windrädern in Deutschland. Kann so wenig aber wahr sein, man hört und liest doch ganz andere Erfolgsgeschichten?

Schauen wir einfach näher hin. Die deutschen Medien berichten salopp und stolz von über 30% Anteilen von Wind und Sonne an der deutschen Energie. Gelogen? Klar ist das gelogen. Aber „ehe man Absicht vermutet, sollte man erst einmal von Dummheit ausgehen“. Tatsächlich „vergessen“ die Journos fast immer zu sagen, was sie unter „Energie“ verstehen. Oder sie wissen es nicht. Sie meinen elektrische Energie und dann sind um die 30% nicht falsch. Dummerweise macht aber die elektrische Energie, kurz Strom, an der deutschen Primärenergie nur etwa den Bruchteil 1/6 aus, und dann kommen wir für die Anteile von Wind + Sonne an der deutschen Primärenergie auf (30/6)%, also grob 5%. Wurden Sie von Ihren bevorzugten Medien jetzt nur veräppelt oder sind Sie schlicht ein Opfer journalistischer Dummheit? Höflichkeit verbietet es, darauf näher einzugehen.

Aber nicht nur mit den Journos, auch mit den frei verfügbaren Datenquellen von Umweltbundesamt, Fraunhofer Institut etc. steht es nicht zum Besten. Die Angaben dieser Quellen sind zwar verlässlich, es ist aber verdächtig schwierig, direkt Daten zu erhalten, die politisch unerwünscht sind – so hier der Anteil von Sonne + Wind an der deutschen Primärenergie. Versuchen Sie es einmal! Es dürfte für die oben genannten Behörden eigentlich nicht schwierig sein, die maßgebenden Daten in ein zwei Tabellen zusammenzufassen. Das geht aber offenbar nicht, ein Schelm, wer Böses dabei denkt.

Wer selber nachprüfen will, muss sich daher auch leider selber bemühen und mehr oder weniger lange im Internet suchen, bis aus diesem Informations-Misthaufen die nötigen Quellen gefunden sind. Nun die extrem kurze Rechnung, im Folgenden alles bezogen auf 2021:

Die Energien aus unterschiedlichen Erzeugern wie z.B. Wasserkraft, Biomasse, Wind usw. an der öffentlichen Stromerzeugung liefert das Umweltbundesamt (UBA) unter „Beitrag der erneuerbaren Energien zum Energieverbrauch in Deutschland“ (hier). Sie brauchen nicht weit herunterzuscrollen, um die entsprechende Grafik mit der Originalquelle AGEE-Stat zu finden. Dort sind Solar + Wind zu 113,5 + 48,5 = 162 TWh angegeben (die gleichen Werte finden sich auch beim Fraunhofer Institut (hier) auf Seite 7). Und den gesamten Primärenergieverbrauch Deutschlands liefert – in einer anderen Broschüre natürlich – ebenfalls das UBA (hier) zu 12,193 Petajoule = 3387,8 TWh (Umrechnung hier). Nebenbei: zwei UBA-Broschüren und zwei unterschiedliche Einheiten für die gleichen Größen, merken Sie was? Damit erhält man (Solar + Wind) / Primärenergie = 162 / 3387,8 = 0,0478, also 4.8%.

Falls man sich für weitere interessante Zahlen interessiert, liefert STATISTA nach jetzt schon etwas zäherer Suche den Wert für die gesamte elektrische Energie Deutschlands zu 582 TWh (hier). Und damit wird (Solar + Wind) / gesamte elektrische Energie = 162/582 = 0,278, also 28% -, Aha, hier begegnen wir also den Angaben der Journos wieder. Weiter wie schon erwähnt: Elektrische Energie / Primärenergie = 582 / 3387,8 = 0,172, also 17% oder 1/6.

Die Nachkommastellen können je nach verwendeter Quelle unmaßgeblich variieren, denn die ermittelten Verbrauchs- und Erzeugungszahlen können leicht schwanken, Energieerzeugung und Energieverbrauch sind nicht immer identisch usw. So kommt zum Beispiel eine andere Berechnung der hier behandelten Größe durch drei Physik-Ordinarien der Universität Heidelberg nur auf 4,5% anstelle der hier berechneten 4,8% hier (Nebenbei: der Autor ist mit der bemüht wohlwollenden Sicht seiner drei Uni-Kollegen auf die Katastrophe „Energiewende“ absolut nicht einverstanden, hat dafür aber alles Verständnis. Forschungsmittel müssen irgendwoher kommen, und im knallgrünen Heidelberg mit noch knallgrünerer Studentenschaft erhält ein energiewendekritischer Prof wohl kaum eine studentische zulagenpositive Beurteilung).

Bemerkenswert ist, dass sich die hier genannten Zahlen trotz angeblich permanenten Zubaus an Windrädern und Solaranlagen seit 10 Jahren nicht wesentlich geändert haben. Dies zeigt das folgende Bild der o.g. Heidelberger Physik-Ordinarien.

Bild: Anteile der unterschiedlichen Energieträger an der Primärenergie. 100% ist die Primärenergie von 2010 (Bildquelle). Ob hier die unteren zwei Beiträge „Wind und Sonne“ in Zukunft plötzlich nach oben schnellen wie der berühmte „Fake-hockey-stick hier) ist nicht zu erwarten.

Man erhält mit dem Prozentanteil von Wind plus Sonne an der deutschen Primärenergie als deutlich unter 5% schon einen gute Basis, um sich die eigene Meinung über Sinnn oder Unsinn von Strom aus diesen Erzeugern in unserer flächenbegrenzten Industrienation zu bilden. Vielleicht beabsichtigen aber die Verantwortlichen für „neue Energien“ auch gar nicht, dass unser Land weiter eine Industrienation bleibt. Zumindest die bisherige Politik lässt kaum eine andere Interpretation zu. Man darf in diesem Fall gespannt sein, ab welchem Leidensdruck, d.h. bei wieviel Blackout-Todesopfern, ober bei wieviel verschwundenen Arbeitsplätzen infolge pleitegegangener energieverbrauchender Unternehmen, eine harte Kehrtwende unvermeidbar wird.

Was unseren Surfer auf dem Meer der Unkenntnis angeht, so ist dieser Beitrag noch nicht zu Ende. Schließlich hat es sich trotz bewundernswert erfolgreicher Bemühungen unserer grünen Medien doch herumgesprochen, dass der Wind nicht immer bläst und bei Wolken und Nachts die Sonne meutert. Um sich daher ein vollständigeres Bild über Windräder und Photovoltaik zu machen, wird hier in Kürze ein Teil 2 erscheinen.




Deutscher Energiespeicherbedarfist sehr viel höher als gedacht – Klimaschau 131

Die Klimaschau informiert über Neuigkeiten aus den Klimawissenschaften und von der Energiewende.

Themen der 131. Ausgabe: 0:00 Begrüßung 0:21 Deutscher Energiespeicherbedarf ist höher als gedacht 4:06 Windanfälliges arktisches Meereis 6:28 Ärgerlicher Fehler im Kohlenstoffkreislauf