Grönländi­sche Eisdecke schmilzt aufgrund geother­mischer Aktivitäten von unten her

Der Gakkelrücken [2] ist eine gigantische Kette von Unterwasservulkanen, die sich 1.800 Kilometer unterhalb des arktischen Ozeans von der Nordspitze Grönlands bis nach Sibirien zieht. Mit seinen tiefen Tälern und seinen Gipfeln (5.000 Metern über dem Meeresboden) ist er mächtiger als die Alpen.

Ins Deutsche übersetzt schreibt Kamis [1]: „Klimaforscher, die die Theorie der vom Menschen verursachten globalen Erwärmung befürworten, behaupten seit vielen Jahren, dass die beschleunigte Schmelzrate des arktischen Meereises im Zeitraum 1999-2007 ausschließlich auf vom Menschen verursachte CO2-Emissionen zurückzuführen ist, die die Atmosphäre schnell erwärmten. Dieses ungewöhnliche Schmelzen der Arktis war größer als die Schmelzrate, die mit der anhaltenden und sehr normalen Schmelzrate der Erde nach der Eiszeit von 11.500 Jahren verbunden ist. Viele Klimaforscher haben sich widerwillig an diese vom Menschen verursachte Erwärmung der Atmosphäre gehalten, obwohl verschiedene und überzeugende Datenmengen diese Hypothese jetzt ernsthaft in Frage stellen.

Den meisten Wissenschaftlern ist klar, dass nicht-atmosphärische Naturkräfte die dominierende Rolle bei der Ausdehnung und Dicke des Meereises spielen, wie bekannte Variationen der astronomischen Umlaufbahnmuster der Erde, langfristige zyklische Änderungen der Strömungsmuster der Tiefsee und vor allem Variationen in geologisch induzierter Wärme und chemisch verursachtem Flüssigkeitsstrom aus Tiefseefeldern und Vulkanen.

Das kleine geologisch induzierte Wärme- und Flüssigkeitsströmungsereignis in der Tiefsee vom 12. Oktober zeigt auf überzeugende Weise, dass geologische Kräfte immer noch aktiv sind und die Energie haben, das arktische Klima zu verändern und Meereis zu schmelzen.

Denken Sie daran, dass dieses jüngste Ereignis vom 12. Oktober nicht mit Erdbeben und Vulkanausbrüchen verbunden war, wie dies während des Ereignisses von 1999 bis 2007 der Fall war. Dieses frühere Ereignis war gewaltig, aber für diejenigen, die seine wahre Natur nicht verstanden hatten, nicht maßgeblich. Obwohl es mit einer Folge ausgedehnter Erdbeben geringer Intensität, einer enormen Methanfreisetzung und einer bedeutenden Reihe von Vulkanausbrüchen entlang des Gakkelrückens verbunden war, wurde und wird es von den meisten Klimaforschern, die die Theorie der vom Menschen verursachten Erderwärmung befürworten, als unbedeutend für die Erwärmung abgetan.

Viele andere Wissenschaftler erkennen jedoch jetzt, dass das Gakkel Ridge-Ereignis von 1999 bis 2007 und der chemisch verursachte Flüssigkeitsstrom die Hauptursache für die Beschleunigung der Schmelzrate des arktischen Meereises waren. Diese Erkenntnis passt gut zur Theorie der Plattenklimatologie, dass geologische Kräfte das Klima stark beeinflussen.“ (Ende des Zitats)

Eine am 7. Dezember 2020 veröffentlichte Studie der Tohoku Universität [3] kommt ebenso zu dem Ergebnis, dass das Grönländische Eisschild von unten her durch geothermische Aktivitäten geschmolzen wird. Im Bericht ist die Rede von einer heißen „Mantel-Wolke“ (mantle plume).

Im Lexikon der Geowissenschaften wird mit Mantelwolke das diapirartige Aufdringen von heißem Material durch den Erdmantel. Eine Wolke hat seinen Ursprung an der Grenze zwischen dem Erdkern und Erdmantel. Hot spots werden als vulkanischer Ausdrucks dieser schlauchartig den Erdmantel durchsetzenden Strömungskörper angesehen. Aus der seismologischen Tomographie zeigt sich, dass sie im Erdmantel im allgemeinen eine Breite von 100-200 km haben. Während des Aufstiegs verstärkt sich insbesondere der positive Temperaturkontrast zum umgebenden Mantelgestein. Soweit zur Aufklärung der Mantel-Wolke.

„Das Wissen über die grönländische Wolke wird unser Verständnis der vulkanischen Aktivitäten in diesen Regionen und die Frage des globalen Anstiegs des Meeresspiegels, der durch das Schmelzen der grönländischen Eisdecke verursacht wird, verbessern “, sagte Dr. Genti Toyokuni, Mitautor der Studien.

Eine Kartenansicht der P-Wellengeschwindigkeitstomographie in 5 km Tiefe unter Grönland und den umliegenden Regionen (links). Blaue und rote Farben bezeichnen Störungen mit hoher bzw. niedriger Geschwindigkeit, deren Maßstab (in%) neben der Karte angezeigt wird. Die weiß gepunkteten Linien sind die Wärmespuren der Island- und Jan Mayen-Federn, die von der grönländischen Wolke betroffen sind. In dem von den schwarz gepunkteten Linien umgebenen Bereich befindet sich die Strömung, die durch Schmelzen am Boden der Eisdecke verursacht wird (Nordostgrönland-Eisstrom). Die Wasserquelle befindet sich am Schnittpunkt der beiden Wärmespuren. Ein vertikaler Querschnitt der Ganzmanteltomographie durch Zentralgrönland und Jan Mayen (rechts). Wir können sehen, dass die grönländische Wolke die Wärmequelle für den Jan Mayen-Vulkan ist. Bildnachweis: Tohoku University

Die Nordatlantikregion ist voller geothermischer Aktivitäten. Island und Jan Mayen enthalten aktive Vulkane mit eigenen Mantelwolken, während Spitzbergen – ein norwegischer Archipel im Arktischen Ozean – ein geothermisches Gebiet ist. Der Ursprung dieser Aktivitäten und ihre Vernetzung sind jedoch weitgehend unerforscht.

Das Forscherteam entdeckte, dass die grönländische Wolke von der Kern-Mantel-Grenze zur Mantelübergangszone unter Grönland aufstieg. Die Wolke hat auch zwei Zweige im unteren Mantel, die in anderen „Zweigen“ der Region münden und die aktiven Regionen in Island und Jan Mayen sowie das geothermische Gebiet in Spitzbergen mit Wärme versorgen.

Ein schematisches Diagramm, das die wichtigsten tektonischen Merkmale und Mantelwolken unter Grönland und den umliegenden Regionen zeigt. Vp = P Wellengeschwindigkeit; MAR = der mittelatlantische Rücken; MTZ = Mantelübergangszone (410-660 km Tiefe); CMB = die Kern-Mantel-Grenze in 2889 km Tiefe. Bildnachweis: Tohoku University

Die Ergebnisse basieren auf Messungen der seismischen 3D-Geschwindigkeitsstruktur der Kruste und des gesamten Mantels unter diesen Regionen. Um die Messungen zu erhalten, verwendeten sie eine seismische Topographie. Zahlreiche Ankunftszeiten seismischer Wellen wurden invertiert, um 3DBilder der unterirdischen Struktur zu erhalten. Die Methode funktioniert ähnlich wie ein CT-Scan des menschlichen Körpers, heißt es im Bericht.

Das 2009 ins Leben gerufene Projekt sieht die Zusammenarbeit von Forschern aus 11 Ländern vor. Das gemeinsame Team zwischen den USA und Japan ist hauptsächlich für den Bau und die Wartung der drei seismischen Stationen auf dem Eisschild verantwortlich

  1. Kamis, James Edward, „Heat from deep ocean fault punches hole in arctic ice sheet”, Plate Climatology, 6.

Nov. 2015 http://www.plateclimatology.com/heatfromdeepoceanfaultpunchesholeinarcticicesheet/

  1. https://de.wikipedia.org/wiki/Gakkelrücken

[3] http://www.tohoku.ac.jp/en/press/greenland_plume_drive_thermal_activities.html?mc_cid= fb29760038&mc_eid=2560bc397b

Link: http://www.ageu-die-realisten.com/

 




Wie das Wettrennen um ,Erneuerbare‘ die europäischen Wälder niederbrennt

Eine Umstellung auf die Verbrennung von Holz in Form von Pellets scheint eine einfache und theoretisch kohlenstoffneutrale Alternative zu Kohlekraftwerken zu sein, denn Bäume nehmen beim Wachstum Kohlendioxid aus der Luft auf. Solange die verbrannten Bäume durch Neupflanzungen ersetzt werden, kommt es zu keinem Nettozuwachs des Kohlenstoffbestands in der Atmosphäre.

Dieser Prozess der Kohlenstoffaufnahme kann jedoch viele Jahrzehnte dauern. Und im Ofen setzt die Verbrennung von Holz mehr Kohlendioxid pro Energieeinheit frei als die Verbrennung von Gas, Öl oder sogar Kohle. Durch die kurzfristige Beschleunigung der Kohlendioxid-Emissionen könnte die Verbrennung von Holz zur Stromerzeugung fatal für die Fähigkeit der Staaten sein, das Ziel des Pariser Abkommens zu erreichen, die globale Erwärmung bis 2050 auf deutlich unter 2C zu halten.

Die Nachfrage nach holzartiger Biomasse oder Energie aus Holz als Alternative zu Kohle in Kraftwerken nahm ab 2009 Fahrt auf, als die erste EU-Richtlinie für erneuerbare Energien die Mitgliedsstaaten verpflichtete, bis 2020 20 % der Energie aus erneuerbaren Quellen zu beziehen und Biomasse-Energie als Kohlenstoff-neutral einstufte.

Ein Fehler in der Gesetzgebung bedeutete, dass holzige Biomasse vollständig als erneuerbar kategorisiert wurde, selbst falls sie nicht nur aus Holzresten oder Abfällen, sondern von ganzen Bäumen stammte. Dies bedeutete, dass Unternehmen im Namen einer nachhaltigen Waldbewirtschaftung direkt Wälder für Pellets abholzen konnten – anstatt Pellets aus den Nebenprodukten von für andere Zwecke geschlagenem Holz herzustellen.

Als die EU im Jahr 2018 den Einsatz von erneuerbaren Energien bis 2030 verdoppeln wollte, warnten Wissenschaftler das Europäische Parlament, dass dieses Schlupfloch in den Nachhaltigkeitskriterien der überarbeiteten EU-Gesetzgebung die Klimakrise beschleunigen und alte Wälder zerstören würde. Doch gegen die konkurrierenden Interessen der milliardenschweren Biomasse-Lobby wurde das Gesetz nicht geändert.

In fast allen europäischen Ländern ist ein Anstieg des Holzeinschlags für Energie zu verzeichnen. Fast ein Viertel der in der EU geernteten Bäume wurde 2019 für Energiezwecke gefällt, im Jahr 2000 waren es noch 17 %.

Biomasse, von der Holz aus Wäldern die Hauptquelle ist, macht jetzt fast 60% der erneuerbaren Energieversorgung der EU aus, mehr als Solar- und Windenergie zusammen, und eine riesige grenzüberschreitende Industrie ist entstanden, um diese Nachfrage zu decken.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/how-the-race-for-renewables-is-burning-europes-forests/

Übersetzt von Chris Frey EIKE




Bidens erster destruktiver Tag

Marc Morano von CFACT reagierte schnell und trat heute Morgen bei Fox and Friends auf, um die Fakten zu drei der schlimmsten zu erläutern:

Wiedereintritt in das UN-Klimaabkommen von Paris

● Blockieren der Ölförderung in Alaskas ANWR

● Annullierung der Genehmigung für die Keystone XL-Pipeline

„Das wird Mittelamerika in den Ruin treiben“, sagte Marc, „und es wird das Klima nicht ein bisschen ändern. Wir sind also wieder da, wo wir unter Präsident Obama waren, mit noch mehr Klimatrickserei. Die Energiekosten werden steigen… Amerika ist unter Präsident Trump, der eine sehr aggressive Pro-Inlands-Energiepolitik verfolgte, nicht nur Energie-unabhängig geworden, wovon die Politiker seit Jahrzehnten reden, sondern Energie-dominant. Zum ersten Mal, seit Harry S. Truman Präsident war, hatten wir mehr Energieexporte als Importe.“

Sehen Sie Marcs vollständiges Interview bei Climate Depot. Statt sein Land zu einen sorgte er für weitere Spaltung.

Bidens Anti-Energie-Anordnungen werden allen Amerikanern unnötig schaden. Sie sind auch ein schwerer Schlag ins Gesicht von Leuten, von denen man denken würde, dass Biden sie als Verbündete haben möchte. Die Gewerkschaften und Kanadas linker, klimafreundlicher Premierminister Justin Trudeau zählten auf den Fluss von kanadischem Öl über Keystone XL, um Tausende von dringend benötigten, gut bezahlten Arbeitsplätzen in einer Zeit der Krise zu schaffen.

China erhielt ein ungerechtfertigtes Geschenk eines industriellen und militärischen Vorteils.  Amerikas ernsthaftester Konkurrent kann sich nun darauf freuen, dass Kanadas Öl auf Tankern über den Pazifik fließt, anstatt über die sicherere, sauberere und effizientere Pipeline nach Süden in die USA.

Traurigerweise wird dieser Angriff auf Amerikas Energieversorgung keinen nennenswerten Nutzen für das Klima oder die Umwelt haben.

Das ist der Weg, um Amerika sowie unsere engsten Freunde in die Niederlage zu treiben, Joe – mit dem Schwingen eines Stiftes

————————————

Im Original folgt jetzt eine lange Liste der Verordnungen und Dekrete, die Biden gleich an seinem ersten Arbeitstag unterzeichnet hat.

Autor: Craig Rucker is a co-founder of CFACT and currently serves as its president.

Link: https://www.cfact.org/2021/01/21/bidens-destructive-first-day/

Übersetzt von Chris Frey EIKE




Wanderndes Wasser

Zufälligerweise hatte ich gerade die Ergebnisse der ECMWF-Reanalyse für das sogenannte „TPW“ heruntergeladen, das gesamte niederschlagbaren Wasser in der Atmosphäre. Dieser Parameter beschreibt, wie viele Kilo Wasser sich in der Luftsäule über jedem Quadratmeter der Oberfläche befinden. Die Ergebnisse umfassen den Zeitraum von 1979 bis Mitte 2019.

Hier also zunächst einmal der vieljährige Durchschnitt des niederschlagbaren Wassers in der Atmosphäre.

Sieht einfach aus, oder? Man kann den tropischen Regengürtel oberhalb des Äquators sehen. Wie man sich vielleicht vorstellen kann, ist dort die Gesamtmenge des niederschlagbaren Wassers am höchsten, denn ohne niederschlagbares Wasser gibt es keinen Niederschlag. Wir müssen also nur messen, wie weit sich dieser Regengürtel bewegt …

Aber wie stabil ist der tropische Regengürtel? Nun … nicht sehr. Hier ist ein Film über die monatlichen Durchschnittswerte der Regenmuster:

Wie man sieht ist der Regengürtel ziemlich mobil, und dabei sind das hier nur monatliche Durchschnittswerte. Es sieht immer noch so aus, als ob es irgendwie vorhersehbar wäre … aber das sind immer noch Durchschnittswerte.

Die einzelnen Monate sind jedoch sehr unterschiedlich. Hier sind ein paar Jahre mit individuellen monatlichen Änderungen:

Also trotz der Tatsache, dass sie 27 Klimamodelle verwendet haben, und trotz der Tatsache, dass jedes einzelne der Modelle „das Neueste vom Neuen“ war, trotz der Tatsache, dass es keine „durchschnittlichen“ oder „guten“ Modelle gab, trotz der Tatsache, dass nicht einmal eines der Modelle die Technologie von gestern verwendet hat, geschweige denn die von vorgestern, und trotz der Tatsache, dass alle 27 Klimamodelle alles einbezogen haben und alle zu einer Schlussfolgerung kamen … Ich fürchte, ich werde null Vertrauen in ihre Ergebnisse setzen. Es tut mir leid, aber das ist ein ernsthaft chaotisches System, und die Idee, dass wir es bis zum Jahr 2100 projizieren können, ist ein Witz.

Nun, ich habe die TPW-Daten eigentlich für einen anderen Zweck bekommen, also werde ich das hier lassen. Ich konnte die lächerlichen Behauptungen der UCI-Forscher einfach nicht unwidersprochen stehen lassen. Ich glaube nicht, dass man solch chaotische Systeme wie die globale Niederschlagsverteilung achtzig Jahre in die Zukunft modellieren kann. Wir können uns an der glorreichen Macht der Gewitter erfreuen, wir können staunen über die Komplexität dieser monumentalen Wärmekraftmaschine, die wir „Klima“ nennen … aber die Details bis zum Jahr 2100 vorhersagen?
Das Wort, das mir für die Idee in den Sinn kommt, dass wir die Zukunft des Regengürtels im Jahr 2100 vorhersagen können, ist nicht „Wissenschaft“ … es ist „Hybris“.
PS – Einige mögen sagen: „Das ist das gesamte niederschlagbare Wasser, nicht der Niederschlag“. Und das ist wahr. Allerdings gibt es keinen Niederschlag ohne niederschlagbares Wasser, so dass ihre Verteilungen eng miteinander korreliert sind … und ich habe keinen globalen Niederschlagsdatensatz. Ich habe jedoch einen Film, den ich vom Niederschlag gemacht habe, so dass Sie den Regen und das niederschlagbare Wasser selbst vergleichen können. Er ist von der Tropical Rainfall Measurement Mission, deckt also nur die Tropen plus ein bisschen ab. Hier ist er:

Was für ein Planet! …

Link: https://wattsupwiththat.com/2021/01/19/wandering-water/

Übersetzt von Chris Frey EIKE

Hinweis: Die Abbildungen 3 bis 5 sind animierte Graphiken. Falls das hier nicht sichtbar wird, bitte im Original schauen. Anm. d. Übers.]

Anmerkung von Dipl.-Met. Christian Freuer: Der Parameter „Precipitable Water“ oder PPW wird auch bei uns in der Wettervorhersage genutzt. Er dient dazu, die Stärke potentieller Gewitter abzuschätzen. Hohe PPW-Werte geben aber keinen Aufschluss darüber, ob sich tatsächlich auch Gewitter bilden, sondern nur, wie viel Regen ggf. in wie kurzer Zeit fallen kann, was dann in die entsprechenden Warnungen einfließt.

 




Kalifornien kämpft insgeheim mit „Erneuerbaren“

Das neue Batterie-Array hat eine Speicherkapazität von 1.200 Megawattstunden (MWh) und stellt damit das australische Rekordsystem mit 129 MWh, das Tesla vor ein paar Jahren gebaut hat, in den Schatten. Der Spitzenwert in Kalifornien liegt jedoch bei satten 42.000 MW. Falls das in einer heißen, windarmen Nacht passiert, würde diese vermeintlich große Batterie die Lichter für gerade einmal 1,7 Minuten (das sind 103 Sekunden) am Leuchten halten. Das ist wirklich eine triviale Menge an Speicher.

Wohlgemerkt, dieses System wurde gebaut, um nur Pacific Gas & Electric zu versorgen. Aber die haben zufälligerweise einen Spitzenverbrauch von etwa der Hälfte von Kalifornien, also 21.000 MWh, und bekommen somit großartige 206 Sekunden Spitzenstrom. Kaum Zeit, um die Taschenlampe zu finden, oder?

Es ist nicht bekannt, was dieser triviale Riese gekostet hat, da er nicht im Besitz von PG&E ist. Diese Ehre gebührt einem Unternehmen namens Vistra, das eine Menge verschiedener Dinge mit Strom und Gas macht. Aber diese komplexen Batteriesysteme sind nicht billig.

Berichten zufolge werden in diesem System mehr als 4.500 gestapelte Batteriegestelle verwendet, von denen jedes 22 einzelne Batteriemodule enthält. Das sind 99.000 einzelne Module, die gut zusammenarbeiten müssen. Man stelle sich vor, 99.000 Elektroautos anzuschließen, und man kann sich ein Bild machen.

Die US Energy Information Administration berichtet, dass Batteriesysteme im Netzmaßstab in den letzten Jahren im Durchschnitt etwa 1,5 Millionen Dollar pro MWh gekostet haben. Bei diesem Preis kostete dieses triviale Stück Speicher knapp ZWEI MILLIARDEN DOLLAR. Bei 103 Sekunden Spitzenspeicherung sind das etwa $18.000.000 pro Sekunde. Geld für nichts.

Allerdings sind die PG&E-Ingenieure nicht so dumm. Sie wissen ganz genau, dass diese Milliarden-Dollar-Batterie nicht dazu da ist, Notstrom zu liefern, wenn Wind und Sonne nicht produzieren. In Wahrheit ist genau das Gegenteil der Fall. Die Aufgabe der Batterie ist es, zu verhindern, dass Wind- und Solarenergie das Netz zum Absturz bringen, wenn sie produziert werden.

Das nennt man Netzstabilisierung. Wind und Sonne sind so unregelmäßig, dass es sehr schwer ist, die konstante 60-Zyklen-Wechselstromfrequenz aufrechtzuerhalten, die all unsere wunderbaren elektronischen Geräte benötigen. Falls die Frequenz mehr als nur ein kleines bisschen abweicht, bricht das Netz zusammen. Um diese Ausfälle zu verhindern, ist eine aktive Stabilisierung erforderlich.

Netzinstabilitäten durch unregelmäßige Wind- und Sonneneinstrahlung waren früher kein Problem, weil die riesigen, sich drehenden Metallrotoren in den Generatoren der Kohle-, Gas- und Kernkraftwerke die Schwankungen einfach absorbierten. Aber die meisten dieser Kraftwerke wurden abgeschaltet, also brauchen wir Milliarden-Dollar-Batterien, um das zu tun, was diese Kraftwerke umsonst taten. Diese Monsterbatterie ist auch nicht die einzige, die in Kalifornien gebaut wird, um zu versuchen, Wind- und Solarenergie zum Laufen zu bringen. Viele weitere sind in der Pipeline und nicht nur in Kalifornien. Viele Staaten haben mit Instabilität zu kämpfen, wenn die Grundlastgeneratoren abgeschaltet werden.

Hier gibt es sogar eine verrückte Ironie, die perfekt zum verrückten Kalifornien passt. Diese Milliarden-Dollar-Batterie belegt den alten Generatorraum eines stillgelegten Gaskraftwerks. Diese Generatoren sorgten früher für die Stabilität des Netzes. Jetzt haben wir Mühe, das zu tun.

Natürlich sagt niemand bei PG&E oder Vistra öffentlich, dass diese Monsterbatterie dazu da ist, erneuerbare Energien davon abzuhalten, das Netz zu zerstören, und nicht, um es zu stützen. Man fragt sich, ob die California Public Utilities Commission das weiß. Die große Frage ist, warum wird das der zahlenden Öffentlichkeit nicht gesagt? Oder der Presse? Es handelt sich hier wirklich um einen sehr teuren Schwindel.

Wenn wir schon bei diesem Thema sind, sollten wir uns fragen, was es eigentlich kosten würde, Wind- und Solarenergie mit Batterien zu sichern. Das hängt sehr stark vom lokalen Klima ab. Wie oft der Wind zum Beispiel nicht stark weht. Windgeneratoren brauchen etwa 10 mph, um zu starten, und eher 30 mph für volle Leistung.

Mehrtägige Hitzewellen sind oft Perioden mit sehr wenig Wind, kombiniert mit einem maximalen Strombedarf. Eine unangenehme Kombination. Meine grobe Faustregel lautet also, dass man einen Speicher für 7 Tage mal Spitzenbedarf benötigt.

Kalifornien hat einen Spitzenwert von 42.000 MWh und 7 Tage sind 168 Stunden, so dass wir nach dieser groben Regel etwa 7 Millionen MWh an Batterien benötigen würden. Das macht 1200 MWh wirklich trivial. Bei 1,5 Millionen Dollar pro MWh kommen wir dann auf erstaunliche 10,5 TRILLIONEN DOLLAR, nur für die Batterien, die die erneuerbaren Energien zuverlässig machen.

Der Betrug ist atemberaubend, und das nicht nur in Kalifornien. Landesweit geben wir unzählige Milliarden Dollar aus, um zu verhindern, dass die unberechenbare Natur der erneuerbaren Energien das Stromsystem zum Absturz bringt. Aber diese Bemühungen werden routinemäßig als Speicherung für den Fall dargestellt, dass die erneuerbaren Energien nicht laufen. Stabilisierung ist das Gegenteil von Speicherung. Wir werden in Bezug auf erneuerbare Energien belogen.

[Hervorhebung vom Übersetzer]

Autor: CFACT Ed

Link: https://www.cfact.org/2021/01/16/california-secretly-struggles-with-renewables/

Übersetzt von Chris Frey EIKE