MIT HAKEN UND ÖSEN – Photovoltaik und Vulkane

Ein Jahr zuvor, im April 1815, brach auf der anderen Seite des Erdballes der Vulkan Tambora aus. Eine gewaltige Explosion schleuderte den oberen Teil des Vulkans in die Luft, verkleinerte den Berg von 4.300 Meter Höhe auf nur noch 2.800 Meter. Er spie ungeheure Mengen an giftigen Gasen und Asche in die Luft. Die Explosion vernahm man noch in 1.500 Kilometer Entfernung. Die Asche breitete sich meterdick über riesige Flächen aus, zerstörte alles Leben. 100.000 Menschen sollen gestorben sein.

In der westlichen Hemisphäre gilt dieser Ausbruch als eine Ursache für die katastrophale Wetterverschlechterung. Wie weit der Ausbruch des Vulkans an der dramatischen Verschlechterung des Wetters beteiligt war, ist noch nicht ganz geklärt. Schließlich gab es schon seit 1812 eine Reihe von kalten und regnerischen Jahren verbunden mit Missernten. Aber keine Frage: Der Vulkanausbruch schleuderte gewaltige Mengen an Asche und Feinstaub in die oberen Luftschichten der Atmosphäre. Der Vulkan liegt dicht am Äquator, ausgestoßene Gase und Ascheteilchen geraten in die globalen Windströmungen und werden rund um den Globus verteilt. Das geschieht bei näher an den Polen gelegenen Vulkanen eher nicht.

Eine solche Naturkatastrophe bekommt ganz neue, bisher ungeahnte Folgen für ein Land, das seine Energie aus sogenannten »Erneuerbaren« bezieht. Was geschieht also, wenn wieder ein Vulkan ausbricht? TE-Leser Wolfgang Kohl fragt, welche Auswirkungen auf die alternative Stromversorgung ein Vulkanausbruch mit global weitflächiger und monate- oder gar jahrelanger stark verminderter Sonnenstrahlung haben kann? Denn in der bisherigen Diskussion über alternative Energien hat er noch nie etwas darüber gelesen, wie derartige Naturkatastrophen in ihren Auswirkungen eingeschätzt werden.

Da lohnt ein Blick schon einmal auf den Normalbetrieb von Photovoltaik-Anlagen. Wer in Städten in Wüstengebieten sein Auto nur zwei oder drei Tage stehen lässt, sieht hinterher nichts mehr durch seine Scheiben und muss durch eine Waschstraße fahren. Es sind permanent ungeheure Mengen an feinem Staub in der Luft, die sich auf alle Flächen absetzen. Fensterreinigern jedenfalls geht die Arbeit nie aus.

Das Gleiche passiert auch mit Photozellen. Auf denen setzt sich eine Schicht Staub ab und vermindert den Lichteinfall. Das kann bis zum völligen Blockieren des Lichteinfalls führen, wenn die komplette Fläche der Solarzellen mit Staub, Schmutz oder gar Schnee bedeckt sind. Bis zu 25 Prozent reduziert sich der Ertrag einer Photovoltaik-Anlage bei nur leichter Verschmutzung.

In staubigen und trockenen Regionen bildet sich innerhalb weniger Tage eine geschlossene Decke an Staub und Schmutz auf den Photozellen und reduziert bis verhindert die Stromerzeugung. In trockenen und staubigen Ländern lassen sich die Auftraggeber meist bestätigen, dass die Photovoltaikanlagen sich selbst reinigen. Hier sind die Oberflächen speziell beschichtet; das soll verhindern, dass sie sich zusetzen. Letztlich aber ist ein kräftiger Wüstenstaub stärker.

In Deutschland sind die meisten Module auf Dachschrägen befestigt. Hier sorgt Regen für eine gewisse Reinigung der Oberflächen. Dennoch sammeln sich gerade über längere trockene Zeiten Staub und Laub auf den Flächen an und vermindern die Leistung. Abrieb von Bremsstäuben, Zement und Kalkstäube sind aggressiv und fressen sich in das Glas. Zusätzlich können Moose und Algen wachsen. Es muss also gereinigt werden, wenn der Ertrag nicht zu stark vermindert werden soll.

Problematischer sind Anlagen, die auf flacheren Dächern von Ställen zum Beispiel montiert wurden. Die Landwirte lockten die großen Flächen, doch die warme Luft, die Tiere abgeben, strömt nach oben und zieht über die Lüftungsöffnungen der Dächer ab. Mit im Gepäck haben sie Staub und Ammoniakverbindungen aus dem Stall. Das legt sich über die Glasflächen und reduziert ebenfalls den Lichteinfall. Solarmodule putzen – es ist immer wieder nett anzuschauen, welche neuen Berufsbilder ein solches Gebilde wie die Energiewende produziert.

Bereits im Normalbetrieb also beeinträchtigen Staub und sonstige Stoffe in der Luft den Betrieb von Photovoltaik-Anlagen. Wir wollen uns besser nicht ausmalen, was geschieht, wenn ein Vulkan ausbricht, die Erde verdunkelt und die vollkommen ()oder überwiegend) auf Photovoltaik und Windenergie verlegte Energieerzeugung empfindlich stört. Klar ist, dass eine solche Naturkatastrophe erhebliche Auswirkungen auf die Energieversorgung eines Industrielandes wie Deutschland hätte. Man kann davon ausgehen, dass die meisten Photovoltaik-Anlagen keinen Strom mehr liefern werden, wenn sich eine Ascheschicht auf die Module legte und zudem von der Sonne weniger Licht durch die Luftschichten käme.

Das ist glücklicherweise nur in Deutschland so. Die Nachbarländer verfügen über konventionelle Kohle- und Kernkraftwerke. Wir können den Strom aus Frankreich und Tschechien bekommen. Später werden wir in Russland und China um Energie bitten und betteln.

Wie wacklig die sogenannten erneuerbaren Energien sind, erwies sich gerade wieder beim jüngsten Hochwasser. Die ach so natürliche Wasserkraft zeigte, wie weit der Rückschritt ins Mittelalter gediehen ist: Bei den jüngsten heftigen Regenfällen und Schneeschmelzen mit hohem Wasseraufkommen produzierten die Wasserkraftwerke – nein, nicht, wie man angesichts der Wassermassen vermuten könnte, gigantische zusätzliche Mengen an Strom, nein, sie mussten – abgeschaltet werden. Abgeschaltet! Zu viel Wasser!

Denn einmal war die Differenz zwischen Ober- und Unterwasser zu gering, der Druckunterschied vor und nach der Wasserturbine so gering, dass kaum mehr Strom erzeugt werden konnte. Zudem liefen die Wasserkraftwerke Gefahr, dass die mitgeführten Unratmassen die Turbineneinläufe mit ihren Rechenwerken verstopfen. Äste, ganze Baumstämme, tonnenschwer, reißen die Fluten mit, zudem viel Laub – tödlich für jede Turbine. Im Winter droht bei Eis sogar die Zerstörung des Wasserkraftwerkes. Deshalb haben die alten Wassermühlenerbauer früher einen separaten Zulauf zum Mühlrad angelegt, den sie bei Eisgang sperren konnten.

Zu viel Wasser ist also nichts für die Stromerzeugung aus Wasserkraft. Genauso wie zu viel Wind schädlich für die Windräder ist. Bei kräftigem Wind und Sturm knicken sie um wie Streichhölzer. Damit sie nicht in Gefahr geraten, auseinanderzufliegen, müssen sie bei starkem Wind abgeschaltet werden. Die Flügel werden in eine sogenannte Segelstellung gestellt, bieten so dem Wind kaum Widerstand und laufen weniger Gefahr, von Orkanböen zertrümmert zu werden.

»Erneuerbare« Energien also sind sehr anfällig gegenüber Unbilden der Natur. Zu viel Wind, zu viel Wasser oder gar ein Vulkanausbruch mit Ascheregen – kein Strom. Fein, dass die Grünen den großen Fortschritt, eine einigermaßen unabhängige und günstige Energiequelle geschaffen zu haben, jetzt wieder rückgängig machen wollen.

Der Beitrag erschien zuerst bei Tichys Einblick hier




Von Korrelationen, Trends bei Anomalien!

Zugegeben es ist kein besonders spannendes Thema, wenn man nicht gerade ein Statistiker, Mathematiker oder ja, besonders engagierter Klimaforscher ist. Ich muss auch gestehen, dass mich erst der auch in diesen Kreisen bekannte Willis Eschenbach auf die Verknüpfung dieser Themen gebracht hat, der ein Meister darin ist, dass Offensichtliche zu hinterfragen. Er zeigt dabei häufig genug auf, dass das Offensichtliche nicht das Wahre und schon gar nicht das Wirkliche ist.

In der Klimatologie wird aus guten Gründen sehr oft mit Korrelationen gearbeitet. Diese werden gesucht, berechnet, verglichen, mit vermuteten Ursachen unterlegt, oft aber auch beides miteinander verwechselt, um der Beantwortung der schwierigen Frage näher zu kommen: Was steuert unser Klima? Oder – genauer – was steuert unsere Temperatur? Da Klimatologen es oft nicht unter „Weltklima“ machen – dabei es tunlichst unterlassen diesen Begriff zu definieren – muss die Frage lauten: Was steuert unsere Welttemperatur? Die einfachste Antwort müsste lauten: Nichts! Denn, da es eine Welttemperatur nicht gibt, kann sie auch nicht gesteuert werden! So einfach!

Damit würde man aber keine Forschungsmilliarden loseisen, der Politik kein 2°C-Ziel einreden und die (westliche) Welt nicht in Angst und Schrecken versetzen können. Also wird eine Welttemperatur per definitionem frei geschaffen. Sie soll der arithmetische Durchschnitt aller lokalen Jahresdurchschnittstemperaturen sein und die sollten zuvor möglichst genau und gleichmäßig über den Globus verteilt gemessen werden.

Nun wissen wir aus vielfältigen Berichten, dass dies zwar oft behauptet wird, man aber in der Realität weit davon entfernt ist, eine gleichmäßige Abdeckung zumindest für die Vorsatellitenzeit jemals erreicht zu haben. Und was die terrestrischen Stationen anbelangt, ist dieser Zustand nicht besser, sondern eher schlechter geworden. Zwar behauptet das britische Met. Office1 ungerührt auf seiner Website: „Die Untergruppe von Messstationen ist gleichmäßig über den Globus verteilt und gibt einen faire Übersicht über die Mitteltemperaturen in globalem Maßstab über Land“. Nun, dass das die Übertreibung des Jahrhunderts – wenn nicht Jahrtausends – ist, pfeifen inzwischen die Spatzen von den Dächern. Die Verteilung der einbezogenen Messstationen ist weit davon entfernt, gleichmäßig und/oder gleichförmig über den Erdball, oder auch nur die Landfläche, verteilt zu sein.

Abbildung 1: Verteilung der einbezogenen GHCN Messstationen 2006. Blau dargestellt mit kontinuierlicher Messung, rot mit diskontinuierlicher Messung.

Aber, die Frage sei erlaubt: Wie kommen die wackeren Wissenschaftler vom Met. Office zu dieser ebenso falschen wie naiven Behauptung? Nun, hier kommen vermutlich die oben erwähnten Korrelationen2 ins Spiel. Sie beziehen sich evtl. auf einen grundlegenden Aufsatz des damals noch jungen, aber schon sehr aggressiven Klimaforschers James Hansen und seines Kollegen Lebedeff aus dem Jahre 1987. Hansen ist auch derjenige, der 1988 dem amerikanischen Senat bei drückend heißem Wetter und unter tatkräftiger Mithilfe seines Kumpels – des Politprofis Al Gore – die Nachteile der künftigen vermutlich katastrophalen Erwärmung näherbrachte.

In einem Aufsatz von 1987 3 im damals noch angesehenen JOURNAL OF GEOPHYSICAL RESEARCH durften die Autoren „peer reviewed“ verkünden, dass es dank ihrer Forschung möglich sei, aus der Not eine Tugend zu machen. Nämlich aus der Not keine flächenmäßig ausreichende Abdeckung mit Klimamessstationen zu haben, die Tugend, diese auch gar nicht zu brauchen. Und nur weil man nun die Vorzüge von Korrelationen für unbekannte Trends einzusetzen imstande sei.

In der Zusammenfassung des Aufsatzes steht:“..Wir zeigen, dass die Temperaturen von Messstationen mittlerer und hoher Breite über 1000 km miteinander hoch korreliert sind. Bei Stationen in niederer Breite fällt die Korrelation mit der Entfernung stärker ab“ Und etwas später ebenda: “.. Fehlerabschätzungen basieren in Teilen auf Studien wie genau die derzeitigen Stationsverteilungen in der Lage sind Temperaturänderungen in einem globalen Datensatz zu repoduzieren, die von einem dreidimensionalen GCM (General Circulation Model) mit realistischer Variabilität erzeugt wurden.“ In diesem hochtrabenden, etwas sehr verschwurbelten Satz steht also im Klartext:“ Wir haben eine Fehlerabschätzung (in Teilen? Welche Teile?) gemacht, indem wir die Ergebnisse mit Modellen, die „realistische“ Temperaturvariationen zuvor errechnet hatten, verglichen haben.“ Also nix mit Realitätsvergleich, nix mit Überprüfung der Daten der einbezogenen Stationen, sondern stattdessen Überprüfung mit Modellen! Der künftige modellverliebte Kurs der Klimaforschung des IPCC wurde hier schon vorgezeichnet.

Und so sah das Ergebnis dann auch aus. Dank der großzügigen 1000 km Regel, die im Text dann nochmals auf noch großzügigere 1200 km Radius erweitert wurde, schaffte man

Abbildung 2: Verteilung der einbezogenen GHCN Messstationen nach Hansen & Lebedeff von 1870 bis 1960 sowie deren postulierte Abdeckung

das Kunststück aus einer unvollständigen auf die Nordhalbkugel bezogenen Abdeckung eine weltweite zu machen. Die Welt wurde überall schwarz. Dabei meint man, dass es genüge wenn in mittleren und hohen Breiten ein „mittlerer“ Korrelationskoeffzient von 0,5 nicht unterschritten wird und (nur noch) von 0,33 in niederen Breiten. Mit diesem trefflichen Handwerkszeug ausgestattet und abgesichert durch „präzise“ Vergleiche mit Modellrechnungen der damaligen Modelle (GCM´s) wurde die Welttemperatur bzw. ihre Abweichung vom gedachten Normal, die Anomalie und deren Trend bestimmt.

Diese Methode wird vom GISS unter seinem Chef James Hansen und seinem Nachfolger Gavin Schmidt bis heute angewendet und niemand in der IPCC Klimatologenbranche hat bisher öffentlich Zweifel an diesem überaus groben und unbestimmten, daher oft falschen Verfahren4 angemeldet.

Jüngst erst wieder in einer Studie über die Temperaturentwicklung in der Arktis. Auch dort wurden die wenigen Messstationen am Rand der Arktis benutzt, um die Temperaturtrends der ganzen Arktis zu berechnen. Und die steigen natürlich.

Abbildung 3 Satellitendarstellung der Arktis mit Nordpol und nächstgelegenen Messstationen. Die Kreise um die Stationen haben einen Durchmesser von 250 km! Der 80 ° Breitenkreis hat ca. einen Radius von 1200 km. Also wie von Hansen et al 1987 vorgeschlagen

Und hier die Temperaturtrends, die das GISS veröffentlicht, obwohl es dort keine Messstationen gibt.

Abbildung 4 GISS Darstellung der Temperaturtrends weltweit von 1881-2010, Man beachte die braune Färbung im Norden am Pol – dort wo es keine Messstationen gibt.

Der Ingenieur Willis Eschenbach hat sich von dieser „schwarzen Kunst“ nicht beeindrucken lassen und sich die Frage gestellt, inwieweit sich denn aus Korrelationen stichhaltige Trends ableiten lassen, oder umgekehrt. Er zeigte sich darüber verwundert, wie man Temperaturen und deren Trends für weite Teile der Welt berechnen kann, wo es keinerlei Temperaturmessstationen gibt.

Wie immer geht er die Sache grundsätzlich an und erzeugt zuerst beliebige Trends, errechnet deren Korrelationen und geht dann weiter zu natürlichen Temperaturverläufen und deren Anomalien und Trends sowie Korrelationen.

Wir sehen sie in Abbildung 5:

Abbildung 5: Trendverläufe künstlich erzeugter Pseudotemperaturen.

Die zugehörigen Korrelationen sehen wir in der folgenden Tabelle:

Abbildung 6: Korrelationen der in Abbildung 5 erzeugten Pseudotemperaturen

Allen gemeinsam ist, dass die Korrelation sehr hoch ist. Keine ist kleiner als 0,9!

Wir erinnern uns: Die Korrelation die Hansen & Lebedeff noch zuließen lagen bei > 0,5 in mittleren und hohen Breiten und nur noch 0,33 in niederen Breiten. Es fällt aber jetzt schon auf, dass diese sehr hoch korrelierten Pseudotemperaturen doch sehr, sehr verschieden (mehrere Grad Unterschied) und trotzdem hoch korreliert sind. Und (nicht nur) Eschenbach 5 folgert daraus:

„.Die unausweichliche Folgerung daraus ist, dass hohe Korrelationswerte zwischen Temperatur-Historien nicht bedeuten, dass deren Trends sich ähneln.

In Ordnung, ich kann schon hören, was Sie denken: „Ja, stimmt, für einige imaginäre kurze 20-jährige Pseudo-Temperatur-Historien kann man einige wilde Daten finden, die unterschiedliche Trends aufweisen. Doch was ist mit den realen 50-jährigen Temperatur-Historien, wie sie Hansen und Lebedeff benutzten?“

Abbildung 7: Natürliche Trends in Alaska mit Korrelationen zwischen 0,51 bis 0,94 im Mittel 0,75 bezogen auf Anchorage

Gut, dass diese Frage kommt … hier sind neunzehn 50-jährige Temperatur-Historien von Alaska. Alle korrelieren mit Anchorage höher als 0,5 (max 0.94, min 0.51, Durchschnitt 0.75).

Man sieht, die Trends rangieren von etwa einem Grad in 50 Jahren bis nahe drei Grad. Trotz dieser riesigen Spannweite (ca. 300%) bei den Trends haben alle eine gute Korrelation (größer +0,5) mit Anchorage. Das zeigt klar, dass eine gute Korrelation zwischen den Temperatur-Historien nichts aussagt über deren korrespondierende Trends.

Was ergibt sich daraus?

Hansen und Lebedeff lagen richtig damit, dass die jährlichen Temperatur-Historien von weit auseinander liegenden Messstationen dazu neigen, gut korreliert zu sein. Allerdings lagen sie nicht richtig mit ihrer Meinung, dass dies für die Trends der gut korrelierten Temperatur-Historien gälte. Deren Trends können völlig ungleich sein. Im Ergebnis ist die Extrapolation von Trends aus einer bis zu 1200 km entfernten Messstation ein unzulässiges Verfahren ohne jegliche mathematische Basis.

Soweit der pfiffige, misstrauische Willis Eschenbach. Er unterzieht dann gleich die kühnen Angaben des GISS über die Temperaturerhöhung der Arktis einer kritischen Betrachtung.(http://wattsupwiththat.com/2010/03/25/gisscapades/#more-17728) Denn dort wird so gut wie nirgends gemessen: „Macht nichts sagen die GISS Leute: Wo keine Temperaturen bekannt sind, erfinden wir eben welche“ Richtige seriöse Klimaforschung sollte anders aussehen.

Meint

Michael Limburg EIKE

1 Met Office(Quelle: http://www.metoffice.gov.uk/corporate/pressoffice/2009/pr20091205.html) …The subset of stations is evenly distributed across the globe and provides a fair representation of changes in mean temperature on a global scale over land.

2„Korrelation“ ist ein mathematisches Maß für die Ähnlichkeit (Wikipedia spricht allgemeiner von Wechselbeziehungen) zweier Datenzeitreihen. Sie rangiert von „null“, d. h. keine Ähnlichkeit, bis plus oder minus “eins”, d. h. sehr ähnlich. Ein negatives Vorzeichen verändert die Ähnlichkeit nicht, aber wenn der Wert eines Datenbestandes nach oben geht, nimmt der andere ab.

3 HANSEN, JAMES LEBEDEFF, SERGEJ (1987) Global Trends of Measured Surface Air Temperature. JOURNAL OF GEOPHYSICAL RESEARCH 92:13345 13372.

4 Damit sind nicht die Klimarealisten, Ross McKittrick, MacIntyre, Watts um nur diese zu nennen, gemeint. Die schießen seit Jahren gegen diese zu grobe und zu falschen Schlüssen führenden Methode

5 Quelle mit vielen weiteren Beispielen und Anmerkungen hier: http://wattsupwiththat.com/2010/03/25/gisscapades/#more-17728




Kosten für Energiewende explodieren

Der unregelmässige und unvorhersehbare Wind- und Sonnenstrom wird zunehmend zum Problem für das Stromnetz in Deutschland.  

Fast eine Milliarde Euro hat der deutsche Stromnetzbetreiber Tennet TSO letztes Jahr für Noteingriffe aufgewendet, um das Netz zu stabilisieren. Das hat das Unternehmen Anfang dieser Woche bekannt gegeben. Die Kosten lagen damit rund die Hälfte höher als 2016 (660 Millionen Euro) und rund vierzig Prozent über denen von 2015 (710 Millionen). Tennet ist für die Stromversorgung in einem Gebiet zuständig, das von Schleswig-Holstein im Norden bis Südbayern reicht und rund vierzig Prozent der Fläche Deutschlands ausmacht. Insbesondere ist Tennet verantwortlich für wichtige Nord-Süd-Trassen.

Grund für die Zunahme der Notinterventionen sind die immer zahlreicheren Solar- und Windanlagen in Deutschland. Der Anteil der erneuerbaren Energie ist letztes Jahr von 29 auf 33 Prozent der Stromversorgung gestiegen. Wind- und Sonnenstrom fallen aber unregelmässig und oft unvorhersehbar an. Damit wird das Netz zunehmend instabil. Denn gemäss den Gesetzen der Physik müssen die eingespeiste und die nachgefragte Elektrizität jederzeit übereinstimmen – ansonsten kommt es zu Blackouts. Die deutschen Netzbetreiber müssen bei drohenden Ungleichgewichten darum Gas-, Kohle- oder Atomkraftwerke anweisen, ihre Stromeinspeisung hochzufahren oder zu drosseln. Zum Teil bitten sie ausländische Kraftwerke um Unterstützung. Hilfreich kann auch die Anweisung an Windkraft- und Solaranlagen-Betreiber sein, ihre Produktion vorübergehend einzustellen. Damit werden die Netzverantwortlichen aber entschädigungspflichtig, da für Alternativstrom eine Abnahmegarantie besteht. Tennet bezahlt also Geld für das Abstellen von Windrädern.

Netzstabilität leidet

Eine Herausforderung der deutschen Energiewende besteht darin, dass das Leitungsnetz angesichts der steigenden Schwankungen dringend verstärkt werden muss. Insbesondere fehlen leistungsstarke Leitungen vom Norden, wo viele Windkraftanlagen stehen, in den Süden, wo der Strombedarf gross ist. «Wir brauchen zwingend ein Energiewende-Netz, also die vom Gesetzgeber bereits beschlossenen Netzausbauprojekte», sagte Tennet-Geschäftsführungsmitglied Lex Hartmann zur Frankfurter Allgemeinen Zeitung. Bis dahin seien «Netzengpässe, hohe Kosten für die Verbraucher und eine zunehmend instabile Versorgung die harte Wirklichkeit».

Der Ausbau der Netze hinkt den Ausbauplänen der Regierung allerdings weit hinterher. Laut dem McKinsey Energiewende-Index vom letzten Oktober sind bisher erst 816 der 3582 Kilometer Stromleitungen gebaut, die bis 2020 in Betrieb sein sollen. McKinsey bezeichnet die Erreichbarkeit des angestrebten Netz-Ausbauziels darum als «unrealistisch».

Grund für die Verzögerungen ist massgeblich der Widerstand der Bevölkerung gegen neue Überlandleitungen, der teilweise von den Regierungen der Bundesländer unterstützt wird. So hat sich Thüringens Ministerpräsident Bodo Ramelow (Linke) im November gegen neue Stromtrassen in seinem Bundesland ausgesprochen. Vor zwei Jahren kam entsprechender Widerstand auch von Horst Seehofer (CSU), Ministerpräsident von Bayern. Die Stromnetzbetreiber sind häufig gezwungen, neue Leitungen teilweise unterirdisch zu verlegen, was zu grossen Landschaftseingriffen, horrenden Kosten und beträchtlichen Verzögerungen führt.

Die deutschen Stromverbraucher bezahlen jährlich rund 25 Milliarden Euro für die Förderung von Alternativstrom, mit steigender Tendenz. Zwar ist die sogenannte Umlage, die pro verbrauchte Kilowattstunde in Rechnung gestellt wird, auf Anfang dieses Jahres leicht von 6,88 auf 6,79 Eurocent gesunken. Kosten wie etwa diejenigen für Noteingriffe ins Netz werden den Verbrauchern aber zusätzlich in Rechnung gestellt. Gemäss Schätzungen wird die Energiewende in Deutschland bis 2025 über eine halbe Billion Euro kosten. Die Belastung für eine vierköpfige Familie beträgt demnach total etwa 25’000 Euro, was mehr als die Hälfte eines durchschnittlichen deutschen Brutto-Jahresverdienstes ausmacht. Im Jahr 2016 wurde insgesamt 330’000 Haushalten wegen offener Energierechnungen der Strom abgestellt.

Problem betrifft auch die Schweiz

Die Probleme mit der Netzstabilität könnten mit dem Abschalten der verbliebenen Atomkraftwerke noch deutlich zunehmen. An Silvester ging der Block B des AKW Gundremmingen in Bayern vom Netz, womit nun bundesweit noch sieben Reaktoren in Betrieb sind. Block B hatte eine Leistung von 1344 Megawatt, was etwas höher als die des AKW Leibstadt ist. Der Reaktor hatte während 33 Jahren störungsfrei produziert. Bundesumweltministerin Barbara Hendricks (SPD) zeigte sich «froh» über das Abschalten. Das letzte AKW in Deutschland soll 2022 vom Netz gehen. Mit dem Atomausstieg habe man «den Grundstein für eine international wettbewerbsfähige Energiestruktur in Deutschland gelegt», so Hendricks. Gemäss der Bundesnetzagentur könnten die Kosten für Noteingriffe nach dem Ende aller AKW bundesweit aber auf bis zu vier Milliarden Euro steigen.

Auch in der Schweiz nehmen Noteingriffe im Stromnetz zu. Die Gründe liegen beim Ausbau von Wind- und Solarstrom und bei Netzinstabilitäten im Ausland, die sich auch auf die Schweiz auswirken. Zudem ist hierzulande der Netzausbau ebenfalls stark im Rückstand. Wie die Basler Zeitung im November berichtete, musste die Schweizer Netzbetreiberin Swissgrid letztes Jahr bis Ende August bereits 274 Mal eingreifen, was gegenüber dem Vorjahr etwa eine Verdoppelung bedeutete. Wie viele Netzeingriffe es 2017 insgesamt waren, will Swissgrid nächste Woche bekannt geben. (Basler Zeitung)

Dieser Beitrag erschien zuerst in der Basler Zeitung hier




EU – Energierat hat beschlossen: Planwirtschaft

Immer wenn Akteure aus dem Berliner Politbetrieb wie Rainer Baake lauthals etwas von »Erfolg« verkünden, ist besonders hohe Vorsicht angebracht. »Das vom Energierat beschlossene Paket »Saubere Energie für alle Europäer« ist ein Meilenstein. Es gestaltet fast den gesamten europäischen Energierahmen neu.«, verkündete Baake Anfang dieser Woche.

Baake ist einer der Hauptideologen der Energiewende, war früher Staatssekretär in Hessen, als Joschka Fischer Umweltminister in Wiesbaden war. Beide wollten das Kernkraftwerk Biblis sofort dichtmachen, der damalige Bundesumweltminister Töpfer verhinderte dies. Für alle Außenstehenden unverständlich machte der damalige Wirtschaftsminister Gabriel den Grünen zum Staatssekretär. Seine Nachfolgerin Zypris hat nichts daran geändert. Baake war auch einmal Bundesgeschäftsführer der äußerst dubiosen Deutschen Umwelthilfe und will das Energiesystem umbauen. Bisher allerdings trägt er die wesentliche Mitschuld an dem Energiedesaster, an extrem hohen Strompreisen und dem Ruin der alten Energieerzeuger. Der gelernte Volkswirt ist mit verantwortlich für die Vernichtung von Werten in Milliardenhöhe.

Rainer Baake vertritt Deutschland bei den Brüsseler Energieverhandlungen. Jetzt will er nichts Geringeres als den europäischen Energiemarkt mal eben neu ordnen. Was in Deutschland schon nicht funktioniert, soll nun Europa aufgezwängt werden. »Saubere Energie für alle Europäer« soll ein Vorzeigeprojekt der EU sein. Sie basteln an einer »Energieunion«, sind sich aber darüber im Klaren, wie schwierig es werden würde, ein entsprechendes Gesetzpaket auf nationaler Ebene umzusetzen. Die EU-Kommission möchte 30 Prozent Energieeinsparung bis zum Jahr 2030 erreichen. Beachtlich hochfliegende Pläne, die Bürger Europas können sich lediglich glücklich schätzen, dass die meisten Gesetzesvorschläge als zahnloser Bettvorleger enden. Bisher zeigen die meisten europäischen Staaten – das abschreckende Beispiel Deutschlands vor Augen – wenig Neigung auf einen gemeinsamen Nenner zu kommen.Vor einem Jahr hat die EU ein »Winterpaket« (nennt sie tatsächlich so) vorgestellt, ein Paket an Gesetzesvorschlägen für eben »Saubere Energie für alle Europäer«.
Im Wesentlichen handelt es sich um eine Verbreitung der deutschen Energievorstellungen über Europa. Unter anderem mit den Parolen »keine Diskriminierung einer Stromart«, alle Verbraucher sollen das Recht haben, Strom zu erzeugen und der Leerformel »Mehr Energieeffizienz«.

In dieser Woche verkündet Baake lauthals, dass die »28 EU-Energieminister Weichen auf europäische Energiewende gestellt hätten«. Ein Schritt, den die Minister am 18. Dezember beschlossen haben: »Neue Kohlekraftwerke dürfen an diesen Kapazitätsmärkten ab Ende 2025 und Bestandsanlagen ab Ende 2030 nicht mehr teilnehmen. Zwischen 2025 und 2030 soll die Förderung jährlich abgesenkt werden.«

Im Klartext: Den europäischen Ländern sollen Kohlekraftwerke verboten werden, nicht direkt, sondern über den Umweg, dass sie »an diesen Kapazitätsmärkten … nicht mehr teilnehmen (dürfen).« Klingt nicht direkt nach drastischem Verbot, ist aber im Effekt das Gleiche. Der Kohleausstieg für alle EU-Länder soll also durch die Hintertür eingeführt werden. Die Kommission hatte bereits vorgeschlagen, die Kohleverstromung in Europa zu reduzieren.

Die Gefahr größerer Blackouts, vor der die Fachleute schon seit langem warnen, wird damit nicht nur Deutschland treffen, sondern auch andere EU-Länder. Auch eine Art Solidarität: Warum soll nur Deutschland allein den Untergang seiner industriellen Basis zu tragen haben?

Wir sehen einmal kurz nach, wo seit längerer Zeit unser Strom in Deutschland herkommt. Denn kritisch für die Stromversorgung sind vor allem die langen dunklen Wintermonate, kurze Tageszeiten, Hochdruckwetterlagen, dichte Wolkendecken, durch die fast keine Sonne dringt, wenig Wind auf der Nordsee. So sieht dann das Strombild auch aus. Ohne Kohle- und die wenigen Kernkraftwerke säßen wir im Dunklen. Von Sonne und Wind kommt nichts, kann auch nichts kommen, wenn nichts da ist:

Nur Hardcore-Ideologen behaupten dann fußaufstampfend: Und es geht doch!
Vielleicht deutet sich auch so etwas wie blanke Panik bei Baake & Co an. Leute wie er wollen sich möglicherweise auch über die Brüsseler Bande Unterstützung für ihr Projekt »Zerstörung Industrielandschaft« holen. Denn ein wesentlicher Punkt der jetzigen Brüsseler Beschlüsse ist die weitere Öffnung der europäischen Netze. Baake in unziemlich imperialistischem Tonfall: »Wir definieren Versorgungssicherheit nicht mehr rein national, sondern europäisch.«

 

Das neue Verfahren soll laut Bundeswirtschaftsministerium vorsehen: »Die Mitgliedstaaten müssen die grenzüberschreitenden Stromleitungen schrittweise immer weiter für den europäischen Stromhandel öffnen. Dafür ist ein Zielwert in Höhe von 75 % beschlossen worden, der Ende 2025 erreicht werden muss. Die Mitgliedstaaten können selber entscheiden, wie sie das erreichen wollen: Indem sie ihre Gebotszonen verkleinern oder durch einen Maßnahmenplan für die Modernisierung der Netze und den Netzausbau und sogenannte Redispatch-Maßnahmen, um die verbleibenden Engpässe zu beheben. Wenn die Mitgliedstaaten diese schrittweise Öffnung der grenzüberschreitenden Stromleitungen nicht erreichen, kann die Kommission Maßnahmen vorschlagen und als letzte Konsequenz auch einen Teilung der Gebotszonen anordnen.«Staatssekretär Baake: »Das neue Verfahren zum Umgang mit internen Netzengpässen gibt den Mitgliedstaaten Zeit, ihre Netze auszubauen. Es macht aber andererseits auch sehr klar, dass sich die Mitgliedstaaten nicht länger auf ihren internen Engpässen ausruhen können.« Das ist der passende Tonfall, den die deutschen Nachbarn so schätzen gelernt haben.

Das bedeutet in erster Linie Hilfe für die geplagten deutschen Stromnetze, wenn wieder einmal zu viel Windstromüberschuß das Netz überschwemmt und die deutschen Netzbetreiber schwitzen, wohin mit den Mengen? Strom muss genau in dem Augenblick, in dem er erzeugt wird, irgendwohin und verbraucht werden. Speichern geht eben nicht. Wenn in Deutschland absolut nichts mehr damit anzufangen ist, dann bleibt nur noch das Ausland übrig. Dort trifft er aber auch auf immer weniger Freude. Denn der zerstört dort Netze und Märkte. Daher machen Länder wie Polen bereits dicht.

 

Die südlichen Länder werden sich wohl kaum um diese Brüsseler Beschlüsse kümmern. Die Reaktion der osteuropäischen Länder dürfte eindeutig sein: Mit uns nicht! Sie können ihren Bevölkerungen keine ins wahnwitzige gesteigerten Kosten zumuten, Vorrang hat der Ausbau einer einigermaßen stabilen und preiswerten Energieversorgung. Der Brüsseler Beschluss von dieser Woche hat daher zur Folge: noch mehr Grenzsperren in den Netzen. Mit Phasenschiebern wie bereits an deutsch-polnischen Netzübergängen wird verhindert, dass Strom aus deutschen Anlagen die Netze überschwemmt. Statt Eiserner Vorhang nun Netzsperren als Trennlinie zwischen West und Ost. Der Wahnsinn hat sich nur umgekehrt.Baake in denglischem Phrasendresch: »Die Bedeutung der neuen Governance für die Energieunion geht aber über die Erfüllung der 2030-Energie-und Klimaziele hinaus. Erstmals gibt sich hier einer der größten Wirtschaftsräume der Welt einen gemeinsamen Plan, wie die Mitgliedstaaten zur langfristigen Dekarbonisierung und Versorgungssicherheit Europas beitragen wollen.«




Die Chinesen sind gelandet…

 Die französische Vorgeschichte

Schon seit längerem betreibt der staatliche französische Energieversorger EDF (Electricite de France) auch die Kernkraftwerke in England. Etwas ungewöhnlich, handelt es sich doch um gasgekühlte (CO2) und mit Graphit moderierte Reaktoren älteren Datums. Ein Typ, der schon lange in Frankreich abgeschaltet wurde. Gleichwohl ist EDF somit als ein zuverlässiger und etablierter Betreiber in GB bekannt.

Es war damit folgerichtig, daß auch bei der Renaissance der Kernkraft die EDF an vorderster Stelle mit dabei sein würde. Es entstand das Projekt Hinkley Point C in Somerset mit zwei ebenfalls französischen Reaktoren vom Typ EPR. Alles schien ganz einfach – wenn nicht der französische Versorger chronisch unterfinanziert wäre. Es mußte deshalb unbedingt ein kapitalkräftiger Investor mit ins Boot, zumal noch weitere Kernkraftwerke geplant waren. Die Chance für den chinesischen Staat einen Fuß in die Tür des europäischen Marktes zu bekommen. Seltsamerweise ist die Angst vor einer Abhängigkeit in der volkswirtschaftlichen Schlüsselgröße der Stromversorgung von der chinesischen Diktatur noch geringer, als die Furcht vor dem „friedliebenden und aufrechten Demokraten“ Putin. Irgendwie scheint in den Hirnen europäischer Politiker der Irrglaube, elektrische Energie sei so etwas ähnliches wie Kartoffeln, fest verwurzelt zu sein.

Die chinesische Vorgeschichte

China baut inzwischen mehrere Reaktoren pro Jahr. Hunderttausende hoch qualifizierte und überdurchschnittlich bezahlte Arbeitskräfte sind dafür nötig. Allerdings ist jedem klar, daß auch in einem Riesenreich der Markt irgendwann gesättigt ist. Darüberhinaus muß man eine Menge Autos, PC’s oder Jacken aus recyceltem Plastik verkaufen, um den Umsatz nur eines einzigen Kraftwerks zu erzielen. Ein Wissen, das in Deutschland völlig verloren gegangen zu sein scheint. Deshalb der konsequente Schritt der Chinesen in den Export.

Allerdings ist das einfacher beschlossen, als umgesetzt. Ein wichtiger Hebel ist der Preis und die Finanzierung. Trotzdem ist für ein solch sensibles Produkt auch eine gewisse Reputation nötig. Es reicht (noch nicht) der Nachweis einer großen Stückzahl im eigenen Land. Dies gilt besonders für geheimniskrämerische, sozialistisch geprägte Diktaturen wie China und Rußland. Man versucht deshalb wenigstens den Goldstandard eines „westlichen Genehmigungsverfahrens“ zu erlangen. Ein teures und aufwendiges Unterfangen, wie bereits Rußland in Finnland zu spüren bekommt. Es ist halt ein himmelweiter Unterschied, ob man sich in irgendwelchen Hinterzimmern – unter gegenseitig wohlgesonnenen Fachleuten – Papierberge hin und her schiebt oder im Internetzeitalter unter den Argusaugen von „Atomkraftgegnern“ ein transparentes Verfahren durchstehen muß.

Hinzu kommen bei den Chinesen noch komplizierte Lizenzfragen. Man hat sich aus aller Welt Kernkraftwerke zusammengekauft. Ein Wirrwarr von Lizenzverträgen. Deshalb versucht man es hier mit einer vermeintlichen Eigenentwicklung. So etwas ist in Industrieländern schlicht unverkäuflich. Nicht einmal über den Preis oder politische Kompensationsgeschäfte. Ein Bau in England als Referenz, erscheint daher wie ein Sechser im Lotto. Deshalb also der gemeinsame Antrag von China General Nuclear Power Corporation (CGN), Electricite de France (EDF S.A.) and General Nuclear International (GNI) zum Bau und Betrieb von bis zu sechs Reaktoren. Einschließlich großzügiger Finanzierung, versteht sich.

Die Entstehungsgeschichte des Hualong

Ihren Gemischtwarenladen – nicht nur an Leichtwasserreaktoren – haben die Chinesen nach dem Unglück von Fukushima geschickt zu bereinigen versucht. Es soll zukünftig nur noch ein Typ gebaut werden – sicherheitstechnisch auf den neusten Stand der Technik gebracht, versteht sich.

Alles begann mit der Übernahme französischer Druckwassertechnik, die zum Bau der Reihe M310 im Jahr 1987 führte (4 Reaktoren, Inbetriebnahmen 1994–2003). Dies führte zur Baureihe CPR1000 im Jahr 2005 (13 Reaktoren, Inbetriebnahmen 2010–2016). Die Erfahrungen aus Bau und Betrieb führten 2010 zur überarbeiteten Baureihe CPR1000+ (2 Reaktoren, Inbetriebnahmen 2016–2017). Die Denkpause nach dem Unglück von Fukushima führte zur Baureihe ACPR1000 (4 Reaktoren, noch im Bau). Bisheriger Abschluss dieser evolutionären Entwicklung ist der Typ HPR1000, der seit 2015 im Bau ist. Dies ist auch die Basis des ersten Exports Karachi 2, welches seit 2015 in Pakistan gebaut wird.

China verfügt also über genügend Erfahrung in der Abwicklung solcher Großprojekte. Leider muß man aktuell sagen, sogar über mehr Praxis als die USA und Frankreich. Durch deren lange Pausen beim Neubau von Kernkraftwerken, sind dort die Erfahrungen abgerissen und müssen erst wieder mühselig neu erworben werden. Von Deutschland braucht man in diesem Zusammenhang gar nicht mehr zu reden. Hier ist die Deindustrialisierung bereits so weit fortgeschritten, daß man nicht mal mehr einen vergleichbar simplen Flughafen bauen kann.

Die eingereichten Unterlagen

Im Oktober 2017 wurden die ersten Unterlagen bei der britischen Genehmigungsbehörde eingereicht. In ihnen wird immer von einem UK-HPR1000 gesprochen. Man ist sich also darüber im Klaren, daß es eine spezielle Version geben muß, damit sie in GB genehmigungsfähig ist. Interessant an den eingereichten Unterlagen ist, daß es Beschreibungen des Hualong sind, wie er gerade im Kraftwerk Fangchenggang als Block 3 gebaut wird (HPR1000(FCG3)). Auf diese Weise erhält man einen – wenn auch sehr kleinen – Einblick in die aktuelle chinesische Reaktortechnik.

Bereits aus den beigefügten Zeichnungen kann man erkennen, daß es sich um einen typischen „französischen Reaktor“ handelt, wie er dutzendfach in Frankreich steht. Charakteristisch sind die drei Dampferzeuger und die dreifachen (redundanten) Sicherheitssysteme. Es handelt sich keinesfalls um eine Neukonstruktion mit grundsätzlich passivem Sicherheitsansatz wie z. B. der AP1000 von Westinghouse oder einem evolutionär weiterentwickelten Konvoi-Reaktor wie den EPR mit vierfacher Redundanz. Es wird interessant sein, wie die Genehmigungsbehörde darauf reagieren wird. So wie er eingereicht wurde, ist er eher ein Neubau vorhandener und nachgerüsteter französischer Reaktoren. Entweder müssen die Chinesen noch richtig Geld in die Hand nehmen um das Sicherheitsniveau moderner westlicher Reaktoren zu erreichen oder GB gibt sich mit geringeren – als möglichen – Sicherheiten zufrieden. Dann könnte man aber auch Reaktoren in Korea oder Rußland kaufen. In diesem Zusammenhang wird auch das Genehmigungsverfahren des russischen Kernkraftwerks in Finnland noch sehr interessant werden. Ist doch auch dort der unmittelbare Vergleich zum EPR gegeben. Jedenfalls ist der Hualong keinen Deut sicherer als die Kernkraftwerke, die gerade in Deutschland vom Netz genommen werden. Absurdistan läßt grüßen. Auch der Betrieb dürfte keineswegs günstiger sein. Dafür sorgt schon die Dreisträngigkeit (Sicherheitsphilosophie: Ein System versagt, ein weiteres startet nicht, d. h. es steht noch ein drittes zur Verfügung. Bei vierfacher Redundanz kann man somit Wartungsarbeiten während des Betriebs durchführen.). Ebenso die konventionelle Leitungsführung (Wiederholungsprüfungen) und die Hauptkühlmittelpumpen.

Einige Unterschiede zum EPR

Die Leistung des Hualong beträgt nur 70% des EPR. Dies ist kein prinzipieller Nachteil. Allerdings beträgt die Leistung der Dampferzeuger mit 1050 MWth fast 93% der Leistung der Dampferzeuger des EPR. Man hat also durch Weglassen eines Stranges Baukosten gespart.

Der Kern des Hualong besteht aus nur 177 Brennelementen gegenüber 241 Brennelementen beim EPR. Aber die lineare Wärmeleistung ist mit 179 W/m2gegenüber 170 W/m2 sogar höher. Auch hier wurde also zur Kosteneinsparung geknautscht. Ebenso ist die aktive Höhe des Kerns mit 3,66 m kleiner als beim EPR mit 4,20 m. Interessant werden die Ergebnisse der thermohydraulischen Vergleichsrechnungen mit ein und demselben Programm sein. Es ist die klassische Frage nach der Optimierung von Kosten und Sicherheitszugewinn die sich hier stellt.

Die Auslegungslebensdauer (nicht zu verwechseln mit der tatsächlichen oder wirtschaftlichen Lebensdauer; sie sind wesentlich höher) wird keck mit 60 Jahren angegeben. Lebensdauer ist aber immer eine Frage der Konstruktion, der verwendeten Materialien und Fertigungsverfahren, der Qualitätssicherung und des Betriebs. Schon die Konstruktion gibt zu denken: Der EPR hat im Druckbehälter einen ca. 30 cm dicken Reflektor aus Stahl, der als Schutzschild für das Reaktordruckgefäß gegen die Bestrahlung mit Neutronen dient. Qualitätssicherung nach europäischen Maßstäben ist die nächste Frage. Man denke nur an das Theater um den Kohlenstoffgehalt im Deckel des EPR von Flamanville. Ein vermeintlicher Kostenvorteil chinesischer und russischer Fertigungsstätten kann schnell in einen Nachteil mit unkalkulierbaren Kostensteigerungen umschlagen, denn man wird weder in Finnland noch GB bereit sein, ein erhöhtes Risiko einzugehen – egal, ob aus mangelnden technischen Fähigkeiten des Herstellers oder systemtypischer Schlamperei.

Der EPR hat einen sog. „Core-Catcher“, der bei einer Kernschmelze verhindern soll, daß der Sicherheitsbehälter zerstört wird. Beim Hualong wird die Grube, in der sich der Druckbehälter befindet, mit „ausreichend borierten“ Wasser geflutet. So soll ein durchschmelzen des Druckbehälters verhindert werden. Nicht verkehrt, kommt aber sehr auf die konstruktive Gestaltung an.

Dem vollständigen Verlust jeglicher äußeren Wärmesenke (Fukushima Störfall) soll durch einen Wassertank oben am Reaktorgebäude begegnet werden. In diesen ringförmigen Tank soll sich der Dampf aus den Dampferzeugern niederschlagen. Dieses Prinzip wurde offensichtlich von den Russen übernommen. Wie hoch der Sicherheitsgewinn sein soll, wird eine probabilistische Fehleranalyse zeigen müssen. Es riecht ein wenig nach „Weißer Salbe“ oder PR-Gag. Gerne wird von den Russen immer ein Generation III+ angeführt – nur hat ein Wassertank auf dem Dach noch wenig mit einem passiven Sicherheitskonzept für schwerste Störfälle zu tun (z. B. AP1000 von Westinghouse oder ESBWR von GE/Hitachi).

Jedenfalls benötigt der Hualong genauso elektrische Energie, wie schon jeder Reaktor der zweiten Generation. Bricht die Stromversorgung komplett zusammen, schmilzt sein Core genauso, wie in den Reaktoren von Fukushima. Alles hängt – wie übrigens auch beim EPR – von einer stets funktionierenden Stromversorgung ab. Der „Sicherheitsgewinn“ beim EPR und seinem russischen Pendant (richtiger ist eigentlich die Strahlenbelastung der Umgebung nach einem Fukushima Störfall) gegenüber einem aktuellen Reaktor in Deutschland, ergibt sich allein aus dem „Core Catcher“. Es wird noch unwahrscheinlicher, daß große Mengen Spaltprodukte auch bei einer vollständigen Zerstörung von Kern und Druckbehälter freigesetzt werden.

Nachtrag

Damit kein falscher Eindruck entsteht, es geht hier nicht um eine Abwertung chinesischer Reaktoren, denn es geht immer um die Abwägung von Sicherheit und Kosten, was letztendlich immer eine rein politische Entscheidung ist. Als deutscher Ingenieur tut man sich etwas schwerer damit, da wir zum Gürtel gern die Hosenträger bevorzugen. Andererseits hat uns genau diese Mentalität vor einem Tschernobyl oder Fukushima bewahrt. Deutschland war immer ganz vorne dabei, wenn es um Risikoanalysen und die Umsetzung der daraus resultierenden Konsequenzen ging.

Darin liegt die eigentliche Tragik: Einschlägig bekannte Politiker haben wieder einmal – diesmal durch ein dubioses „Vorangehen“ – versucht, mit ihrer verdrehten Ideologie die Welt zu beglücken. Die Welt wird sich aber mitnichten von der Kernenergie abwenden. Einigen besonders schlichten Gemütern war es einfach egal. Sollen sich doch ferne Völker „verstrahlen“, wir versorgen unser Bullerbü mit Wind, Sonne und Biokost. Das Aufwachen in der Realität wird heilsam sein: Vielleicht werden ja tatsächlich bald Kernkraftwerke in unseren Nachbarländern neu errichtet, die sicherheitstechnisch bestenfalls dem Standard der Kraftwerke entsprechen, die wir gerade voller Begeisterung abschalten. Ähnlichkeiten mit „Hans im Glück“ sind rein zufällig.

Der Beitrag erschien zuerst bei NUKEKlaus hier