SZ: Bauern­aufstand (Teil 1)

Damit dieser Anspruch an die Lenkung des Weltklimas und Wette „eingehalten“ wird, klagen diese drei (auf Anregung und) mit Unterstützung durch Greenpeace. Die erste Verhandlung darüber steht in Kürze bevor. Und aus diesem Anlass brachte die Süddeutsche Zeitung darüber eine ganze (Jubel-)Seite. Grund, sich die darin gelisteten Argumente anzusehen.

Biolandbau

Wohl nicht zufällig kamen in dem SZ-Artikel nur die Biobauern zu Wort. Es ist allgemein bekannt, dass Biobauern in unseren Breiten (und nicht nur dort) weiterhin das erleiden, was eine vernünftige, konventionelle Agrarwirtschaft in vielen Fällen zumindest teilweise überwunden hat: Einen desaströsen Ertrag von teils nur der Hälfte (gegenüber dem konventionellen Anbau) und schlimme, in der Regel negative Abhängigkeit vom Wetter, zuzüglich dem völligen ausgeliefert sein gegenüber Schädlingen und Pilzerkrankungen.
Eine umfassende Darstellung darüber findet sich in
Achgut: Frau Künasts Landwirtschaft im Faktencheck
Und bei EIKE 19.09.2016: Biobauern sind die größten Lebensmittel-Vernichter Ohne Klimawandel überlebt die Biolandwirtschaft ihre Ernteverluste nicht
Neue Zürcher Zeitung 4.8.2016: [6] Miserable Weizenernte im Kanton Zürich Wer ist schuld an der Missernte?
In einem Jahr wie diesem zeige sich schonungslos, dass diese ökologisch geprägte Politik nicht aufgehe. An Zürcher Sammelstellen zeige sich bezüglich der Getreideernte «der blanke Horror»: Vor 150 Jahren hätte eine solche Missernte ein Hungerjahr bedeutet, sagt Haab, jetzt müsse halt stärker auf das Ausland gesetzt werden. Dies sei die Quittung dafür, dass Bauern mit Beiträgen vom Bund im Rahmen des Extenso-Programms und mit IP-Suisse-Geldern davon abgehalten würden, ihre Weizen wirksam vor Pilzbefall zu schützen.
Bauern, die extensiv produzierten, also ohne Einsatz von Fungiziden, hätten einen Ernteausfall von rund 40 Prozent zu verkraften, konventionelle Produzenten einen solchen von 20 bis 25 Prozent, sagt er.

DIE WELT 11.08.16: [5] Ernteausfälle bei Bio-Gurken im Spreewald
Ein Betrieb aus Steinreich (Dahme-Spreewald) etwa beklagt bei Bio-Schälgurken Ernteausfälle von 70 Prozent. Grund sei eine Pilzkrankheit. Die EU stufte vor Jahren ein Mittel dagegen, das im Ökolandbau angewendet durfte, als Pflanzenschutzmittel ein. Damit darf es nicht mehr auf die Felder
.

Frankfurter Rundschau 21. Juli 2016: Kleine Körner, faule Kartoffeln
Auch Kartoffeln dürfte es dieses Jahr weniger geben. Die Kraut- und Knollenfäule wütet, eine Pilzkrankheit, die ebenfalls durch Nässe ausgelöst wird. „Auf manchen Äckern gibt es Einbußen bis zu 100 Prozent“, sagt Weber.

[3] Insbesondere für die Erzeuger von Biokartoffeln war die Ausbreitung des Krautfäuleerregers Phytophthora infestans ein großes Problem; im Ökoanbau wurde auch ein vermehrtes Auftreten von Kartoffelkäfern beobachtet.

topagrarONLINE, 09.08.2016: Bio-Kartoffelbauern in der Pfalz drohen 100 Prozent Ernteausfall
Feucht-warme Witterung begünstigt die Krankheit und kann zu Ertragsverlusten von 20 bis 40 % oder sogar zu Totalschaden führen. Die Behandlung mit Kupfer, die im Bio-Anbau bis zu einer bestimmten Grenze pro Hektar erlaubt ist, greift bei häufigen Niederschlägen nicht, weil das Kupfer sofort wieder von der Pflanze abgewaschen wird und damit wirkungslos bleibt. Andere Pflanzenschutzmittel, wie zum Beispiel das systemisch wirkende und komplett abbaubare Kaliumphosphonat, sind beim Bio-Anbau nicht erlaubt.
Die Ökobauern befinden sich aufgrund des dauerhaft feuchten Wetters im Frühjahr und Frühsommer 2016 in einer Zwickmühle. Entweder sie verlieren ihr 
Biosiegel oder die komplette Ernte.

Rückblick auf die „erstrebte“, vorindustrielle Agrarzeit

Wie das früher aussah, liest sich wie folgt:
[3] Erntemengen
… Im frühen Mittelalter um 1000 n. Chr. lag das Verhältnis von Aussaatmenge zu Erntemenge bei etwa 1:3. Das bedeutet, dass aus 1 kg ausgesätem Weizen 3 kg neu heranwuchsen. Davon musste 1 kg für die nächste Aussaat zurückgelegt werden. Von den verbliebenen 2 kg musste der Bauer Abgaben leisten (Steuern zahlen). Das Erntegut war zudem ständig von Ungeziefer und Schimmel bedroht. Da blieb nur wenig für die eigene Ernährung. Ein Grund für das schlechte Verhältnis war die ständige Bedrohung durch Schädlinge und Pflanzenkrankheiten. In einigen Jahren wurden bis zu 50% der Ernte vom Wild zerstört. Dazu kamen Heuschrecken, Käfer, Mäuse, Pilzkrankheiten, Sturm, Hagel und Dürre. Außerdem war der Ertrag durch den Mangel an Pflanzennährstoffen ohnehin sehr gering …

WIKIPEDIA: Hunger war im Mittelalter so weit verbreitet, dass er neben Krieg, Pestilenz und Tod als einer der „vier Apokalyptischen Reiter“ galt. Bei der Hungersnot von 1315–1317 starben in Europa mehrere Millionen Menschen. Die schwerste Hungersnot im 15. Jahrhundert in Europa fand 1437 bis 1439/40 statt. In Industrieländern kommen Hungersnöte heute praktisch nicht mehr vor, aber weiterhin in Entwicklungsländern.

WDR 09.08.2010: Fast alle Menschen verzweifeln. Sie verzehren die Kadaver verendeter Tiere. Viele Arme sterben vor Hunger.“ Das schreibt der Mönch Reiner 1196 in den Annalen des Klosters St. Jakob in Lüttich. Weiter heißt es: „Die Armen lagen auf den Straßen umher und starben; auch vor der Tür unserer Kirche lagen sie zur Zeit der Matutin seufzend und sterbend.“ Reiner von Lüttich beschreibt in kurzen lateinischen Sätzen eine der größten Hungersnöte des Mittelalters. Ein Jahr zuvor, 1195, zerstörten Dauerregen und Unwetter die Ernte. „In diesem Jahr regnete es beständig vom Johannisfest (im Juni) bis Weihnachten … außerdem richtete ein schweres Unwetter nach dem Jakobusfest (im Juli) alle Feldfrüchte zugrunde“ erzählt Reiner von Lüttich in den Klosterannalen, eine der wichtigsten Quellen für die Naturkatastrophe. Ein Jahr später, 1196, breitet sich die Hungersnot über das heutige Belgien, Lothringen, West- und Süddeutschland bis nach Österreich aus … Die Hungersnot, die auf den verregneten Sommer 1195 folgt, endet erst nach drei Jahren. Wie viele Menschen daran gestorben sind, ist nicht überliefert.

Keine Belege, aber enorm viel „Wissen“

Es wurde schon oft thematisiert, wie das, was man oft genug in den Medien liest, als „selbst erlebt“ empfunden und auch so wiedergegeben wird:
EIKE 03.07.2019: [Link] Wozu (gegenteilige) Messwerte betrachten? Den Klimawandel fühlt doch jeder

In praktisch allen Klima-Alarmpublizierungen wird dieser psychologische Effekt ausgenutzt, um „Belege“ zu produzieren und keine Fakten zeigen zu müssen. Die SZ – nicht ohne Grund „Alpenprawda“ genannt -, beherrscht und pflegt dieses Vorgehen virtuos. Im nun rezensierten Artikel ist nicht eine Spur konkreter Belegführung zu finden, aber eine Aneinanderreihung schlimmer „Betroffenheitsaussagen“, die ersatzweise als Belege herhalten sollen. Selbstverständlich findet sich darin auch der „erforderliche“ Professor, der alles bestätigen kann, indem er ebenfalls Gemeinplätze wiederholt.

Bauern spüren schon heute die drastischen Folgen des Klimawandels

SZ: [1] „Vertrocknete Felder, Schädlinge und Obst, das verdirbt – Bauern spüren schon heute die drastischen Folgen des Klimawandels. Drei von ihnen verklagen nun die Bundesregierung, weil die ihre Ziele nicht einhält … “

Eine wirklich schlimme Ansage, die in der SZ sozusagen als feststehende Tatsache beschrieben steht. Nun hat der Autor gerade erst Ernteergebnisse zusammengetragen und in Relation zu historischen Werten, als alles angeblich viel besser war, gestellt:
EIKE 08.09.2019: [4] Hopfenertrag 2019
EIKE 03. September:
[7] GRÜNE, Bauern und Klimawandel: Im Jammern bilden sie eine Symbiose
Das Ergebnis daraus: So gut wie seit ca. 20 Jahren sind die wichtigen Erträge in der Landwirtschaft in der gesamten Historie noch nie gewesen! Wo die „ drastischen Folgen … “ zu finden sein sollen, ist dem Autor mehr als ein Rätsel.
Zum Beleg anbei die wichtigen Grafiken aus den zwei Artikeln:

Bild 1 Ernteerträge (als Relativzahl) von 1400 – 2010. Grafik vom Autor erstellt. Datenquelle: Blog Heimbiotope, Tabelle mit historischen Getreideerträgen

SZ: [1] „ ... die Folgen sind schon jetzt deutlich zu spüren: Die deutsche Getreideernte 2018 war die niedrigste seit 1994 …“.
Wer das folgende Bild 2 betrachtet, erkennt die sorgfältig getextete und bewusst irreführende Aussage dieses Satzes. Ein ausgewähltes Einzelereignis wird als negativer Trend suggeriert, wissend, dass mangels Verlaufsgrafik – die seit 1994 einen deutlichen Ertragsgewinn ausweist – kein Leser den Wahrheitsgehalt überprüfen kann und so niemand die Perfidität und bewusste Tatsachenverdrehung hinter dem Satz bemerkt. So etwas bezeichnet sich trotzdem und ungestraft als „Qualitätsjournalismus“ (der Beitrag von Greenpeace dazu, sei hier nicht kommentiert).

Bild 2 Getreide gesamt, Ertrag Deutschland 1950 bis 2019. Bildquelle: Deutschland – Getreideertrag, Grafik vom Autor um die Randdaten und Zusatzangaben ergänzt

Bild 3 Hopfenernte Deutschland, Ertragsverlauf 1955 – 2019 und 10jähriger, gleitender Mittelwert. Zeitachse vor 1955 verkürzt. Daten bis 1946 Quelle: Blog Heimbiotope, Tabelle mit historischen Ernteerträgen. Grafik vom Autor erstellt

Geht der Klimawandel gezielt auf Obstbauern los?

Nun könnte es vielleicht sein, dass dieser grandiose Ernte-Erfolg des sich seit der schlimmen Kaltzeit zum Glück wieder erwärmendem Klima, genannt: „Schlimmer, vom (vorwiegend westlichen) Menschen verursachter Klimawandel“, nur für Korn und Hopfen gilt. Klagen tun aber Obstbauern. Vielleicht hat der Klimawandel nur auf diese sein spezielles Augenmerk geworfen?

Dazu Berichte und Daten über jüngste Ernteergebnisse:
SZ 21. August 2018: Umwelt: Der Rekord bei der Apfelernte ist auch ein Problem
Die Hitze sorgt für ein Rekordjahr bei der Apfelernte. Allerdings bedeutet das, dass sich die Bäume schlechter für kommendes Jahr vorbereiten können
topagraronline: Überdurchschnittliche Apfel- und Birnenernte im Jahr 2018
Die deutschen Obstbaubetriebe erwarten im Jahr 2018 eine Apfelernte von 1,1 Mio. t und eine Birnenernte von 46 800 t. Wie das Statistische Bundesamt nach vorläufigen Schätzungen zum August 2018 weiter mitteilt, wird die Apfelernte damit um knapp 17 % über dem Durchschnitt der letzten zehn Jahre von 934 600 t liegen.

Und so war es 2019:
NDR 2019: Mit 265.000 Tonnen Ernteertrag rechnet die Obstbauversuchsanstalt in Jork, das sind etwa 13 Prozent weniger als 2018. Dafür sei die Qualität besonders gut, sagt Ulrich Buchterkirch von der Fachgruppe Obstbau im Landvolk Niedersachsen.
Stern.de 28. Juni 2019: Obstbauern erwarten sehr gute Kirschenernte
Wiesbaden – Die deutschen Obstbauern können sich in diesem Sommer erneut über eine üppige Kirschenernte freuen. Trotz vereinzelter Einbußen durch Spätfröste und Trockenheit stehe ein sehr gutes Erntejahr bevor, teilte das Statistische Bundesamt mit. Nach einer ersten Schätzung rechnet die Wiesbadener Behörde 2019 mit einer Kirschenmenge von 62 200 Tonnen – deutlich über dem Schnitt der vergangenen zehn Jahre mit 48 700 Tonnen. Schon 2018 hatten die Obstbauern mit gut 60 000 Tonnen eine sehr gute Ernte eingefahren

Und nun die im SZ-Artikel wohl „zufällig“ fehlenden Grafiken: 2014 und 2018 gab es die höchsten Erträge in der aufgezeichneten, deutschen Apfelgeschichte:

Bild 4 Deutschland Apfelernten Erträge 1985 – 2019. Quelle: factfish.com. Erträge für 2018, 2019 vom Autor ergänzt. Grafik vom Autor erstellt

Bild 5 Deutschland Apfelernten Erträge. Prozentuale Änderung zum Vorjahr (Absolutwert) 1985 – 2019. Quelle: factfish.com. Erträge für 2018, 2019 vom Autor ergänzt. Grafik vom Autor erstellt

Wie man sieht, gibt es unglaublich hohe Ertragsschwankungen. Früher ganz schlimm, dann eine längere Zeit geringer und in letzter Zeit plötzlich einmal ein Wert fast so hoch wie früher. Wer würde bei dem Bild aber nicht auch an einen Ausschnitt einer Zyklik denken; doch an einen zunehmenden, schlimmen, früher noch nie dagewesenen, negativen Ertragseinfluss des Klimawandels wohl kaum.

Wo man vielleicht weinen kann, ist beim Ertrag im internationalen Vergleich. Deutschland, sonst oft Vorreiter, liegt damit ziemlich am hintersten, leider auch untersten Ende. Wenn man dann noch wie die Biobauern mit einem reduzierten Ertrag von bis zu 50 % von diesem Bisschen „herumkrabbelt …. “. Vielleicht stimmt diese Statistik aber auch nicht so ganz.

Bild 6 Apfelernte. Erträge im internationalen Vergleich. Quelle: factfish.com

Ergänzend noch eine Darstellung zu diesem Thema von kaltesonne:
[10] kaltesonne 24. Januar 2019: Obstbauer klagt gegen Klimawandel – trotz Rekordapfelernte 2018

(Auszug) EV: Sie bauen auf 23 Hektar vor allem Äpfel an. Haben Sie wenigstens vom Hitzesommer profitiert? Die Ernte fiel in diesem Jahr doch gut aus?
Blohm: Wir haben gerade erst abgeerntet, den Ertrag müssen wir noch schätzen. Doch wir wissen schon, dass es Einbußen gibt. Viele Äpfel haben Sonnenbrand, also dunkle Flecken und ledrige Haut. So kauft uns die keiner ab. Auch die Trockenheit war ein Problem. Im Frühjahr 2017 hatten wir dafür Starkregen, Hagel und Sturm. Da bildete sich Staunässe, die Erde ist aufgeweicht und die Bäume sind regelrecht abgesoffen und dann umgekippt. Wir beobachten seit zehn Jahren immer mehr solcher Wetterextreme.
kaltesonne: Im Meckern ist Johannes Blohm ziemlich gut. In Wirklichkeit war 2018 ein absolutes Rekordjahr für die Apfelernte. So ein wenig erinnert Blohm an ein verhätscheltes Millionärskind, das alles hat, aber dann wegen eines Flecks auf dem Ferrari ungehalten wird. Die Rückfragen der Zeit sind jedoch zum Glück ausgezeichnet:
EV: Könnten das nicht Launen der Natur sein?

Blohm: Mein Vater betreibt den Hof seit 30 Jahren, seit 1560 steht unsere Familie in den Kirchenbüchern, aber solche Extreme haben wir noch nie erlebt. Früher hagelte es vielleicht ein Mal in fünf Jahren, das war schon schlimm genug. Jetzt hagelte es drei Jahre in Folge. Und dass der Meeresspiegel steigt, merken wir auch längst.

EV: Inwiefern?

Blohm: Weil die Pole schmelzen und mehr Wasser in die Elbe fließt, gelangt durch den Druck auch mehr Salz ins Elbwasser. Begießen wir damit die Äpfel, legt sich eine Salzschicht auf die Früchte. Wenn der Pegel weiter steigt, wird auch das Hochwasserrisiko bei Sturmfluten zunehmen. Wir liegen hier einen halben bis einen Meter unterm Meeresspiegel, die Deiche könnten bald nicht mehr ausreichen.
kaltesonne: Genau das ist das Problem. Aus subjektivem Empfinden wird einfach in unwissenschaftlicher Weise verallgemeinert. Beispiel Hagel: Als Hagel wird fester Niederschlag bezeichnet, der aus Eis besteht und einen Durchmesser von mindestens 5 mm hat. Die meisten Hageltage in Deutschland gibt es zwischen Mai und August. Aufgrund der relativ geringen räumlichen Ausdehnung von Hagelstreifen und der kurzen Dauer der Hagelschauer von wenigen Minuten ist Hagel ein nur äußerst schwierig quantitativ zu erfassendes meteorologisches Phänomen. Eine offizielle deutsche Zeitreihe der Hagelentwicklung der letzten Jahrzehnte gibt es daher noch nicht, wobei der DWD derzeit noch nach Lösungen sucht.

In einer Diplomarbeit der Universität Münster (pdf hier) dokumentiert Jan Deepen eine hohe jährliche Variabilität von Hagelereignissen in Deutschland, wobei der Hagel-Trend in den letzten 80 Jahren rückläufig ist. Ähnlich sieht es das Climate Service Center Germany. Mittlerweile fanden internationale Studien, dass die Häufigkeit von Hagel offenbar weitgehend unabhängig von der Entwicklung der Durchschnittstemperatur ist und Hagel in China trotz Erwärmung in den letzten 50 Jahren seltener geworden ist (Xie et al. 2008, 2010). Auch in der Tschechischen Republik hat die Hagelhäufigkeit während der letzten 100 Jahre offenbar abgenommen (Brazdil et al. 2016). Aufgrund der schlechten Beobachtungsdatenbasis entwickelten Mohr et al. 2015 ein Modell für Europa, das für die vergangenen 60 Jahre jedoch keinen Trend fand.
Blohms Geschichte zum Meeresspiegel und seinen Auswirkungen auf seine Äpfel sind so kurios, dass wir sie einfach mal so stehen lassen und darüber schmunzeln.

Warme Sommer

Es ist wohl ein Gerücht, dass so schöne, warme Sommer wie sie derzeit bei uns „lamentiert“ werden früher nie auftraten. Dass solche in den üblichen Verlaufsgrafiken nicht erkennbar sind, liegt oft alleine an der mangelnden Auflösung der Proxis, oder Mittelungen. Liegt eine ausreichende Auflösung vor, kann man die wirkliche Vergangenheit sehen:
Selbst während der vergangenen Kaltzeit heiße Sommer:

Bild 7 Temperaturverlauf Sommer 1500 – 1999. Quelle Quelle: Glaser, Rüdiger, Klimageschichte Mitteleuropas, 1000 Jahre Wetter, Klima, Katastrophen, ISBN 353414687-5 (Anm.: Bild von einer Ausarbeitung von „klimakontroverse.de“ übernommen)

Und „warme“ Winter:

Bild 8 Temperaturverlauf Winter 1500 – 1999. Quelle Quelle: Glaser, Rüdiger, Klimageschichte Mitteleuropas, 1000 Jahre Wetter, Klima, Katastrophen, ISBN 353414687-5 (Anm.: Bild von einer Ausarbeitung von „klimakontroverse.de“ übernommen)

Salzwasser in der Elbe

[10] kaltesonne : (Einer der klagenden Bauern) Blohm: Weil die Pole schmelzen und mehr Wasser in die Elbe fließt, gelangt durch den Druck auch mehr Salz ins Elbwasser. Begießen wir damit die Äpfel, legt sich eine Salzschicht auf die Früchte. Wenn der Pegel weiter steigt, wird auch das Hochwasserrisiko bei Sturmfluten zunehmen. Wir liegen hier einen halben bis einen Meter unterm Meeresspiegel, die Deiche könnten bald nicht mehr ausreichen.
Eine ergänzende Beschreibung: MSN Nachrichten 10.09.2019 : Folgen des Klimawandels: Apfel-Krise im Alten Land
Problematisch ist außerdem der gestiegene Salzgehalt der Elbe, mit deren Wasser viele Bauern ihre Plantagen bewässern. Das Salz schädigt die Blätter und sie können die Früchte nicht mehr so gut von der Sonne abschirmen. Den Äpfeln droht „Sonnenbrand“. 

Nun ist der Klimawandel also auch schuld, dass aufgrund der Flußvertiefung und weiterer, baulicher Elbmaßnahmen mehr Salzwasser in die Elbe dringt. Für Folgen solcher Baumaßnahmen erhalten betroffenen Bauern wohl wenig, oder kein Geld, wenn es aber der Klimawandel wäre …

Heute klagen gegen eine Gefahr, die in 2 … 5tausend Jahren eintreten könnte

SZ: [1]: Doch das friedliche Bild täuscht, die kleine Insel ist in Gefahr, auch wegen des steigenden Meeresspiegels. „Irgendwann saufen wir hier vielleicht ab. Diese Angst schwebt über allem“ … sagt Backsen. Das eigentliche Problem für Bauern an der Nordseeküste liegt weit im Norden. Schmilzt das komplette Landeis Grönlands werden die Ozeane um fast sieben Meter ansteigen …. damit sie den Hof auch in Zukunft noch bewirtschaften können, muss die Regierung nach Ansicht Becksens …
Vor Kurzem hat Herr Puls gezeigt, dass die Nordsee zwar eine „Mordsee“ sein kann, der Klimawandel aber für etwas Beruhigung sorgt:
EIKE 25. August 2019: [11] Klima-Ruhe an der Nordsee

Bild 9 [11] Sturmfluthäufigkeiten Nordsee

Bild 10 [11] Meerespegel Nordsee

Der lamentierende Bauer wird doch nicht etwa von der Natur erwarten, dass sich der Meerespegel überhaupt nicht mehr verändert, obwohl man noch vor 10.000 Jahren trockenen Fußes nach England hinüber laufen konnte? Oder will er etwa wirklich die Änderungen während der von ihm ersehnten Kaltzeit wieder haben, als die Nordseeküste und deren Bewohner von einem Flutdesaster in das nächste schlitterten und Unmengen von Land an das Meer verlor:
[12] kaltesonne 6. März 2018: Extremwetter in den letzten tausend Jahren
… Wenn das 13. Jahrhundert als eins für die Menschen in Deutschland und Europa angenehmes Jahrhundert bezeichnet werden kann, trifft für das nächste Jahrhundert das Gegenteil zu. Natürlich hat es in allen Jahrhunderten, auch im 13. örtliche Unwetter mit Gewitter, Sturm und Überschwemmung gegeben, die sind hier aber nicht gemeint. Wie auch in den vorausgegangenen Zeiten finden die Sturmfluten an der Nordseeküste das Hauptaugenmerk der Chronisten. Fünfzehn schwere Sturmfluten werden erwähnt weil sie viele Menschenleben forderten und es große Landverluste gab. Am schlimmsten war wohl die vom 16 Januar 1362. die als die große Mannstränke in die Geschichte eingegangen ist.
Der heutige Küstenverlauf ist zum großen Teil durch diese Flut entstanden. Neben den Schaden bringenden Sturmfluten ist dieses Jahrhundert aber vor allem durch Nässe, Überschwemmungen und Kälte im Inland gekennzeichnet ….

Extremwetter Fazit
Selbst wenn man den Chronisten einige Übertreibungen unterstellt, dürfte feststehen, dass Extremwetter in der Vergangenheit nicht seltener, sondern öfter eintraten und diese Ereignisse nicht harmloser, sondern schlimmer waren, als das was wir heute erleben.
Verglichen mit den vergangenen 1000 Jahren, leben wir heute in einer ruhigen Zeit. Am ähnlichsten scheint mir noch das 13. Jahrhundert mit dem 20. Jahrhundert zu sein. Zwar scheinen Hunger in einer globalisierten Wirtschaft nicht mehr vorstellbar, zumindest in den s. g. entwickelten Ländern. Auf die Marktpreise hat das Wetter auch heute noch Einfluss, wie man selbst bei kleinen Wetterabweichungen wie ein Spätfrost im April in 2017 beobachten konnte. Da erfroren mal eben die Blüten an den Obstbäumen und schon waren Kirschen und Äpfel knapp und teuer.

Was würde heute geschehen, wenn wie in all den Jahrhunderten der kleinen Eiszeit, die Flüsse in Europa zufrieren würden, oder der Winter von Oktober bis Juni anhält? Wie würden wir reagieren, wenn Niederschläge und Überschwemmungen, oder Hitze und Dürre Ausmaße annehmen wie sie die Chronisten beschrieben haben? Und wer garantiert uns, dass es nicht doch wieder mal so kommt, denn Extremwetter hat es zu allen Zeiten gegeben, egal ob das Klima kälter oder Wärmer war. Es hat den Anschein, dass es in den wärmeren Perioden etwas weniger WetterAbweichungen vom „Normalen“ gab. Das mag aber auch daran liegen, dass die Extreme zum Kalten hin für uns Menschen schädlicher sind als die zum Warmen hin. Klar dürfte auch sein, dass wir Menschen Extremwetter nicht verhindern und auch nicht herbei zaubern können, selbst nicht mit Kohlendioxyd.

Aber der Bauer verweist ja auf Grönland. Die 7 m Pegelanstieg, welche von dort her drohen, haben wirklich gewaltige Ausmaße. Da muss man schon zustimmen. Wenn dem so ist, hat man allen Grund zu sagen: „Diese Angst schwebt über allem“ und täglich schlecht zu schlafen, mindestens so lange, bis wenigstens unsere Berliner Politik mit viel Aufwand und vor allem vielen Kosten als weltweites Vorbild CO2 reduziert.
Wie lange muss man allerdings schlecht schlafen?
scinexx: …. Selbst bei einer Erwärmung von zwei Grad würde es mindestens 50.000 Jahre dauern, bis das Grönlandeis komplett verschwunden sei. „Je stärker wir die Temperaturgrenze überschreiten, desto schneller schmilzt das Eis“, sagt Erstautor Alexander Robinson vom Potsdam-Institut für Klimafolgenforschung (PIK)
Das ist aber das Ergebnis „moderner“ PIK-Simulationen, die besonders alarmierend parametriert sind. Mit ziemlicher Sicherheit funkt bis dahin die längst überfällige Eiszeit gehörig dazwischen. Nur „wissen“ das die Simulationen nicht, weil sie – beziehungsweise deren Programmierer – die Klimazyklen nicht und schon gar nicht die Eiszeiten verstehen.
Wie rasend schnell die angeblich „sicheren“ Erkenntnisse und damit auch die Klima-Simulationsprogramme, wie auch deren Ergebnisse veralten, zeigt exemplarisch das „kaltesonne“-Publizierverzeichnis
Darin lassen sich mehrmals im Jahr immer neue Erkenntnisse lesen (kleiner Auszug):
Vor 8000 Jahren war es in Grönland 5°C wärmer als heute: Grönlandeis robuster als gedacht (3.7.2018)
Zentrum des grönländisches Inlandeises gewinnt an Masse und bewegt sich langsamer als im Durchschnitt der letzten 9000 Jahre (9.2.2017)
Bewegung des grönländischen Inlandeises verlangsamt sich: Presse sprachlos und vergisst vor lauter Überraschung, darüber zu berichten (14.1.2016)
Stanford University: Polare Eisschilde stabiler als gedacht, Meeresspiegelanstieg weniger dramatisch als befürchtet (13.1.2016)
Wo ist der ominöse Kipppunkt? Vor 120.000 Jahren war es 4 Grad wärmer und das grönländische Eis hielt stand (17.10.2013)

Ende von Teil1, Teil 2 folgt demnächst.

Quellen

[1] SZ 7./8. September 2019: Bauernaufstand

[2] aepfelundkonsorten.org, PV-Jahresheft-2011: Verkehrte Kirschenwelt Über die Sortenentwicklung und die fatale „Außerwertsetzung“ alter Süßkirschsorten

[3] Prof. Dr. Peter Weingarten: Landnutzungswandel vor dem Hintergrund der Perspektiven in der Agrar- und Energiepolitik

[4] EIKE 08.09.2019: Hopfenertrag 2019

[5] EIKE 03. September: GRÜNE, Bauern und Klimawandel: Im Jammern bilden sie eine Symbiose

[6] Zeitschrift für Pflanzenkrankheiten und Pflanzenschutz 1976, S. 53-58: H. Engel; Untersuchung über die Besatzdichte der Kirschfruchtfliege

[7] Landesamt für Natur, Umwelt und Verbraucherschutz Nordrhein-Westfalen: Klimawandel und Klimafolgen in Nordrhein-Westfalen Ergebnisse aus den Monitoringprogrammen 2016 LANUV-Fachbericht 74

[8] EIKE: Klima-Ruhe an der Nordsee

[9] kaltesonne 4. Juli 2019: Futurezone.de am 20. Juni 2019

[10] kaltesonne 24. Januar 2019: Obstbauer klagt gegen Klimawandel – trotz Rekordapfelernte 2018

[11] EIKE 25. August 2019: Klima-Ruhe an der Nordsee

[12] kaltesonne 6. März 2018: Extremwetter in den letzten tausend Jahren

[13] Kottfoff et al. 2017: Marine core M0059, Little Belt, western Baltic Sea, TIME: Last 8000 years

[14] ScienceScepticalBlog 9. September 2019: Mojib Latif, Präsident des Club of Rome: Der Norden im Klimawandel!

[15] topagrarONLINE 30.07.2019: Bauernfamilien und Greenpeace verklagen Bundesregierung wegen Klimapolitik

[16] EIKE: 12.Sept. 2019: … Umweltpakt … UNO auf dem Weg ins Mittelalter

[17] EIKE 22.07.2016 : Wurde ein Klimawandel-Einfluss bisher übersehen? Was ist, wenn Gott anstelle von CO2 das Klima lenkt?

[18] EIKE 27. November 2017: Die Rede unseres Bundespräsidenten, F. W. Steinmeier auf COP23 über den Klimawandel war (k)eine investigative Sternstunde – Teil 2 (2)

[19] Achgut: Klima: Deutschlands Ruf first!




Merkel, das IPCC und die Geister, die sie rief: Teil 4 – Der „himmlische“ Wind

Im Teil 3 war dargelegt worden, welche Anforderungen Technologien zur Stromerzeugung erfüllen sollten, wenn damit unsere heutige technische Zivilisation aufrechterhalten werden soll. Dazu wurde der aktuelle Strombedarf sowohl bezüglich des Jahresverlaufs als auch im Detail des Wochen- und Tagesverlauf analysiert und aufgezeigt, wie entscheidend die Frage sofortiger Verfügbarkeit bei Bedarf ist. Eine eingehende Betrachtung der Charakteristiken der Fotovoltaik zeigte bereits, dass diese in keiner Weise imstande ist, die sichere Versorgung einer modernen Industrienation mit elektrischer Energie zu gewährleisten. Werfen wir jetzt einen Blick auf das Potenzial der Windenergie – sowohl an Land als auch auf See.

Windenergie an Land

In Deutschland standen im Jahr 2018 rund 29.000 Windenergieanlagen an Land (Onshore) mit einer (im Jahresmittel) nominellen Leistung von 52.014 MW. Im Verlauf des Jahres lieferten sie insgesamt 89.500.000 MWh (89,5 Terawattstunden) Strom ab. Hieraus ergibt sich ein mittlerer Jahres-Nutzungsgrad von lediglich 19,6 %. Anders ausgedrückt: Im Prinzip stehen diese Milliarden teuren Windräder zu mehr als 80 % des Jahres still und liefern keinen Strom. In der gewerblichen Wirtschaft könnten Kaufleute oder Ingenieure, die so etwas zu verantworten hätten, vermutlich ihre Papiere abholen. Politiker werden dagegen für solche Leistungen mit Wählerstimmen belohnt…

Zunächst interessiert natürlich die Frage, wie gut denn nun die tägliche Windstromerzeugung zum jeweiligen Tagesbedarf über das Gesamtjahr 2018 hinweg passt, Bild 2.

Bild 2. Tag-für-Tag-Gegenüberstellung der Onshore-Windstromerzeugung mit dem jeweiligen Bedarf (Grafik und Berechnungen: Autor, Daten)

Bild 2 vermittelt auf den ersten Blick noch nicht allzu viele Erkenntnisse, abgesehen von der Tatsache, dass die Windstromproduktion von Tag zu Tag erheblichen Schwankungen unterliegt. Um die tatsächliche Bedeutung dieser Schwankungen besser einschätzen zu können, sollte man sich zunächst die absoluten Minimal- und Maximalwerte ansehen, da dies Informationen über die Zuverlässigkeit der Stromquelle „Windenergie“ liefert. Dass der Wind lokal starken Schwankungen unterliegt, ist ja bereits seit den Zeiten der ersten Segelschiffe bekannt. Wir erinnern uns auch, dass die Vertreter der Windkraftlobby in diesem Zusammenhang mit dem Spruch „irgendwo weht immer Wind“ auftraten und behaupteten, unterschiedliche Windstärken würden sich aufgrund der Größe Deutschlands mehr oder weniger ausgleichen. Da uns die Erzeugungsdaten von 29.000 über ganz Deutschland verteilten WEA-Anlagen zur Verfügung stehen, schauen wir uns einmal diese Min-Max-Werte genauer an, Bild 3.

Bild 3. Minimale und maximale Leistung der deutschen Onshore-Windenergieanlagen im Jahr 2018 (Grafik und Berechnungen: Autor, Daten)

Der in Bild 3 dargestellte Leistungsverlauf bei Schwachwind ist mit Blick auf die Versorgungssicherheit geradezu niederschmetternd. Entscheidend für die Netzversorgung ist nämlich die sogenannte gesicherte Leistung, d.h. diejenige Leistung, auf welche sich die Versorger auch im sogenannten „worst case“-Fall in jedem Fall verlassen können. Diese entspricht mit blamablen 179 MW gerade einmal 3,4 PROMILLE der installierten Gesamtleistung von 52.014 MW. Da der Sonnenstrom seinerseits trotz einer installierten Leistung von 43.036 MW überhaupt keine gesicherte Leistung liefern kann, sind Solar- und Onshore-Windstrom selbst zusammen trotz ihrer Gesamtkapazität von zusammen 95.050 MW bei ungünstiger Wetterkonstellation nicht imstande, zusammen auch nur 1,9 PROMILLE ihrer Nennleistung ins Netz zu liefern. Anders ausgedrückt: Zur Sicherstellung der Versorgung der Bevölkerung mit Strom muss zu allen Zeiten ein komplettes Ersatz-System mit der vollen Kapazität zur Deckung der Netzlast von bis zu 90.000 MW als Ersatz für die „klimarettenden“ Technologien bereitstehen und innerhalb kürzester Zeit in Aktion treten können. Das entspricht der Kapazität von mindestens 90 Steinkohlekraftwerken oder 64 Kernkraftwerken oder 105 Gas-und-Dampf-Kraftwerken des Typs Irsching 5. Diese Kraftwerke müssen wohlgemerkt rund um das Jahr mitsamt vierschichtiger Belegschaft im perfekt gewarteten und einsatzbereiten Zustand bereitstehen, um jederzeit einspringen zu können, wenn Wind und Sonne keine Lust haben, ihren Job zu erledigen. Das bedeutet, dass der komplette Kostenumfang (bis auf die Brennstoffkosten) das gesamte Jahr über anfällt und selbstverständlich vom Stromkunden zu bezahlen sein wird. Angesichts dieser Zahlen aus der Realität ist es nichts weiter als ein schlechter Witz, wenn die bundeseigene Deutsche Energie Agentur (DENA) für die Beurteilung der gesicherten Leistung des Windstroms bei der Kalkulation des sogenannten Leistungskredits von Windenergieanlagen einen Satz von vollen 6 Prozent in Ansatz bringt. Ein weiterer der zahllosen Tricks, mit denen sich die Politik ihr Ziehkind „Energiewende“ schönrechnet.

Um die Sache auf den Punkt zu bringen: Deutschland hätte von heute auf Morgen eine gesicherte Stromversorgung, einfach indem sämtliche Wind- und Solaranlagen sofort endgültig abgeschaltet würden. Und wir hätten uns eine Billion Euro an sinnlos aus dem Fenster geworfenem Geld erspart.

Und das „Wunderkind“ Offshore-Windenergie?

Da der Wind auf See bekanntlich stärker und gleichmäßiger weht als an Land, wurden bereits seit Jahrzehnten Planungen zur Errichtung von sogenannten Offshore-Windenergieanlagen vorangetrieben. Handicap waren die im Vergleich zu Installationen an Land erheblich höheren Anlagenkosten, die sehr rauen Einsatzbedingungen sowie die Kosten und Probleme der Stromübertragung von See an Land. Investoren mussten daher mit besonders hohen EEG-Zahlungen sowie der Übernahme der gesamten Anschlusskosten bis zum Land zusätzlich angelockt werden. Die ersten Stromlieferungen von Offshore-Windparks setzten daher erst im Jahre 2013 ein, mit Ende 2018 waren dann insgesamt rund 6400 MW Leistung vorhanden. Die mittlere Anlagenkapazität lag für 2018 bei 5730 MW, also etwas mehr als 10 % der Onshore-Kapazität. Im Bau sind inzwischen weitere Parks mit mehr als 3.000 MW.

Angesichts der erheblich besseren Windverhältnisse auf See gab es bei den entsprechenden Unternehmen hochfliegende Erwartungen bezüglich der zu erwartenden Nutzungsgrade, die bei deutlich über 40 % liegen sollten. Dem Verfasser ist noch eine Fernsehsendung erinnerlich, in der eine Ingenieurin davon schwärmte, mit den Offshore-Windparks sei man fast schon grundlastfähig. Diese Erwartungen scheinen sich allerdings nicht so recht zu erfüllen, denn der Nutzungsgrad der deutschen Offshore-Windstromproduktion lag für das Jahr 2018 bei lediglich 38 %, das ist nur etwa doppelt so hoch wie der an Land erzielte Wert.

Als nächstes ist anschließend von Interesse, wie sich die angeblich stabileren Windverhältnisse auf See auf die Mindest-Stromerzeugung auswirken, Bild 4.

Bild 4. Minimale und maximale Leistung der deutschen Offshore-Windenergieanlagen im Jahr 2018 (Grafik und Berechnungen: Autor, Daten)

Wie Bild 4 ausweist, erreichten die Offshore-WEA am besten Tag des Jahres geradezu phantastische Leistungsabgaben zwischen 59 und mehr als 90 % ihrer Nennleistung (Höchstwert 92,4 %). Doch wie sieht es am anderen Ende der Leistungsskala aus? Der Minimalwert am 26.3.2018 ist mit ganzen 2 MW bzw. 0,35 PROMILLE der Nennleistung sogar noch enttäuschender als derjenige der Onshore-Anlagen. Es kann daher festgehalten werden, dass weder Sonne noch Wind – egal ob Offshore oder Onshore – imstande wären, die für Deutschland unabdingbare kontinuierliche Versorgung mit elektrischem Strom sicherzustellen. Um eine komplette, ununterbrochen an 365 Tagen im Jahr rund um die Uhr einsatzbereite Phalanx einsatzbereiter Fossil- oder Kernkraftwerke kämen wir daher auch bei forciertem Ausbau der Offshore-Windenergieversorgung keinesfalls herum.

Auch zusammengeschirrt bilden drei tote Pferde kein brauchbares Gespann

Wie diese Beispiele deutlich zeigen, erfüllt keine der drei angesprochenen Stromerzeugungstechnologien auch nur annähernd die Anforderungen, die an die Stromversorgung Deutschlands zu stellen sind. Da jedoch Sonne und Wind sowie Onshore- und Offshorewind nicht unmittelbar voneinander abhängen, wird seitens der Profiteure dieser Energieformen immer wieder behauptet, die Schwächephasen träten nicht gleichzeitig auf und in der Kombination aller drei Quellen komme es zu einem Ausgleich. Was sagen hierzu die Daten des Jahres 2018, Bild 5 und Bild 6.

Bild 5. Qualitativer Vergleich der Tagesproduktion von Onshore- und Offshore-Windstromanlagen in Deutschland für das Jahr 2018 (Grafik und Berechnungen: Autor, Daten)

Zur besseren Vergleichbarkeit wurde die Kurve der Offshore-Windstromdaten in Bild 5 so gespreizt, dass die relativen Amplituden denen der Onshore-Windstromdaten entsprechen. Aus den Kurvenverläufen ist zu erkennen, dass Leistungsspitzen und -täler häufig zeitlich mehr oder weniger überlappend auftreten, auch wenn sich ihre relativen Amplituden teils deutlich unterscheiden. Das ist auch nicht weiter verwunderlich, da die Windfelder zwischen Land und See eine gewisse Zeit unterwegs sind, bevor sie Einfluss auf die jeweilige Stromproduktion haben. Eine nennenswerte gegenseitige Kompensation ist jedenfalls nicht erkennbar. Besonderes Augenmerk verdient in diesem Zusammenhang der Verlauf der drei „erneuerbaren“ Stromerzeuger am 19.2.2018, Bild 6.

Bild 6. Verlauf der Leistungsabgaben von Sonne und Wind am 19.2.2018 (Grafik und Berechnungen: Autor, Daten)

Der 19.2.2018 war ein eisiger Tag mit Temperaturen bis teils in den tiefen Frostbereich. In Zeitschriften war von einer „Russenpeitsche“ die Rede, d.h. einer Ostströmung kalter Luft. Tagsüber lag der Strombedarf bei bis zu 77.000 MW und fiel auch in den Nachtstunden nicht unter ca. 60.000 MW. Die Kombination aus kalter Luft aus dem Osten bei niedrigen Windgeschwindigkeiten und geringer Sonneneinstrahlung aufgrund der kurzen Tageslichtzeit und des niedrigen Sonnenstandes ist in Fachkreisen auch als „Dunkelflaute“ bekannt. Gerade in dieser kritischen Lage zeigte sich, dass Deutschland nicht auf die „erneuerbaren“ zählen konnte. Die getrennte Darstellung der drei Erzeugervarianten zeigt, dass sowohl Onshore- als auch Offshore-Windenergie bereits ab ca. 07:00 Uhr auf katastrophal niedrige Werte einbrachen. Ab dieser Zeit hielt einzig die aufgrund des klaren Himmels einigermaßen ansteigende Solarstromproduktion die „EE“-Fahne noch hoch, während der Wind seinen Dienst um ca. 15:00 Uhr nahezu komplett einstellte. Nur Onshore-Wind frischte ab ca. 16.00 wieder etwas auf, so dass die Bilanz nicht ganz so katastrophal ausfiel, wie es hätte sein können. Immerhin lieferten Sonne und Windanlagen um 17:30 Uhr zusammen noch 563 MW ins Netz. Das waren stolze 5,6 PROMILLE der gesamten installierten 100.780 MW an installierter „EE“-Leistung. Bei den einzelnen Teilnehmern an diesem Wettbewerb brauchen wir nur die beiden Wind-Kategorien zu berücksichtigen, da Solarstrom aus den bekannten Gründen von vorherein keinerlei Versorgungssicherheit bieten kann. Bei Onshore-Wind lag das Leistungsminimum bei 179 MW (3,4 PROMILLE der installierten Leistung), während Offshore noch 42 MW ablieferte, was immerhin 7,3 PROMILLE der eigentlich installierten Kapazität ausmachte. Lediglich der Zeitversatz von etwa 75 Minuten zwischen den beiden Minima und die Tatsache, dass die Sonne noch etwa eine Stunde lang stützend zur Verfügung stand, verhinderte Schlimmeres. Selbst für jemanden ohne tiefer gehenden technischen Sachverstand ist es unbegreiflich, wie eine Regierung auf ein solches Gespann toter Pferde als entscheidende Stützen der künftigen Energieversorgung des Lands setzen kann.

Zusatzproblem: Prognoseabweichungen

Ein bisher in Veröffentlichungen zur Windenergie wenig berücksichtigtes Problem sind die sogenannten Prognoseabweichungen. In einem komplexen Hochleistungssystem wie unserer Stromversorgung ist die Planbarkeit von Leistung unabdingbar, und zwar sowohl bezüglich des Bedarfs als auch mit Blick auf die Produktion. Nur so ist es möglich, teure Kapazitäten und Ressourcen so kosteneffizient wie möglich bereitzustellen. Ja brutaler man anderenfalls Kraftwerke bei ungeplanten Laständerungen „mit quietschenden Reifen durch die Gänge jagen“ muss, desto höher ist der Verschleiß und desto häufiger sind Stillstände sowie vorzeitige (und oft sehr teure) Reparaturen. Dies wirkt sich auch unmittelbar auf die Beschaffungspreise für den Strom aus, denn je kurzfristiger ungeplante Beschaffungen oder Stornierungen anfallen, desto teurer dann an den Börsen. Deshalb haben die Erzeuger die voraussichtlichen Lastgänge schon seit Jahrzehnten sorgfältig abgeschätzt, um z.B. bei abendlichen Fußballereignissen bereit zu sein, wenn Millionen Sportfans nahezu gleichzeitig ihre Fernseher anknipsen. Allerdings hatte man damals zumindest Gewissheit darüber, dass die Kraftwerke dann das, was das Netz benötigte, auch würden liefern können.

Mit der Zunahme der wetterabhängigen Stromquellen Wind und Sonne wird diese Berechenbarkeit auf der Versorgungsseite ausgehebelt. Neben den bisherigen – und dank der Erfahrung der Versorger einigermaßen gut abschätzbaren – Störgrößen kommen jetzt auch noch diejenigen auf der Erzeugerseite hinzu, die in ganz anderen Größenordnungen auftreten. Hierfür gibt es mittlerweile spezialisierte Dienstleister, die mithilfe von Wetterdaten und ausgefeilten Programmen versuchen, die Auswirkung der jeweiligen Wetterkapriolen auf die Lieferung von Solar- und Windparks vorherzusagen. Schließlich müssen die Stromversorger alles, was Wind und Sonne zu liefern imstande sind, komplett abnehmen und den „fossilen“ dann eventuell kurzfristig mitteilen: „Nett, dass ihr euren Kessel auf Betriebstemperatur vorgeheizt habt, aber auf den entsprechenden Kosten bleibt ihr leider sitzen, wir brauchen euren Strom doch nicht, weil der Wind plötzlich aufgefrischt hat“. Auf den Kosten bleiben die „konventionellen“ Erzeuger dann sitzen bzw. müssen sie über ihre Preise letztlich an die Verbraucher weiterreichen.

Leider sind Wetterprognosen bekanntlich mit großen Ungenauigkeiten behaftet (es sei denn, sie betreffen die ferne Zukunft, dann erreichen sie als Klimaprognosen eine verblüffende Präzision). Beim Wind ist es besonders schwierig, und leider geht gerade die Windgeschwindigkeit mit der 3. Potenz in die Stromertragskalkulation der Windenergieanlagen ein. Schauen wir uns daher einmal an, wie weit manche Prognosen nach unten bzw. oben im Jahr 2018 an der Realität vorbeigingen, Bild 7 und Bild 8.

Bild 7. Größte Prognoseabweichung nach oben des Jahres 2018 (Grafik und Berechnungen: Autor, Daten)

Der Autor hatte bereits im Jahr 2014 Untersuchungen zu Prognoseabweichungen bei der Windstromerzeugung durchgeführt. Damals erreichte der größte positive Prognosefehler 7.800 MW bei rund 34.000 MW an installierter Leistung. Zu den 2018 in Bild 7 ausgewiesenen mehr als 11.000 MW ist anzumerken, dass hierzu im Prinzip noch die am gleichen Tag aufgetretene Negativabweichung von -1.269 MW hinzuzurechnen ist. Deswegen hatten die Stromversorger innerhalb von nur 19 Stunden diese Gesamt-Prognosedifferenz von 12.463 MW zu bewältigen. Da beide Peaks – der positive wie auch der negative – außerhalb des Zeitfensters starker Solarleistung auftraten, sind die Abweichungen nahezu ausschließlich dem Konto der damals installierten Windkapazität von rund 57.740 MW zuzurechnen. Der Fehler lag in beiden Jahren mit jeweils 21,6 bzw. 22,9 % der installierten Gesamtleistung erstaunlich gut in der gleichen Größenordnung. Dies weist darauf hin, dass die Zuverlässigkeit der Prognosen in den fünf Jahren seither trotz aller Fortschritte der Computer- und Messtechnik nicht verbessert werden konnte.

Bild 8. Größte Prognoseabweichung nach unten des Jahre 2018 (Grafik und Berechnungen: Autor, Daten)

Wesentlich kritischer sind allerdings die negativen Prognoseabweichungen, die bei der damaligen Untersuchung noch bei der Hälfte dessen lagen, was in positiver Richtung auftrat. Wie Bild 8 zeigt, liegen sie inzwischen in der gleichen Größenordnung wie die positiven (-9.247 -1.102 = -10.349). Für die Versorgungssicherheit sind negative Abweichungen viel kritischer als positive. Wenn weniger Leistung benötigt wird als prognostiziert, kann man den Überschuss wenigstens noch mit negativen Preisen ins Ausland verhökern, wie es ja heute immer mehr zur Regel wird, denn der Schaden ist dann zumindest nur rein finanzieller Art. Anders ist es jedoch bei größeren Defiziten, denn dann drohen irgendwo die Lichter auszugehen. Mehr als 10.000 MW an Leistungs-Unterdeckung bedeutet, dass mal eben auf die Schnelle rund 10 Großkraftwerke von Null auf volle Leistung hochgefahren werden müssen. Und in wenigen Jahren sollen ja genau diese Kraftwerke nicht mehr zur Verfügung stehen.

Zusatzproblem: Die Gradienten von Sonnen- und Windstrom

Ein weiteres Handicap der „EE“-Stromerzeugung resultiert aus der Kombination der Willkürlichkeit der Schwankungen der jeweils angebotenen Leistung mit den ständig gesteigerten Kapazitäten, was sich in den nächsten Jahren weiter verschärfen wird. Bereits Anfang 2019 lag die nominell installierte Kapazität von Onshore- und Offshore-Windanlagen sowie Fotovoltaik bei insgesamt rund 104.000 MW (6.393 MW Offshore-Wind, 52.700MW Onshore-Wind und 44.905 Solar). Bei entsprechender Wetterlage könnten diese Anlagen bereits nahezu den gesamten Strombedarf decken, insbesondere an Feiertagen in der warmen Jahreszeit. Das Problem: Damit würden nicht nur sämtliche fossilen und kerntechnischen Kraftwerke faktisch zum Stillstand gezwungen, sondern es käme auch zu Konflikten mit den anderen „EE“-Erzeugern wie Wasserkraft, Biomasse oder Müllverbrennung sowie der Kraft-Wärmekopplung. Über diese mit dem weiteren Zubau zunehmend drohenden Probleme hört man jedoch kaum etwas. Auf der anderen Seite müssen immer ausreichend Kraftwerkskapazitäten bereitstehen, damit bei schwächelnder „EE“-Stromerzeugung die Versorgung des Landes nicht zusammenbricht. Das stellt sowohl die Besitzer konventioneller Kraftwerke als auch die Betreiber der Übertragungsnetze vor Aufgaben, die mit jeder zusätzlichen Windmühle sowie jedem zusätzlichen Solarpaneel schwieriger bis unlösbarer werden. Schauen wir uns einmal an, welche Folgen es für die anderen Stromversorger hat, wenn die Stromproduktion aus Wind und Sonne wetterbedingt massive Schwankungen hinlegt, Bild 9.

Bild 9. Entwicklung der Leistungsbereitstellung von Wind- und Solarstromerzeugern im Laufe des 21. Juni 2018 (Grafik und Berechnungen: Autor, Daten)

Aus Bild 9 geht hervor, dass die kombinierte Leistung der Wind- und Solarstromerzeuger am 21.6.2018 ab 5:00 Uhr innerhalb von nur 8 Stunden um gut 42.500 MW nach oben schoss, um danach wieder auf rund 24.300 MW abzusacken. Das entspräche dem gestaffelten Zuschalten von 42 Kohlekraftwerken oder fast 50 Gaskraftwerken des Irsching-5-Typs innerhalb einer einzigen Schicht. Und kurz danach hätte man 26 dieser Kohlekraftwerke bzw. 31 Gaskraftwerke wieder auf Null herunterfahren müssen, nur um diese wetterbedingte Leistungsschwankung wieder aufzufangen. Die konventionellen Erzeuger werden nicht nur immer stärker zu reinen Lückenbüßern der „erneuerbaren“ degradiert. Diese brutalen Schwenks verursachen zudem immer höhere Kosten. Andererseits erlauben die Behörden den Betreibern häufig nicht, ihre ins Defizit getriebenen Erzeugungseinheiten abzuschalten und vom Markt zu nehmen. Derzeit sind von den Betreibern 45 Kraftwerke mit einer Gesamtleistung von 11.179 MW zur Stilllegung angemeldet. Hiervon wurden 23 mit einer Gesamtkapazität von ca. 6.800 MW als „systemrelevant“ eingestuft, was bedeutet, dass die Betreiber gezwungen werden, ihre nicht mehr rentablen Einheiten weiterhin betriebsbereit zu erhalten.

Ebenso bedeutsam, aber in der Regel kaum irgendwo erwähnt ist die Frage des Ausgleichs der kurzfristigeren Schwankungen zwischen dem Netzbedarf und der Erzeugung von Sonnen- und Windstrom. Hierzu wurden die viertelstündlichen Messdaten von Erzeugung und Verbrauch miteinander verglichen und die Veränderungen herausgefiltert. Es geht also nur um die innerhalb der jeweiligen Viertelstunde erkennbaren Unterschiede, die selbstverständlich von den (noch) vorhandenen regelbaren Kraftwerken sekundengenau ausgeglichen werden müssen, Bild 10.

Bild 10. Kurzzeitschwankungen und damit entstehender kurzfristiger Ausgleichsbedarf zwischen Erzeugung (Wind und Solar) sowie Netzbedarf am 14.2. 2018 (Grafik und Berechnungen: Autor, Daten)

Die grafische Auftragung zeigt ein wildes Zackenmuster mit Amplituden von bis zu mehr als ± 1.500 MW. Jede dieser Zacken erfordert also die sehr kurzfristige Bereitstellung von Ausgleichsleistung – teils negativ, teils positiv – in einer Größenordnung, die der Leistung von 1-2 Kohle- oder Gaskraftwerken entspricht. Ohne dieses ständige Ausbügeln der Schwankungen der „erneuerbaren“ Stromerzeuger würde das Netz innerhalb kürzester Zeit instabil werden. Je mehr dieser „Zappelstromquellen“ die Bundesregierung jetzt mit der Brechstange ans Netz bringen will, desto schlimmer wird es. Mit der weiter voranschreitenden Stilllegung zuverlässig regelbarer Kraftwerke wird irgendwann ein Kipppunkt unterschritten werden, ab dem die Netzstabilität nicht mehr gewährleistet werden kann.

Hintergrundliteratur

Limburg, M.; Mueller, F.: Strom ist nicht gleich Strom TvR Medienverlag, Jena, ISBN 978-3-940431-54-7




Es gibt kein katastrophales Risiko durch eine vom Menschen verursachte globale Erwärmung. Punkt!

Um richtige politische Maßnahmen zu etablieren, müssen die folgenden Punkte zu menschlichen CO2-Emissionen beachtet werden:

● Der Treibhauseffekt ist für alles Leben auf der Erde unabdingbar. Ohne den Erwärmungseffekt von ~33°C wäre der Planet wirklich ein sehr kalter und unbewohnbarer Ort.

● Der allergrößte Teil des Treibhauseffektes (über 90% bis 95%) wird durch Wasserdampf und Wolken in der Atmosphäre bewirkt.

● Atmosphärisches CO2 ist kein Verschmutzer. Stattdessen ist es die ultimative Voraussetzung für das Leben.

● Die Welt braucht atmosphärisches CO2 für das Überleben und die Düngung der Pflanzen. Daher ist CO2 essentiell für alles Leben auf der Erde.

Bei einer halb so großen atmosphärischen CO2-Konzentration wie derzeit stellen die Pflanzen die Photosynthese ein, und die Welt wird rasch aussterben. Im Vergleich zur geologischen Vergangenheit befindet sich die Welt derzeit in einer Periode der CO2-Verknappung, weil der größte Teil dieses Gases, einst mit einem Vielfachen in der Atmosphäre vertreten zu der Zeit, als die Pflanzen sich zu entwickeln begannen, seitdem in den Ozeanen als Kalkstein abgelagert worden ist.

Die CO2-Konzentration erreichte während der letzten Eiszeit von vor 120.000 bis 11.000 Jahren ein katastrophal niedriges Niveau. Das gefährlich niedrige CO2-Niveau könnte sehr gut in einer kommenden Eiszeit unterschritten werden. Kältere Ozeane absorbieren mehr CO2, und das ozeanische Leben fällt dieses mittels Bildung zu Kalkstein aus. Das ist die Art und Weise, mit der die Welt vielleicht in einer zukünftigen glazialen Periode an CO2-Mangel zugrunde geht.

Höhere CO2-Konzentrationen beflügeln das Pflanzenwachstum auf dem gesamten Planeten und reduzieren den Wasserbedarf der Pflanzen. Der NASA zufolge können etwa 15% der Ergrünung des Planeten schon jetzt der relativ jungen Zunahme der CO2-Konzentration zugeordnet werden.

Die Menschheit als Ganzes trägt nur zu einem Bruchteil zum CO2 im Kohlenstoff-Zyklus bei (etwa 3% pro Jahr), und jedwedes zusätzliche CO2 in der Luft wird sofort von den Ozeanen und der Biosphäre absorbiert (mit einer Halbwertszeit von etwa 5 Jahren).

Falls zusätzliches CO2 einen geringen Erwärmungseffekt hätte, wäre das nur gut. Daher kann atmosphärisches CO2 – sei es nun menschlichen oder natürlichen Ursprungs – unmöglich als ein Verschmutzer gesehen werden. Zur Bedeutung von CO2 siehe auch hier.

Es ist bekannt, dass die Effektivität von CO2 als wärmendes Treibhausgas rapide logarithmisch mit zunehmender Konzentration abnimmt:

Eine Konzentration von atmosphärischem CO2 unter 200 ppmv, äquivalent zu etwa 77% der CO2-Treibhaus-Effektivität, ist absolut und unabdingbar notwendig, um die Pflanzen und damit das Leben auf der Erde zu erhalten. Bei etwa 150 ppmv stirbt das Pflanzenleben aus. Und beim gegenwärtigen Niveau von rund 400 ppmv sind 87% der Effektivität von CO2 als Treibhausgas bereits ausgeschöpft:

Bei einer so geringen Effektivität von CO2 als Treibhausgas gibt es keinerlei Spielraum, dass jemals ein so gefürchteter Temperaturanstieg um 2°C oder darüber überhaupt möglich ist, was unverdrossen aber seitens der Alarmisten prophezeit wird und ausschließlich den menschlichen CO2-Emissionen geschuldet sein soll.

Die Alarmisten betrachten eine Erwärmung um 2°C als katastrophal und haben traurigerweise davon viele Politiker der westlichen Welt überzeugt. Ökonomisch ist das nicht so, und eine Erwärmung bis zu 2°C, so es dazu überhaupt kommt, wäre von Vorteil.

Zunehmende CO2-Konzentrationen in der Atmosphäre können höchstens zu einer sehr begrenzten weiteren Erwärmung führen und mit Sicherheit nicht zu einer katastrophalen oder irgendwie gefährlichen Erwärmung. Die Hypothesen hinter jener Behauptung werden in zwei unterschiedlichen Berechnungen widerlegt:

Unter Annahme einfacher Proportionalität:

● Wasser als Wasserdampf oder als Wolken in der Atmosphäre trägt zu 90 bis 95% zum Treibhauseffekt bei.

● Andere Treibhausgase sind marginal und brauchen nicht berücksichtigt zu werden.

● Der jüngste, den Menschen geschuldete Anstieg auf 300 bis 400 ppmv kann höchstens zwischen 0,41°C und 0,21°C liegen.

Unter der Annahme einer logarithmischen Abnahme:

● 77% des CO2-Treibhauseffektes 0 bis 200 ppmv sind unabdingbar zur Erhaltung des Lebens auf der Erde.

● Unter der Annahme, dass die gesamte Zunahme von 300 ppmv auf 400 ppmv den Menschen geschuldet ist, was 4,2% des Treibhauseffektes ausmacht, ergibt sich eine Erwärmung um 0,14°C bis 0,07°C.

● Der mögliche zukünftige Anstieg der Konzentration von 400 ppmv auf 500 ppmv würde folglich eine Erwärmung zwischen 0,11°C und 0,05°C zur Folge haben.

● Der spätere Anstieg der Konzentration von 500 ppmv auf 1000 ppmv kann höchstens zu einer Erwärmung von 0.33°C bis 0,17°C führen.

● Dies ignoriert die IPCC-Feststellung, wonach nur 50% der CO2-Zunahme auf das Konto der Menschen gehen, was diese Zahlen noch kleiner machen würde.

● Es ignoriert auch die Hypothese in den Klimamodellen, dass es eine massive positive Rückkopplung durch weiter zunehmende CO2-Emissionen geben würde: selbst wenn man das akzeptiert wäre eine weitergehende Erwärmung durch CO2-Emissionen marginal.

Es ist also jetzt sehr wahrscheinlich, dass die Auswirkung steigender CO2-Konzentrationen auf die globale Temperatur selbst bei der höchsten angenommenen Effektivität marginal unbedeutend ist hinsichtlich Erwärmung, aber sehr vorteilhaft in jeder anderen Hinsicht.

Die Versuche der Menschheit, die globale Temperatur zu kontrollieren mittels Begrenzung von CO2-Emissionen als Folge der Verbrennung fossiler Treibstoffe kann höchstens marginale oder unmessbare weitere Auswirkungen haben (hier).

Daher sind sämtliche Bemühungen der Menschheit in der westlichen Welt zur Dekarbonisierung fehlgeleitet, irrelevant und höchst unvernünftig.

——————————————

Dieser Beitrag ist eine per E-Mail eingegangene Zusammenfassung einer umfangreicheren Studie hier.

Übersetzt von Chris Frey EIKE




Über das Vertrauen der Deutschen in ihre Kenntnisse vom Klimawandel

Bevor hier näher darauf eingegangen wird, folgt hier zunächst die Übersetzung des Abstract:

Genauigkeits-Vertrauen – also das Vertrauen, welches die Genauigkeit des Wissens reflektiert – kann bei Entscheidungen in Bereichen mit hohen Unsicherheiten relevant sein. Genauigkeit des Vertrauens ist von besonderer Bedeutung im Bereich Klimawandel, wo wissenschaftlich korrekte Informationen, aber gleichzeitig auch Falschinformationen in Öffentlichkeit und Medien zu finden sind. Hier betrachten wir die Genauigkeit des Vertrauens in das Wissen vom Klimawandel in einer nationalen Stichprobe in Deutschland (n = 509). Die Genauigkeit des Vertrauens der Bürger hinsichtlich ihres Wissens über Klimawandel war nur halb so hoch wie es hätte sein können auf der Grundlage der Genauigkeit ihres Wissens. Außerdem war die Genauigkeit ihres Vertrauens in die Genauigkeit ihres Wissens beim Thema Klimawandel geringer als im Vergleich zu zwei anderen grundlegenden Bereichen: allgemeine wissenschaftliche Kenntnisse in einer anderen Stichprobe unter Deutschen (n = 588) und Wissen um Klimawandel in einer aus Wissenschaftlern bestehenden Stichprobe (n = 207). Obwohl diese Ergebnisse nicht auf die Bevölkerung verallgemeinert werden können, wenn es um alle Indikatoren des Wissens um Klimawandel geht, zeigen diese Ergebnisse, dass das Vertrauen der Bürger in ihr Wissen über Klimawandel unnötig verschwommen ist angesichts ihres tatsächlichen Wissens.

Ende Übersetzung des Abstract.

Oha! Da waren ordentliche Wortkünstler am Werk. Wie wir gleich sehen werden, könnte man die Überschrift ganz anders formulieren: Wie stark hat die Dauer-Propaganda seitens Medien und Politik bereits bei den Deutschen verfangen? Zu diesem Schluss muss man unweigerlich kommen, wenn man sich die gestellten Fragen ansieht, wobei die „richtigen“ Antworten bei der Auswertung gleich mitgeliefert werden. Mit „richtigen“ Antworten sind hier ausschließlich jene gemeint, welche der Propaganda folgen. Die folgende Tabelle aus dem PDF zeigt dies:

Man erspare mir die Übersetzung des Inhalts dieser Tabelle. Ich kann auch nicht sagen, ob die Prozentzahl der „richtigen“, d. h. der Propaganda folgenden Antworten beruhigend oder beunruhigend ist. Nirgendwo in dem gesamten PDF wird auch gesagt, nach welchen Kriterien die Personen in den Stichproben ausgewählt wurden – weder die „Citizens“ noch die „Scientists“. Was für Bürger waren das, wie alt waren sie, aus welchen Bildungsschichten kamen sie, usw. usf. Und aus welchen Fachbereichen kommen die Wissenschaftler?

Vielleicht spielt das auch keine Rolle. Zumindest die Antwort auf einige Fragen ist jedoch in ihrer Masse beunruhigend. Nehmen wir zum Beispiel die Aussage (8): Climate change is mainly caused by a natural variation in sunbeam and volcanic eruption. (False). [Übersetzung der Verdeutlichung halber: Klimawandel wird hauptsächlich verursacht durch natürliche Variationen der Sonnenstrahlung und Vulkanausbrüche (falsch)]. 80% der Bürger und sogar 97% der „Wissenschaftler“ sollen die „richtige“ Antwort „falsch“ gegeben haben. (Mit „sollen gegeben haben“ will ich zum Ausdruck bringen, dass auch diese Zahlen vielleicht getürkt sind – vielleicht aber auch nicht). Folglich kann man die oben gestellte Frage nur so beantworten: Die Propaganda hat sich zu einem erschreckend hohen, wenngleich auch nicht überraschend hohen Ausmaß in den Köpfen der Befragten festgesetzt.

Da es im PDF des Originals ausschließlich um diese „richtigen“ Antworten und nicht um den Wahrheitsgehalt der Aussagen als solche geht, kann man alles weitere darin getrost ignorieren. Das Ganze wird hier auch nur erwähnt, um zu unterstreichen, einen wie weiten Weg die Klima-Realisten noch vor sich haben. Da kann man nur hoffen, dass die immer zahlreicher auftauchenden Studien des Inhalts, dass die Erde auf eine Kaltzeit zusteuert, sich als richtig erweisen.

Hier noch einmal der Link zum PDF in Nature Climate Change: https://doi.org/10.1038/s41558-019-0563-0




Google diskriminiert Konservative und Klima-Skeptiker

Die Algorithmen bevorzugen eindeutig linke Inhalte, wenn Suchergebnisse gezeigt werden. Allgemein gesagt, ordnen und präsentieren sie Suchergebnisse auf der Grundlage so genannter „autoritativer Quellen“. Das Problem dabei ist, dass diese Quellen zumeist „Mainstream“-Medien sind, welche fast ausschließlich links stehen.

Die Algorithmus-Definition von „autoritativ“ seitens Google macht Linke zur Stimme der Kompetenz. Größer ist besser, und die Linken haben nun einmal die meisten und größten Nachrichten-Portale. Die Algorithmen sind sehr komplex, aber der zugrunde liegende Gedanke ist, je mehr Websites gezeigt werden, umso größer die Kompetenz.

Das ist so, als ob man sagt, eine Zeitung mit mehr Abonnenten ist vertrauenswürdiger als eine solche mit weniger Abonnenten. Das ist tatsächlich ohne Sinn, aber so behandelt Google Nachrichten und andere Domains. Popularität ist nicht Kompetenz, aber der Algorithmus ist so programmiert, dass er es auf diese Weise sieht.

Dies erklärt, warum die erste Seite mit Suchergebnissen nach Eilmeldungen fast immer Links von linken Portalen zeigt. Es gibt absolut kein Gleichgewicht mit konservativen Nachrichten-Quellen. Angesichts des Umstands, dass etwa die Hälfte aller Amerikaner Konservative sind, ist der Nachrichten-Bias von Google wahrhaft verwerflich.

Im politischen Bereich, der unsere Energieversorgung, die Wirtschaft, Arbeitsplätze, die nationale Sicherheit, Lebensstandards und andere entscheidende Dinge beeinflusst, ist die Unterdrückung alternativer oder skeptischer Stimmen, Beweise und Perspektiven sehr gefährlich für die USA und die ganze Welt.

Im vorigen Jahr dokumentierte ich einen extremen Fall dieses Bias‘ in der Arena des Alarmismus‘ bzgl. der „gefährlichen, vom Menschen verursachten globalen Erwärmung“. Meine individuellen Nachforschungen zu prominenten Skeptikern alarmistischer Behauptungen enthüllten, dass die „autoritative Quelle“ von Google eine obskure Website mit der Bezeichnung DeSmogBlog war. Diese Website ist berühmt dafür, hässliche negative Dossiers über Skeptiker anzulegen, darunter über mich selbst sowie über viele meiner Kollegen (link).

Bei jeder Suchanfrage passieren sofort mehrere Dinge gleichzeitig. Erstens zeigt Google sofort den Link zu dem Dossier über den entsprechenden Skeptiker auf dem DeSmogBlog, obwohl dieses vielleicht schon Jahrzehnte alt und/oder höchst ungenau ist. Tatsächlich war dies mehr als einmal das erste Suchergebnis. Zweitens, etwa die Hälfte aller Ergebnisse waren negative Attacken – was nicht überraschend kommt, attackiert doch die linke Presse oftmals uns Skeptiker.

Drittens, Skeptiker werden oft als „von Big Oil finanziert“ gebrandmarkt, während die Finanzierung der Alarmisten durch eigensüchtige Regierungs-Agenturen, Unternehmen erneuerbarer Energie, linksextreme Stiftungen oder Tom Steyer (welcher mit der Finanzierung von Kohleminen in Asien zum Milliardär geworden ist) allgemein ignoriert wird.

In krassem Gegensatz dazu ergibt die Suche nach Informationen über prominente Klima-Alarmisten nichts als Lobhudeleien. Auch das ist keine Überraschung, lieben doch die linken „autoritativen“ Quellen die Alarmisten.

Dieser Algorithmus-Bias gegen Skeptiker ist Atem beraubend – und er wirkt bis in die Debatte um den Klimawandel selbst hinein. Suchergebnisse zu fast allen Themen bzgl. Klima sind von alarmistischen Inhalten dominiert.

Tatsächlich scheint dem Klimawandel besondere algorithmische Aufmerksamkeit zuteil zu werden. Die Sonder-Kategorie von Klima-Websites bei Google, hyperbolisch „Ihr Geld oder Ihr Leben“ genannt, erfordert sogar noch stärkere „autoritative“ Kontrollen der Suchen. Egal wie gut sie begründet sind – Artikel,welche die Dominanz menschlicher Faktoren bzgl. des Klimawandels, die fast apokalyptischen Auswirkungen des prophezeiten Klimawandels oder den Wert und die Validität von Klimamodellen in Frage stellen, werden fortwährend von den Google-Algorithmen ignoriert.

Die Algorithmen ignorieren auch die Tatsache, dass unsere Arbeitsplätze, die Wirtschaft, unser finanzielles Wohlergehen, unser Lebensstandard und die Reisefreiheit sowie die Freiheit, unsere Wohnungen zu heizen oder zu kühlen, ernsthaft und negativ beeinträchtigt werden durch Energie-Gesetzgebungen, die im Namen der Verhinderung eines kataklysmischen, vom Menschen verursachten Klimawandels gerechtfertigt werden. Der monumentale Bedarf an Bergbau und Rohstoffen für Windturbinen, Solarpaneele, Biotreibstoffe und Batterien findet kaum Erwähnung bei der Google-Suche. Gleiches gilt für die extensiven Auswirkungen dieser vermeintlich „sauberen, grünen, erneuerbaren, nachhaltigen“ Technologien auf die Landschaft, auf Habitate und die Tierwelt.

Man kann mit Fug und Recht sagen, dass Klimawandel derzeit das größte Einzelthema in der Politik ist. Und doch degradiert und „ächtet“ Google folglich jedwede Website, welche „nachweislich ungenaue Inhalte oder widerlegte konspirative Theorien“ enthält. Genau das ist die Definition des Skeptizismus bzgl. jeden Klima-Alarms oder Behauptungen bzgl. erneuerbarer Energie. Google erklärt nicht, wie dessen Algorithmen diese spezifisch subjektiven Einschätzungen vornehmen, ob ein Beitrag genau, autoritativ und folglich gepostet wird – oder falsch, fragwürdig und damit der Vergessenheit anheim fällt.

Googles authority-based Such-Algorithmen sind auch darauf getrimmt, linke Inhalte fast allen konservativen Inhalten vorzuziehen; das gilt besonders für Beiträge zu den Themen Klima und Energie. Dieser zutiefst linke Bias ist fundamental falsch und unamerikanisch, wenn man bedenkt, welche zentrale Rolle Google in unserem Leben spielt.

Die Betreiber von Google werden immer wohlhabender durch die Kontrolle des Zugangs zu Informationen – und folglich der Kontrolle des Denkens, der Debatte, politischer Entscheidungen und unserer Zukunft – indem ein öffentliches Internet-System benutzt wird, welches von Verteidigungs- und anderen Regierungs-Agenturen ins Leben gerufen worden war. Ziel war die Sicherstellung des freien Informationsflusses und der offenen, robusten Diskussion vitaler politischer Dinge. Niemals war beabsichtigt, links-progressive-linksextreme Restriktionen nach Art eines Polizeistaates einzuführen und Entscheidungen zu fällen, wer gehört werden darf und wer nicht.

Dem Weißbuch „wie wir gegen Falschinformation vorgehen“ von Google zufolge ist die separate Sparte der Nachrichten-Suche Gegenstand besonderer algorithmischer Behandlung – das heißt, dass fast alle Links auf der ersten Seite zu linken Nachrichten-Quellen weisen. Dieser eklatante Bias ragt wie ein Fanal in multiplen Tests hervor. In keinem Fall fand ich unter den ersten zehn Links mehr als einen Link zu einer konservativen Nachrichten-Quelle. Manchmal sogar überhaupt keinen.

Beispiel: mein Suchbegriff „Biden 2020“ ergab die folgenden zehn Suchergebnisse, in dieser Reihenfolge: CNN, the New York Times, Vice, Politico, noch einmal CNN, Fortune, Fox News, The Hill und och einmal Politico. Die einzige konservative Quelle war Fox News an achter Stelle.

Natürlich würden konservative Inhalte nicht nett zu Mr. Biden sein. Aber falls Google an prominenter Stelle Skeptiker und Konservative angreifen kann/darf – warum kann es dann nicht auch Demokraten angreifen?

Der größte Gehalt an konservativen Links, die ich fand, war einer von acht Links oder 12%. Etwa ein Drittel meiner Stichproben wiesen überhaupt keine konservativen Quellen auf. Das Mittel von etwa 7% belegt den dramatischen Bias von Google hin zu linken Quellen, die dessen Dominanz von 92,2% eindrücklich unterstreicht.

Die wenigen konservativen Quellen sind tatsächlich mehr in der politischen Mitte angesiedelt, wie Fox News und der Washington Examiner. Google fand niemals wahrhaft konservative Quellen (welche es „rechts“ nennt) wie Breitbart, Townhall oder der Daily Caller. Es kommt einfach nicht vor, und der Algorithmus weiß das ganz genau – wie auch Google. Gleiches gilt für andere Informationen und Websites sozialer Medien.

Natürlich stehe ich nicht allein mit dieser Erkenntnis einer eklatanten Diskriminierung bestimmter Standpunkte.

Koppelt man diesen Sachverhalt mit dem Umstand, dass er fast vollständig übernommen worden ist von den UN, vom IPCC und anderen globalen Regierungs-Institutionen durch umweltaktivistische und sozialistische Kräfte – nebst deren totaler Aussonderung von Skeptikern eines menschengemachten Klima-Chaos‘, an freien Märkten orientierter Ökonomen und jedermann, welcher die Rolle oder die Auswirkungen erneuerbarer Energie in Frage stellt – sind die Auswirkungen auf Diskussionen und Debatten, auf Bildung und Entscheidungen diktatorisch und verheerend.

Keine freie, blühende, moderne Gesellschaft kann unter diesen Bedingungen und Restriktionen überleben. Es ist an der Zeit für Bürger, Gesetzgeber und Richter einzugreifen und dieses imperiale Monopol aufzubrechen.

David Wojick is an independent analyst specializing in science, logic and human rights in public policy, and author of numerous articles on these topics.

——————————————–

Paul Driessen hat zu diesem Beitrag den folgenden treffenden Kommentar geschrieben:

Für ein vermeintliches Medium bzgl. Forschung und Bildung, welches fast 92,2% aller Suchanfragen steuert, ist dieser Sachverhalt nicht einfach nur verwerflich. Er ist regelrecht gefährlich für eine freie, funktionierende, moderne demokratische Gesellschaft und die Welt. Besonders inakzeptabel ist, dass diese „Suchmaschine“ sich eines öffentlichen Internet-Systems bedient, welches von Regierungs-Agenturen mit den Dollars der Steuerzahler erschaffen worden ist – mit dem Ziel der Sicherstellung des freien Meinungsaustausches.

Link: http://icecap.us/index.php/go/political-climate vom 31. August 2019

Ein PDF dazu gibt es hier: Google discriminates against conservatives and climate skeptics

Übersetzt von Chris Frey EIKE