Facebook und Youtube löschen Millionen von Einträgen, die der offiziellen Corona-Politik widersprechen. Und Google will Webinhalte abwürgen, die den menschengemachten Klimawandel in Frage stellen. Die grossen Technologiekonzerne entwickeln sich zu einer Gefahr für den freien Diskurs.
Ein Kommentar: von Alex Reichmuth
Google tut es wieder. Der Internetkonzern will den öffentlichen Diskurs manipulieren – diesmal in Sachen Klimawandel. Vor wenigen Tagen gab Google bekannt, dass es Skeptikern der menschengemachten Erderwärmung das Wasser abgraben will – auf seiner Suchmaschine und seiner Videoplattform Youtube.×
Künftig dürfen bei Google keine Werbeanzeigen mehr geschaltet werden, die rund um Inhalte platziert sind, welche «dem fundierten Konsens rund um die Existenz und die Gründe des Klimawandels widersprechen» Allgemein sollen «Klimaleugner» über Webinhalte die dem Klimawandels widersprechen». Allgemein sollen «Klimaleugner» über Webinhalte, die dem angeblichen Konsens über die Ursachen der Erderwärmung entgegenstehen, keine Einnahmen mehr erzielen können. Durch den Entzug von Einkünften will Google sämtliche Standpunkte, die von denen des Weltklimarats abweichen, von seinen Plattformen verbannen. (Meldung von Googe siehe hier)
Quasi-Monopol auf Informationen
Die Google-Suchmaschine und Youtube haben quasi ein Informationsmonopol. Wer sich zu laufenden politischen oder wissenschaftlichen Debatten ins Bild setzen will, kommt an ihnen kaum vorbei. Der Angriff von Google gegen Klimaskeptiker ist darum ein Angriff auf die freie Meinungsäusserung.
Youtube hat mehr als eine Million Videos gelöscht hat, die «gefährliche Falschinformationen» zu Corona enthalten haben sollen.
Es ist nicht der erste solche Angriff. Ähnlich geht Google auch gegen Coronaskeptiker vor. Im August wurde bekannt, dass Youtube mehr als eine Million Videos gelöscht hat, die «gefährlicheFalschinformationen» zu Corona enthalten haben sollen. Es sei um die Entfernung von Webinhalten gegangen, die «direkt zu erheblichem Schaden in der realen Welt führen können».
Streng nach den Empfehlungen der Weltgesundheitsorganisation
In Sachen Impfen ist bei Youtube Einheitsmeinung angesagt. Schon im April letzten Jahres kündigte Youtube-CEO Susan Wojcicki an, dass alles, was punkto Corona den Empfehlungen der Weltgesundheitsorganisation zuwiderlaufe, gelöscht werde. Die Plattform geht aber noch weiter: Sie will auch Videos entfernen, die angebliche Falschinformationen zu anderen Impfungen× enthalten – etwa zu Impfungen gegen Masern oder Hepatitis B.
Facebook ist kein bisschen besser. Der US-Konzern hat bis August dieses Jahres über sieben Millionen Beiträge zum Thema Coronavirus von seiner Plattform entfernt Es habe sich um
Millionen Beiträge zum Thema Coronavirus von seiner Plattform entfernt. Es habe sich um Einträge gehandelt, die die Gesundheit von Menschen gefährden könnten, begründete Facebook die Zensur. Rund 98 Millionen «weniger gefährliche Inhalte» wurden mit Warnhinweisen versehen.
Die Zensur kommt aus Amerika – ausgerechnet
Internetkonzerne wie Google oder Facebook sind verpflichtet, Webinhalte zu entfernen, die gegen das Gesetz verstossen – beispielsweise Aufrufe zu Gewalt, terroristische Informationen oder verbotene Pornografie. Doch immer mehr entwickeln sich solche Konzerne zu paternalistischen Aufsehern, die nach eigenen Vorgaben entscheiden, was das Publikum erfahren darf, und was nicht. Dass solche Zensur ausgerechnet aus Amerika kommt, der Wiege der Freiheit und der freien Meinungsäusserung, ist besonders betrüblich.
«Gecancelt und zensiert wird nach rechts.»
Josef Joffe, Herausgeber der «Zeit»
Der Lösch-Wahn hat dabei meist politische Schlagseite. «Gecancelt und zensiert wird nach rechts», stellte Josef Joffe, Herausgeber der «Zeit», in der «Neuen Zürcher Zeitung» fest. Das bekannteste Beispiel von Zensur nach rechts ist die Verbannung von Donald Trump von den Plattformen Twitter, Facebook und Youtube. «Sie kontrollieren, was wir sehen können und was nicht», hatte der damalige US-Präsident den Internetkonzernen schon 2018 vorgeworfen.
Trump klagt gegen Facebook, Google und Twitter
Die deutsche Kanzlerin Angela Merkel bezeichnete die Sperrung Trumps als «Eingriff in das Grundrecht auf Meinungsäusserung». Während Trump mundtot gemacht wird, dürfen TalibanTerroristen weiter twittern. Im letzten Sommer kündigte Donald Trump Klagen gegen Facebook, Google und Twitter gegen seine digitale Verbannung an. Ob er Erfolg hat, ist fraglich.
Doch auch linke Inhalte geraten ins Visier der Internetzensoren. 2019 berichtete das «Wall Street Journal», dass Google gezielt auch linke Webseiten und Antikriegs-Propaganda sperrt. Obwohl Google stets bestritten hatte schwarze Listen zu führen musste Sundar Pichai CEO des Google https://www.nebelspalter.ch/«big-tech»-torpediert-die-freie-meinungsaeusserung Google stets bestritten hatte, schwarze Listen zu führen, musste Sundar Pichai, CEO des Google- Mutterkonzerns Alphabet, letztes Jahr eingestehen, dass sein Unternehmen zumindest die «World Socialist Web Site» zensuriert hatte.
Einzelpersonen schwingen sich zu Zensoren auf
Aus dem legitimen Kampf der Internetkonzerne gegen verbotene Inhalte wird so immer mehr ein ideologischer Marsch gegen Inhalte, die als moralisch verwerflich gebrandmarkt werden. Einheitsmeinung statt Diskurs ist angesagt. So verhindern diese Konzerne gesellschaftliche und politische Debatten, welche die Grundlage einer freien Gesellschaft sind.
Wikipedia kommt in Sachen Klimawandel stets alarmistisch daher und lässt keinerlei Kritik am Weltklimarat zu.
Dabei schwingen sich Einzelpersonen ohne demokratische Legitimation zu öffentlichen Zensoren auf. Das kommt auch bei Wikipedia vor. Seit langem fällt auf, dass zumindest der deutschsprachige Teil des Internetlexikons in Sachen Klimawandel stets alarmistisch daherkommt und keinerlei Kritik am Weltklimarat zulässt.
Wikipedia-Autor «Andol» manipuliert Beiträge
Die «Weltwoche» deckte vor zwei Jahren auf, dass ein einziger Autor mit dem Pseudonym «Andol» fast alle Einträge zu den entsprechenden Themen kontrolliert. «Andol» schreibt jede Menge an Einträgen, die die Energiewende in einem günstigen Licht erscheinen lassen, und wacht mit Argusaugen darüber, dass «Klimaleugner» immer schlecht wegkommen. Die Benutzer von Wikipedia sind sich solcher Manipulation wohl kaum bewusst.
Der britische Autor George Orwell war Kulturpessimist. Er prophezeite Mitte des letzten Jahrhunderts, dass ein «Zeitalter totalitärer Diktaturen» anstehe. Von Internetkonzernen, die die× öffentliche Meinung kontrollieren wollen, wusste Orwell zwar noch nichts. Aber was Freiheit ist, war ihm sehr wohl klar. «Falls Freiheit überhaupt etwas bedeutet, dann bedeutet sie das Recht darauf, den Leuten das zu sagen, was sie nicht hören wollen.» Es wäre an der Zeit, den freien darauf, den Leuten das zu sagen, was sie nicht hören wollen.» Es wäre an der Zeit, den freien Diskurs gegen die Deutungsmacht von «Big Tech» zu verteidigen.
Der Beitrag erschien zuerst beim Nebelspalter hier
Google macht nun Wissenschaft: Gleichschaltung im Dritten Reich war dagegen ein Witz
geschrieben von Admin | 17. Oktober 2021
von Michael Klein, ScienceFiles
Reiben Sie sich auch verwundert die Augen über die Geschwindigkeit, mit der der einst freie Westen zu einer Gesinnungsdiktatur geworden ist, eine, in der nun Google und seine Kumpane bei der UN darüber bestimmen wollen, was als wissenschaftliche Erkenntnis zu gelten hat?
Dass Technologiekonzerne heute das versuchen, was im Dritten Reich selbst nach Jahren aktiver Unterdrückung aller abweichender Stimmen in einer Katastrophe geendet ist, ist kein Zufall: Die Methoden, die im Totalitarismus angewendet werden können, sind beschränkt und laufen letztlich allesamt darauf hinaus, all das, was nicht zur vorgegebenen und als Wahrheit ausgegebenen Ideologie passt, was ihr widerspricht, sie herausfordert, sie kritisiert, diejenigen, die den Mut aufbringen, das auszusprechen, was nicht zur Ideologie passt, die die Ideologie kritisieren, sie herausfordern, zu unterdrücken, unhörbar, unsehbar zu machen, aus dem öffentlichen Raum zu entfernen.
Das alles ist ein alter Hut.
Ayn Rand hat diesen Weg in den Totalitarismus einst bei Panzern enden lassen. Die nämlich müssen totalitäre Systeme irgendwann gegen die Bürger einsetzen, die nach wie vor dem, was sie erfahren, sehen, wissen, den Primat über das, was ihnen vorgegeben, in sie eingebläut werden soll, einräumen, die nach wie vor nicht glauben, was die totalitären Ideologen als Wahrheit ausgeben wollen, die einfach deshalb nicht glauben wollen, weil die Abweichung der Ideologie von der Realität über Zeit zwangsläufig und unweigerlich immer größer wird. Denn: Während eine Ideologie eine unverrückbare Wahrheit verkündet, verändert sich die Umwelt. Zwangsläufig geraten beide, Umwelt und Ideologie, mit einander in Konflikt.
Die Ideologie, die bei die Totalitarista von Google nun als unkritisierbare, unhintergehbare, unwiderlegbare Wahrheit ausgeben werden soll, sie versteckt sich hinter dem, was bei Google unter “wissenschaftlicher Konsens” läuft. Nichts wird in den letzten Jahren mehr missbraucht als der Begriff der Wissenschaft. Jeder Hahnepiepel ist der Ansicht, er könne sie zu Wissenschaft äußern und zeigt in der Regel schon mit dem ersten Satz, dass er von Wissenschaft keine Ahnung hat. Wer allen Ernstes von einem wissenschatflichen Konsens spricht, der weist sich als ein solcher, der Wissenschaft Unkundiger aus, als jemand, der seine Ideologie als Wissenschaft, noch schlimmer, als Wahrheit ausgeben will.
Und weil dem so ist, ist der Kampf gegen abweichende Meinungen, der Versuch, Kritik und Widerspruch zu unterdrücken, ein untrügliches Zeichen dafür, dass man es mit Totalitarismus zu tun hat. Deshalb ist Google ein totalitäres Unternehmen, das man besser heute als morgen zerschlagen sollte. Aber natürlich hat sich Google in den letzten Jahren denen, die mit Googles Hilfe in Positionen gesellschaftlicher “Macht” gelangt sind, angedient, sie erst in diese Positionen befördert, durch Unterdrückung der Stimmen politischer Gegnern, durch Finanzgeschenke und vieles mehr. Der Darling aller autoritär Gesinnten hat derzeit also keine Konsequenzen dafür zu fürchten, dass er sich zum Herrn über die Wahrheit machen will, der festlegt, was als wissenschaftliche Erkenntnis zu gelten hat.
Aber natürlich sind Totalitarista wie Google auch feige, nicht so gerne bereit, die Verantwortung für das Spiel der Zensur zu übernehmen, das sie spielen. Ergo versteckt sich Google hinter dem Rücken von Werbepartnern und der UN. Ja, die UN. In den x-files ist die UN das Zentrum der Verschwörung. Fast so, als hätten die Drehbuchschreiber in die Zukunft sehen und wissen können, dass die UN einst zur Drehscheibe der Unterdrückung, der Durchsetzung von Ideologie, die vielen schadet und wenig nutzt, die viele bezahlen und wenige massiv kassieren lässt, werden würde.
Ein lange Vorrede.
Es geht dieses Mal nicht um COVID-19, sondern um: was wohl, was bleibt?
Richtig Fetisch Nummer 2 der linksidentitären Sekte: Das Klima und der von Menschen vermeintlich verursachte Wandel desselben.
Nun, da immer deutlicher wird, dass sich die Temperaturen weltweit einfach nicht an die vorgeschriebene Steigerung halten wollen und statt dessen Anlass zu der Sorge geben, sie wollten fallen, nun da die Divergenz zwischen dem, was die Klima-Heilande und ihre Apostel verkünden, und dem was ist, immer größer wird, nun ist es wichtig diejenigen, die die auf diese Abweichung hinweisen, zu unterdrücken:
“That’s why today, we’re announcing a new monetization policy for Google advertisers, publishers and YouTube creators that will prohibit ads for, and monetization of, content that contradicts well-establishedscientific consensus around the existence and causes of climate change. This includes content referring to climate change as a hoax or a scam, claims denying that long-term trends show the global climate is warming, and claims denying that greenhouse gas emissions or human activity contribute to climate change.
When evaluating content against this new policy, we’ll look carefully at the context in which claims are made, differentiating between content that states a false claim as fact, versus content that reports on or discusses that claim. We will also continue to allow ads and monetization on other climate-related topics, including public debates on climate policy, the varying impacts of climate change, new research and more.
In creating this policy and its parameters, we’ve consulted authoritative sources on the topic of climate science, including experts who have contributed to United Nations Intergovernmental Panel on Climate Change Assessment Reports. As is the case for many of our policies, we’ll use a combination of automated tools and human review to enforce this policy against violating publisher content, Google-served ads, and YouTube videos that are monetizing via YouTube’s Partner Program. We’ll begin enforcing this policy next month.”
Bei Google wird also unter Hinzuziehung der UN und derjenigen, die schon seit Jahren mit ihren Assessment-Berichten daneben liegen, dem Intergovernmental Panel on Climate Change, in dem viel ideologische und so gut wie keine meteorologische, geschweige den physikalische Kompetenz gebündelt ist, ab sofort bestimmen, was als Wahrheit im Hinblick auf Klimawandel zu gelten hat. Vorbei sind die Zeiten, die der Aufklärung nachgefolgt sind, jene Zeiten, in denen man sich klar war, dass sich die Realität nicht an die Vorgaben der katholischen Kirche oder anderer Glaubensgemeinschaften halten wird, dass Wissenschaft, als Methode der möglichst genauen Beschreibung der Realität vielmehr von Glauben freigehalten und dem Wettbewerb unterschiedlicher Ideen und Hypothesen darüber, was die Welt, im Innersten zusammenhält, die einzige Möglichkeit darstellt, sich dem, was uns umgibt, mit Erkenntnis zu nähern.
Wir sind zurück in vor-wissenschaftlicher Zeit als noch Hohepriester aus Schriftgut herausgelesen haben, was wahr und was falsch ist. Die Hohepriester sitzen heute bei Google und sie interpretieren die heiligen Schriften des IPCC. Die Aufklärung und die Moderne haben Pause. Wir eilen zurück in das dunkle Mittelalter, in dem eine Reise mit der Nachtschar schnell im Feuer der Inquisition enden konnte.
Man kann mit Fug und Recht behaupten, dass heute ein Einstein, ein Darwin oder ein Keppler nicht mehr möglich wären: Google würde sie bekämpfen, zensieren, deplattformen, denn sie haben sich in ihrer Zeit dem widersetzt, was man bei Google wohl als den “wissenschaftlichen Konsens” angesehen hätte.
Es ist nur noch eine Frage der Zeit, bis die Google-Inquisition auf den Plan tritt, die alle Online-Frevler verfolgt, die – weil sie vom Teufel besessen sind – behaupten, die Sonne sei für das Erdenklima verantwortlich, gar behaupten, die Sonne stehe im Zentrum der Galaxie und die Erde drehe sich darum, wo doch jeder weiß, dass die Erde im Zentrum steht und allein Menschen in der Lage sind, das Klima der Erde zu bestimmen.
Sie werden gezwungen, ihr Geld abzugeben, auszugeben für z.B. teure Energie, die angeblich klimaneutral erzeugt wurde. Andere gewähren ihnen dafür einen Ablass von ihrer Klimaschuld, und Google legt für Sie ein gutes Wort beim Klima-Gott ein. Vielleicht schaffen Sie es auf diese Weise in den Klima-Himmel, dem das Klima-Paradies angeschlossen ist, in dem man von morgens bis abends am Rädchen drehen kann.
Der Erfahrungsbericht über eine Anhörung zum Thema Wasserstoff
von K.P. Krause
Anhörung klingt gut, hört sich gut an. Sie vermittelt den Eindruck: Jetzt kommen Kundige zu Wort, Experten nämlich. Nicht-Kundige wollen von ihnen wissen, was sie selbst nicht wissen, sie holen sich Rat. So zu verfahren, ist vernünftig, ist klug, versteht sich von selbst. Öffentliche Aufmerksamkeit finden Anhörungen, wenn es um Politik geht, um politische Entscheidungen. Je bedeutsamer solche Entscheidungen sind, umso ratsamer ist es, vorher Expertenrat einzuholen. Mehr als ratsam, nämlich notwendig ist er bei Entscheidungen, die eine Weichenstellung oder Umorientierung bedeuten, die auf lange Zeit Bestand haben sollen, die vielfältige Folgen haben, Folgen, die vorher nicht leicht überschaubar und nachher schwer korrigierbar sind, Entscheidungen also, die gründlich bedacht werden müssen.
Eine solche Anhörung hat kürzlich im Hessischen Landtag stattgefunden, und zwar zum Thema Wasserstoff. Einer der eingeladenen Sachverständigen hat sich hinterher über diese Anhörung seine Gedanken gemacht und kommt zu dem Schluss, Anhörungen wie diese seien im Wesentlichen Alibi-Veranstaltungen, also bloß ein formaler Nachweis dafür, dem demokratischen Transparenzgebot für die Gesetzgebung genüge getan zu haben und den Eindruck zu vermitteln, die wesentlichen Betroffenen seien gefragt worden und hätten an der Entscheidungsfindung teilgehabt. Oder anders formuliert: Anhörungen dienen zwar nicht nur, aber doch auch zu einem großen Stück als Gaukelwerk.
Zur Anhörung eingeladen hatte der Ausschuss für Wirtschaft, Energie, Verkehr und Wohnen des Hessischen Landtags. Stattgefunden hat sie am 6. Oktober in Wiesbaden. Beratungsgegenstand war ein Gesetzentwurf der FDP-Fraktion mit dem Titel „Hessisches Wasserstoffzukunftsgesetz“. Zu diesem Entwurf sollte auch der Diplom-Ingenieur Klaus K. Maier, Bad Nauheim, sachkundig Stellung nehmen und äußern, was er von dem Entwurf hält. Das hat er ausführlich getan (hier). Sein Urteil fiel vernichtend aus. Nun stellt er dar, wie er diese Veranstaltung persönlich erlebt hat – „nüchtern berichtet, aber persönlich bewertet“, wie er schreibt. Im Folgenden gebe ich seinen Bericht im Wortlaut wieder.
Autor Dipl.-Ing. Klaus K. Maier, Bad Nauheim
Der Vorlauf
Von ursprünglich 95 Angeschriebenen haben 28 schriftlich geantwortet, persönlich erscheinen wollten dann nur noch 8. Angeschrieben waren: Kommunale Spitzenverbände, Energieversorger, Netzbetreiber, Ministerien, Firmen die an Wasserstoff arbeiten, Unternehmen der Mobilitätsbranche, Chemische Industrie, Unternehmerverbände, andere Verbände, NGOs (z.B. Öko-Institut e. V., BUND), Hochschulen, Institute, Forschungseinrichtungen, Gewerkschaften, Banken und merkwürdige Institutionen wie die Deutsche Gesellschaft für Internationale Zusammenarbeit GmbH [3]. Wie es zu diesem großen Verteiler kam, ist mir weder bekannt, noch erschließt sich mir die Relevanz der Eingeladenen für sachkundige Beiträge. Die tatsächlich Erschienenen waren dann eine deutlich bessere Auswahl aus dem großen Verteiler [1].
Meine Einladung ist durch den Vorschlag einer Partei zustande gekommen, die dem Thema Wasserstoff und Energiewende kritisch gegenübersteht. Es ist üblich, dass Parteien solche Anzuhörenden vorschlagen, die deren politische Haltung unterstützen. Eine solche Veranstaltung hat natürlich nicht den alleinigen Zweck, sachkundige Informationen an die Parlamentarier zu vermitteln, damit diese sinnvolle Gesetze vorschlagen und beschließen. Die Aspekte solcher Veranstaltungen sind vielschichtig:
Einmal geht es darum, dass jede Partei Argumente für ihre Haltung aus „sachkundigem Munde“ überzeugend verbreiten lässt und so ihre politische Position stärkt.
Da solche Veranstaltungen normalerweise öffentlich sind (diesmal wegen Corona nicht), folgt man so dem allgemeinen Gebot der Transparenz. Die Entstehung eines Gesetzes soll für die Öffentlichkeit auf sachlich fundierter Basis und unter Anhörung vieler Betroffener entstehen. Tatsächlich beschlossen und formuliert aber werden die Entscheidungen zu einem Gesetz und dessen Ausgestaltung wohl in den Gremien und unter Regie der Regierungskoalition.
Gesetzentwürfe von Oppositionsparteien haben daher wenig Chancen auf Erfolg. Die Regierung will Urheber der Gesetze bleiben, um ihre Kompetenz und ihren Tatendrang damit letztlich für die nächste Wahl zu dokumentieren. Notfalls wird der Oppositionsentwurf modifiziert und geht dann als eigene Arbeit in die Geschichte der Regierungserfolge ein. Mit dem Anhörungsverfahren wird der Opposition, aber vor allem der Öffentlichkeit der Eindruck vermittelt, es ginge um die besten Ideen.
Interessant ist der Begriff „Anzuhörende“, statt „Sachverständige“. Er ist aber genau der richtige, denn die Anzuhörenden sind im Sinne der Sache oftmals keine Sachverständigen, sondern eher Interessenvertreter. Interessant war, dass bei mir „Sachverständiger“ stand, weil ich kein Institut, keine Vereinigung und keine Behörde vertrat.
Folie aus dem Handzettel Vortrag K. Maier am 6.10.21 im Hessischen Landtag hier
Die Vorsitzende des Ausschusses begrüßte alle und teilte die Anhörung in zwei Blöcke auf. Jeweils vier Anzuhörende hatten ihre mündliche Stellungnahme abzugeben. Dazu waren jeweils 7 bis 10 Minuten Zeit. Dann hatte das Plenum die Gelegenheit Fragen zu stellen. Dies dauerte ungefähr eine Stunde.
Die Anzuhörenden konnten gefragt werden, konnten sich aber selbst, wie in einer Diskussion, nicht initiativ einbringen und gemachte Aussagen kritisieren. Sie bekamen das Wort nur dann, wenn sie gefragt wurden.
Im Gesetzentwurf der FDP-Fraktion [2] geht es darum, dass von den Subventionen („Förderungen“), die beschlossen sind, auch das Land Hessen profitieren kann. Weiter wird hervorgehoben, dass „eine drastische Beschleunigung der Treibhausgasminderungen zwingend notwendig sei“. Und dass „ohne größere Anstrengungen und eine Neuausrichtung der hessischen Energie- und Klimapolitik diese an den vorgegebenen und selbstgesteckten Zielen scheitern wird.“ Schließlich wird gefordert, dass die hessischen Unternehmen Perspektiven brauchen, um die Klimaschutzanforderungen umsetzen zu können und so von Wachstums- und Entwicklungsperspektiven profitieren zu können. Unter dieser Zielsetzung sind die Paragraphen des Gesetzes formuliert.
Meine Stellungnahme
Als erster erhielt ich das Wort. Im Gegensatz zu allen anderen, hatte ich zwölf Vortragfolien vorbereitet, die wegen Beamer-Mangel als Handzettel verteilt wurden [4].
Meine Stellungnahme fiel insofern aus der Reihe, weil es eine grundsätzliche Kritik an der Energiewende im Allgemeinen und an der Wasserstoffwirtschaft im Besonderen enthielt. Zunächst verwies ich auf notwendige Prüfungen, bevor folgenschwere Projekte, wie die Umstellung auf eine Wasserstoffwirtschaft, in Angriff genommen werden. Hier sind zu nennen:
Erreichbarkeit der Ziele,
Verhältnismäßigkeit der Aufwendungen und
ganzheitlicher Mehrwert nach Abschluss.
Unter Verweis auf die öffentliche Verkennung der Tatsachen (Folie 6, 7 hier), ergeben quantitative Abschätzungen, was Wasserstoff als Energieträger bedeutet, wie viel das volkswirtschaftlich und für eine Familie kostet. Schließlich verdeutlichte ich, dass dies durch die Kostenbelastungen zu einer Spaltung der Gesellschaft und den Niedergang der Wirtschaft führen muss (Folie 8, 9 hier).
Die Reaktion auf meinen Vortrag war „geduldig“. Einige schauten verwundert und interessiert zu, andere belächelten den Schwarzseher, der „es“ immer noch nicht begriffen habe. Einige spürten wohl auch das Verunsicherungspotenzial der Ausführungen.
Meine schriftliche Stellungnahme, die die quantitative Seite der Wasserstoffwirtschaft im Fokus hatte, ist dadurch mit 111 Seiten [5] deutlich umfangreicher als die der anderen, die im Durchschnitt auf nur knapp 7 Seiten kamen, weil sie lediglich einige grundsätzliche Forderungen erhoben oder einige konkrete Änderungsvorschläge zum Gesetzentwurf machten.
Der weitere Verlauf
Der Begriff Technologieoffenheit zog sich durch fast alle Stellungnahmen und wurde auch in den Antworten immer wieder betont. Dabei kritisierten viele, dass der Gesetzentwurf den Fokus auf die Mobilität lege und nicht z.B. die Wärmeerzeugung (Hausheizungen) einbeziehe. Dabei ist technisch und ökonomisch klar, dass Wasserstoff nur dann bei der Mobilität infrage kommt, wenn keine elektrische Lösung sinnvoll ist. Die Verbrennung von Wasserstoff zur Wärmeerzeugung – auch mit einer Brennstoffzelle – ist um den Faktor 8 einer Wärmepumpe unterlegen und kann damit nicht konkurrenzfähig sein.
Interessanter Weise kamen die Wirkungsgrade wenig zur Sprache, außer bei Fragen von wenigen Abgeordneten. Mein Hinweis, dass ein schlechter Wirkungsgrad zu einem viel höheren Ausbau der VEE (Volatilen Erneuerbaren Energien aus Wind und Sonne) führen muss, wurde ebenso wie andere Fakten, nicht zur Kenntnis genommen und in der Diskussion behandelt. Dabei ist angesichts der Widerstände der ca. 1000 Bürgerinitiativen der nötige, vielhöhere Ausbau der Windenergie die alles entscheidende Akzeptanzfrage, durch die die Energiewende zu scheitern droht.
Unter dem Aspekt der miserablen Wirkungsgrade in der H2-Kette von Strom bis Anwendung (Folie 15) ist es schon bezeichnend, wenn allenthalben von „effizient, wirtschaftlich, technologieoffen, bezahlbar und sicher“ geschwärmt wird.
Mehrfach wurde vom Umfunktionieren der Erdgasnetze für das Durchleiten von Wasserstoff gesprochen, weil dies viel kostengünstiger sei, als ein neues Wasserstoffnetz zu errichten. Dabei wurde die Zahl von 1 Million Euro je Kilometer Umrüstung für eine Hauptgasleitung genannt. Das würde für das Erdgasnetz Umrüstkosten in der Größenordnung von 250 Milliarden Euro bedeuten.
Der Vorschlag der Nutzung (Umwidmung) des Erdgasnetzes ist nicht neu. Das halte ich nicht für praktikabel, da wir noch für längere Zeit Erdgasnutzer mit der heutigen Erdgasspezifikation versorgen müssen (so sehen das auch andere Studien). Dazu gehören Erdgasheizungen und Industrieanlagen. Daher kommt man nicht umhin, ein paralleles Wasserstoffnetz zu errichten, das natürlich deutlich teurer würde, als das Erdgasnetz nur umzuwidmen.
Einige haben Wasserstoff als ideales Speichermedium für den Ausgleich der volatilen Stromerzeuger (VEE) mit den Gasspeicherkavernen des Erdgasnetzes genannt. Ich hatte dies in meiner schriftlichen Stellungnahme [5] ausgeschlossen, da die Nachrechnung ergibt, dass es an der nötigen Speicherkapazität erheblich mangelt (Wasserstoff hat bei gleichem Druck eine viel geringere Energiedichte).
Immer wieder haben Vertreter der Forschung oder der Industrie betont, dass diese neue „Technologie“ (gemeint ist Technik) natürlich weitere finanzielle Unterstützung (in verschiedenster Form), sprich: Subventionierung benötigt. Eine schöne Formulierung war: „Die Rentabilität der neuen Investitionen muss natürlich gesichert sein“. Wie der Gesetzgeber dies sicherstellen kann, lässt sich unschwer ausmalen, nämlich mit Subventionen, Preisgarantien, Vorrechten im Markt und dergleichen).
Aber es wurden auch völlig falsche Zahlen genannt, etwa, dass das Erdgasnetz eine Transportkapazität von 80.000 Gigawatt (GW) habe, was sich nach Überschlagsrechnung auf ca. 100 GW reduzierte. Das darf einem Kenner einer Materie nicht passieren. Auch ist die Aussage falsch, der Transport von Wasserstoff sei zu gleichen Kosten wie der von Erdgas erreichbar.
Leider war es mir nicht möglich, die CO2-Vermeidungskosten zur Sprache zu bringen. So nennt die ESYS-Studie [6] 390 Euro je Tonne CO2, der dänische Wissenschaftler Dr. Lomborg 900 €/t und für Kerosin wurden schon 1200 €/t errechnet. In meinem Buch [7] komme ich auf 650 Euro (als Durchschnitt für eine CO2-Reduktion um 90 Prozent), was z.B. für eine 100-Quadratmeter-Wohnung zusätzliche Kosten von jährlich 1.900 Euro bedeutet. Diese Zahlen muss man im Kontext mit der heutigen CO2-Steuer von 25 Euro je Tonne sehen. Wir sind derzeit also von den bevorstehenden Belastungen noch weit entfernt. Aber auch das hätte in der Anhörung niemand wirklich beeindruckt, denn von Zahlen, die man seinen Wählern und den Medien nicht nennen mag, will man nichts wissen. Eine Verunsicherung über den eingeschlagenen Weg soll es nicht geben dürfen.
Meine Folie Nr. 13 (hier) konnte ich leider nicht ansprechen. Sie verdeutlicht den nötigen Onshore-Windenergieausbau zu verschiedenen Fällen. Dies sollte eindrucksvoll die Undurchführbarkeit der Energiewende demonstrieren – ob mit oder ohne Wasserstoff.
Ein Abgeordneter erinnerte daran, dass Deutschland mit seinen 2 Prozent CO2-Anteil am Weltausstoß trotz seiner immensen Kosten die Weltdurchschnittstemperatur nicht beeindrucken kann. Darauf erwiderte ein Anzuhörender: Es komme nicht darauf an, dass Deutschland einen spürbaren Beitrag zur Welt-CO2-Vermeidung leisten könne, sondern dass wir der Welt bewiesen, dass man ohne Wohlstandsverlust CO2-neutral werden könne. Träumen Sie weiter, kann man da nur sagen. Mit fortschreitender Zeit, gab man aber wenigstens zu, dass die Energiewende nicht umsonst zu haben ist, sondern viel kostet – natürlich ohne Zahlen zu nennen.
Angesichts von zweieinhalb Stunden Dauer, kann dies nur ein grober Abriss der Veranstaltung sein.
Resümee
Es war eine lehrreiche Erfahrung, wie Politik in einem kleinen Ausschnitt funktioniert. Anhörungen sind meiner Meinung nach zum großen Teil Alibiveranstaltungen, um Transparenz und Teilhabe aller Betroffenen an den politischen Entscheidungen zu demonstrieren.
Wenn erst der Weg einmal vorgegeben ist – hier die Energiewende mit der Komponente Wasserstoffwirtschaft – wird nur noch nach den Interessen der Profiteure gefragt, die diese neue Entwicklung für sich nutzen können. Nach der Sinnhaftigkeit des Projekts fragt keiner mehr. Technische, physikalische und ökonomische Fakten stören hier. Wenn auf wundersame Weise alle Altparteien im Schulterschluss mit den öffentlich rechtlichen Medien einer Meinung sind, haben Kritik wie auch Alternativvorschläge keine Chance mehr. Am Ende werden die Ergebnisfakten das Scheitern gnadenlos dokumentieren. Dann will es keiner gewesen sein, und alle haben es schon immer gewusst. Der Misserfolg kennt keine Väter.
Soweit Klaus Maiers Erfahrungsbericht über jene Anhörung. Seinem 111 Seiten langem Gutachten zur staatlich geplanten Wasserstoffwirtschaft vorangestellt hat er in Kurzfassung das Ergebnis des Gutachtens. Darin bewertet er die Folgen, die den FDP-Gesetzentwurf im Zusammenhang mit der Energiewende volkswirtschaftlich und auch für den Einzelnen verursachen werden. Dazu erläutert er die technischen und physikalischen Zusammenhänge. Wesentliche Grundlage für das Bewertungsergebnis sind vor allem jene problematischen Bereiche, die mit der Einführung und Nutzung der Wasserstoffwirtschaft entstehen. Hier Maiers Ergebnisse im Wortlaut:
Ergebnisse
Der Gesetzesentwurf ist ein legitimes Mittel, damit auch Hessen von den bereitgestellten Milliarden des Bundes und der EU anteilig profitieren kann. Diese Intention kann nicht kritisiert werden.
Aber:
Der Gesetzentwurf übernimmt völlig kritiklos die Haltung der Bundesregierung und der EU zur Energiewende und zur Wasserstoffwirtschaft. Für die Durchführung eines bedeutenden Projekts muss immer die Zielerreichung bei vertretbarem Aufwand gesichert sein. Hieran hat der Autor erhebliche Zweifel, so dass dies im Zentrum der Stellungnahme steht. Es bedeutet auch, dass er sich ausschließlich den quantitativen Merkmalen der endgültigen Lösung zuwendet.
Diese Stellungnahme zeigt, dass die Zielsetzung mit grünem Wasserstoff die Energiewende zum Erfolg zu führen, zwar technisch-physikalisch nicht unmöglich ist, aber in der Realität und von den volkswirtschaftlichen Kosten einen unverhältnismäßigen Aufwand darstellt, die vorgesehene Zielsetzung nicht erreichen kann und somit unrealistisch ist (ausführlicher in Kapitel 12, Seite 80 ff).
Folgend einige Argumente:
So bedeutet der extrem niedrige Wirkungsgrad für die Anwendung von Wasserstoff im Verkehr, im Vergleich zur batteriegestützten E-Mobilität, fast den vierfachen Ausbau der Volatilen Erneuerbaren Energien (VEE) samt den in Deutschland dafür bestehenden Akzeptanzproblemen.
Auch propagierte Wasserstoffträger oder andere alternative Energieträger (z.B. Methanol oder Ammoniak) können im Vergleich der Energiedichte mit heutigen Kraftstoffen nicht bestehen. Jede Substitution führt zu vielfältigen Nachteilen, bei den Kosten, dem Volumen, dem Gewicht, der Transportkapazität, der Reichweite, dem technischen Aufwand etc.
Die Einschätzung des Wasserstoffbedarfs der Bundesregierung ist mindestens um den Faktor 5 niedriger als in diesem Papier im Detail nachgewiesen. Die offiziellen Darstellungen und Pläne entsprechen meist nicht den Realitäten, sondern beschönigen und blenden Problembereiche aus.
Das begrenzte Potenzial des möglichen Ausbaus der VEE in Deutschland führt dazu, dass praktisch der gesamte Wasserstoff importiert werden muss. Die angekündigte weltweite Umstellung auf Wasserstoff kann zu extremen Engpässen und damit zu deutlichen Preissteigerungen sowie zu problematischen Abhängigkeiten von politisch instabilen Staaten führen. Eine neue Energiekrise könnte die Folge sein (vergl. Ölkrise 1973).
Der Import von flüssigem Wasserstoff über deutsche Nordseehäfen erfordert sehr große Spezialschiffe, die es derzeit nicht gibt. Das benötigte, zusätzliche Wasserstoffnetz in Deutschland wird Investitionen im dreistelligen Milliardenbereich erfordern.
Es wird in Veröffentlichungen nicht thematisiert, dass der importierte Wasserstoff noch erhebliche Strommengen für den Transport im Land benötigt. Diese sind zusätzlich zu erzeugen und gesichert bereitzustellen.
Die entscheidende Erkenntnis lautet: Wasserstoffnutzung im Verkehrssektor bedeutet – in welcher Konstellation auch immer – bis zur energetischen Nutzung extreme Energieverluste.
Die Endenergie Wasserstoff ist vier- bis fünf Mal teurer als die bewährten fossilen Kraftstoffe (Benzin, Diesel, Kerosin, Heizöl, Erdgas). Das führt dazu, dass volkswirtschaftliche Mehrkosten von jährlich 200 Milliarden Euro, allein für Wasserstoff, entstehen würden, die nur einen Teil der Energiewendekosten darstellen. Nur für Wasserstoff würden rechnerisch grob 9.500 Euro jährlich für einen Vier-Personenhaushalt anfallen.
Zur Ehrlichkeit gehört zu sagen, dass auch nach den immensen Investitionen von wenigstens 7 Billionen Euro bis 2050 weiterhin jährliche Mehrkosten für Wartung, Betrieb und Erneuerung in dreistelliger Milliardenhöhe für Deutschland aufgebracht werden müssen. Diese Belastung der privaten Haushalte bedeutet für viele einen erheblichen Wohlstandsverlust und für einige eine neue Form der Verarmung. Wohlhabende können sich auch den vierfachen Kraftstoffpreis leisten. Es ist eine weitere, gefährliche Spaltung der Gesellschaft mit den daraus resultierenden Konsequenzen zu befürchten. Werden die Leistungsträger übermäßig belastet, wird diese wichtige Einkunftsquelle des Staates einfach das Land verlassen.
Da die Wasserstoffwirtschaft mit unüberwindlichen Nachteilen verbunden ist und sie die Zielerreichung der Energiewende auch nicht erleichtert, lehnt der Autor den eingeschlagenen Weg zur Wasserstoffwirtschaft aus grundsätzlichen und vor allem quantitativen Gründen ab. Die in diesem Papier ermittelten und belegten Zahlen begründen diese Position in aller Deutlichkeit.
Mehr Einzelheiten finden Sie in →Kapitel 12 „Fazit der Energiewende mit Wasserstoff“.
[6] Ausfelder et al. (Hrsg.): Sektorkopplung – Untersuchungen und Überlegungen zur Entwicklung eines integrierten Energiesystems (Schriftenreihe Energiesysteme der Zukunft), München 2017. ISBN 978-3-9817048-9-1
[7] Klaus Maier, Die Abrechnung mit der Energiewende, ISBN 978-3-347-06789-9 (Buchhinweis von Klaus Peter Krause hier).
Der Beitrag erschien zuerst auf dem Blog des Autors hier
Nobelpreis für Physik im Jahr des Klimakults 2021
geschrieben von Admin | 17. Oktober 2021
Oder: Wie die Bewegung Fridays for Future 2021 den Nobelpreis für Physik erhielt
Oder: Auf den Hund gekommen
Den Nobelpreis für Physik 2021 teilten sich drei Preisträger „für bahnbrechende Beiträge zu unserem Verständnis komplexer physikalischer Systeme.“ Die Wissenschaftler haben nach Ansicht des Nobel-Komitees die Grundlage für unser Wissen über das Erdklima und den Einfluss des Menschen gelegt und die Theorie über ungeordnete Materialien und Zufallsprozesse revolutioniert.
Der Preisträger aus Deutschland, Klaus Hasselmann, unterzeichnete dem Max-Planck-Institut für Meteorologie zufolge als einer der Ersten die erste Stellungnahme, mit der Scientists for Future die Ziele der Fridays for Future-Bewegung unterstützten und sich für mehr Klimaschutz aussprachen.
Ist das Nobel-Komitee den strengen Auswahlkriterien für den Nobelpreis in Physik gefolgt? Oder hat es Partei zu Gunsten der Verfechter der Klimaapokalypse ergriffen und zu diesem Zweck die Physik benutzt? Die Frage ist legitim, denn die Hypothese vom menschengemachten Klimawandel durch CO2, wie sie von Unterstützern der Fridays for Future Bewegung vertreten wird, ist keinesfalls unumstritten, sondern Gegenstand weltweiter wissenschaftlicher und gesellschaftspolitischer Auseinandersetzungen.
Physik ist die Naturwissenschaft, welche die grundlegenden Gesetze der Natur, vielfältige Naturerscheinungen und ihre elementaren Bausteine untersucht. Sie wendet typische Denk- und Arbeitsweisen an, die z. B. mit solchen Tätigkeiten wie dem Beobachten, dem Messen und dem Experimentieren verbunden sind. Traditionell wird die Physik in die Teilgebiete Mechanik, Wärmelehre (Thermodynamik), Elektrizitätslehre (Elektrik), Optik, Atom- und Kernphysik sowie Energie eingeteilt. Dieses Wissen gehört zum Grundlagenwissen von Schülern.
Zur Physik gehört aber weitaus mehr. Der Name Physik, griechisch φυσική, physike „die Natürliche“, stammt von dem griechischen Philosophen und Universalgelehrten Aristoteles. Er bezeichnet die Beschreibung und Erklärung von Ursachen und Zusammenhängen in der Natur. In diesem Sinne ist Physik die Grundlage aller Naturwissenschaften bis hin zur Medizin; denn sie allein ist in der Lage, grundlegende physikalische Mechanismen aufzuklären, die in den angrenzenden Wissenschaften wie Chemie, Biologie und Medizin nur phänomenologisch beschrieben werden können. So lautet zum Beispiel die Beschreibung des Studienfachs Physik (Bachelor) an der Ludwig-Maximilians-Universität-München (LMU).
Die Physik im heutigen Sinne entstand, als Galileo Galilei das Experiment einführte. Damit schuf er die Voraussetzungen dafür, dass die Physik ein kritisches Korrektiv gegenüber der Theologisierung der Naturwissenschaften und damit auch des gesellschaftlichen Lebens sein kann.
Diese Definition von Physik schließt mittelalterlich-religiöse Vorstellungen über „Apokalypsen“, „Fegefeuer“ und eine sündige Menschheit, die sich durch das von ihr erzeugte CO2 seit 150 Jahren ursächlich an der „Klimakatastrophe“ schuldig gemacht haben soll, aus.
Die Vergaberegeln des Nobelpreises für Physik und Chemie verlangen, dass die Ergebnisse bestätigt werden können („tested by time“). Diese Bestätigungen stehen bis jetzt aus, sagt der Physiker Horst-Joachim Lüdecke.
Die Vergaberegeln bedeuten in der Praxis für Physik und Chemie einen Schutz, der ihre Übernahme durch eine elitäre Gruppe aus Politik und Wirtschaft verhindern kann. Sie sehen vor, dass zwischen der Entdeckung und der Verleihung des Preises in der Regel etwa 20 Jahre, aber auch wesentlich mehr Jahre liegen können.
Die Physik war das Preisgebiet, das Alfred Nobel in seinem Testament von 1895 als erstes erwähnte.
Nobelpreis für Physik
Der Nobelpreis für Physik wird seit 1901 von der Königlich Schwedischen Akademie der Wissenschaften, Stockholm, Schweden, verliehen. Bisher wurden 115 Nobelpreise in Physik an insgesamt 219 Preisträger vergeben.
Der schwedische Chemiker und Erfinder, Sohn eines schwedischen Ingenieurs und Industriellen, bestimmte, dass mit dem größten Teil seines Vermögens eine Stiftung gegründet werden sollte. Die Zinsen aus dem Fonds sollten jährlich als Preis an diejenigen ausgeteilt werden, „die im vergangenen Jahr der Menschheit den größten Nutzen erbracht haben“, und zwar zu gleichen Teilen an Preisträger auf fünf Gebieten: Physik, Chemie, Physiologie oder Medizin, Literatur und Frieden.
Den Nobelpreis für Physik 2021 erhielten zur Hälfte Syukuro Manabe und Klaus Hasselmann und zur anderen Hälfte Giorgio Parisi „für bahnbrechende Beiträge zu unserem Verständnis komplexer physikalischer Systeme“ drei Preisträger. Sie teilen sich den diesjährigen Nobelpreis für Physik für ihre Studien über chaotische und scheinbar zufällige Phänomene.
Die Physik verlangt grundsätzlich Beweise. Auch die Nobelpreis-Vergaberegeln verlangen, dass die Ergebnisse bestätigt werden können („tested by time“). Dadurch dass die Bestätigungen bis jetzt ausstehen, wie der Physiker Horst-Joachim Lüdecke sagt, hat die Klimaforschung ein Beweisproblem.
Die Begründung des Nobel-Komitees 2021
Komplexe Systeme zeichnen sich durch Zufälligkeit und Unordnung aus und sind schwer zu verstehen, heißt es in der Begründung des Komitees. Der diesjährige Nobelpreis würdige neue Methoden zu ihrer Beschreibung und zur Vorhersage ihres langfristigen Verhaltens. Syukuro Manabe und Klaus Hasselmann legten den Grundstein für unser Wissen über das Klima der Erde und darüber, wie die Menschheit es beeinflusst. Giorgio Parisi werde für seine revolutionären Beiträge zur Theorie ungeordneter Materialien und Zufallsprozesse ausgezeichnet.
Hasselmann habe die entscheidende Antwort auf die Frage gefunden: „Wie können wir zuverlässige Klimamodelle für mehrere Jahrzehnte oder Hunderte von Jahren in die Zukunft erstellen, obwohl das Wetter ein klassisches Beispiel für ein chaotisches System ist?“
Auf den Hund gekommen
Die Gewinnung eines Klimamodells aus unruhigen Wetterdaten lasse sich durch einen Spaziergang mit einem Hund veranschaulichen, sagt das Komitee: „Der Hund läuft von der Leine, rückwärts und vorwärts, von einer Seite zur anderen und um Ihre Beine herum. Wie kann man anhand der Spuren des Hundes Spuren des Hundes erkennen, ob Sie gehen oder stillstehen? Oder ob Sie schnell oder langsam gehen? Die Spuren des Hundes sind die Veränderungen des Wetters, und Ihr Spaziergang ist das berechnete Klima.“
Der entscheidende Kniff („trick“) Hasselmanns bestehe darin, die schnellen Veränderungen des Wetters als Rauschen in die Berechnungen einzubeziehen und zu zeigen, wie dieses Rauschen das Klima beeinflusst. Hasselmann schuf ein stochastisches Klimamodell, was bedeutet, dass der Zufall in das Modell eingebaut ist.“
Bewiesen wurden die CO2-Hypothese bisher nicht. Die politisch geförderte Klimaforschung entledigt sich des Beweisproblems dadurch, dass sie bestimmte Wetterphänomene als Warnzeichen des Klimawandels deutet, wie zum Beispiel Vb-Wetterlagen oder Waldbrände. Generell spielen Klimapolitiker mit der Angst der Bevölkerung vor einer „Klimakatastrophe“ in naher oder fernerer Zukunft, sollten die Menschen nicht ihre CO2-Emissionen reduzieren.
Gerhard Kramm: Was die Herrschaften übersehen haben
Gerhard Kramm, Research Associate Professor of Meteorology at the University of Alaska Fairbanks, Alaska, USA, weist dem Nobel-Komitee einen fundamentalen Fehler nach.
Das Nobel-Komitee behauptet, der US-amerikanische Meteorologe und Klimatologe Syukuro Manabe habe nachgewiesen, dass ein erhöhter Kohlendioxidgehalt in der Atmosphäre zu einem Anstieg der Temperaturen an der Erdoberfläche führt.
„Ein komplexes System, das für die Menschheit von entscheidender Bedeutung ist, ist das Klima der Erde. Syukuro Manabe wies nach, wie ein erhöhter Kohlendioxidgehalt in der Atmosphäre zu einem Anstieg der Temperaturen an der Erdoberfläche führt. In den 1960er Jahren war er federführend bei der Entwicklung physikalischer Modelle des Erdklimas und erforschte als Erster die Wechselwirkung zwischen Strahlungsbilanz und vertikalem Transport von Luftmassen. Seine Arbeiten legten den Grundstein für die Entwicklung der heutigen Klimamodelle. Etwa zehn Jahre später schuf Klaus Hasselmann ein Modell, das Wetter und Klimamiteinander verknüpft und damit die Frage beantwortet, warum Klimamodelle trotz des wechselhaften und chaotischen Wetters zuverlässig sein können. Er entwickelte auch Methoden zur Identifizierung spezifischer Signale, Fingerabdrücke, die sowohl natürliche Phänomene als auch menschliche Aktivitäten dem Klima aufdrücken. Seine Methoden wurden eingesetzt, um zu beweisen, dass der Temperaturanstieg in der Atmosphäre auf die menschlichen Kohlendioxidemissionen zurückzuführen ist.“ (The Nobel Prize in Physics 2021, Übersetzt mit www.DeepL.com)
„One complex system of vital importance to humankind is Earth’s climate. Syukuro Manabe demonstrated how increased levels of carbon dioxide in the atmosphere lead to increased temperatures at the surface of the Earth. In the 1960s, he led the development of physical models of the Earth’s climate and was the first person to explore the interaction between radiation balance and the vertical transport of air masses. His work laid the foundation for the development of current climate models.About ten years later, Klaus Hasselmann created a model that links together weather and climate, thus answering the question of why climate models can be reliable despite weather being changeable and chaotic. He also developed methods for identifying specific signals, fingerprints, that both natural phenomena and human activities imprint in the climate. His methods have been used to prove that the increased temperature in the atmosphere is due to human emissions of carbon diox
Wies Syukuro Manabe tatsächlich nach, wie ein erhöhter Kohlendioxidgehalt in der Atmosphäre zu einem Anstieg der Temperaturen an der Erdoberfläche führt?
Gerhard Kramm widerspricht dieser Darstellung. Hier seine Stellungnahme:
„Nur haben die Herrschaften vom zuständigen Nobel-Komitee übersehen, dass Möller & Manabe (1961) sowie Manabe & Möller (1961) als Ergebnis ihrer numerischen Simulationen zum Strahlungsgleichgewicht herausbekamen, dass CO2 sich in der Troposphäre und unteren Stratosphäre thermisch neutral verhält, aber in höheren Schichten der Atmosphäre Abkühlungsraten bewirkt (siehe beigefügte Abbildung 13 aus der Arbeit von Manabe & Möller, 1961).
Abkühlungsraten bewirken keine Temperaturzunahme, in der Atmosphäre, wie Sie angeblich von Hasselmann nachgewiesen wurden. Die mehr qualitativen Ergebnisse von Manabe & Möller wurde später vor allem von Fu & Liou (1992) bestätigt. Deren Ergebnisse sind auch in Lious Lehrbuch „An Introduction to Atmospheric Radiation“ von 2002 zu finden.
Die von Manabe und Mitarbeiter entwickelten Strahlungs-Konvektionsmodelle sollte man aus physikalischer Sicht als groben Unfug bezeichnen. Die Konvektion von Wärme und Masse wird nicht einer Vertikalgeschwindigkeit des Windes zugeordnet, sondern mit einer limitierenden Vertikalkomponente des Temperaturgradienten von -6,5 K/km parameterisiert. Dieser grobe Unfug wurde bereits 1994 von Richard Lindzen entsprechend bewertet.
Die Abbildungen von Fu & Liou (1992), die auch in dem Lehrbuch von Liou (2002) zu finden ist, sowie eine Abbildung von Feldman et al. (2006) bestätigen, dass das Ergebnis von Manabe & Möller (1961) zumindest qualitativ richtig ist.
Gerhard Kramm
Fehlende Zurückhaltung der Klima-Modellierer
Das Max-Planck-Institut beglückwünscht auf seiner Internetseite seinen ehemaligen Direktor ausführlich. Der Klimaforscher habe bereits Ende der 1970er-Jahre das mathematische Werkzeug entwickelt, mit dem sich der Effekt des menschengemachten CO2-Ausstoßes in den statistischen Schwankungen des Wetters nachweisen lasse.
Weiterhin behauptet das Institut, dass sich die Klimaforschung inzwischen „praktisch 100-prozentig sicher“ sei, dass die Erderwärmung auf den Anstieg der CO2-Konzentration in der Atmosphäre zurückzuführen ist.
Diese Behauptung ist vermutlich korrekt, sofern sie sich ausschließlich auf die finanziell von der Politik abhängigigen Institutionen bezieht. Tatsächlich wurden jedoch mit Stand 2014 mehr als 1.350 international begutachtete Klimafachpublikationen gezählt, die dem IPCC widersprechen, und es werden laufend mehr, sagt Horst-Joachim Lüdecke. Die „Klimaskeptiker“ unter den Wissenschaftlern übertreffen nach seiner Darstellung die „Klima-Alarmisten“ in Anzahl und wissenschaftlichem Ansehen um Längen. Darunter sind der berühmteste lebende Klimawissenschaftler Richard Lindzen, die Physik-Nobelpreisträger Ivar Giaever und Robert Laughlin und die weltberühmten Physiker Freeman Dyson, Frederick Seitz, Robert Jastrow und William Nierenberg. Lüdecke führt eine Liste von Erklärungen und Appellen auf.
Die entscheidende Frage aber ist, ob die Ergebnisse bestätigt werden können („tested by time“), wie es auch die Vergaberegeln des Nobelpreises für Physik verlangen.
Selbstreferenzialität an Stelle von Nachweisen
Wurde aus der Sicht des Max-Planck-Instituts für Meterologie der verlangte Beweis erbracht? Die Begründung des Instituts ist beschämend.
„Bereits Ende der 1970er-Jahre hatte Klaus Hasselmann das mathematische Werkzeug entwickelt, mit dem sich der Effekt des menschengemachten CO2-Ausstoßes in den statistischen Schwankungen des Wetters nachweisen lässt. Doch es dauerte gut 15 Jahre, bis Klimaforscherinnen und -forschern am Max-Planck-Institut für Meteorologie und ihre Kolleginnen und Kollegen weltweit das Modell dafür auch nutzte.“
Die Benutzung eines Werkzeugs ist kein Beweis für die Richtigkeit einer Annahme über den Gegenstand der Bearbeitung. Der Hinweis, dass Hasselmanns Modell weltweit genutzt werde, ist kein Beweis dafür, dass CO2 ursächlich für Veränderungen des Klimas zuständig ist, weder vor noch nach dem Beginn der industriellen Revolution.
Hilfreich, wenn auch wenig beachtet, ist eine Erklärung des Ausschusses für Geologische Wissenschaften der Polnischen Akademie der Wissenschaften (KNG PAN). „Der Klimawandel ist auf einer geologischen Zeitskala ein natürliches Phänomen“, heißt es in seinem Positionspapier. Die geologischen Aufzeichnungen zeigen nach Ansicht des KNG PAN keine einfache Korrelationsbeziehung zwischen den beiden Variablen der CO2-Konzentration in der Atmosphäre und der Temperatur auf der Erdoberfläche. Der Ausschuss räumt zwar ein, dass die CO2-Emissionen die natürlichen Ursachen der Erwärmung verstärken können. Dennoch solle man bei der Interpretation der derzeit beobachteten globalen Erwärmung als Folge menschlicher Aktivitäten Zurückhaltung üben.
Die Zurückhaltung der Wissenschaftler geht im Siegestaumel der Klimapolitiker und in den von ihnen finanzierten wissenschaftlichen Institutionen jedoch immer mehr verloren.
Die Folgen sind für sämtliche Naturwissenschaften fatal. Sie münden in Selbstreferenzialität. Das bedeutet für die Physik, dass mit den Klimamodellen ein selbstbezügliches System erschaffen wurde, das sich auf sich selbst bezieht und stabilisiert, indem es sich von anderen Einflüssen abschließt und nur noch auf Veränderungen in seinem eigenen System reagiert. Die Abschottung ist unter anderem eine Erklärung dafür, warum Skeptiker der Hypothese vom menschengemachten Klimawandel nicht als förderlich für die Entwicklung der Wissenschaft, sondern als „Leugner“ wahrgenommen und kaltgestellt werden.
Die wissenschaftsfeindliche Grundhaltung der politischen Klima-Modellierer findet ihre Erfüllung in einem selbstreferenziellen politischen System, das die Bedingungen seiner Fortexistenz ständig aus sich selbst reproduziert. „Eine offene Gesellschaft ist nicht möglich, wenn Machteliten nur noch ihren eigenen Gesetzmäßigkeiten gehorchen.“ (Wikipedia)
Nobelpreis für Fridays for Future?
In dem bereits genannten Glückwunsch des Max-Planck-Instituts für Meteorologie an den Klimaforscher Klaus Hasselmann findet man den wichtigen Hinweis, in welchen gesellschafts-politischen Diskurs die Auswahlkriterien für den diesjährigen Nobelpreis für Physik eingebettet sind.
Es sei „der Verdienst“ von Klaus Hasselmann, dass heute keine ernst zu nehmende Stimme mehr den menschengemachten Klimawandel leugnet, heißt es darin. Nebenbei bemerkt: Das Substantiv „Verdienst“ hat unterschiedliche Bedeutungen. „der Verdienst“ steht im Sinne von „Lohn, Gewinn“, „das Verdienst“ im Sinne von „anerkennenswerte Leistung“. Möglicherweise treffen hier beide Definitionen zu, denn das Max-Planck-Institut für Meteorologie grenzt Hasselmanns Leistung politisch korrekt von vermeintlichen Klimaleugnern und Kritikern der Klimapolitik der Bundesregierung ab.
Das Institut hebt das politische Engagement Hasselmanns für den Klimaschutz an der Seite von Fridays for Future besonders hervor:
„In den 1990er-Jahren waren die Zweifler dagegen noch lauter und weniger isoliert. Unermüdlich stand Klaus Hasselmann auch gegenüber Skeptikern für seine Forschung ein und rief schon damals dazu auf, die Treibhausgasemissionen beherzt zu senken. Und das tut er heute immer noch. So unterzeichnete er als einer der Ersten die erste Stellungnahme, mit der Scientists for Future die Ziele der Fridays for Future-Bewegung unterstützten und sich für mehr Klimaschutz aussprachen.“
Den Nobelpreis erhält in diesem Jahr der 90-jährige Klimaforscher und Meteorologe Klaus Hasselmann. Das Komitee anerkennt die politische Bedeutung seiner Arbeit: „Er trug damit auch wesentlich dazu bei, dass Gesellschaft und Politik den Klimawandel inzwischen als eines der drängendsten Probleme der Menschheit ansehen. Und er hat selbst unermüdlich und mit großem Engagement dafür geworben, die CO2-Emissionen zu reduzieren, um den Klimawandel aufzuhalten.“
Greta Thunberg ist noch jung. Ihr Panikaufruf 2019 beim Treffen des Weltklimaforums (WEF) in Davos hat die Medien elektrisiert und der Klimaschutzpolitik einen gewaltigen Auftrieb beschert. Niemand sonst repräsentiert den Klimakult so beeindruckend wie die junge Autistin. Die Verleihung des Friedens-Nobelpreises an die Ikone der Klimaschützer hat aber noch Zeit. Zunächst müssen die Grundlagen des Klimakultes festgezurrt werden.
Das Max-Planck-Instituts für Meteorologie erinnert daran, dass Klaus Hasselmann 2001 gemeinsam mit Carlo C. Jaeger vom Potsdam-Institut für Klimafolgenforschung das European Climate Forum gründete, um, wie es in dem Glückwunsch-Artikel heißt, „die Erkenntnisse der Klimaforschung in die Gesellschaft zu tragen und wirkungsvolle, aber auch praktikable Maßnahmen gegen den Klimawandel zu entwickeln.“
Somit schließt sich ein Kreis.
Fazit
Der Nobelpreis gilt als wichtigster Wissenschaftspreis der Welt. Er kennzeichnet den Stand der Wissenschaft und ist zugleich ein historisches Dokument der geistigen Verfasstheit einer Gesellschaft, zumindest aber der Wisenschaft, die das Nobel-Komitee repräsentiert.
Der diesjährige Nobelpreises für Physik an Klaus Hasselmann zeigt, dass ein weiterer wichtiger Bereich der Gesellschaft von einer Elite gekapert wurde. Zum „State Capture“, „Agency Capture“ und „Media Capture“ kommt „Science Capture“ hinzu, womit eine Übernahme wissenschaftlicher und anderer Institutionen durch elitäre Gruppen aus Wirtschaft und Politik gemeint ist.
Das in der Wissenschaft stark verbreitete Gruppendenken, das nach Anerkennung und Belohnung durch die Elite strebt, wird sich zwangsläufig katastrophal auf die Physik, ihre Teilgebiete und auf die angrenzenden Wissenschaften auswirken.
Es wird sich nicht zuletzt auch in Schul- und Bilderbüchern niederschlagen, die als einzigen oder entscheidenden Faktor des Klimawandels das CO2 gelten lassen. Es sind Wissenschaftler, Physiker, deren Simulationen es Politikern ermöglichen, der Bevölkerung eine vermeintlich exakte Klimavorhersage bis zum Jahr 2050 und darüber hinaus vorzugaukeln. Für diese Vision zahlt die Gesellschaft einen hohen Preis durch steigende Armut und den Verlust von Grundrechten.
Die Physik hat verloren, weil die schweigenden Physiker mit sich und ihrer Gruppe beschäftigt sind und ihre Funktion in der Gesellschaft nicht reflektieren, sagt unter anderem die Physikerin Sabine Hossenfelder.
Dies bedeutet einen Verrat an der Physik, der Meteorologie und der Klimaforschung, insbesondere aber an den Menschen, die im Namen des Klimaschutzes gutgläubig und im Vertrauen auf die Wissenschaft zum Klimakreuzzug aufrufen. Die Wissenschaft ist auf den Hund gekommen.
Die Erwärmung der letzten 20 Jahre hat seine wesentliche Ursache in der Veränderung der Wolken
geschrieben von Admin | 17. Oktober 2021
von Fritz Vahrenholt und Hans-Rolf Dübal
Hans-Rolf Dübal und Fritz Vahrenholt haben in einer peer – reviewed Publikation in “ Atmosphere” die Strahlungsbilanz der Erde in den letzten 20 Jahren untersucht. Der Nettostrahlungsfluss, also die Differenz zwischen solarer Einstrahlung und lang- und kurzwelliger Abstrahlung, bestimmt die Veränderung des Energieinhaltes des Klimasystems. Ist er positiv, so heizt sich die Erde auf, ist er negativ, so bedeutet das eine Abkühlung. Das von der NASA betriebene satellitengestützte CERES-Projekt liefert nun seit zwei Jahrzehnten solche Strahlungsdaten, sowie Daten zur Entwicklung der Bewölkung in zeitlicher und räumlicher Auflösung. Diese Daten werden sowohl bezogen auf eine Höhe von ca. 20 km (TOA = „Top of Atmosphere“), also auch bezogen auf die Erdoberfläche bestimmt.
Die in dieser Woche erfolgte Veröffentlichung “Radiative Energy flux variation from 2001 – 2020” ( https://www.mdpi.com/2073-4433/12/10/1297; Dübal, H.‐R.; Vahrenholt, F. Radiative Energy Flux Variation from 2001–2020. Atmosphere 2021, 12, 1297. https://doi.org/10.3390/ atmos12101297) hat ein für die Klimawissenschaft überraschendes Ergebnis zu Tage gefördert: die Erwärmung der Erde in den letzten 20 Jahren ist im Wesentlichen auf eine höhere Durchlässigkeit der Wolken für die kurzwellige Sonneneinstrahlung zurückzuführen. Die kurzwellige Abstrahlung ist in diesem Zeitraum stark zurückgegangen (siehe Abbildung) und zwar gleichermaßen auf der Nord- und Südhalbkugel (NH und SH). Das bedeutet bei nahezu konstanter Sonneneinstrahlung, dass mehr kurzwellige Strahlung die Erdoberfläche erreicht hat und damit zur Erwärmung beitrug. Die langwellige Rückstrahlung (der sog. Treibhauseffekt) trug nur zu einem geringeren Teil zur Erwärmung bei. Er wurde sogar weitgehend kompensiert durch die ebenfalls ansteigende Durchlässigkeit der Wolken für von der Erde ausgehende langwellige Strahlung. Zu diesem eindeutigen Ergebnis kommen die Autoren nach der Auswertung der CERES-Daten Strahlung.
Schon die NASA-Forscher um Norman Loeb (https://agupubs.onlinelibrary.wiley.com/doi/10.1029/2021GL093047), sowie der finnische Forscher Antero Ollila (https://www.journalpsij.com/index.php/PSIJ/article/view/30174) hatten kürzlich bereits darauf hingewiesen, dass die kurzwellige Sonneneinstrahlung auf Grund der Abnahme niederer Wolken von 2005 bis 2019 zugenommen hat. Dübal und Vahrenholt untersuchten nun für den gesamten Zeitraum TOA- und bodennahe Strahlungsflüsse und setzten diese in Bezug zu Veränderungen der Bewölkung. Der Nettoenergiezufluss war im gesamten Zeitraum positiv und ist von 2001 bis 2020 von 0.6 W/m² auf 0.75 W/m² angestiegen.
Im 20-jährigen Mittel betrug er 0,8 W/m². In dem Brückenchart sind die Triebkräfte dieser Veränderung dargestellt und diese liegen eindeutig im Bereich der kurzwelligen Strahlung in den bewölkten Gebieten, die etwa 2/3 der Erdoberfläche ausmachen (SW Cloudy Area, +1.27 W/m²). Dies steht im Kontrast zu der vom IPCc noch in seinem jüngsten Bericht dargestellten Annahme, dass die Erwärmung durch die Zunahme der langwelligen Rückstrahlung allein auf Grund des anthropogenen Treibhauseffektes erfolgte. Der IPCC schreibt diesem Effekt 100 % der Erwärmung zu und begründet dies mit Modellrechnungen. Die Analyse der Messdaten durch Dübal und Vahrenholt zeigen aber, dass die Erwärmung durch den Rückgang von 1,4 W/m² kurzwelliger Abstrahlung sowie die um 1,1 W/m² erhöhte langwellige Abstrahlung überwiegend dem Wolkeneffekt zuzuschreiben ist.
Die Autoren betrachteten auch die Auswirkung dieses Strahlungsüberschusses auf den Wärmeinhalt des Klimasystems für einen längeren Zeitraum seit 1750. Dabei bedeutet die „Enthalpie“ die Summe von Wärme, Arbeit und der latenten Wärme, also Verdampfungswärme von Wasser, Schmelzwärme von Eis, energetische Veränderung der Biosphäre (Pflanzenwachstum) usw. Da etwa 90% dieser Enthalpie als Wärme in den Ozeanen verbleibt, können durch eine Betrachtung der langfristigen ozeanischen Wärmeaufnahme (Ocean Heat Content, OHC) ebenfalls Rückschlüsse auf die Enthalpieentwicklung gezogen werden.
Es wurde für den Zeitraum 2001-2020 eine gute Übereinstimmung dieser beiden unabhängigen Datensätze festgestellt und für frühere, längere Zeiträume die vorhandenen OHC-Daten ausgewertet, um ein Gesamtbild zu erhalten. Dieses zeigt, dass die Erwärmung seit 1750 nicht kontinuierlich, sondern in Heizschüben erfolgte, bezeichnet als A, B und C, bei denen jeweils 20-30 Jahre lang ein hoher Nettostrahlungsfluss (0.7 bis 0.8 W/m²) wirkte, unterbrochen von milderen Phasen. Der Beginn dieser Heizschübe fiel mit dem Vorzeichenwechsel eines weiteren bekannten natürlichen Klimafaktors, der AMO (Atlantische Multidekadische Oszillation) zusammen. Die entscheidende Frage, ob die jetzige Heizphase C bald ein Ende finden wird wie in den Fällen A und B, oder ob sie sich fortsetzt, kann nur anhand längerer Beobachtungen entschieden werden und muss daher offenbleiben.
Um den Beginn dier Phase C um das Jahr 2000 zu untersuchen, wurden weitere Datensätze herangezogen, vor allem die Bewölkungsmessungen von EUMETSAT, eines europäischen Satellitenprojektes. Hier zeigt sich, dass der Beginn der Phase C mit einer Abnahme der Bewölkung einhergeht, zeitgleich mit dem oben erwähnten Vorzeichenwechsel der AMO. Aus den Strahlungsmessungen kann abgeleitet werden, dass 2% weniger Bewölkung etwa 0.5 W/m² mehr Nettostrahlungsfluss bedeuten, was den größten Anteil der oben erwähnten 0.8 W/m² erklären könnte.
Dies wird auch durch die Analyse der oberflächennahen Strahlungsbilanz erhärtet. Hier wird zwar eine Zunahme des Treibhauseffektes gefunden, der gut mit dem Anstieg der Treibhausgase Wasserdampf und CO2 korreliert, allerdings lediglich für die wolkenlosen Flächen („Clear Sky“) Diese Korrelation gilt jedoch nicht für die wolkenbedeckten Flächen, die immerhin etwa 2/3 der Erde ausmachen.
Interessant ist die Feststellung zum Treibhauseffekt. Hans-Rolf Dübal: ”Wir konnten den erhöhten Treibhauseffekt der Summe aller Treibhausgase (Wasserdampf, CO2 usw.) unter „Clear Sky“- Bedingungen mit 1,2 W/m² Zunahme in den letzten 20 Jahren nachweisen. Allerdings wird diese Zunahme flächengewichtet überkompensiert durch die zunehmende Abstrahlung der langwelligen Strahlung in den bewölkten Zonen („Cloudy Areas”) in Höhe von -1,48 W/m².“
Die Zeitspanne von 20 Jahren ist noch zu kurz, um abschließend entscheiden zu können, ob die jetzige Heizphase eine temporäre oder permanente Entwicklung ist. Im ersteren Fall müssen die Klimaprognosen grundlegend überarbeitet werden. Der physikalische Mechanismus, der zu der Wolkenverdünnung geführt hat, wird in der Literatur unterschiedlich diskutiert. Vahrenholt: “Die Wolkenveränderungen können durch Rückgang der Aerosole, durch Erwärmung der Atmosphäre auf Grund natürlicher Ursachen (z.B. der AMO oder der PDO), durch anthropogene Erwärmung durch CO2 oder einer Kombination dieser einzelnen Faktoren ausgelöst werden. Eines kann allerdings schon jetzt festgehalten werden: die Erwärmung der letzten 20 Jahre wurde stärker durch Veränderung in den Wolken als durch den klassischen Treibhauseffekt verursacht.”.
—
überarbeitete Fassung, 9.10.2021, 12:50 Uhr.
Der Beitrag erschien zuerst bei Die kalte Sonne hier