Lebenswichtige Meeres-Umwälzung bleibt zum ersten Mal seit Beginn der Aufzeichnungen aus

Paul Homewood, NOT A LOT OF PEOPLE KNOW THAT

Anmerkung des Übersetzers: Hier folgt ein Beispiel, wie völlig unwichtige Ereignisse von der Klimaille ausgeschlachtet werden – fast so, als ob diesen Herrschaften allmählich der Stoff ausgeht. – Ende Anmerkung

Wir werden alle sterben – Teil 98

Aus der Zeitung Daily Mail:

Das Ausbleiben einer lebenswichtigen Meeresströmung hat laut Wissenschaftlern Befürchtungen hinsichtlich katastrophaler Auswirkungen auf das Leben ausgelöst.

Jedes Jahr zwischen Dezember und April verursachen Nordwinde eine aufsteigende Strömung von Tiefenwasser im Golf von Panama.

Diese Aufwärtsströmung bringt kaltes, nährstoffreiches Wasser an die Oberfläche, schützt empfindliche Korallenriffe und löst eine Explosion des Meereslebens aus.

Nun sagen Forscher jedoch, dass die Panama-Pazifik-Aufwärtsströmung zum ersten Mal seit über 40 Jahren nicht mehr auftritt – und dass dies eine dauerhafte Veränderung sein könnte.

Die Forscher warnen, dass der Zusammenbruch dieses wichtigen jährlichen Musters „potenziell massive” Folgen haben könnte – und dass das Klima dafür verantwortlich sein könnte.

Die ganze Story steht hier.

Man könnte meinen, Klimawissenschaftler würden den Unterschied zwischen KLIMA und WETTER verstehen!

Nur weil dies zum ersten Mal seit 40 Jahren passiert ist, heißt das nicht, dass es in der Vergangenheit nicht schon oft vorgekommen ist.

Und versteckt in dem Artikel findet sich das Eingeständnis, dass „Wissenschaftler, die die Aufwärtsströmung untersuchen, noch nicht sicher sind, ob es sich um ein einmaliges Ereignis handelt, das durch die diesjährigen La Niña-Bedingungen verursacht wurde, oder um eine dauerhaftere Veränderung, die katastrophale ökologische und wirtschaftliche Folgen haben könnte”.

Das betreffende Gebiet ist winzig, ein Mikroklima, in dem alle möglichen komplexen meteorologischen Faktoren die Strömungen verändern können. Niemand versteht die gesamte Komplexität dieses Phänomens.

Aber es ist einfacher, den Klimawandel dafür verantwortlich zu machen und noch mehr Fördergelder zu kassieren.

Link: https://wattsupwiththat.com/2025/09/14/vital-ocean-upwelling-fails-to-emerge-for-the-first-time-on-record/

Übersetzt von Christian Freuer für das EIKE

 




Meine Anmerkungen zum Klima-Report des Energieministeriums

H. Sterling Burnett

In Climate Change Weekly 553 habe ich darüber berichtet, wie der jüngste Klimabericht des US-Energieministeriums die weitgehend ruhende Debatte über die möglichen Ursachen und Folgen des Klimawandels wiederbelebt hat. Fast 20 Jahre lang war die Debatte für die Medien beendet: Der katastrophale, vom Menschen verursachte Klimawandel stand außer Frage, war eine bewiesene Tatsache – als ob alles, was erst in Zukunft sichtbare Auswirkungen haben wird, als aktuelle Tatsache bewiesen werden könnte.

Der Bericht des Energieministeriums hat diese Darstellung widerlegt und die Forscher und Medien, die lange Zeit behauptet hatten, es gebe einen wissenschaftlichen Konsens, die Wissenschaft sei sich einig und wir müssten die industrielle Entwicklung stören, dazu gezwungen, sich erneut auf eine wissenschaftliche Debatte einzulassen.

In meiner früheren Diskussion des Berichts habe ich ihn nur allgemein behandelt. Der Bericht des DOE muss jedoch, wie andere Regierungsberichte, Vorschriften, Regeln und Empfehlungen auch, eine öffentliche Kommentierungsphase durchlaufen. Nachfolgend finden Sie die Kommentare, die ich im Namen des Heartland Institute eingereicht habe:

Die „Kritische Überprüfung der Auswirkungen von Treibhausgasemissionen auf das Klima der Vereinigten Staaten“ des US-Energieministeriums (im Folgenden DOECR) widerlegt eindrucksvoll die oft wiederholten Behauptungen, dass die Wissenschaft sich über die Rolle des Menschen beim aktuellen Klimawandel einig sei und dass der derzeitige Klimawandel eine existenzielle Krise darstelle, die eine umfassende, von der Regierung gelenkte Umgestaltung der Wirtschaft erforderlich mache, wobei auf die Nutzung von Kohlenwasserstoffen verzichtet werden müsse, um einen gefährlichen Anstieg der Treibhausgasemissionen zu verhindern.

Diese Kommentare konzentrieren sich auf einige wenige Kernpunkte, die in der DOECR diskutiert werden und die in der etablierten wissenschaftlichen Darstellung der anthropogenen Klimakatastrophe weitgehend ignoriert oder unterdrückt wurden, und schlagen einige Themen vor, die einer weiteren Betrachtung bedürfen.

Die Kommentare von DOE-Sekretär Chris Wright im Vorwort sind es wert, wiederholt zu werden, da sie die relativen Gefahren des Klimawandels im Vergleich zu den erheblichen Schäden treffend umreißen, die durch Vorschläge zur vorzeitigen Einstellung der Nutzung von Kohlenwasserstoffen entstehen würden, bevor kommerziell verfügbare, vergleichbare Technologien und Materialien entwickelt sind, die sie wirtschaftlich und zuverlässig ersetzen können. Wright stellt zu Recht fest:

Der Klimawandel ist real und verdient Aufmerksamkeit. Aber er ist nicht die größte Bedrohung für die Menschheit. Diese Auszeichnung gebührt der globalen Energiearmut. Als jemand, der Daten schätzt, weiß ich, dass die Verbesserung der Lebensbedingungen der Menschen vom Ausbau des Zugangs zu zuverlässiger, bezahlbarer Energie abhängt. Der Klimawandel ist eine Herausforderung – keine Katastrophe. Aber fehlgeleitete Politik, die eher auf Angst als auf Fakten basiert, könnte das Wohlergehen der Menschen tatsächlich gefährden.

Die Autoren des DOE-Berichts sind allesamt renommierte Experten für Klima und/oder Wetter. Ihr Ruf und ihre Qualifikationen sind über jeden Zweifel erhaben.

Was den Inhalt betrifft, so erkennt der DOECR im Gegensatz zu den Arbeiten des IPCC und vieler Wissenschaftler der „etablierten Wissenschaft” erhebliche Unsicherheiten hinsichtlich des Ausmaßes an, in dem Treibhausgasemissionen den gegenwärtigen Klimawandel vorantreiben, und erkennt weiter an, dass andere natürliche Faktoren solche Veränderungen in der Vergangenheit verursacht haben. Es bestehen erhebliche Unsicherheiten hinsichtlich der Reaktion des Klimas auf Kohlendioxidemissionen (CO₂), sowohl hinsichtlich der Physik der Reaktion angesichts von Fragen zur CO₂-Sättigung als auch hinsichtlich der Frage, ob physikalische Einflüsse durch CO₂ andere großräumige Systeme beeinflussen, die sich auf den Klimawandel auswirken, und welche positiven und negativen Rückkopplungen oder Auswirkungen als Reaktion auf höhere CO₂-Konzentrationen in der Atmosphäre auftreten könnten.

Im Gegensatz zu den üblichen Diskussionen über CO₂ wird im DOECR-Bericht ausdrücklich und zu Recht anerkannt, dass CO₂ kein Schadstoff im herkömmlichen Sinne ist und in absehbaren Konzentrationen keine direkte Gefahr für das Leben oder Wohlergehen des Menschen darstellt.

[Hervorhebung vom Übersetzer]

Der DOECR-Bericht beschreibt detailliert die erheblichen Diskrepanzen zwischen den modellierten Auswirkungen einerseits, unter anderem auf die Erwärmung der Erdoberfläche, die Schneebedeckung, die Abkühlung der Stratosphäre und die prognostizierten regionalen Auswirkungen auf den Maisgürtel der USA andererseits sowie den tatsächlich aufgezeichneten oder gemessenen Werten.

Im Gegensatz zu typischen Diskussionen über den Klimawandel untersucht der DOECR die anhaltenden Vorteile sowohl der CO₂-Düngung für Nutzpflanzen und andere Pflanzen als auch für die menschliche Gesundheit, den lebensrettenden Nutzen einer moderat wärmeren Welt und die erheblichen sozialen Vorteile fossiler Brennstoffe. Jedes dieser Themen wird in typischen Diskussionen über den anthropogenen Klimawandel in den Mainstream-Medien und allzu oft auch in Regierungsberichten und von Wissenschaftlern, die die etablierte wissenschaftliche Konsensposition vertreten, weitgehend ignoriert, heruntergespielt oder direkt falsch dargestellt.

Der Abschnitt 3.3 über den Einfluss der Urbanisierung auf Temperaturtrends ist wohl nicht so aussagekräftig, wie er sein könnte. Konkret gesagt, ist es nicht nur die Urbanisierung, die die gemessenen Temperaturen verzerrt. Solche verzerrten Messungen werden auch in ländlichen oder relativ ländlichen Gebieten aufgezeichnet, wo die Temperatur-Messpunkte schlecht gelegen sind, die Standards des National Weather Service für Datenqualität nicht erfüllen und weil die Temperaturen von Stationen „gemeldet” werden, die geschlossen oder stillgelegt wurden. Das erstgenannte Problem wurde in zwei Berichten des Heartland Institute mit dem Titel „Corrupted Climate Stations (2022)” (hier) und “Is the U.S. Surface Temperature Record Reliable?” (2009; hier) ausführlich behandelt. Letzteres wurde in einem Bericht eines investigativen Journalisten der Epoch Times diskutiert, der herausfand, dass die National Oceanic and Atmospheric Administration aus Gründen der Kontinuität Temperaturmessungen von mehr als 30 Prozent der 1.218 USHCN-Messstationen meldet, die nicht mehr existieren. Diese Messungen sind nichts anderes als Schätzungen, die einem Standort auf der Grundlage der Temperaturen benachbarter Stationen zugewiesen werden, die möglicherweise nicht repräsentativ für die Temperaturen sind, die an dem stillgelegten Standort gemessen worden wären, wenn er noch in Betrieb gewesen wäre.

Wie der Bericht hervorhebt, ist es der Klimaforschungsgemeinschaft trotz jahrelanger Arbeit immer noch nicht gelungen, den geschätzten Bereich der Gleichgewichts-Klimasensitivität (ECS) einzugrenzen. Dabei handelt es sich um die entscheidende Kennzahl, die für gefährliche Klimaveränderungen verantwortlich sein soll. Wenn unser Verständnis der ECS unvollständig oder unzureichend ist, sind durch Treibhausgase verursachte ECS-Veränderungen auf der Grundlage von Klimaprognosen nicht für wissenschaftliche Aussagen geeignet, geschweige denn für die Durchsetzung von Maßnahmen, welche die persönlichen Freiheiten der Menschen und den wirtschaftlichen Wohlstand von Einzelpersonen und Gesellschaften beeinträchtigen. Die gesamte Klimapropaganda basiert auf Behauptungen, dass die ECS gefährliche Temperaturanstiege verursacht.

Eines der Hauptprobleme bei der Erstellung eines ECS mit einem gewissen Maß an Zuverlässigkeit ist, wie im Bericht dargelegt, die Komplexität der Wolkendecke und deren Veränderungen sowie der Wolkentypen als Reaktion auf kosmische Strahlung und CO₂-Forcing. In Bezug auf Wolken räumt der IPCC zwei Tatsachen ein: Er kann Wolken nicht gut modellieren und hat nur ein unzureichendes Verständnis davon, wie sich die Wolkendecke verändern könnte und wie sich dies auf die globalen Temperaturen auswirken könnte. Trotz dieser Eingeständnisse behauptet der IPCC auf der Grundlage von Klimamodellen, die zu hohe Temperaturen vorhersagen, dass Wolken keine bedeutenden Antriebsfaktoren für den Klimawandel sind.

Ein weiterer wichtiger Punkt, den der DOECR-Bericht identifiziert und der von Mitgliedern der sogenannten Konsensgemeinschaft oft übersehen oder heruntergespielt wird, ist die Tatsache, dass für wichtige Merkmale der Atmosphäre „die beobachteten Erwärmungstrends so gering sind, dass sie mit den Ergebnissen von Modellen übereinstimmen, die kein anthropogenes CO₂ berücksichtigen, und nicht mit dem gesamten Spektrum der Erwärmungstrends übereinstimmen, die von Modellen mit erhöhtem CO₂-Ausstoß generiert werden.“ (S. 37) Wenn man einen erwarteten oder prognostizierten Effekt nicht von einer Situation ohne Veränderung, einem Nullfall, Hintergrundrauschen oder Zufälligkeit unterscheiden kann, gibt es keine Rechtfertigung dafür anzunehmen, dass die Ursache-Wirkungs-Beziehung wahr ist, genau modelliert oder gut verstanden wird.

Der vielleicht größte Beitrag des DOECR zur Verbesserung unseres Verständnisses des tatsächlichen Klimazustands und zur Eröffnung einer fairen Debatte über die Ursachen und Folgen des Klimawandels sind seine Erörterungen zu folgenden Punkten: 1) Die Tatsache, dass das IPCC tatsächlich wenig Vertrauen in seine Erkennung von Klimasignalen für die meisten atmosphärischen Phänomene und sich verändernden Trends bei extremen Wetterereignissen hat und noch zurückhaltender oder weniger zuversichtlich ist, was seine Fähigkeit angeht, festgestellte Veränderungen menschlichen Handlungen zuzuordnen. 2) dass es trotz wiederholter gegenteiliger Behauptungen in Mainstream-Medienberichten und Attributionsstudien keinen erkennbaren Verschlechterungstrend für die meisten extremen Wetterereignisse gibt, weder in Bezug auf die Anzahl noch auf die Intensität; und 3) seine Anerkennung und Untersuchung der enormen Vorteile einer moderaten Erwärmung, eines höheren CO₂-Gehalts und eines durch die Nutzung von Kohlenwasserstoffen gestützten Wirtschaftswachstums für die Landwirtschaft und das menschliche Leben.

In Bezug auf die Wirtschaft kommt die Literaturrecherche des DOECR zu folgendem Schluss:

Ökonomen haben das Klima lange Zeit als einen relativ unwichtigen Faktor für das Wirtschaftswachstum angesehen, eine Ansicht, die auch vom IPCC selbst im AR5 geteilt wird. Die Mainstream-Klimawissenschaft hat anerkannt, dass die durch CO₂ verursachte Erwärmung zwar einige negative wirtschaftliche Auswirkungen haben könnte, diese jedoch zu gering sind, um aggressive Maßnahmen zur Emissionsreduzierung zu rechtfertigen, und dass der Versuch, die globale Erwärmung selbst auf einem Niveau weit über dem Pariser Ziel zu „stoppen“ oder zu begrenzen, schlimmer wäre als nichts zu tun.

Kurz gesagt kommen die meisten fundierten Wirtschaftsanalysen zu dem Schluss, dass die vorgeschlagenen Maßnahmen zur Bekämpfung des Klimawandels, die eine erzwungene oder durch Anreize motivierte Reduzierung des Kohlenwasserstoffverbrauchs in der gesamten Wirtschaft vorsehen, wahrscheinlich größere Schäden für die menschliche Gesundheit und das Wohlergehen zur Folge haben werden als die realistisch zu erwartenden negativen Auswirkungen des Klimawandels selbst. Aus wirtschaftlicher Sicht sind Klimamaßnahmen für die Welt schädlicher als der fortschreitende Klimawandel selbst in Verbindung mit der Nutzung von Kohlenwasserstoffen.

[Hervorhebung vom Übersetzer]

Der in diesem Bericht empfohlene „… differenzierte und evidenzbasierte Ansatz zur Gestaltung der Klimapolitik, der

Unsicherheiten ausdrücklich anerkennt“, hätte von Beginn der Klimapanik an Standard sein müssen, als James Hansen 1988 in einer Anhörung vor dem Senat aussagte, dass der Mensch einen „erkennbaren“ und gefährlichen Einfluss auf den Klimawandel habe. Hansens Aussage war damals ungerechtfertigt und ist es auch heute noch. Der Mensch beeinflusst das Klima wahrscheinlich in gewissem Maße auf globaler und regionaler Ebene, aber das Ausmaß dieses Einflusses, ob er insgesamt gefährlich oder vorteilhaft ist und wie wir reagieren sollten, um den Nutzen zu maximieren und die Kosten zu minimieren, sind alles Fragen, die nach wie vor sehr umstritten sind. Eine Debatte, die dieser Bericht anstoßen und ans Tageslicht und in die öffentliche Diskussion bringen sollte.

Quellen:U. S. Department of Energy; Climate Change Weekly

Link: https://heartland.org/opinion/climate-change-weekly-555-my-comments-on-the-doe-climate-report/

Übersetzt von Christian Freuer für das EIKE

 




Der Matthäus-Effekt, Monokulturen und die natürliche Auslese schlechter Wissenschaft

John Ridgway

Jeder Politiker, der vor der Herausforderung steht, die Öffentlichkeit vor einer natürlichen Bedrohung wie einer Pandemie oder dem Klimawandel zu schützen, wird gerne betonen, wie sehr er sich „an die Wissenschaft hält“ – womit er meint, dass er sich von der vorherrschenden wissenschaftlichen Meinung des Tages leiten lässt. Wir würden uns wünschen, dass dies der Fall ist, weil wir der wissenschaftlichen Methode als einem selektiven Prozess vertrauen, der sicherstellt, dass schlechte Wissenschaft nicht lange überleben kann. Das ist keine Realität, die ich hier ignorieren möchte, aber ich möchte sie auf jeden Fall in den richtigen Kontext stellen. Das Problem ist, dass die wissenschaftliche Methode nicht das einzige Auswahlkriterium ist, und wenn man alle anderen berücksichtigt, ergibt sich ein viel undurchsichtigeres Bild – sicherlich keines, das klar genug ist, um ein vorherrschendes Narrativ auf einen erkenntnistheoretischen Sockel zu stellen.

Rückkopplung ist alles

Von allen Auswahlkriterien, die innerhalb einer wissenschaftlichen Gemeinschaft gelten, ist das vielleicht grundlegendste nicht die Begutachtung wissenschaftlicher Arbeiten durch Fachkollegen, sondern eines, das sich wie folgt zusammenfassen lässt:

„Denn wer hat, dem wird gegeben, und er wird im Überfluss haben; wer aber nicht hat, dem wird auch noch genommen, was er hat.“ (Matthäus 25:29, RSV).

Dies ist der sogenannte Matthäus-Effekt [1], auch bekannt als „kumulativer Vorteil“. Es handelt sich um eine positive Rückkopplung, die dazu dient, Ruhm und Einfluss in die Hände einiger weniger Auserwählter zu legen. Dies gilt im Allgemeinen für das Leben, aber auch speziell für die Wissenschaft. Beispielsweise werden Arbeiten, die bereits eine beträchtliche Anzahl von Zitaten erhalten haben, tendenziell noch öfter zitiert werden, schon allein deshalb, weil eine derzeit große Anzahl von Zitaten die Wahrscheinlichkeit weiterer Verweise erhöht, die sich aus einer zufälligen Auswahl aus bestehenden Zitierlisten ergeben. Dieses bibliometrische Phänomen, bei dem Erfolg weiteren Erfolg nach sich zieht, wurde erstmals vom Physiker Derek de Solla Price untersucht, der dessen im Wesentlichen stochastische Eigenschaften hervorhob:

„Es zeigt sich, dass ein solches stochastisches Gesetz durch die Beta-Funktion bestimmt wird, die nur einen freien Parameter enthält, und dies wird durch eine schiefe oder hyperbolische Verteilung approximiert, wie sie in der Bibliometrie und verschiedenen sozialwissenschaftlichen Phänomenen weit verbreitet ist.“ [2]

In der Praxis wird die Auswahl jedoch alles andere als zufällig sein, da Faktoren wie Einfluss und Prestige ebenfalls die Wahrscheinlichkeit bestimmen, mit der die Arbeit einer Person zitiert wird. So oder so, der bekanntere Wissenschaftler wird noch erfolgreicher werden.

Der Matthäus-Effekt hat auch Einfluss auf die Chancen, dass ein Artikel überhaupt veröffentlicht wird. Wenn ein Herausgeber oder Gutachter mit der Qualität der bisherigen Veröffentlichungen eines Autors vertraut ist, fällt es ihm leichter, den latenten Wert eines eingereichten Artikels zu beurteilen, was die Chancen des Autors erhöht, seine Publikationsliste zu erweitern. Ein weniger bekannter Autor hat diesen Vorteil nicht. Dies führt zu einer positiven Rückkopplung, die zu einer Monokultur führen kann, welche auf den Arbeiten einer relativ kleinen Anzahl dominanter Autoren basiert. Auch hier kann der Matthäus-Effekt rein statistischer Natur sein und erfordert keine besonderen Vorurteile oder Voreingenommenheit. Die Wissenschaftsphilosophen Remco Heesen und Jan-Willem Romeijn, die diesen Effekt untersucht haben, drücken es so aus:

Dieser Artikel befasst sich mit Vorurteilen, die nicht auf den Vorurteilen von Herausgebern oder Gutachtern beruhen, sondern vielmehr auf den statistischen Merkmalen der redaktionellen Entscheidungsfindung… Selbst wenn es Herausgebern gelingt, ihre Entscheidungsprozesse von unbewussten Vorurteilen zu befreien, bleiben ihnen dennoch Vorurteile rein statistischer Natur. Die statistischen Vorurteile tragen zur bereits bestehenden Tendenz hin zu einer Monokultur in der Wissenschaft bei: einem rein statistischen Matthäus-Effekt. [3]

Es gibt tatsächlich eine Reihe von Möglichkeiten, wie sich Monokulturen entwickeln können, wobei jede davon mit dem Matthäus-Effekt einhergeht. Ein Beispiel dafür ist die Rückkopplung, bei der Finanzierung zu Erfolg führt, was wiederum zu mehr Finanzierung führt. Auch die Forschungsinteressen eines hochrangigen Fakultätsmitglieds beeinflussen die Einstellungspolitik und verstärken damit das Interesse der Fakultät an diesen Forschungsbereichen [4]. Nehmen wir zum Beispiel die wissenschaftliche Monokultur, die sich innerhalb der Grundlagenphysik schnell entwickelt hat. Der Physiker Lee Smolin erklärte dies bereits 2006:

„Die aggressive Förderung der Stringtheorie hat dazu geführt, dass sie zum wichtigsten Ansatzpunkt für die Erforschung der großen Fragen der Physik geworden ist. Fast alle Teilchenphysiker mit einer Festanstellung am renommierten Institute for Advanced Study, einschließlich seines Direktors, sind Stringtheoretiker; die einzige Ausnahme ist eine Person, die vor Jahrzehnten eingestellt worden ist.“ [5]

Diese Dominanz ist nicht das Ergebnis der wissenschaftlichen Methode, da das entscheidende Element auffällig fehlt, mit welchem Theorien experimentell überprüft werden. Es handelt sich nicht um eine Theorie, die ihre Konkurrenten verdrängt hat, indem sie sich als besser überprüfbar erwiesen hat oder eine bessere experimentelle Verifizierbarkeit aufweist. Ihre anfängliche Anziehungskraft beruhte auf einigen frühen und recht spektakulären theoretischen Erfolgen, aber seitdem ist die Stringtheorie in einer Reihe von obskuren und völlig unüberprüfbaren mathematischen Vermutungen versunken, die nicht einmal als Theorie im üblichen Sinne gelten können. Im Gegenteil, die letztendliche Dominanz der Stringtheorie scheint das Ergebnis positiver Rückkopplungen zu sein, bei denen akademischer Erfolg weitaus wichtiger wurde als wissenschaftliche Leistungen. Lee Smolin schreibt dazu:

„Auch wenn die Stringtheorie auf wissenschaftlicher Seite zu kämpfen hat, hat sie innerhalb der akademischen Welt triumphiert.“

Der Aufstieg der Stringtheorie zur Dominanz ist ein klassisches Beispiel dafür, was der Matthäus-Effekt bewirken kann, wenn die wissenschaftliche Methode kompromittiert wird. Als solches ist sie eine warnende Geschichte für jeden wissenschaftlichen Bereich, in dem Theoriebildung und Modellierung letztendlich die Möglichkeiten der experimentellen Bestätigung übersteigen.

Ein weiteres Problem von Monokulturen besteht darin, dass sie zu einer potenziell unzuverlässigen Darstellung führen können, die als gesellschaftlicher Leuchtturm für normatives Denken fungiert. Je stärker diese Darstellung wird und je mehr sich gesellschaftliche Einstellungen verfestigen, desto größer wird auch die Macht, innerhalb der wissenschaftlichen Gemeinschaft ein höheres Maß an Übereinstimmung zu erzwingen. Der Konsens wird zu einer sich selbst verstärkenden sozialen Dynamik, im Guten wie im Schlechten. Dies ist ein Beispiel für eine Klasse von Phänomenen, die von den Organisationswissenschaftlern Jörg Sydow und Georg Schreyögg untersucht worden sind:

„In den meisten Fällen sind Organisationen und auch organisationsübergreifende Netzwerke, Märkte oder Bereiche durch eine Dynamik gekennzeichnet, die weitgehend außerhalb der Kontrolle der Akteure zu liegen scheint… Unter dieser meist verborgenen und sich herausbildenden Dynamik scheinen sich selbst verstärkende Prozesse von besonderer Bedeutung zu sein; sie entfalten ihre eigene Dynamik und verwandeln einen möglicherweise positiven Kreislauf in einen negativen (Masuch, 1985).“ [6]

Natürlich muss niemand, der in eine solche Dynamik geraten ist, von einer Täuschung ausgehen. Allerdings sind Politik und Manipulation der Menschheit nicht fremd, sodass Voreingenommenheit und Betrug weiterhin optionale Extras bleiben. Insbesondere muss man befürchten, dass das Wachstum der KI die Wahrscheinlichkeit der Entwicklung problematischer Monokulturen erhöht. David Comerford, Professor für Wirtschaft und Verhaltenswissenschaften an der Universität Stirling, betont:

„Noch vor wenigen Jahren dauerte es Monate, um eine einzige wissenschaftliche Arbeit zu verfassen. Heute kann eine einzelne Person mithilfe von KI innerhalb weniger Stunden mehrere wissenschaftliche Arbeiten erstellen, die gültig erscheinen.“ [7]

Da es sich beim Matthäus-Effekt um ein Zahlenspiel handelt, muss alles, was wissenschaftliche Arbeiten im industriellen Maßstab generieren kann, Anlass zur Sorge geben. Und es gibt Hinweise darauf, dass solche Artikel zunehmend von Ghostwritern im Auftrag von Unternehmen verfasst werden – sogenanntes „Resmearch“. David Comerford erklärt:

„Während die überwiegende Mehrheit der Forscher motiviert ist, die Wahrheit aufzudecken und ihre Ergebnisse gründlich zu überprüfen, geht es bei Resmearch nicht um die Wahrheit – es geht nur darum zu überzeugen.“

Und das noch bevor man die Möglichkeit in Betracht zieht, dass Einzelpersonen KI nutzen könnten, um ihre Produktivität zu steigern und so den Matthäus-Effekt zu ihren Gunsten auszunutzen. So oder so hat KI die Kosten für die Erstellung solcher Arbeiten auf praktisch null reduziert und damit den Druck auf die wissenschaftliche Methode erhöht, dem Entstehen potenziell unzuverlässiger Monokulturen entgegenzuwirken.

Die natürliche Auslese schlechter Wissenschaft

Monokulturen sind zwar zu vermeiden, aber sie basieren in der Regel nicht auf schlechter Wissenschaft. Tatsächlich gibt es in der Wissenschaft immer eine leitende Hand, die dies verhindern soll. Die Arbeit wird routinemäßig von Fachkollegen auf ihre Qualität und ihren Wert hin bewertet, und eine solche Überprüfung sollte der guten Wissenschaft zugute kommen. Nur scheinen die Beweise darauf hinzudeuten, dass schlechte Wissenschaft trotz dieser Überprüfung immer noch gedeihen kann. Es gibt noch eine weitere Auswahlinstanz, die jedoch keineswegs als korrigierende Kraft wirkt, schlechte Arbeiten herausfiltert und sowohl rein statistische als auch durch Voreingenommenheit bedingte positive Rückmeldungen entfernt, sondern vielmehr schlechte Wissenschaft fördern kann. Die Erklärung für diesen problematischen Effekt wurde von Paul E. Smaldino und Richard McElreath geliefert. Die Einleitung ihrer Zusammenfassung gibt einen Überblick über die Situation:

„Ein schlechtes Forschungsdesign und eine mangelhafte Datenanalyse begünstigen falsch-positive Ergebnisse. Trotz ständiger Forderungen nach Verbesserungen werden solche mangelhaften Methoden weiterhin angewendet, was darauf hindeutet, dass sie nicht nur auf Missverständnissen beruhen. Die Beibehaltung mangelhafter Methoden ist zum Teil auf Anreize zurückzuführen, die diese begünstigen und zu einer natürlichen Selektion schlechter Wissenschaft führen. Diese Dynamik erfordert keine bewusste Strategie – kein absichtliches Betrügen oder Faulenzen – seitens der Wissenschaftler, sondern lediglich, dass Veröffentlichungen ein wesentlicher Faktor für den beruflichen Aufstieg sind.“ [8]

Das hier angesprochene mangelhafte Forschungsdesign und die unzureichenden Datenanalysen beziehen sich auf den Missbrauch von p-Werten und Variationen zum Thema Datenmanipulation, die in den Verhaltenswissenschaften seit vielen Jahren weit verbreitet sind. Das Problem entsteht dadurch, dass Veröffentlichungen die wichtigste Form der Belohnung darstellen, für Veröffentlichungen jedoch positive Ergebnisse erforderlich sind, was wiederum Verfahren fördert, die zu falsch positiven Ergebnissen führen. Richard Horton, Herausgeber von The Lancet, weist auf die Notwendigkeit geeigneter Anreize hin:

„Ein Teil des Problems besteht darin, dass niemand einen Anreiz hat, richtig zu liegen. Stattdessen werden Wissenschaftler dazu angeregt, produktiv und innovativ zu sein.“ [9]

Smaldino und McElreath betonen, dass keine Strategie erforderlich ist:

„In diesem Artikel wird argumentiert, dass einige der stärksten Anreize in der heutigen Wissenschaft schlechte Forschungsmethoden und den Missbrauch statistischer Verfahren aktiv fördern, belohnen und verbreiten. Wir bezeichnen diesen Prozess als natürliche Selektion schlechter Wissenschaft, um darauf hinzuweisen, dass er weder bewusste Strategien noch Betrug seitens der Forscher erfordert. Stattdessen entsteht er aus der positiven Auswahl von Methoden und Gewohnheiten, die zu Veröffentlichungen führen.“

Sie weisen weiterhin auf die offensichtliche Tatsache hin, dass „Methoden, die mit größerem Erfolg in der akademischen Laufbahn verbunden sind, sich bei sonst gleichen Bedingungen tendenziell verbreiten“. Man möchte gerne glauben, dass sich nur die guten Verfahren verbreiten, aber das ist eindeutig nicht der Fall. Es verbreiten sich diejenigen, die am stärksten mit beruflichem Erfolg verbunden sind, und dazu gehört leider eine Reihe von Kriterien, die nur teilweise mit der Qualität der Arbeit korrelieren. In diesem Fall gilt: Je geringer die statistische Aussagekraft der Daten, desto größer die Chancen auf eine Veröffentlichung – und eine Veröffentlichung scheint jeder zu wollen.

Glücklicherweise ist dies kein Problem, bei dem die wissenschaftliche Methode tatenlos zusieht. Replikation und Reproduzierbarkeit sind ihre Eckpfeiler, und infolgedessen hat sich das Fehlverhalten in der berüchtigten „Reproduzierbarkeitskrise“ innerhalb der Wissenschaft manifestiert. Die Meinungen darüber, wie ernst das Problem ist, gehen auseinander; einige behaupten, die Krise sei existenziell, während andere das Problem für etwas übertrieben halten. Niemand behauptet jedoch, dass das Problem leicht zu beheben sei, was nicht verwunderlich ist, da es seine Wurzeln in den Belohnungsstrukturen hat, welche die akademische Welt stützen [10].

Wohin führt uns das nun?

Die sozialen Strukturen und Belohnungsmechanismen innerhalb der Wissenschaft sind so beschaffen, dass sowohl gute als auch schlechte Wissenschaft von einer natürlichen Selektion profitieren kann, und für Laien kann es sehr schwierig sein zu erkennen, in welche Richtung die Selektion bei der Schaffung eines vorherrschenden Narrativs gewirkt hat. Die Stärke des Konsens‘ zu kennen ist bei weitem nicht so wichtig wie das Verständnis der zugrunde liegenden Prozesse, und es wäre naiv anzunehmen, dass diese ausschließlich von der wissenschaftlichen Methode bestimmt werden. Hinzu kommen statistische Effekte, die die akademische Welt für die Entstehung potenziell schädlicher Monokulturen prädisponieren, was einen weiteren Grund darstellt, der Versuchung zu widerstehen, die vorherrschende Darstellung automatisch zu akzeptieren.

Es sollte jedoch beachtet werden, dass dies keine anti-wissenschaftliche Haltung ist. Gerade weil soziale Dynamik Ideen unabhängig von ihrer epistemologischen Gültigkeit festigen kann, ist die wissenschaftliche Methode so wichtig. Dennoch sollte eine reife Wertschätzung der Bedeutung des wissenschaftlichen Ansatzes das Verständnis mit sich bringen, dass die wissenschaftliche Methode nicht hoffen kann, die Launen und Zufälligkeiten der Konsensbildung hundertprozentig zu beseitigen. Insbesondere kann sie nicht hoffen, die Auswirkungen des statistischen Matthäus-Effektes und dessen Neigung zur Schaffung von Monokulturen vollständig zu vermeiden. Eine reife Wertschätzung der Bedeutung des wissenschaftlichen Ansatzes sollte daher auch das Verständnis beinhalten, dass es wirklich nicht notwendig ist, sich auf die Idee eines wissenschaftlichen Vorwands zu berufen. Es gibt keine Verschwörung, sondern nur Wissenschaftler, die ihre Arbeit tun.

Anmerkungen:

[1] Der Begriff wurde erstmals im Zusammenhang mit der Wissenschaftssoziologie von Robert K. Merton und Harriet Anne Zuckerman geprägt. Siehe Merton R.K. 1968 “The Matthew effect in science”, Science, New Series, Vol 159, No. 3810, pp. 56-63. https://repo.library.stonybrook.edu/xmlui/bitstream/handle/11401/8044/mertonscience1968.pdf?sequence=1&isAllowed=y.

[2] de Solla Price, Derek J. 1976, “A general theory of bibliometric and other cumulative advantage processes”, J. Amer. Soc. Inform. Sci., 27 (5): 292–306, https://doi.org/10.1002/asi.4630270505.

[3] Heesen R., Romeijn JW. 2019 “Epistemic Diversity and Editor Decisions: A Statistical Matthew Effect”, Philosophers’ Imprint, Vol. 19, No. 39, pp. 1-20. http://hdl.handle.net/2027/spo.3521354.0019.039.

[4] Tatsächlich hat der Respekt vor älteren Fakultätsmitgliedern einen großen Anteil daran, wenn es darum geht, einen Konsens zu erzielen. Siehe Perret C. and Powers S. T. 2022, “An investigation of the role of leadership in consensus decision-making”, Journal of Theoretical Biology, Vol 543, 111094, https://doi.org/10.1016/j.jtbi.2022.111094.

[5] Smolin L. 2006 “The Trouble With Physics”, page xx, ISBN 978-0-141-01835-5.

[6]  Sydow, J., Schreyögg, G. 2013 “Self-Reinforcing Processes in Organizations, Networks, and Fields — An Introduction”. In: Sydow, J., Schreyögg, G. (eds) Self-Reinforcing Processes in and among Organizations. Palgrave Macmillan, London. https://doi.org/10.1057/9780230392830_1.

[7] Comerford D. 2025 “We risk a deluge of AI-written ‘science’ pushing corporate interests – here’s what to do about it”. The Conversation. https://theconversation.com/we-risk-a-deluge-of-ai-written-science-pushing-corporate-interests-heres-what-to-do-about-it-264606.

[8] Smaldino P.E., McElreath R. 2016 “The natural selection of bad science”, R. Soc. Open Sci., 3: 160384, http://doi.org/10.1098/rsos.160384.

[9] Horton R. 2015 “Offline: What is medicine’s 5 sigma?”, The Lancet, Volume 385, Issue 9976 p1380. https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(15)60696-1/fulltext.

[10] Leyser O., Kingsley D., Grange J. 2017, “Opinion: The science ‘reproducibility crisis’ – and what can be done about it”. University of Cambridge – Research News. https://www.cam.ac.uk/research/news/opinion-the-science-reproducibility-crisis-and-what-can-be-done-about-it.

Link: https://judithcurry.com/2025/09/08/the-matthew-effect-mono-cultures-and-the-natural-selection-of-bad-science/#more-32386

Übersetzt von Christian Freuer für das EIKE

 




Neue Studie: Keine Beschleunigung des Meeresspiegel-Anstiegs

H. Sterling Burnett

Eine neue Studie niederländischer Forscher findet keine Hinweise auf eine globale Beschleunigung des Meeresspiegelanstiegs aufgrund des Klimawandels. Die Autoren sagen, dass ihr Ansatz zur Untersuchung des Meeresspiegelanstiegs bisher noch nicht verfolgt worden ist. Anstatt Extrapolationen aus Klimamodellen oder kurzfristigen Satellitendaten vorzunehmen, führten sie eine Untersuchung von Pegelmessstationen auf der ganzen Welt durch, die über mindestens 60 Jahre hinweg Daten in der Datenbank des Permanent Service for Mean Sea Level erfasst haben. Von 1.500 Stationen erfüllten 200 die Kriterien.

Die von Fachkollegen begutachtete Arbeit „A Global Perspective on Local Sea Level Changes” wurde im Journal of Marine Science and Engineering veröffentlicht.

Die Langzeitdaten der Gezeitenmessstationen zeigten, dass die durchschnittliche Geschwindigkeit des Meeresspiegelanstiegs bis 2020 nur etwa 1,5 mm pro Jahr oder 15 cm pro Jahrhundert betrug – weniger als die Hälfte des Anstiegs, den der Weltklimarat (IPCC) und ein Großteil der Fachliteratur angibt.

„Das ist deutlich weniger als die 3 bis 4 mm/Jahr, die Klimawissenschaftler in wissenschaftlichen Publikationen und den Medien oft angeben“, sagte Hessel G. Voortman, der Hauptautor der Studie, gegenüber dem unabhängigen Journalisten Michael Shellenberger, berichtet National Review. „Es ist verrückt, dass das noch nicht gemacht wurde.

Ich habe 2021 mit dieser Forschung begonnen, indem ich die Literatur durchgesehen habe und mich fragte: ‚Wer hat die Prognosen mit den Beobachtungen verglichen?‘ Antwort: tatsächlich niemand!“, sagte Voortman zu Shellenbeger.

Als Wasserbauingenieur mit 30 Jahren Erfahrung, der weltweit an Projekten zum Hochwasserschutz und zur Anpassung der Küsteninfrastruktur beteiligt ist, hatte ihm seine Erfahrung bereits gezeigt, dass die Prognosen eines signifikanten Anstiegs der Geschwindigkeit des Meeresspiegelanstiegs falsch waren.

„Aus der Praxis kannte ich bereits die Situation, dass die Prognosen zum Meeresspiegelanstieg die Beobachtungen übertrafen“, erklärte Voortman gegenüber Shellenberger.

Im Jahr 2023 veröffentlichte Voortman eine Studie über die Küste der Niederlande, die zeigte, dass sich der Meeresspiegelanstieg dort in den letzten Jahrzehnten nicht beschleunigt hatte.

In Bezug auf die Forschung, die sich auf Satellitenbilder stützt und behauptet, dass sich der Anstieg des Meeresspiegels seit 1993, also seit Beginn der Satellitenmessungen, deutlich beschleunigt habe, sagt Voortman, dass diese Daten die periodischen Schwankungen, die in den Langzeitaufzeichnungen auftreten, nicht berücksichtigen: „Wenn man dies berücksichtigt, verschwindet die beschleunigte Rate als Folge des jüngsten Klimawandels.“

Die Geschwindigkeit des Meeresspiegelanstiegs befand sich 1993 in einer ihrer periodischen Tiefphasen, während sie 2020 einen Höchststand erreichte, sagt Voortman.

Ein kleiner Prozentsatz der 200 untersuchten Stationen zeigte „bemerkenswerte, manchmal statistisch signifikantes Ansteigen oder Absinken des Meeresspiegels“, erklärte Voortman gegenüber Shellenberger, aber da diese Stationen in der Regel in der Nähe anderer Stationen lagen, die keine beschleunigten Veränderungen aufwiesen, ist es „unwahrscheinlich, dass ein globales Phänomen wie die durch CO₂ verursachte globale Erwärmung die Ursache ist“.

Für Standorte, an denen die Anstiegsrate entweder zugenommen oder sogar abgenommen hat, und zwar in einem Maße, das nicht mit den langfristigen Trends der nahe gelegenen Stationen übereinstimmt, sagt Voortman, dass lokale Faktoren wie Erdbeben, umfangreiche Bauarbeiten, Grundwasserentnahme, Bodensenkungen oder -verdichtungen oder postglaziale Effekte „fast immer“ die lokalen Trends erklären.

Die modellbasierten Schätzungen des IPCC überschätzen die tatsächliche durchschnittliche Geschwindigkeit des Meeresspiegelanstiegs „erheblich“ um bis zu 2 mm pro Jahr, was mehr als doppelt so viel ist wie die Geschwindigkeit des Meeresspiegelanstiegs, die sich in den Gezeitenmessdaten zeigt, heißt es in der Studie.

Aus praktischer Sicht ist es laut Voortman entscheidend, diese Differenz zu berücksichtigen.

„Bei der Planung von Küsteninfrastrukturen berücksichtigen Ingenieure seit langem den Anstieg des Meeresspiegels”, erklärt Voortman im Interview mit Shellenberger. „Sowohl Messungen als auch Prognosen sind wichtige Informationsquellen, und für die praktische Anwendung ist es entscheidend, die Unterschiede zwischen ihnen zu verstehen.”

Obwohl Voortman und sein Kollege möglicherweise die ersten waren, die eine systematische Untersuchung der Daten von Langzeit-Gezeitenmessstationen durchgeführt haben, haben andere, darunter das Heartland Institute, bereits zuvor noch längerfristige Daten aus einer Stichprobe von Stationen untersucht und sind zu einem ähnlichen Ergebnis gekommen. Von den vom Heartland Institute untersuchten Stationen, von denen einige über Daten aus mehr als 100 Jahren verfügten, hatten einige nur einen sehr geringen oder gar keinen Anstieg der Hintergrundrate des Meeresspiegelanstiegs verzeichnet, einige verzeichneten einen weit über dem Durchschnitt liegenden Anstieg, während andere Stationen sogar einen Rückgang des Meeresspiegels verzeichneten. Die unterschiedlichen Veränderungsraten zwischen den Stationen lassen sich nur durch Veränderungen der lokalen Bedingungen erklären und nicht durch Trends, die durch den globalen Klimawandel verursacht werden.

Quellen: National Review; Journal of Marine Science and Engineering; The Heartland Institute; Nongovernmental International Panel on Climate Change

Link: https://heartland.org/opinion/climate-change-weekly-555-my-comments-on-the-doe-climate-report/, zweite Meldung

——————————————–

Auch bei Cap Allon findet sich am 12. September eine Kurzmeldung zum Meeresspiegel:

Meeresspiegel: Kein Runaway-Anstieg

Die Satellitenaufzeichnungen der NASA zeigen, dass der globale mittlere Meeresspiegel seit Ende 2023 um 3 mm gesunken ist – von 100,7 mm auf 97,6 mm bis September 2025. Bei der oft zitierten Anstiegsrate von 3,4 mm/Jahr hätten wir einen Anstieg von fast +7 mm erwarten müssen. Stattdessen hat sich die Kurve abgeflacht, ja ist sogar rückläufig.

Kurze Zeiträume ändern nichts am langfristigen Kontext, aber natürliche Zyklen dominieren eindeutig.

Während des La Niña-Ereignisses 2010–11 führten starke Regenfälle dazu, dass so viel Wasser an Land gelangte, dass der Meeresspiegel in weniger als einem Jahr um etwa 5 mm sank.

Gezeitenmessgeräte mit Aufzeichnungen, die 150 Jahre zurückreichen, zeigen Gleiches: einen langsamen, stetigen Anstieg von ~1–2 mm/Jahr, der im 19. Jahrhundert mit dem Ende der Kleinen Eiszeit begann. Satelliten wurden erst 1993 eingesetzt (Höhenmessung des Meeresspiegels) und stützen sich auf „Anpassungen”, die die Rate auf 3,4 mm/Jahr erhöhen, doch selbst sie zeigen Pausen und Einbrüche, die der Darstellung einer unaufhaltsamen Beschleunigung widersprechen.

Eine statistische Auswertung von 204 Pegelmesspunkten weltweit aus dem Jahr 2025 ergab, dass 95 % keine statistisch signifikante Beschleunigung des modernen Anstiegs aufweisen. Die wenigen, die eine Beschleunigung aufweisen, reflektieren lokale geologische Gegebenheiten (Landbewegungen, Bodensenkungen) – nicht das globale Klima.

Im Durchschnitt beträgt die beobachtete Anstiegsrate nur 1,5–1,9 mm/Jahr und liegt damit deutlich unter den von den IPCC-Modellen angenommenen ~3,4 mm/Jahr.

Es gibt keine Anzeichen für eine globale Beschleunigung, keinen unaufhaltsamen Anstieg und keine drohende „versinkende Welt”. Die Daten zeigen eine unvorhersehbare, aber moderate Veränderung, die mit natürlichen Schwankungen und einer leichten Erholung von der Kleinen Eiszeit im Einklang steht.

Quellen: NASA, CSIRO, PSMSL, Voortman & De Vos (2025)

Link: https://electroverse.substack.com/p/stanleys-cold-august-snow-forecast?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 




UK vor Stromausfällen: Net Zero-Desaster zeichnet sich ab

Cap Allon

Innerhalb von nur fünf Jahren wird ein Drittel der britischen Gaskraftwerke – die in den 1990er Jahren gebaut worden sind – zusammen mit den meisten Kernreaktoren stillgelegt werden.

„Unter diesen Umständen wären wir nicht in der Lage, die Nachfrage zu decken“, warnt die Energieberaterin Katherine Porter. „Wir müssten rationieren.“ Neue Gaskraftwerke könnten die Lücke nicht schließen, merkt sie an: „Die Vorlaufzeit für den Kauf einer Gasturbine beträgt acht Jahre.“ Kohle, die in drei Jahren verfügbar ist, könnte die einzige Alternative sein. Die Regierung hat jedoch deutlich gemacht, dass Netto-Null Vorrang vor der Energiesicherheit hat.

Die derzeitige Energiegewinnsteuer erhöht die effektiven Steuern für Nordsee-Betreiber auf über 100 %. „Harbour Energy gab an, in einigen Fällen sogar 110 % zu zahlen“, erklärt Porter. Unternehmen bauen Arbeitsplätze in Großbritannien ab und verlagern ihre Aktivitäten ins Ausland, was bedeutet, dass dem Finanzministerium bereits Steuereinnahmen entgehen. Bis zum Jahr 2030 wird es außerdem gezwungen sein, Milliardenbeträge für Stilllegungsrabatte auszuzahlen – Geld, das es nicht hat.

Der von der Labour-Partei auserkorene Retter, die Windenergie, kann sich auch nach 35 Jahren Subventionen noch nicht selbst tragen. Die Entwickler sagen nun, dass sie einen garantierten Preis von 83 £ für jede Megawattstunde Strom benötigen, die sie produzieren, obwohl der durchschnittliche Großhandelspreis nur 73 £ beträgt. Mit anderen Worten: Windkraft ist immer noch teurer als Gasstrom, und die Verbraucher sollen die Differenz ausgleichen. Selbst mit diesem Aufschlag von 13 % hat Ørsted sein Vorzeigeprojekt Hornsea 4 Offshore aufgegeben, weil es sich wirtschaftlich immer noch nicht rechnete.

Die Produktionszahlen sind nicht besser. Trotz mehr Windkraftanlagen sank die Windenergieerzeugung in UK im letzten Jahr um 6 %. Die Importe aus Europa gingen um 10 % zurück, und der Gasverbrauch musste um 17 % steigen, um den Ausfall auszugleichen. Windkraftanlagen erzeugen nur etwa 35 % ihrer angegebenen Kapazität, was bedeutet, dass sie an zwei von drei Tagen wenig oder gar nichts erzeugen. Das zwingt das System dazu, Gaskraftwerke als Reserve bereitzuhalten, kostspielige neue Netzanschlüsse zu abgelegenen Standorten zu verlegen, Milliarden für die Abschaltung von Turbinen zu zahlen, wenn das Netz deren Leistung nicht aufnehmen kann, und weitere Milliarden für den Ausgleich der ständigen Schwankungen auszugeben, die mit wetterabhängiger Energie einhergehen.

„Die Endkosten für erneuerbare Energien sind für den Verbraucher deutlich höher als die für Gas“, folgert Porter.

Die Kernenergie, die einzige ernstzunehmende CO2-freie Grundlastenergiequelle, ist in bürokratischen Hürden versunken. Kepco baut in Südkorea Reaktoren in weniger als neun Jahren für 6 Milliarden Dollar (Kori 3 & 4). Großbritannien stolpert mit Kosten von 35 Milliarden Pfund pro Anlage (Hinkley Point C). „Das liegt alles an unserem lächerlich dummen Regulierungssystem“, sagt Porter.

Fracking bleibt unter seismischen Grenzwerten verboten, die „dem Fallenlassen eines Stifts auf den Boden entsprechen“.

Und währenddessen altert das Stromnetz. Transformatoren aus den 1960er- und 1970er-Jahren fallen aus. Der Stromausfall in Heathrow im März war eine Warnung. Dennoch fließen die Ausgaben in neue Anschlüsse für erneuerbare Energien, anstatt in den Ersatz von Geräten, deren Lebensdauer abgelaufen ist.

„Wir steuern auf eine Situation zu, in der wir nicht nur sehr teure Energie haben, sondern auch unsichere Energie“, schließt Porter. Die Net-Zero-Besessenheit der Regierung treibt Großbritannien in wirtschaftliche und buchstäbliche Dunkelheit. Und wofür?

Fossile Brennstoffe sind das Rückgrat des Wohlstands. Großbritannien bleibt, wie die meisten westlichen Nationen, zurück.

Link: https://electroverse.substack.com/p/stanleys-cold-august-snow-forecast?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Übersetzt von Christian Freuer für das EIKE