Europa: KI-Entwicklung oder Net Zero?

Steve Goreham

Europäische Nationen kündigten Pläne zur Förderung künstlicher Intelligenz an. Nationale Regierungschefs gaben KI-Ausgabenziele in Höhe von insgesamt Hunderten Milliarden Euro bekannt, um zu den Vereinigten Staaten aufzuschließen. KI erfordert jedoch enorme Mengen an Strom, was im Widerspruch zu Europas Verpflichtung steht, ein CO₂-neutrales Stromnetz zu erreichen.

Seit ChatGPT im November 2022 seinen KI-Chatbot auf den Markt gebracht hatte, hat künstliche Intelligenz einen Boom erlebt. In nur zwei Jahren wurde die KI-Revolution zur treibenden Kraft in der US-amerikanischen Hightech-Industrie. Amazon, Google, Meta, Microsoft und andere Unternehmen werden in diesem Jahr über 100 Milliarden US-Dollar für den Bau und die Modernisierung von Rechenzentren ausgeben, um KI zu betreiben. NVIDIA, der dominierende Anbieter von KI-Grafikprozessoren (GPUs), wurde zum wertvollsten Unternehmen der Welt, dessen Marktkapitalisierung in weniger als drei Jahren von 300 Milliarden Dollar auf 4,3 Billionen Dollar stieg.

Künstliche Intelligenz erfordert enorme Mengen an Strom. KI-Prozessoren laufen rund um die Uhr und ermöglichen es Computern, wie Menschen zu denken. Wenn Server für die Unterstützung von KI aufgerüstet werden, verbrauchen sie sechs- bis zehnmal mehr Strom als bei der Nutzung für Cloud-Speicher und das Internet. Rechenzentren verbrauchten Anfang 2024 4 % des Stroms in den USA, aber es wird erwartet, dass ihr Verbrauch innerhalb des nächsten Jahrzehnts auf 20 % steigen wird.

Der Bedarf an neuen Erzeugungskapazitäten für KI treibt derzeit die US-Strommärkte an. Die Stilllegung von Kohlekraftwerken wurde in Georgia, Indiana, Illinois, Tennessee, Utah, West Virginia und anderen Bundesstaaten verschoben. In Iowa, Michigan und Pennsylvania werden Kernkraftwerke wieder in Betrieb genommen. Dutzende kleiner modularer Reaktoren befinden sich in der Planungsphase. Mehr als 200 Gaskraftwerke sind in Planung oder im Bau, darunter mehr als 100 in Texas. Unternehmen, die KI-Rechenzentren errichten, bauen ihre eigenen Kraftwerke vor Ort, da sie nicht auf Strom aus dem Netz warten wollen. Das Streben nach künstlicher Intelligenz ersetzt rasch die veralteten Netto-Null-Richtlinien der USA.

Seit mehr als 25 Jahren erlässt Europa Maßnahmen zur Reduzierung der Treibhausgasemissionen (THG), um den gefährlichen, vom Menschen verursachten Klimawandel „abzumildern”. Der Europäische Green Deal von 2019 zielt darauf ab, Europa zum ersten „klimaneutralen Kontinent” zu machen. Das Europäische Klimagesetz von 2021 verleiht dem Europäischen Green Deal Rechtskraft und fordert eine Reduzierung der Treibhausgasemissionen um 55 % bis 2030 und die Erreichung der Netto-Null-Emissionen bis 2050. Die Länder haben Wind- und Solaranlagen installiert und traditionelle Kraftwerke geschlossen, um die Emissionen zu reduzieren. Heute stammt etwa ein Drittel des Stroms in Europa aus erneuerbaren Energien.

Es ist nicht klar, ob die Bemühungen Europas zur Emissionsreduzierung einen messbaren Einfluss auf die globalen Temperaturen haben werden, aber es ist klar, dass die Politik die Energieverfügbarkeit verringert und die Kosten erhöht hat. Im Jahr 2000 produzierte Europa 56 Prozent seines Erdgases und 44 Prozent seines Erdöls. Aber die Region entschied sich dafür, in Wind- und Solarenergie zu investieren, anstatt durch Fracking die Öl- und Gasproduktion anzukurbeln. Bis 2021 produzierte Europa nur noch 37 Prozent seines eigenen Gases und 25 Prozent seines Erdöls, wobei steigende Importe die Energiepreise in die Höhe trieben.

Dänemark und Deutschland haben die höchste Dichte an Windkraftanlagen weltweit, leiden jedoch unter Strompreisen für Privathaushalte, die dreimal so hoch sind wie in den USA. Höhere Energiepreise zwingen weiterhin Unternehmen aus den Bereichen Düngemittel, Metalle, Automobil und anderen Industriezweigen dazu, Werke im Ausland statt in Europa zu errichten. Der Pro-Kopf-Stromverbrauch ist in Frankreich, Deutschland, Italien, Spanien und dem Vereinigten Königreich in den letzten zwei Jahrzehnten zurückgegangen. Dennoch will Europa künstliche Intelligenz vorantreiben und gleichzeitig weiterhin versuchen, Netto-Null-Energieziele zu erreichen.

Im Februar kündigte der französische Präsident Emmanuel Macron 109 Milliarden Euro zur Förderung der künstlichen Intelligenz in Frankreich an und argumentierte, sein Plan sei ebenso ehrgeizig wie der „Stargate“-Plan von US-Präsident Donald Trump. Macron wies darauf hin, dass Frankreich aufgrund seiner Kernkraftwerke der größte Stromexporteur Westeuropas sei. Es ist jedoch möglich, dass Präsident Macron den Umfang des Strombedarfs neuer Rechenzentren nicht versteht. Das neue Meta-Rechenzentrum im Norden von Louisiana wird nach seiner Fertigstellung im Jahr 2030 so viel Strom verbrauchen wie zwei Drittel der Stadt Paris, und zukünftige Erweiterungen des Standorts werden den Verbrauch von Paris noch übersteigen.

Erst letzten Monat kündigte Marine Le Pen von der konservativen Oppositionspartei an, dass sie im Falle ihrer Wahl in ganz Frankreich Klimaanlagen installieren werde. Etwa drei Viertel der französischen Gebäude verfügen über keine Klimaanlage, darunter viele Schulen und Krankenhäuser. Der Pro-Kopf-Stromverbrauch in Frankreich ist seit 2005 um 16 Prozent gesunken.

Vor zwei Jahrzehnten exportierte Deutschland noch Strom, doch Bundeskanzlerin Angela Merkel schloss mehr als 30 Kernkraftwerke, sodass Deutschland heute Strom importiert. Dennoch plant der derzeitige Kanzler Friedrich Merz, Subventionen für den Bau von Rechenzentren mit 100.000 GPUs von NVIDIA bereitzustellen. Der Pro-Kopf-Stromverbrauch in Deutschland ist seit 2005 um 19 % gesunken.

Im Juni erklärte der britische Premierminister Keir Starmer, dass künstliche Intelligenz eine „bessere Zukunft“ schaffen kann, und kündigte staatliche Fördermittel für KI an. Aber Großbritannien ist auf dem Weg zu einer Null-Strom-Gesellschaft. Nach Angaben der Internationalen Energieagentur verbraucht der Durchschnittsbürger in Großbritannien 33 % weniger Strom als vor zwanzig Jahren. Wenn Großbritannien nicht von seinem Netto-Null-Ziel abrückt, wird das Land nicht genug Strom für KI haben.

In Irland werden Rechenzentren bis 2030 voraussichtlich 30 % des Stromverbrauchs des Landes ausmachen. Aufgrund von Stromknappheit hat Irland jedoch kürzlich einen Baustopp für neue Rechenzentren verhängt.

Im Rahmen der Umstellung auf Netto-Null beabsichtigen die europäischen Staaten, grünen Wasserstoff als Brennstoff für die Industrie zu nutzen. Grüner Wasserstoff wird jedoch durch Elektrolyse von Wasser unter Verwendung großer Mengen an Strom aus Wind- und Sonnenenergie hergestellt. Die Herstellung eines Kilogramms grünen Wasserstoffs durch Elektrolyse erfordert 50 bis 55 Kilowattstunden Strom, etwa 20 Mal so viel wie ein britischer Haushalt täglich verbraucht. Es würden Millionen Kilogramm Wasserstoff benötigt. Fazit: Es wird nicht genug Strom geben, um große Mengen an grünem Wasserstoff zu produzieren.

Wenn Europa nicht auf Netto-Null und andere Bemühungen zur Umstellung seines Stromnetzes auf Wind- und Solarenergie verzichtet, wird KI scheitern. Wind- und Solarenergie sind intermittierend, während KI-Rechenzentren rund um die Uhr an sieben Tagen in der Woche mit Strom versorgt werden müssen. Erneuerbare Energien sind Systeme mit geringer Dichte, die große Flächen für die Errichtung und zwei- bis dreimal so viel Übertragungsinfrastruktur wie herkömmliche Kohle-, Gas- oder Kernkraftwerke erfordern. Wind- und Solarprojekte warten jahrelang auf den Anschluss an das Stromnetz, während Gaskraftwerke schnell neben dem Standort des Rechenzentrums gebaut werden können.

Wenn Europa im Bereich der künstlichen Intelligenz wettbewerbsfähig sein will, muss es seine Netto-Null-Politik aufgeben.

[Hervorhebungen vom Übersetzer]

This article originally appeared at Master Resource

Link: https://www.cfact.org/2025/09/14/europe-ai-development-or-net-zero/

Übersetzt von Christian Freuer für das EIKE

 




Afrika ist Vorreiter bei nuklearen Innovationen, ist es doch mit einer schweren Stromkrise konfrontiert.

Ronald Stein, Robert Jeffrey und Olivia Vaughan

Subsahara-Afrika steht vor einer schweren Stromkrise. Über 600 Millionen Menschen – mehr als 40 % der Bevölkerung des Kontinents – haben keinen Zugang zu Elektrizität, und ohne Gegenmaßnahmen wird diese Zahl bis 2030 voraussichtlich auf 657 Millionen steigen.

Die globale Renaissance der Kernenergie ist in vollem Gange – das zeigen Unternehmen wie Oklo, das nun in die Russell-2000-Aktienliste aufgenommen wurde. Der Ausblick basiert auf der langfristigen Vision von Oklo, insbesondere angesichts der verstärkten Konzentration der Trump-Regierung auf die Entwicklung von Rechenzentren für die KI-Revolution, die mit Strom aus Kernenergie betrieben werden.

Die Aufhebung des Kernkraftverbots durch die Weltbank bietet Entwicklungsländern eine wichtige Chance, sich als Vorreiter statt als Nachzügler im Bereich der fortschrittlichen Elektrizitätstechnologie zu positionieren.

Entwicklungsländer müssen nicht nur Konsumenten fortschrittlicher Technologien sein, sondern können auch als Innovatoren, Exporteure und aktive Teilnehmer daran mitwirken, Milliarden Menschen auf der Welt, die noch keinen Zugang zu Elektrizität oder modernen Annehmlichkeiten haben, mit sauberer und zuverlässiger Elektrizität zu versorgen.

Südafrika war das erste Land weltweit, das mit seinem Programm zum Bau eines Kugelhaufenreaktors (PBMR) mit der Kommerzialisierung der Technologie kleiner modularer Reaktoren begann, das jedoch um 2010 eingestellt worden ist. Dank ihrer jahrzehntelangen Erfahrung in der Entwicklung von Nukleartechnologie sind südafrikanische Wissenschaftler und Ingenieure weltweit wegen ihres Fachwissens, ihrer praxisorientierten Herangehensweise an komplexe Ingenieurprojekte und ihrer Liebe zum Detail, also dem Erbe des PBMR-Programms, sehr gefragt.

Nachdem das PBMR-Projekt 2010 auf unbestimmte Zeit ausgesetzt worden war, entwickelte das in Südafrika verbliebene Fachwissen die Technologie für kleine modulare Reaktoren (SMR), den Hochtemperatur-Modulreaktor (HTMR), als eigenständige Lösung weiter – ein Beweis sowohl für das Engagement der technischen Teams als auch für die wirtschaftliche Rentabilität, die sie in dieser Technologie sahen. Diese Gruppe von wegweisenden Technologen und Unternehmensstrategen in Südafrika gründete Stratek Global als Dachorganisation, um fortschrittliche Technologien und kombinierte Strommix-Lösungen auf den Markt zu bringen. Stratek Global hat kürzlich ein Grundstück erworben, auf dem es den Bau eines kleinen modularen Reaktors plant.

Bahnbrechende Technologie für Entwicklungsländer

SMRs stellen einen Paradigmenwechsel im Bereich der Kernkraftwerke dar. Der südafrikanische HTMR wurde speziell für die besonderen Herausforderungen entwickelt, denen Afrika und andere Entwicklungsregionen gegenüberstehen, wie beispielsweise riesige Landflächen und Wasserknappheit. So nutzt beispielsweise der Turbinenkondensator des HTMR-100 eine Radiatorkühlung, während der Primärkreislauf des Reaktors mit Helium gekühlt wird – eine entscheidende Innovation für einen Kontinent, auf dem viele Regionen keinen Zugang zu großen Binnengewässern haben.

Die geringere thermische und elektrische Kapazität von SMRs macht diese Technologie zu einer idealen Lösung für die dezentrale Stromerzeugung und bietet damit eine Antwort auf eine der dringendsten infrastrukturellen Herausforderungen Afrikas. Anstatt Tausende Kilometer neuer Übertragungsleitungen zu benötigen – wie beispielsweise die 14.000 km, die für die Erschließung der Solarenergieprojekte in der südafrikanischen Provinz Northern Cape erforderlich sind –, können SMRs in der Nähe ihrer Verbraucher positioniert werden: Bergwerke, Hüttenwerke, Kommunen und Industrieanlagen.

• Dieser Standortvorteil geht über einfache Logistik hinaus. Durch die Nähe der Erzeugung zum Verbrauch können SMRs vorhandene Netzkapazitäten freisetzen, Engpässe verringern und eine zuverlässige Grundlastversorgung gewährleisten. Für Entwicklungsländer, die mit der Versorgungssicherheit zu kämpfen haben, bedeutet dies einen Weg zum industriellen Wachstum ohne die üblicherweise erforderlichen massiven Vorabinvestitionen in die Infrastruktur.

Die Brennstoffversorgungskette besteht aus TRISO-beschichteten Partikeln (Tri-structural ISOtropic), einer Art Kernbrennstoff, der von mehreren Schichten Schutzmaterial umgeben ist. Diese Partikel sind so konzipiert, dass sie radioaktive Spaltprodukte auch unter extremen Bedingungen einschließen, wodurch sie äußerst robust und für fortschrittliche Reaktorkonzepte geeignet sind. Das US-Energieministerium bezeichnet TRISO-Partikel als „den robustesten Brennstoff der Welt“.

• Der für fortschrittliche Kerntechnologien erforderliche TRISO-Brennstoff wurde vollständig in Südafrika entwickelt und hergestellt.

• Zu den jüngsten Entwicklungen im Bereich TRISO-Recycling gehört ein Projekt des Savannah River National Laboratory (SRNL), mit dem bis 2027 ein TRISO-Recyclingprozess im industriellen Maßstab demonstriert werden soll.

Darüber hinaus wurde im Mai 2025 eine Validierungsstudie für das Universal Canister System (UCS) von Deep Isolation mit TRISO-Brennstoff von Kairos Power abgeschlossen, welche die Eignung des Systems für die Lagerung, den Transport und die Entsorgung von TRISO-Brennstoff in tiefen Bohrlöchern und Bergwerkslagern nachweist.

Südafrikanische Nationale Atomaufsichtsbehörde

Südafrika verfügt über eine der ältesten Atomaufsichtsbehörden der Welt. Im Jahr 1948 wurde mit dem Atomenergiegesetz die Atomenergiebehörde (AEB) gegründet, deren unmittelbares Ziel die Regulierung der Uranindustrie in Südafrika war. Die AEB wurde später zur Atomenergiegesellschaft (AEC). Südafrika wurde 1957 Gründungsmitglied der Internationalen Atomenergie-Organisation.

Für den Betrieb von Kernkraftwerken überwacht die Nationale Atomaufsichtsbehörde (NNR) die Einhaltung der Genehmigungsbedingungen, der technischen Betriebsspezifikationen sowie der Wartungs- und Prüfvorschriften und die Erfüllung der festgelegten Standards. Sie überwacht auch die Änderungs- und Verbesserungsprogramme, um eine kontinuierliche Verbesserung der internationalen Standards sicherzustellen.

• Im Laufe der Jahre hat sich die südafrikanische NNR als äußerst effektive Organisation erwiesen und ist gut gerüstet, um Lizenzen für große Reaktoren sowie für hochtemperaturgekühlte Gasreaktoren zu erteilen.

Nuklearanlagen im Sinne des National Act dürfen nur mit einer Lizenz für Nuklearanlagen errichtet, betrieben und stillgelegt werden. Zu den erfassten Betrieben gehören nuklearmedizinische Einrichtungen in Krankenhäusern und Bergbaubetriebe, die mit radioaktiven Stoffen wie Uran umgehen.

Das Kernkraftwerk Koeberg, 30 km nördlich von Kapstadt ist das einzige kommerzielle Kernkraftwerk in Afrika. Es verfügt über zwei Druckwasserreaktoren (PWR), die von Framatome aus Frankreich entworfen wurden und deren Bau 1976 begann. Block 1 wurde am 4. April 1984 und Block 2 am 25. Juli 1985 an das Stromnetz angeschlossen.

Wirtschaftliches Transformationspotenzial

Die wirtschaftlichen Auswirkungen der heimischen Kernkraftwerksproduktion gehen weit über die Energiesicherheit hinaus. Dr. Robert Jeffrey hat das wirtschaftliche Potenzial von SMRs bewertet, und der Bericht hat „phänomenale“ Exportmöglichkeiten aufgezeigt, die sich positiv auf die Zahlungsbilanz Südafrikas auswirken werden – ein Vorteil, der sich auf alle Entwicklungsländer erstrecken würde, die Kernkraftwerkskapazitäten aufbauen.

Kernkraftwerksprojekte in Südafrika könnten in den nächsten zehn Jahren zu einem Wachstum des BIP bis 2 % beitragen, noch bevor die Reaktoren überhaupt in Betrieb gehen. Im Gegensatz zu Solarparks, die nur einen begrenzten lokalen Kompetenztransfer bieten, erfordern Kernkraftprojekte umfangreiche technische Entwicklungen, hochqualifizierte Fertigung und ausgefeiltes Betriebs-Know-how. Dies schafft Möglichkeiten für Umschulungen und Weiterbildungen in verschiedenen Bereichen, von Schweißen und Bauwesen bis hin zu fortgeschrittener Technik und Physik.

SMRs ermöglichen neben der Stromerzeugung zahlreiche weitere Anwendungen, darunter Meerwasserentsalzung, die Herstellung nuklearer Isotope für medizinische Zwecke sowie Forschungs- und Entwicklungsaktivitäten. Dank dieser Vielseitigkeit können Entwicklungsländer ihre Rendite aus Investitionen in die Kernenergie maximieren und gleichzeitig mehrere Infrastrukturbedürfnisse gleichzeitig erfüllen.

„Arbeitsplätze brauchen Strom. Fabriken, Krankenhäuser, Schulen und Wasserversorgungssysteme ebenfalls. Angesichts des steigenden Bedarfs – sowohl durch KI als auch durch die Entwicklung – müssen wir den Ländern helfen, zuverlässige und erschwingliche Energie bereitzustellen. Deshalb begrüßen wir die Kernenergie als Teil der Lösung und nehmen sie wieder in den Energiemix auf, den die Weltbankgruppe Entwicklungsländern anbieten kann, um ihre Ziele zu erreichen. Wichtig ist, dass die Kernenergie Grundlaststrom liefert, der für den Aufbau moderner Volkswirtschaften unerlässlich ist“, sagte Ajay Banga, Präsident der Weltbankgruppe.

Für Entwicklungsländer stellt dies eine Chance dar, einen Sprung in die Hightech-Fertigung zu machen und gleichzeitig nationales Fachwissen aufzubauen, das sowohl den lokalen Bedürfnissen als auch den globalen Märkten dienen kann. Da die SMR-Komponenten in Innenräumen hergestellt werden, können diese Anlagen überall dort errichtet werden, wo eine geeignete Infrastruktur und Lieferketten vorhanden sind.

Es ist wichtig zu beachten, dass die Industrieländer weiterhin von den mehr als 6000 Produkten profitieren, die Öl und Kohle zu ihrem täglichen Lebensstandard beitragen. Die Entwicklungsländer müssen weiterhin ihre Öl- und Kohlevorkommen nutzen und optimieren und gleichzeitig die Kernenergie ausbauen, um die Zukunft künftiger Generationen zu sichern.

Ein entscheidender Moment für afrikanische Innovationen

Die Entscheidung, vor der Afrika und andere Entwicklungsregionen stehen, ist klar: Jetzt einheimische Innovationen fördern!

Für diejenigen, die die Vision haben, die Energieunabhängigkeit Afrikas zu sichern und gleichzeitig zu Technologien beizutragen, die eine nachhaltige Entwicklung im gesamten globalen Süden vorantreiben könnten, sind SMRs eine einmalige Gelegenheit, in die Zukunft junger und sich entwickelnder Nationen zu investieren.

In einer Zeit, in der die Versorgungssicherheit mit Strom und die wirtschaftliche Entwicklung untrennbar miteinander verbunden sind, ist die Förderung kleiner und kleinster Nukleartechnologien nicht nur ein gutes Geschäft, sondern auch eine Investition in eine gerechtere und nachhaltigere globale Stromversorgung der Zukunft.

This piece originally appeared at AmericaOutLoud.News and has been republished here with permission.

Link: https://cornwallalliance.org/africa-is-pioneering-nuclear-innovation-as-it-faces-a-dire-electricity-crisis/

Übersetzt von Christian Freuer für das EIKE

 




Lebenswichtige Meeres-Umwälzung bleibt zum ersten Mal seit Beginn der Aufzeichnungen aus

Paul Homewood, NOT A LOT OF PEOPLE KNOW THAT

Anmerkung des Übersetzers: Hier folgt ein Beispiel, wie völlig unwichtige Ereignisse von der Klimaille ausgeschlachtet werden – fast so, als ob diesen Herrschaften allmählich der Stoff ausgeht. – Ende Anmerkung

Wir werden alle sterben – Teil 98

Aus der Zeitung Daily Mail:

Das Ausbleiben einer lebenswichtigen Meeresströmung hat laut Wissenschaftlern Befürchtungen hinsichtlich katastrophaler Auswirkungen auf das Leben ausgelöst.

Jedes Jahr zwischen Dezember und April verursachen Nordwinde eine aufsteigende Strömung von Tiefenwasser im Golf von Panama.

Diese Aufwärtsströmung bringt kaltes, nährstoffreiches Wasser an die Oberfläche, schützt empfindliche Korallenriffe und löst eine Explosion des Meereslebens aus.

Nun sagen Forscher jedoch, dass die Panama-Pazifik-Aufwärtsströmung zum ersten Mal seit über 40 Jahren nicht mehr auftritt – und dass dies eine dauerhafte Veränderung sein könnte.

Die Forscher warnen, dass der Zusammenbruch dieses wichtigen jährlichen Musters „potenziell massive” Folgen haben könnte – und dass das Klima dafür verantwortlich sein könnte.

Die ganze Story steht hier.

Man könnte meinen, Klimawissenschaftler würden den Unterschied zwischen KLIMA und WETTER verstehen!

Nur weil dies zum ersten Mal seit 40 Jahren passiert ist, heißt das nicht, dass es in der Vergangenheit nicht schon oft vorgekommen ist.

Und versteckt in dem Artikel findet sich das Eingeständnis, dass „Wissenschaftler, die die Aufwärtsströmung untersuchen, noch nicht sicher sind, ob es sich um ein einmaliges Ereignis handelt, das durch die diesjährigen La Niña-Bedingungen verursacht wurde, oder um eine dauerhaftere Veränderung, die katastrophale ökologische und wirtschaftliche Folgen haben könnte”.

Das betreffende Gebiet ist winzig, ein Mikroklima, in dem alle möglichen komplexen meteorologischen Faktoren die Strömungen verändern können. Niemand versteht die gesamte Komplexität dieses Phänomens.

Aber es ist einfacher, den Klimawandel dafür verantwortlich zu machen und noch mehr Fördergelder zu kassieren.

Link: https://wattsupwiththat.com/2025/09/14/vital-ocean-upwelling-fails-to-emerge-for-the-first-time-on-record/

Übersetzt von Christian Freuer für das EIKE

 




Meine Anmerkungen zum Klima-Report des Energieministeriums

H. Sterling Burnett

In Climate Change Weekly 553 habe ich darüber berichtet, wie der jüngste Klimabericht des US-Energieministeriums die weitgehend ruhende Debatte über die möglichen Ursachen und Folgen des Klimawandels wiederbelebt hat. Fast 20 Jahre lang war die Debatte für die Medien beendet: Der katastrophale, vom Menschen verursachte Klimawandel stand außer Frage, war eine bewiesene Tatsache – als ob alles, was erst in Zukunft sichtbare Auswirkungen haben wird, als aktuelle Tatsache bewiesen werden könnte.

Der Bericht des Energieministeriums hat diese Darstellung widerlegt und die Forscher und Medien, die lange Zeit behauptet hatten, es gebe einen wissenschaftlichen Konsens, die Wissenschaft sei sich einig und wir müssten die industrielle Entwicklung stören, dazu gezwungen, sich erneut auf eine wissenschaftliche Debatte einzulassen.

In meiner früheren Diskussion des Berichts habe ich ihn nur allgemein behandelt. Der Bericht des DOE muss jedoch, wie andere Regierungsberichte, Vorschriften, Regeln und Empfehlungen auch, eine öffentliche Kommentierungsphase durchlaufen. Nachfolgend finden Sie die Kommentare, die ich im Namen des Heartland Institute eingereicht habe:

Die „Kritische Überprüfung der Auswirkungen von Treibhausgasemissionen auf das Klima der Vereinigten Staaten“ des US-Energieministeriums (im Folgenden DOECR) widerlegt eindrucksvoll die oft wiederholten Behauptungen, dass die Wissenschaft sich über die Rolle des Menschen beim aktuellen Klimawandel einig sei und dass der derzeitige Klimawandel eine existenzielle Krise darstelle, die eine umfassende, von der Regierung gelenkte Umgestaltung der Wirtschaft erforderlich mache, wobei auf die Nutzung von Kohlenwasserstoffen verzichtet werden müsse, um einen gefährlichen Anstieg der Treibhausgasemissionen zu verhindern.

Diese Kommentare konzentrieren sich auf einige wenige Kernpunkte, die in der DOECR diskutiert werden und die in der etablierten wissenschaftlichen Darstellung der anthropogenen Klimakatastrophe weitgehend ignoriert oder unterdrückt wurden, und schlagen einige Themen vor, die einer weiteren Betrachtung bedürfen.

Die Kommentare von DOE-Sekretär Chris Wright im Vorwort sind es wert, wiederholt zu werden, da sie die relativen Gefahren des Klimawandels im Vergleich zu den erheblichen Schäden treffend umreißen, die durch Vorschläge zur vorzeitigen Einstellung der Nutzung von Kohlenwasserstoffen entstehen würden, bevor kommerziell verfügbare, vergleichbare Technologien und Materialien entwickelt sind, die sie wirtschaftlich und zuverlässig ersetzen können. Wright stellt zu Recht fest:

Der Klimawandel ist real und verdient Aufmerksamkeit. Aber er ist nicht die größte Bedrohung für die Menschheit. Diese Auszeichnung gebührt der globalen Energiearmut. Als jemand, der Daten schätzt, weiß ich, dass die Verbesserung der Lebensbedingungen der Menschen vom Ausbau des Zugangs zu zuverlässiger, bezahlbarer Energie abhängt. Der Klimawandel ist eine Herausforderung – keine Katastrophe. Aber fehlgeleitete Politik, die eher auf Angst als auf Fakten basiert, könnte das Wohlergehen der Menschen tatsächlich gefährden.

Die Autoren des DOE-Berichts sind allesamt renommierte Experten für Klima und/oder Wetter. Ihr Ruf und ihre Qualifikationen sind über jeden Zweifel erhaben.

Was den Inhalt betrifft, so erkennt der DOECR im Gegensatz zu den Arbeiten des IPCC und vieler Wissenschaftler der „etablierten Wissenschaft” erhebliche Unsicherheiten hinsichtlich des Ausmaßes an, in dem Treibhausgasemissionen den gegenwärtigen Klimawandel vorantreiben, und erkennt weiter an, dass andere natürliche Faktoren solche Veränderungen in der Vergangenheit verursacht haben. Es bestehen erhebliche Unsicherheiten hinsichtlich der Reaktion des Klimas auf Kohlendioxidemissionen (CO₂), sowohl hinsichtlich der Physik der Reaktion angesichts von Fragen zur CO₂-Sättigung als auch hinsichtlich der Frage, ob physikalische Einflüsse durch CO₂ andere großräumige Systeme beeinflussen, die sich auf den Klimawandel auswirken, und welche positiven und negativen Rückkopplungen oder Auswirkungen als Reaktion auf höhere CO₂-Konzentrationen in der Atmosphäre auftreten könnten.

Im Gegensatz zu den üblichen Diskussionen über CO₂ wird im DOECR-Bericht ausdrücklich und zu Recht anerkannt, dass CO₂ kein Schadstoff im herkömmlichen Sinne ist und in absehbaren Konzentrationen keine direkte Gefahr für das Leben oder Wohlergehen des Menschen darstellt.

[Hervorhebung vom Übersetzer]

Der DOECR-Bericht beschreibt detailliert die erheblichen Diskrepanzen zwischen den modellierten Auswirkungen einerseits, unter anderem auf die Erwärmung der Erdoberfläche, die Schneebedeckung, die Abkühlung der Stratosphäre und die prognostizierten regionalen Auswirkungen auf den Maisgürtel der USA andererseits sowie den tatsächlich aufgezeichneten oder gemessenen Werten.

Im Gegensatz zu typischen Diskussionen über den Klimawandel untersucht der DOECR die anhaltenden Vorteile sowohl der CO₂-Düngung für Nutzpflanzen und andere Pflanzen als auch für die menschliche Gesundheit, den lebensrettenden Nutzen einer moderat wärmeren Welt und die erheblichen sozialen Vorteile fossiler Brennstoffe. Jedes dieser Themen wird in typischen Diskussionen über den anthropogenen Klimawandel in den Mainstream-Medien und allzu oft auch in Regierungsberichten und von Wissenschaftlern, die die etablierte wissenschaftliche Konsensposition vertreten, weitgehend ignoriert, heruntergespielt oder direkt falsch dargestellt.

Der Abschnitt 3.3 über den Einfluss der Urbanisierung auf Temperaturtrends ist wohl nicht so aussagekräftig, wie er sein könnte. Konkret gesagt, ist es nicht nur die Urbanisierung, die die gemessenen Temperaturen verzerrt. Solche verzerrten Messungen werden auch in ländlichen oder relativ ländlichen Gebieten aufgezeichnet, wo die Temperatur-Messpunkte schlecht gelegen sind, die Standards des National Weather Service für Datenqualität nicht erfüllen und weil die Temperaturen von Stationen „gemeldet” werden, die geschlossen oder stillgelegt wurden. Das erstgenannte Problem wurde in zwei Berichten des Heartland Institute mit dem Titel „Corrupted Climate Stations (2022)” (hier) und “Is the U.S. Surface Temperature Record Reliable?” (2009; hier) ausführlich behandelt. Letzteres wurde in einem Bericht eines investigativen Journalisten der Epoch Times diskutiert, der herausfand, dass die National Oceanic and Atmospheric Administration aus Gründen der Kontinuität Temperaturmessungen von mehr als 30 Prozent der 1.218 USHCN-Messstationen meldet, die nicht mehr existieren. Diese Messungen sind nichts anderes als Schätzungen, die einem Standort auf der Grundlage der Temperaturen benachbarter Stationen zugewiesen werden, die möglicherweise nicht repräsentativ für die Temperaturen sind, die an dem stillgelegten Standort gemessen worden wären, wenn er noch in Betrieb gewesen wäre.

Wie der Bericht hervorhebt, ist es der Klimaforschungsgemeinschaft trotz jahrelanger Arbeit immer noch nicht gelungen, den geschätzten Bereich der Gleichgewichts-Klimasensitivität (ECS) einzugrenzen. Dabei handelt es sich um die entscheidende Kennzahl, die für gefährliche Klimaveränderungen verantwortlich sein soll. Wenn unser Verständnis der ECS unvollständig oder unzureichend ist, sind durch Treibhausgase verursachte ECS-Veränderungen auf der Grundlage von Klimaprognosen nicht für wissenschaftliche Aussagen geeignet, geschweige denn für die Durchsetzung von Maßnahmen, welche die persönlichen Freiheiten der Menschen und den wirtschaftlichen Wohlstand von Einzelpersonen und Gesellschaften beeinträchtigen. Die gesamte Klimapropaganda basiert auf Behauptungen, dass die ECS gefährliche Temperaturanstiege verursacht.

Eines der Hauptprobleme bei der Erstellung eines ECS mit einem gewissen Maß an Zuverlässigkeit ist, wie im Bericht dargelegt, die Komplexität der Wolkendecke und deren Veränderungen sowie der Wolkentypen als Reaktion auf kosmische Strahlung und CO₂-Forcing. In Bezug auf Wolken räumt der IPCC zwei Tatsachen ein: Er kann Wolken nicht gut modellieren und hat nur ein unzureichendes Verständnis davon, wie sich die Wolkendecke verändern könnte und wie sich dies auf die globalen Temperaturen auswirken könnte. Trotz dieser Eingeständnisse behauptet der IPCC auf der Grundlage von Klimamodellen, die zu hohe Temperaturen vorhersagen, dass Wolken keine bedeutenden Antriebsfaktoren für den Klimawandel sind.

Ein weiterer wichtiger Punkt, den der DOECR-Bericht identifiziert und der von Mitgliedern der sogenannten Konsensgemeinschaft oft übersehen oder heruntergespielt wird, ist die Tatsache, dass für wichtige Merkmale der Atmosphäre „die beobachteten Erwärmungstrends so gering sind, dass sie mit den Ergebnissen von Modellen übereinstimmen, die kein anthropogenes CO₂ berücksichtigen, und nicht mit dem gesamten Spektrum der Erwärmungstrends übereinstimmen, die von Modellen mit erhöhtem CO₂-Ausstoß generiert werden.“ (S. 37) Wenn man einen erwarteten oder prognostizierten Effekt nicht von einer Situation ohne Veränderung, einem Nullfall, Hintergrundrauschen oder Zufälligkeit unterscheiden kann, gibt es keine Rechtfertigung dafür anzunehmen, dass die Ursache-Wirkungs-Beziehung wahr ist, genau modelliert oder gut verstanden wird.

Der vielleicht größte Beitrag des DOECR zur Verbesserung unseres Verständnisses des tatsächlichen Klimazustands und zur Eröffnung einer fairen Debatte über die Ursachen und Folgen des Klimawandels sind seine Erörterungen zu folgenden Punkten: 1) Die Tatsache, dass das IPCC tatsächlich wenig Vertrauen in seine Erkennung von Klimasignalen für die meisten atmosphärischen Phänomene und sich verändernden Trends bei extremen Wetterereignissen hat und noch zurückhaltender oder weniger zuversichtlich ist, was seine Fähigkeit angeht, festgestellte Veränderungen menschlichen Handlungen zuzuordnen. 2) dass es trotz wiederholter gegenteiliger Behauptungen in Mainstream-Medienberichten und Attributionsstudien keinen erkennbaren Verschlechterungstrend für die meisten extremen Wetterereignisse gibt, weder in Bezug auf die Anzahl noch auf die Intensität; und 3) seine Anerkennung und Untersuchung der enormen Vorteile einer moderaten Erwärmung, eines höheren CO₂-Gehalts und eines durch die Nutzung von Kohlenwasserstoffen gestützten Wirtschaftswachstums für die Landwirtschaft und das menschliche Leben.

In Bezug auf die Wirtschaft kommt die Literaturrecherche des DOECR zu folgendem Schluss:

Ökonomen haben das Klima lange Zeit als einen relativ unwichtigen Faktor für das Wirtschaftswachstum angesehen, eine Ansicht, die auch vom IPCC selbst im AR5 geteilt wird. Die Mainstream-Klimawissenschaft hat anerkannt, dass die durch CO₂ verursachte Erwärmung zwar einige negative wirtschaftliche Auswirkungen haben könnte, diese jedoch zu gering sind, um aggressive Maßnahmen zur Emissionsreduzierung zu rechtfertigen, und dass der Versuch, die globale Erwärmung selbst auf einem Niveau weit über dem Pariser Ziel zu „stoppen“ oder zu begrenzen, schlimmer wäre als nichts zu tun.

Kurz gesagt kommen die meisten fundierten Wirtschaftsanalysen zu dem Schluss, dass die vorgeschlagenen Maßnahmen zur Bekämpfung des Klimawandels, die eine erzwungene oder durch Anreize motivierte Reduzierung des Kohlenwasserstoffverbrauchs in der gesamten Wirtschaft vorsehen, wahrscheinlich größere Schäden für die menschliche Gesundheit und das Wohlergehen zur Folge haben werden als die realistisch zu erwartenden negativen Auswirkungen des Klimawandels selbst. Aus wirtschaftlicher Sicht sind Klimamaßnahmen für die Welt schädlicher als der fortschreitende Klimawandel selbst in Verbindung mit der Nutzung von Kohlenwasserstoffen.

[Hervorhebung vom Übersetzer]

Der in diesem Bericht empfohlene „… differenzierte und evidenzbasierte Ansatz zur Gestaltung der Klimapolitik, der

Unsicherheiten ausdrücklich anerkennt“, hätte von Beginn der Klimapanik an Standard sein müssen, als James Hansen 1988 in einer Anhörung vor dem Senat aussagte, dass der Mensch einen „erkennbaren“ und gefährlichen Einfluss auf den Klimawandel habe. Hansens Aussage war damals ungerechtfertigt und ist es auch heute noch. Der Mensch beeinflusst das Klima wahrscheinlich in gewissem Maße auf globaler und regionaler Ebene, aber das Ausmaß dieses Einflusses, ob er insgesamt gefährlich oder vorteilhaft ist und wie wir reagieren sollten, um den Nutzen zu maximieren und die Kosten zu minimieren, sind alles Fragen, die nach wie vor sehr umstritten sind. Eine Debatte, die dieser Bericht anstoßen und ans Tageslicht und in die öffentliche Diskussion bringen sollte.

Quellen:U. S. Department of Energy; Climate Change Weekly

Link: https://heartland.org/opinion/climate-change-weekly-555-my-comments-on-the-doe-climate-report/

Übersetzt von Christian Freuer für das EIKE

 




Der Matthäus-Effekt, Monokulturen und die natürliche Auslese schlechter Wissenschaft

John Ridgway

Jeder Politiker, der vor der Herausforderung steht, die Öffentlichkeit vor einer natürlichen Bedrohung wie einer Pandemie oder dem Klimawandel zu schützen, wird gerne betonen, wie sehr er sich „an die Wissenschaft hält“ – womit er meint, dass er sich von der vorherrschenden wissenschaftlichen Meinung des Tages leiten lässt. Wir würden uns wünschen, dass dies der Fall ist, weil wir der wissenschaftlichen Methode als einem selektiven Prozess vertrauen, der sicherstellt, dass schlechte Wissenschaft nicht lange überleben kann. Das ist keine Realität, die ich hier ignorieren möchte, aber ich möchte sie auf jeden Fall in den richtigen Kontext stellen. Das Problem ist, dass die wissenschaftliche Methode nicht das einzige Auswahlkriterium ist, und wenn man alle anderen berücksichtigt, ergibt sich ein viel undurchsichtigeres Bild – sicherlich keines, das klar genug ist, um ein vorherrschendes Narrativ auf einen erkenntnistheoretischen Sockel zu stellen.

Rückkopplung ist alles

Von allen Auswahlkriterien, die innerhalb einer wissenschaftlichen Gemeinschaft gelten, ist das vielleicht grundlegendste nicht die Begutachtung wissenschaftlicher Arbeiten durch Fachkollegen, sondern eines, das sich wie folgt zusammenfassen lässt:

„Denn wer hat, dem wird gegeben, und er wird im Überfluss haben; wer aber nicht hat, dem wird auch noch genommen, was er hat.“ (Matthäus 25:29, RSV).

Dies ist der sogenannte Matthäus-Effekt [1], auch bekannt als „kumulativer Vorteil“. Es handelt sich um eine positive Rückkopplung, die dazu dient, Ruhm und Einfluss in die Hände einiger weniger Auserwählter zu legen. Dies gilt im Allgemeinen für das Leben, aber auch speziell für die Wissenschaft. Beispielsweise werden Arbeiten, die bereits eine beträchtliche Anzahl von Zitaten erhalten haben, tendenziell noch öfter zitiert werden, schon allein deshalb, weil eine derzeit große Anzahl von Zitaten die Wahrscheinlichkeit weiterer Verweise erhöht, die sich aus einer zufälligen Auswahl aus bestehenden Zitierlisten ergeben. Dieses bibliometrische Phänomen, bei dem Erfolg weiteren Erfolg nach sich zieht, wurde erstmals vom Physiker Derek de Solla Price untersucht, der dessen im Wesentlichen stochastische Eigenschaften hervorhob:

„Es zeigt sich, dass ein solches stochastisches Gesetz durch die Beta-Funktion bestimmt wird, die nur einen freien Parameter enthält, und dies wird durch eine schiefe oder hyperbolische Verteilung approximiert, wie sie in der Bibliometrie und verschiedenen sozialwissenschaftlichen Phänomenen weit verbreitet ist.“ [2]

In der Praxis wird die Auswahl jedoch alles andere als zufällig sein, da Faktoren wie Einfluss und Prestige ebenfalls die Wahrscheinlichkeit bestimmen, mit der die Arbeit einer Person zitiert wird. So oder so, der bekanntere Wissenschaftler wird noch erfolgreicher werden.

Der Matthäus-Effekt hat auch Einfluss auf die Chancen, dass ein Artikel überhaupt veröffentlicht wird. Wenn ein Herausgeber oder Gutachter mit der Qualität der bisherigen Veröffentlichungen eines Autors vertraut ist, fällt es ihm leichter, den latenten Wert eines eingereichten Artikels zu beurteilen, was die Chancen des Autors erhöht, seine Publikationsliste zu erweitern. Ein weniger bekannter Autor hat diesen Vorteil nicht. Dies führt zu einer positiven Rückkopplung, die zu einer Monokultur führen kann, welche auf den Arbeiten einer relativ kleinen Anzahl dominanter Autoren basiert. Auch hier kann der Matthäus-Effekt rein statistischer Natur sein und erfordert keine besonderen Vorurteile oder Voreingenommenheit. Die Wissenschaftsphilosophen Remco Heesen und Jan-Willem Romeijn, die diesen Effekt untersucht haben, drücken es so aus:

Dieser Artikel befasst sich mit Vorurteilen, die nicht auf den Vorurteilen von Herausgebern oder Gutachtern beruhen, sondern vielmehr auf den statistischen Merkmalen der redaktionellen Entscheidungsfindung… Selbst wenn es Herausgebern gelingt, ihre Entscheidungsprozesse von unbewussten Vorurteilen zu befreien, bleiben ihnen dennoch Vorurteile rein statistischer Natur. Die statistischen Vorurteile tragen zur bereits bestehenden Tendenz hin zu einer Monokultur in der Wissenschaft bei: einem rein statistischen Matthäus-Effekt. [3]

Es gibt tatsächlich eine Reihe von Möglichkeiten, wie sich Monokulturen entwickeln können, wobei jede davon mit dem Matthäus-Effekt einhergeht. Ein Beispiel dafür ist die Rückkopplung, bei der Finanzierung zu Erfolg führt, was wiederum zu mehr Finanzierung führt. Auch die Forschungsinteressen eines hochrangigen Fakultätsmitglieds beeinflussen die Einstellungspolitik und verstärken damit das Interesse der Fakultät an diesen Forschungsbereichen [4]. Nehmen wir zum Beispiel die wissenschaftliche Monokultur, die sich innerhalb der Grundlagenphysik schnell entwickelt hat. Der Physiker Lee Smolin erklärte dies bereits 2006:

„Die aggressive Förderung der Stringtheorie hat dazu geführt, dass sie zum wichtigsten Ansatzpunkt für die Erforschung der großen Fragen der Physik geworden ist. Fast alle Teilchenphysiker mit einer Festanstellung am renommierten Institute for Advanced Study, einschließlich seines Direktors, sind Stringtheoretiker; die einzige Ausnahme ist eine Person, die vor Jahrzehnten eingestellt worden ist.“ [5]

Diese Dominanz ist nicht das Ergebnis der wissenschaftlichen Methode, da das entscheidende Element auffällig fehlt, mit welchem Theorien experimentell überprüft werden. Es handelt sich nicht um eine Theorie, die ihre Konkurrenten verdrängt hat, indem sie sich als besser überprüfbar erwiesen hat oder eine bessere experimentelle Verifizierbarkeit aufweist. Ihre anfängliche Anziehungskraft beruhte auf einigen frühen und recht spektakulären theoretischen Erfolgen, aber seitdem ist die Stringtheorie in einer Reihe von obskuren und völlig unüberprüfbaren mathematischen Vermutungen versunken, die nicht einmal als Theorie im üblichen Sinne gelten können. Im Gegenteil, die letztendliche Dominanz der Stringtheorie scheint das Ergebnis positiver Rückkopplungen zu sein, bei denen akademischer Erfolg weitaus wichtiger wurde als wissenschaftliche Leistungen. Lee Smolin schreibt dazu:

„Auch wenn die Stringtheorie auf wissenschaftlicher Seite zu kämpfen hat, hat sie innerhalb der akademischen Welt triumphiert.“

Der Aufstieg der Stringtheorie zur Dominanz ist ein klassisches Beispiel dafür, was der Matthäus-Effekt bewirken kann, wenn die wissenschaftliche Methode kompromittiert wird. Als solches ist sie eine warnende Geschichte für jeden wissenschaftlichen Bereich, in dem Theoriebildung und Modellierung letztendlich die Möglichkeiten der experimentellen Bestätigung übersteigen.

Ein weiteres Problem von Monokulturen besteht darin, dass sie zu einer potenziell unzuverlässigen Darstellung führen können, die als gesellschaftlicher Leuchtturm für normatives Denken fungiert. Je stärker diese Darstellung wird und je mehr sich gesellschaftliche Einstellungen verfestigen, desto größer wird auch die Macht, innerhalb der wissenschaftlichen Gemeinschaft ein höheres Maß an Übereinstimmung zu erzwingen. Der Konsens wird zu einer sich selbst verstärkenden sozialen Dynamik, im Guten wie im Schlechten. Dies ist ein Beispiel für eine Klasse von Phänomenen, die von den Organisationswissenschaftlern Jörg Sydow und Georg Schreyögg untersucht worden sind:

„In den meisten Fällen sind Organisationen und auch organisationsübergreifende Netzwerke, Märkte oder Bereiche durch eine Dynamik gekennzeichnet, die weitgehend außerhalb der Kontrolle der Akteure zu liegen scheint… Unter dieser meist verborgenen und sich herausbildenden Dynamik scheinen sich selbst verstärkende Prozesse von besonderer Bedeutung zu sein; sie entfalten ihre eigene Dynamik und verwandeln einen möglicherweise positiven Kreislauf in einen negativen (Masuch, 1985).“ [6]

Natürlich muss niemand, der in eine solche Dynamik geraten ist, von einer Täuschung ausgehen. Allerdings sind Politik und Manipulation der Menschheit nicht fremd, sodass Voreingenommenheit und Betrug weiterhin optionale Extras bleiben. Insbesondere muss man befürchten, dass das Wachstum der KI die Wahrscheinlichkeit der Entwicklung problematischer Monokulturen erhöht. David Comerford, Professor für Wirtschaft und Verhaltenswissenschaften an der Universität Stirling, betont:

„Noch vor wenigen Jahren dauerte es Monate, um eine einzige wissenschaftliche Arbeit zu verfassen. Heute kann eine einzelne Person mithilfe von KI innerhalb weniger Stunden mehrere wissenschaftliche Arbeiten erstellen, die gültig erscheinen.“ [7]

Da es sich beim Matthäus-Effekt um ein Zahlenspiel handelt, muss alles, was wissenschaftliche Arbeiten im industriellen Maßstab generieren kann, Anlass zur Sorge geben. Und es gibt Hinweise darauf, dass solche Artikel zunehmend von Ghostwritern im Auftrag von Unternehmen verfasst werden – sogenanntes „Resmearch“. David Comerford erklärt:

„Während die überwiegende Mehrheit der Forscher motiviert ist, die Wahrheit aufzudecken und ihre Ergebnisse gründlich zu überprüfen, geht es bei Resmearch nicht um die Wahrheit – es geht nur darum zu überzeugen.“

Und das noch bevor man die Möglichkeit in Betracht zieht, dass Einzelpersonen KI nutzen könnten, um ihre Produktivität zu steigern und so den Matthäus-Effekt zu ihren Gunsten auszunutzen. So oder so hat KI die Kosten für die Erstellung solcher Arbeiten auf praktisch null reduziert und damit den Druck auf die wissenschaftliche Methode erhöht, dem Entstehen potenziell unzuverlässiger Monokulturen entgegenzuwirken.

Die natürliche Auslese schlechter Wissenschaft

Monokulturen sind zwar zu vermeiden, aber sie basieren in der Regel nicht auf schlechter Wissenschaft. Tatsächlich gibt es in der Wissenschaft immer eine leitende Hand, die dies verhindern soll. Die Arbeit wird routinemäßig von Fachkollegen auf ihre Qualität und ihren Wert hin bewertet, und eine solche Überprüfung sollte der guten Wissenschaft zugute kommen. Nur scheinen die Beweise darauf hinzudeuten, dass schlechte Wissenschaft trotz dieser Überprüfung immer noch gedeihen kann. Es gibt noch eine weitere Auswahlinstanz, die jedoch keineswegs als korrigierende Kraft wirkt, schlechte Arbeiten herausfiltert und sowohl rein statistische als auch durch Voreingenommenheit bedingte positive Rückmeldungen entfernt, sondern vielmehr schlechte Wissenschaft fördern kann. Die Erklärung für diesen problematischen Effekt wurde von Paul E. Smaldino und Richard McElreath geliefert. Die Einleitung ihrer Zusammenfassung gibt einen Überblick über die Situation:

„Ein schlechtes Forschungsdesign und eine mangelhafte Datenanalyse begünstigen falsch-positive Ergebnisse. Trotz ständiger Forderungen nach Verbesserungen werden solche mangelhaften Methoden weiterhin angewendet, was darauf hindeutet, dass sie nicht nur auf Missverständnissen beruhen. Die Beibehaltung mangelhafter Methoden ist zum Teil auf Anreize zurückzuführen, die diese begünstigen und zu einer natürlichen Selektion schlechter Wissenschaft führen. Diese Dynamik erfordert keine bewusste Strategie – kein absichtliches Betrügen oder Faulenzen – seitens der Wissenschaftler, sondern lediglich, dass Veröffentlichungen ein wesentlicher Faktor für den beruflichen Aufstieg sind.“ [8]

Das hier angesprochene mangelhafte Forschungsdesign und die unzureichenden Datenanalysen beziehen sich auf den Missbrauch von p-Werten und Variationen zum Thema Datenmanipulation, die in den Verhaltenswissenschaften seit vielen Jahren weit verbreitet sind. Das Problem entsteht dadurch, dass Veröffentlichungen die wichtigste Form der Belohnung darstellen, für Veröffentlichungen jedoch positive Ergebnisse erforderlich sind, was wiederum Verfahren fördert, die zu falsch positiven Ergebnissen führen. Richard Horton, Herausgeber von The Lancet, weist auf die Notwendigkeit geeigneter Anreize hin:

„Ein Teil des Problems besteht darin, dass niemand einen Anreiz hat, richtig zu liegen. Stattdessen werden Wissenschaftler dazu angeregt, produktiv und innovativ zu sein.“ [9]

Smaldino und McElreath betonen, dass keine Strategie erforderlich ist:

„In diesem Artikel wird argumentiert, dass einige der stärksten Anreize in der heutigen Wissenschaft schlechte Forschungsmethoden und den Missbrauch statistischer Verfahren aktiv fördern, belohnen und verbreiten. Wir bezeichnen diesen Prozess als natürliche Selektion schlechter Wissenschaft, um darauf hinzuweisen, dass er weder bewusste Strategien noch Betrug seitens der Forscher erfordert. Stattdessen entsteht er aus der positiven Auswahl von Methoden und Gewohnheiten, die zu Veröffentlichungen führen.“

Sie weisen weiterhin auf die offensichtliche Tatsache hin, dass „Methoden, die mit größerem Erfolg in der akademischen Laufbahn verbunden sind, sich bei sonst gleichen Bedingungen tendenziell verbreiten“. Man möchte gerne glauben, dass sich nur die guten Verfahren verbreiten, aber das ist eindeutig nicht der Fall. Es verbreiten sich diejenigen, die am stärksten mit beruflichem Erfolg verbunden sind, und dazu gehört leider eine Reihe von Kriterien, die nur teilweise mit der Qualität der Arbeit korrelieren. In diesem Fall gilt: Je geringer die statistische Aussagekraft der Daten, desto größer die Chancen auf eine Veröffentlichung – und eine Veröffentlichung scheint jeder zu wollen.

Glücklicherweise ist dies kein Problem, bei dem die wissenschaftliche Methode tatenlos zusieht. Replikation und Reproduzierbarkeit sind ihre Eckpfeiler, und infolgedessen hat sich das Fehlverhalten in der berüchtigten „Reproduzierbarkeitskrise“ innerhalb der Wissenschaft manifestiert. Die Meinungen darüber, wie ernst das Problem ist, gehen auseinander; einige behaupten, die Krise sei existenziell, während andere das Problem für etwas übertrieben halten. Niemand behauptet jedoch, dass das Problem leicht zu beheben sei, was nicht verwunderlich ist, da es seine Wurzeln in den Belohnungsstrukturen hat, welche die akademische Welt stützen [10].

Wohin führt uns das nun?

Die sozialen Strukturen und Belohnungsmechanismen innerhalb der Wissenschaft sind so beschaffen, dass sowohl gute als auch schlechte Wissenschaft von einer natürlichen Selektion profitieren kann, und für Laien kann es sehr schwierig sein zu erkennen, in welche Richtung die Selektion bei der Schaffung eines vorherrschenden Narrativs gewirkt hat. Die Stärke des Konsens‘ zu kennen ist bei weitem nicht so wichtig wie das Verständnis der zugrunde liegenden Prozesse, und es wäre naiv anzunehmen, dass diese ausschließlich von der wissenschaftlichen Methode bestimmt werden. Hinzu kommen statistische Effekte, die die akademische Welt für die Entstehung potenziell schädlicher Monokulturen prädisponieren, was einen weiteren Grund darstellt, der Versuchung zu widerstehen, die vorherrschende Darstellung automatisch zu akzeptieren.

Es sollte jedoch beachtet werden, dass dies keine anti-wissenschaftliche Haltung ist. Gerade weil soziale Dynamik Ideen unabhängig von ihrer epistemologischen Gültigkeit festigen kann, ist die wissenschaftliche Methode so wichtig. Dennoch sollte eine reife Wertschätzung der Bedeutung des wissenschaftlichen Ansatzes das Verständnis mit sich bringen, dass die wissenschaftliche Methode nicht hoffen kann, die Launen und Zufälligkeiten der Konsensbildung hundertprozentig zu beseitigen. Insbesondere kann sie nicht hoffen, die Auswirkungen des statistischen Matthäus-Effektes und dessen Neigung zur Schaffung von Monokulturen vollständig zu vermeiden. Eine reife Wertschätzung der Bedeutung des wissenschaftlichen Ansatzes sollte daher auch das Verständnis beinhalten, dass es wirklich nicht notwendig ist, sich auf die Idee eines wissenschaftlichen Vorwands zu berufen. Es gibt keine Verschwörung, sondern nur Wissenschaftler, die ihre Arbeit tun.

Anmerkungen:

[1] Der Begriff wurde erstmals im Zusammenhang mit der Wissenschaftssoziologie von Robert K. Merton und Harriet Anne Zuckerman geprägt. Siehe Merton R.K. 1968 “The Matthew effect in science”, Science, New Series, Vol 159, No. 3810, pp. 56-63. https://repo.library.stonybrook.edu/xmlui/bitstream/handle/11401/8044/mertonscience1968.pdf?sequence=1&isAllowed=y.

[2] de Solla Price, Derek J. 1976, “A general theory of bibliometric and other cumulative advantage processes”, J. Amer. Soc. Inform. Sci., 27 (5): 292–306, https://doi.org/10.1002/asi.4630270505.

[3] Heesen R., Romeijn JW. 2019 “Epistemic Diversity and Editor Decisions: A Statistical Matthew Effect”, Philosophers’ Imprint, Vol. 19, No. 39, pp. 1-20. http://hdl.handle.net/2027/spo.3521354.0019.039.

[4] Tatsächlich hat der Respekt vor älteren Fakultätsmitgliedern einen großen Anteil daran, wenn es darum geht, einen Konsens zu erzielen. Siehe Perret C. and Powers S. T. 2022, “An investigation of the role of leadership in consensus decision-making”, Journal of Theoretical Biology, Vol 543, 111094, https://doi.org/10.1016/j.jtbi.2022.111094.

[5] Smolin L. 2006 “The Trouble With Physics”, page xx, ISBN 978-0-141-01835-5.

[6]  Sydow, J., Schreyögg, G. 2013 “Self-Reinforcing Processes in Organizations, Networks, and Fields — An Introduction”. In: Sydow, J., Schreyögg, G. (eds) Self-Reinforcing Processes in and among Organizations. Palgrave Macmillan, London. https://doi.org/10.1057/9780230392830_1.

[7] Comerford D. 2025 “We risk a deluge of AI-written ‘science’ pushing corporate interests – here’s what to do about it”. The Conversation. https://theconversation.com/we-risk-a-deluge-of-ai-written-science-pushing-corporate-interests-heres-what-to-do-about-it-264606.

[8] Smaldino P.E., McElreath R. 2016 “The natural selection of bad science”, R. Soc. Open Sci., 3: 160384, http://doi.org/10.1098/rsos.160384.

[9] Horton R. 2015 “Offline: What is medicine’s 5 sigma?”, The Lancet, Volume 385, Issue 9976 p1380. https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(15)60696-1/fulltext.

[10] Leyser O., Kingsley D., Grange J. 2017, “Opinion: The science ‘reproducibility crisis’ – and what can be done about it”. University of Cambridge – Research News. https://www.cam.ac.uk/research/news/opinion-the-science-reproducibility-crisis-and-what-can-be-done-about-it.

Link: https://judithcurry.com/2025/09/08/the-matthew-effect-mono-cultures-and-the-natural-selection-of-bad-science/#more-32386

Übersetzt von Christian Freuer für das EIKE