Der Ausbau der Geothermie in Wilhelmsburg stockt

Von Bernd Packulat

Die Internationale Bauausstellung (IBA) hatte in den Jahren 2006 bis 2013 viele interessante Projekte vorgestellt, unter anderem auch das Projekt Tiefengeothermie“:

Im Sandstein tief unter den Elbinseln erwarten Geologen eine Temperatur von 130 Grad Celsius. Mit Bohrungen in eine Tiefe von 3.000 bis 4.000 Metern soll dieses Energiepotenzial nutzbar gemacht werden. Die Vision: Ein geothermisches Kraftwerk könnte bald mehrere tausend Wohnungen und andere Gebäude in Wilhelmsburg mit Wärme versorgen – im besten Fall sogar auch mit Strom. Aus dem Forschungsvorhaben der IBA Hamburg und der von ihr mitgegründeten Gesellschaft GTW Geothermie Wilhelmsburg GmbH werden auch wertvolle Informationen für die Nutzung der Tiefengeothermie in ganz Hamburg erwartet.

Umweltfreundlich, wetterunabhängig und emissionsfrei – Geothermie ist eine Energiequelle mit Zukunft. Thermalwasser aus tiefen Gesteinsschichten soll dabei zur Wärme- und Stromversorgung eingesetzt werden. Durch eine Förderbohrung wird das warme Schichtwasser an die Oberfläche gepumpt. Mittels eines Wärmetauschers wird über Tage die Wärme entzogen, zu Heizzwecken als Fernwärme genutzt sowie über eine Turbine und einen Generator Strom aus Wasserdampf erzeugt. Das abgekühlte Wasser gelangt durch eine Injektionsbohrung wieder zurück in den Untergrund. Unter Tage bewegt sich ständig neu erwärmtes Wasser zur Förderbohrung – so wird der Kreislauf geschlossen.

Um dieses Potenzial besser abschätzen zu können, waren zunächst aber umfangreiche seismische Untersuchungen der Gesteinsschichten notwendig. Die IBA Hamburg hatte das Ingenieurbüro GTN Geothermie Neubrandenburg beauftragt, die seismischen Erkundungen zu planen und vorzubereiten sowie die Messergebnisse auszuwerten.

Für derartige Erkundungen nutzen die Geophysiker schlauen Schall. Mit der eingesetzten Messmethode, der Reflexionsseismik, wird der Aufbau der Erdkruste bis in etwa 4.000 Meter Tiefe bestimmt. Entlang vorab festgelegter Messprofile senden Vibratorfahrzeuge abschnittsweise Schallwellen in die Erdkruste, die von den Gesteinsschichten im Untergrund reflektiert und an die Erdoberfläche zurückgesendet werden. Dort zeichnen sensible Messgeräte die Signale auf. Mit den gespeicherten Informationen errechnet ein Computer ein zweidimensionales Bild, aus dem die Geologen Lage und Eigenschaften der Gesteinsschichten ablesen können.

Die Messprofile in Wilhelmsburg verliefen auf zwei Straßenzügen: der Georg-Wilhelm-Straße im Süden bis zum Spreehafen im Norden sowie auf der Wollkämmereistraße, bei der Wollkämmerei und der Mengestraße. Die Erkundungen dauerten etwa zehn Tage.

Im November 2010 schließlich wurde das positive Resultat veröffentlicht. „Die Ergebnisse der seismischen Untersuchung sind erfreulich: Die Hauptförderschicht ist groß genug, dass sie in 3.500 Meter Tiefe ausreichend förderfähiges Tiefenwasser birgt“, sagt IBA-Geschäftsführer Uli Hellweg. Das heiße Tiefenwasser in Wilhelmsburg befindet sich im sogenannten Rhät, einer Gesteinsschicht der Obertrias. Das Wasser erreicht hier eine Temperatur von bis zu 130 Grad Celsius und bewegt sich in den Zwischenräumen des Gesteins.

Die Gesellschafteranteile der IBA Hamburg an der GTW Geothermie Wilhelmsburg wurden mittlerweile von Hamburg Energie übernommen. Damit könnte Hamburg Energie seine Wärmenetze auf der Elbinsel mit der Tiefengeothermie weiter ausbauen und zukünftig auch vernetzen.

Am 11.08.2022 titelt das Hamburger Abendblatt:

22 Millionen Euro für Wilhelmsburger Energieprojekt

Am 24.02.2021 titelt das Hamburger Abendblatt:

Hamburg startet Erdwärmeprojekt nach 10-jähriger Planungsphase

Auch am 28.01.2022 titelt das Abendblatt:

Heizen mit Wasser aus 3.500 m Tiefe

Noch am 21.07.2022 jubelt das Hamburger Abendblatt (leicht verhalten):

Thermalwasser gefunden, zweite Bohrung beginnt

Nun kommt am 22.07.2022 die gewaltige Ernüchterung:

Bohrung von Hamburg Energie halbwegs erfolgreich

Wilhelmsburger Wärmewende-Projekt verläuft anders als geplant. Warum neu gedacht werden muss.

Wilhelmsburg. Die Geothermie-Spezialisten von Hamburg Energie waren sich so sicher: In etwa 3000 Meter Tiefe unter Wilhelmsburg liegt heißes Wasser, mit dessen Energie man jeden Haushalt auf der Elbinsel heizen könnte. Eine Probebohrung in der Nähe des „Dockville“-Geländes sollte die Vermutung zur Gewissheit machen. Tatsächlich fand man das heiße Wasser in der vermuteten Tiefe. Allerdings lässt es sich nicht zur Energiegewinnung nutzen. Ganz lang wurden die Gesichter der Techniker und Wissenschaftler aber nicht.

Denn auf halbem Weg der Sondierung waren sie auf ein weiteres Warmwasservorkommen gestoßen. Dieses ist nutzbar. Auch hier gibt es jedoch einen Haken: Es ist mit 40 bis 60 Grad in 1300 Metern Tiefe nur etwa halb so heiß. Das, welches man eigentlich nutzen wollte, hätte 110 Grad mitgebracht. Um Wilhelmsburg mit Erdwärme zu heizen, muss sich Hamburg Energie etwas einfallen lassen. Man ist aber zuversichtlich, Lösungen zu finden.

Weiteres Warmwasservorkommen ist nur etwa halb so heiß

Die Geothermienutzung sollte ein zentraler Energielieferant des Projektes „Integrierte Wärmewende Wilhelmsburg“ (IW3) werden. In einer ersten Phase sollen mit IW3 10.000 Haushalte – alle in den geplanten IBA-Neubaugebieten sowie einige Tausend im zentralen Reiherstiegviertel – beheizt werden. Neben der Geothermie sollen dafür auch die Abwärme der Nordischen Ölwerke sowie Solarthermie aus dem Wilhelmsburger Energiebunker zum Einsatz kommen.

Dass die nutzbare Erdschicht nun weniger Wärme mitbringt, gefährdet IW3 wohl nicht existenziell. Allerdings wird einiges neu berechnet und noch näher erkundet werden. Im Turm drehen sich deshalb bereits wieder die Bohrstangen. Eine weitere Probebohrung soll detaillierte Erkenntnisse über den 1300-Meter-Horizont geben.

Das Projekttagebuch führt dazu aus:

Im Rahmen des wissenschaftlichen Begleitprogramms mesoTherm wurden mehrere Meter lange Gesteinsproben, sogenannte Bohrkerne, in unterschiedlichen Gesteinsschichten entnommen. Diese haben auch gezeigt, dass in Sandsteinschichten in über 3.000 Meter Tiefe keine ausreichenden Thermalwasservorkommen zur geothermischen Nutzung zu erwarten sind. Die Sandsteinschicht in 1.300 m Tiefe hat sich dagegen als besonders mächtig erwiesen. Sie wurde daher anhand von Bohrkernen und hydraulischen Tests erstmalig auf ihr geothermisches Potenzial untersucht. In einer Tiefe von 1.300 Metern ist generell mit einer Thermalwasser-Temperatur in einer Bandbreite von 45-50 Grad Celsius zu rechnen.

Wenn Träume sterben, dann wird es kalt.




Angewandtes Framing! – Wie der ARD Meteorologe Sven Plöger konsequent, permanent und wissentlich Ursache und Wirkung vertauscht! Hauptsache Alarm schlagen – in Endlosschleife.

von EIKE Redaktion

Sven Plöger ist „Das Wettergesicht“ der ARD. Flankiert wird er gelegentlich zwar von Karsten Schwanke, aber wann immer ein Unwetter zuschlägt, Menschen durch Politikversagen zu Schaden, oder sogar zu Tode kommen, wie im vorigen Jahr im Ahrtal, wird Sven Plöger herbeizitiert, weil er zwar „ Scheiße aussieht, aber gut reden kann“ wie sein Ex-Chef Jörg Kachelmann einmal befand.

Ob das mit dem Aussehen so stimmt lassen wir mal dahingestellt, zumal andere „Wetterfrösche“ im Deutschen Fernsehen auch kaum bei einem Schönheitswettbewerb gewinnen würden, aber das mit dem „gut reden“ stimmt auf jeden Fall.

Und das nutzen seine Fans, vor allem die Journos in deutschen Talkshows, gnadenlos aus. Er ist inzwischen der Klimawandelerklärer schlechthin. Es gibt kaum eine Talkshow, die ohne ihn auskommen will. Damit ist er omnipräsent, sogar – gefühlt jedenfalls – noch deutlich vor der grünen Polit-Elite. Und weil er das weiß, hat er sich eine bestimmte – wenn auch falsche Aussage – in Endlosschleife zu recht gelegt, die er bei jeder passenden und unpassenden Gelegenheit wiederholt. Sie lautet, mit einigen passenden Wortgirlanden versehen, dass .. das was jetzt hier passiert,“ (bspw. außergewöhnlich warme Sommertage jedenfalls für die Wohlfühlgeneration, oder Starkregen, oder Stürme, oder Kälte oder Trockenheit, oder, oder, oder..) das sei „tatsächlich das, was uns die Wissenschaft (man merke DIE WISSENSCHAFT, darunter geht´s kaum) seit 30, 40 Jahren für heute vorhergesagt hat!“. Vermutlich hat er seinen Cicero gelesen, und erinnert sich an den Senator Cato, der jede seiner Reden mit dem Satz beendete: „Und im Übrigen bin ich der Meinung, dass Karthago zerstört werden soll!“ Was ja schlussendlich im 3. Punischen Krieg auf restlos gelang und wenn es mit dem „Klimaschutz“ in diesem Land so weiter geht, auch bald hierzulande zu erdulden sein wird.

Diesen Politik-Trick hat sich Plöger abgeschaut und die ihn befragenden Journos hängen gebannt, häufig auch begeistert, an seinen Lippen. Dass sich diese Aussage, von seinem von Jörg Kachelmann skizzierten Aussehen nur in Nuancen unterscheidet, merken diese Leute leider nicht. Auf die Wirkung kommt es an, nicht auf den Inhalt.

Rainer Hoffmann und Team vom Klimamanifest haben sich daher die ermüdende Aufgabe gestellt , diese Penetranz des Sven Plöger aufzulisten und in einem – sehr langen, aber trotzdem überwiegend kurzweiligen Video – aufzulisten und mit den realen Wetterereignissen, deren Mittelwertbildung über mindestens 30 Jahre ja erst zu ersten Ergebnissen von lokalem Klima führt, zu vergleichen.

Das Ergebnis:

Der vielfach bewunderte, tlw. sogar regelrecht angehimmelte Sven Plöger redet fast nur noch Schrott. Für verängstigte Laien zwar glaubwürdigen Schrott, aber eben immer noch Schrott. Und R. Hoffmann – offensichtlich Plöger gestählt und damit „monotoniefest“, kommt auf sagenhafte 27 Zitate von Plögers Sven, mit denen dieser, seine Meinung fälschlich als Tatsache dargestellt, dem dankbaren Publikum einhämmert. Mit Sicherheit ein Rekord.

Dies wird besonders deutlich, wenn er systematisch Ursache und Wirkung vertauscht, also das Klima, gar den globalen Klimawandel, für das lokale Wetter an der Ahr verantwortlich macht, wenn er die Ostsee zum Mittelmeer erklärt, welche die Regenmengen, die auch im Ahrtal niedergingen, geliefert hätte, obwohl seine Kollegen eben dies aus der Nordsee stammend erklärten, tlw. auch aus Südeuropa. Wie das eben so ist bei dieser Zunft von „Wissenschaftlern“. Wenn man nichts genaues weiß, dann sucht man sich eben das passende weil wirksame heraus.

Das Team vom Klimamanifest schreibt daher korrekterweise dazu:

Das 84-minütige Video (V4) dokumentiert anhand zahlreicher TV-Ausschnitte die medialen Tricks des ARD-Meteorologen Sven Plöger, wie er den TV-Zuschauern suggeriert und einredet, es gäbe angeblich einen menschengemachten Klimawandel. Haben Sie gewusst, dass der ARD-Meteorologe Sven Plöger bei seinen TALK-SHOW-Auftritten häufig die gleichen Textbausteine verwendet, um den Zuschauern zu suggerieren, «die Wissenschaft hätte bereits vor 30, 40 Jahren festgestellt», dass es einen menschengemachten Klimawandel gäbe, weil «die Wissenschaft bereits vor 30, 40 Jahren» behauptet hätte, – so Plöger -, es würde «in 30, 40 Jahren» – d.h. in der heutigen Zeit – mehr Wetterextreme (z.B.: Starkregen, Trockenheit, Dürren) geben? Schätzen Sie mal vorab, wie oft Sven Plöger seinen «30, 40 Jahre»-Spruch in den letzten gut 2 Jahren bei seinen TV-Auftritten vorgebracht hatte: 5-mal?, 15-mal?, 25-mal? oder noch mehr? Obwohl Sven Plöger bei seinen TV-Auftritten auch mehrfach behauptet hat, dass man die damaligen Behauptungen der Wissenschaft auch heute noch in alten Zeitungen und Zeitschriften nachlesen könne, hat Sven Plöger bei seinen häufigen TV-Auftritten bis heute kein einziges Beleg-Beispiel aus «alten Zeitungen» konkret genannt, welche Behauptungen denn GENAU die Wissenschaft «vor 30, 40 Jahren» aufgestellt hatte. Machen Sie sich bewusst, dass mit «vor 30, 40 Jahren» der Zeitraum von 1980-82 bis 1990-92 gemeint ist.

Es lohnt, die Zeit aufzuwenden und sich das Video in voller Länge zu Gemüt zu führen.

 




Nimmt die Zahl der „Hitzetoten“ in Deutschland zu?

Die behauptete Zunahme der „Hitzetoten“ stützt sich bei näherem Hinsehen nicht nur auf dürftige Quellen. Notwendige Einordnungen werden nicht vorgenommen, zu kurze Zeiträume betrachtet, Kältetote ignoriert. 

Von Wolfgang Meins

Stellt man dem Internet diese Frage, wird sie – Überraschung – vehement bejaht, und es wird gleich auf vier Belege bzw. Medienbeiträge verwiesen, die sich aber allesamt auf dieselbe Quelle beziehen: eine 2021 in der medizinischen Fachzeitschrift Lancet publizierte Studie. Skeptisch macht bei diesen Belegen für eine Zunahme der „Hitzetoten“ der ebenso willkürlich erscheinende wie auch recht kurz bemessene Vergleichszeitraum von 2000 bis 2004 mit 2014 bis 2018.

Vielleicht hilft bei der Beantwortung der hier interessierenden Frage ausnahmsweise mal eine jüngst im Deutschen Ärzteblatt erschienene Studie mit dem Titel: „Hitzebedingte Mortalität in Deutschland zwischen 1992 und 2021“. Der Titel hält leider nicht ganz, was er verspricht, denn im Wesentlichen beschränkt sich die Analyse auf den sehr übersichtlichen Zeitraum von 2018 bis 2020. Warum? Weil in diesen drei Jahren recht hohe Sommertemperaturen herrschten und sich deshalb, besonders 2018, auf der Grundlage von Schätzungen, vergleichsweise viele „Hitzetote“ ergaben.

Ein Datensatz über einen Zeitraum von 30 Jahren wäre eigentlich doch eine zumindest halbwegs solide Grundlage, um einen zeitlichen Trend zu berechnen: Hat die hitzebedingte Mortalität nun zugenommen, abgenommen oder ist sie gleichgeblieben? Nicht nur dass die Autoren diese sich aufdrängende Frage unbeantwortet lassen, sie präsentieren dem Leser auch bloß die Daten der zehn Jahre von 2012 bis 2021 – mit den besonders eindrucksvollen Zahlen für den Zeitraum von 2018 bis 2020. Die vorangegangenen 20 Jahre von 1992 bis 2011 muss sich der besonders interessierte Leser aus einer im Internet „versteckten“ Tabelle dagegen selbst besorgen.

Keine Zunahme erkennbar

Es genügt dann allerdings ein Blick, um den begründeten Verdacht zu entwickeln, dass zwischen den ersten 15 Jahren von 1992 bis 2006 und den zweiten von 2007 bis 2021 keine Zunahme der hitzebedingten Todesfälle erkennbar ist. Schreitet man zum Äußersten und berechnet jeweils das arithmetische Mittel, ergeben sich für die ersten 15 Jahre 2.773 hitzebedingte Sterbefälle pro Jahr, für die zweiten 15 Jahre 2.780, also praktisch ein identisches Ergebnis. Zudem gab es in beiden Zeiträumen jeweils nur sechs Jahre, in denen es überhaupt zu einer statistisch signifikanten hitzebedingten Übersterblichkeit kam. Mit solchen Ergebnissen möchte das Ärzteblatt die Leser aber nicht behelligen, passen sie doch nicht so recht ins Narrativ der „Klimakatastrophe“.

Auch kommen die Autoren angesichts einer recht eindeutigen Grafik nicht umhin, feststellen zu müssen, „dass im Allgemeinen dieselbe Wochenmitteltemperatur in der Dekade 2012 bis 2021 weniger stark auf die Mortalität einwirkte als etwa in der Dekade 1992 bis 2001. Dies kann als Hinweis auf eine gewisse Anpassung der Bevölkerung an wiederkehrende Hitzeperioden interpretiert werden.“ Was im Übrigen nichts Neues ist, sondern durch entsprechende Studien, z.B. für die USA oder auch Spanien, längst gut belegt ist.

Angesichts ihrer – im Vergleich zu der eingangs erwähnten Lancet-Studie – um schlappe 130 Prozent (8.700 vs 20.000) niedrigeren „Hitzetoten“-Schätzung für das Jahr 2018 weisen die Ärzteblatt-Autoren kollegial auf eine „vereinfachte“ Methodik bei Lancet hin, die zu solchen Differenzen führen könne. Ok, das kann mal passieren. Aber bestimmt fallen Lancet-Schätzungen für andere Länder dafür entsprechend niedriger aus, wie uns jedenfalls die Ärzteblatt-Autoren versichern.

Auch in der hier interessierenden Studie bleibt ein ganz wesentlicher Aspekt unberücksichtigt: der vor allem in älteren Studien mitgeteilte Befund einer einige Tage bis wenige Wochen nach „Hitzewellen“ typischerweise auftretenden kompensatorischen Untersterblichkeit. Das wiederum liegt daran, dass in vielen oder gar den meisten Fällen der „Hitzetod“ bereits todgeweihte, oder wie der Mediziner sagt, moribunde, auch kognitiv meist stark eingeschränkte, hochbetagte Menschen trifft.

Die Kältetoten im Winter

Autoren einer wissenschaftlichen Publikation sind grundsätzlich gehalten, den Stellenwert ihrer Ergebnisse kritisch in den bisherigen Forschungsstand einzuordnen. Dazu gehört bei diesem Thema nach meinem Empfinden zwingend auch ein wenigstens kurzer Blick auf die andere Gruppe der Temperaturopfer – die „Kältetoten“ bzw. die kältebedingte Übersterblichkeit –, der hier nachgeholt werden soll: Eine im Auftrag der WHO erfolgte Analyse schätzt für Deutschland die Zahl der kältebedingten Übersterblichkeit im Winter jährlich auf durchschnittlich gut 32.000, davon etwa 9.500 infolge von zu niedrigen Innentemperaturen. Damit führen (zu) kalte Temperaturen insgesamt fast zwölfmal häufiger zum Tod als zu warme. Allein durch ungenügende Raumtemperaturen versterben jährlich im Mittel mehr Menschen als temperaturbedingt im Hitzesommer 2018.

Während die Risikogruppe in Bezug auf ein „hitzebedingtes“ vorzeitiges Ableben vorzugsweise die Hochbetagten sind, gilt als Risikogruppe für einen vorzeitigen kältebedingten Tod die Altersgruppe ab 65 Jahren – sofern zusätzlich relevante Vorerkrankungen bestehen. Gemeint sind damit vor allem Bluthochdruck, chronisch obstruktive Lungenerkrankung und koronare Herzkrankheit. Hauptsächlich für diese in unserer alternden Gesellschaft nicht kleine Risikogruppe wird die als gerade noch ausreichend angesehene Raumtemperatur von mindestens 18 Grad – auch mangels einschlägiger Studien – nicht mehr als überwiegend gesichert angesehen.

Aber das alles ist weder für den Medizinbetrieb noch die Medien ein ernsthaftes Thema. Angesichts der infolge eines Energiemangels drohenden kältebedingten Sterbewelle im kommenden Winter gefällt man sich darin – offenkundig unbelastet von jeglichem speziellen Wissen –, launige Tipps zu geben. Stellvertretend sei hier der Weser-Kurier angeführt, der den entsprechenden Artikel aufmacht mit: „Frieren bei Gasmangel? Wieso kühlere Wohnungen gesünder sind. Wegen des Konfliktes mit Russland wird über niedrigere Mindesttemperaturen diskutiert. Aus medizinischer Sicht kein Problem – im Gegenteil.“

Hier geben Mediziner wertvolle Tipps, wie: „einfach mal um den Block zu laufen, dann kommt uns die Wohnung gleich viel wärmer vor“, oder: „Wer seiner Gesundheit etwas Gutes tun möchte, kann auch vor dem Fernseher Liegestütz machen.“ Nicht zu vergessen natürlich der Klimaschutz, denn „mit jedem Grad, um das ich die Raumtemperatur senke, spare ich sechs Prozent Energie.“ So sind das Leiden und vielleicht gar der Tod wenigstens nicht umsonst, sondern dienen einem höheren Zweck.

Der Beitrag erschien zuerst bei Achgut hier

 

 




Ist die Klimapolitik mit sozialer Marktwirtschaft vereinbar?

Edgar L. Gärtner

Wie die gefährlichen Verkehrsblockaden durch Aktivisten der „Letzten Generation“ und deren moralische Unterstützung durch das Habeck-Ministerium der von den Grünen dominierte Berliner Ampel-Regierung, die christlichen Kirchen und politisierte Großkonzerne demonstrieren, ist die politische Auseinandersetzung um die finanzielle Förderung von Wind- und Solarstrom und die Verlängerung der Laufzeit der letzten in Deutschland noch betriebenen Kernkraftwerke längst zu einem Glaubenskampf geworden, in dem Sach-Argumente kaum mehr zählen. Es geht in der Auseinandersetzung mit den „grünen Khmer“ um Leben oder Tod. Wie könnte man da eine dauerhafte und letztlich zerstörerische Spaltung der Gesellschaft noch verhindern?

Nils Goldschmidt und Arnd Küppers sehen hier in einem kürzlich in der Frankfurter Allgemeinen hinter einer Bezahl-Schranke veröffentlichten Aufsatz Parallelen zu den Konflikten, die die Weimarer Republik zerrissen und Hitler an die Macht gebracht haben. Diese Konflikte wurden im Westen erst nach der bedingungslosen Kapitulation Hitler-Deutschlands zeitweilig überwunden – und zwar durch die Idee der „Sozialen Marktwirtschaft“, die der protestantische Ökonom Alfred Müller-Armack erstmals in seinem 1947 erschienenen Buch „Wirtschaftslenkung und Marktwirtschaft“ entwickelte. Müller-Armack war einer der engsten Berater Ludwig Erhards, der 1948 im Zuge der Währungsreform mit seinem mutigen Schritt der Abschaffung von Preiskontrollen und Rationierung den Weg zum westdeutschen „Wirtschaftswunder“ freimachte.

Ökonomie der Versöhnung

Müller-Armack schrieb sein wegweisendes Buch im katholischen Kloster Vreden in der Nähe der niederländischen Grenze. Dorthin war seine Forschungsstelle an der Universität Münster während des Krieges ausgelagert worden. Wie dem ebenfalls protestantischen Ludwig Erhard ging es Müller-Armack nicht vordergründig um eine ökonomische Wachstumsstrategie, sondern um ein gesellschaftliches Reformprojekt, das Aufbrechen der Kartellierung bzw. „Vermachtung“ der Wirtschaft durch die Stärkung des Wettbewerbs auf dem freien Markt. Das „Wirtschaftswunder“ war nicht primäres Ziel, sondern willkommene Nebenwirkung der von ihm angeregten ethischen Neuausrichtung der Wirtschaftspolitik. Durch das Anfügen des Attributs „Sozial“ zur Marktwirtschaft, so Goldschmidt und Küppers, wollte Müller-Armack signalisieren, dass er die Renaissance der Marktwirtschaft als „Ökonomie der Versöhnung“ verstand, das die Grabenkämpfe, die zur Zerstörung der Weimarer Republik geführt hatten, überwinden sollte. Er bezeichnete das Schlagwort „Soziale Marktwirtschaft“ selbst als „irenische Formel“, als Friedensformel zur Überwindung des Ressentiments zwischen „arm“ und „reich“. Ludwig Erhard hingegen wies wiederholt darauf hin, dass die Marktwirtschaft gar nicht des Attributs „sozial“ bedurfte, da sie an und für sich sozial sei. „Der Markt ist der einzig gerechte demokratische Richter, den es überhaupt in der modernen Wirtschaft gibt“, betonte er im Jahre 1950 im deutschen Bundestag.

Allerdings stieß Erhard von Anfang an auf Widerstand – nicht nur bei den sozialdemokratisch orientierten Gewerkschaften, sondern auch im eigenen politischen Lager. Im Jahre 1957 setzte Bundeskanzler Konrad Adenauer gegen den Widerstand seines Wirtschaftsministers Erhard, um der Altersarmut kurzfristig abzuhelfen, die Rentenreform in Form des längerfristig nicht durchhaltbaren Umlageverfahrens durch. Immerhin ging die hinter der „irenischen Formel“ stehende Wette bis weit in die 1960er Jahre auf: Der erwünschte soziale Friede stellte sich ein und ermöglichte ein im Vergleich zu unseren westeuropäischen Nachbarländern beeindruckendes Wirtschaftswachstum. Schon 1950 überschritt das Realeinkommen der Durchschnittsdeutschen das Vorkriegsniveau und ab 1960 herrschte in Deutschland offiziell Vollbeschäftigung. Doch wenn es den Menschen zu gut geht, werden sie leichtsinnig und übermütig. Die Studentenrevolte von 1968 und ihr „Marsch durch die Institutionen“ in den folgenden Jahrzehnten setzte alle ökonomischen und sozialen Errungenschaften der ersten Nachkriegs-Jahrzehnte wieder aufs Spiel. Immer öfter wurden Rufe nach staatlicher Lenkungswirtschaft (oft verbrämt durch anarchistische Parolen) laut. Heute sind vom Friedenswerk Müller-Armacks nur noch ferne Erinnerungen übrig. Längst geht es im Konflikt um den „Klimaschutz“ um Leben und Tod der Demokratie und des sozialen Friedens.

In dieser Situation schlagen Goldschmidt und Küppers eine „irenische Zusammenführung“ verschiedener Gruppen und Parteien zu einer „praktischen Weltaufgabe“ vor. Statt um den Wiederaufbau Deutschlands und Europas nach den Flächenbombardements der Alliierten im Zweiten Weltkrieg gehe es nun um die „Transformation von Wirtschaft und Gesellschaft hin zur Klimaneutralität“. Denn es stehe außer Frage, dass das die „größte Aufgabe unserer Epoche“ ist. Als studierter Ökologe frage ich mich da unwillkürlich, wie die beiden Autoren zu dieser Einschätzung gelangt sind. Vermutlich akzeptieren sie unhinterfragt das Dogma eines linearen Zusammenhangs zwischen der atmosphärischen CO2-Konzentration und der Entwicklung der globalen Durchschnittstemperatur. Bis jetzt ist dieser Zusammenhang aber rein hypothetisch und wird wahrscheinlich nie schlüssig bewiesen werden können. Dafür sind das Wettergeschehen und die mittelfristige Entwicklung des Klimas im regionalen und globalen Maßstab viel zu komplex, weil da eine unüberschaubare Zahl natürlicher und gesellschaftlicher Ursachen zusammenwirkt. Darf man aus einer unzureichend begründeten Vermutung quantifizierte politische Vorgaben wie das Kioto-Protokoll von 1997 und das Pariser Klimaschutzabkommen von 2015 ableiten? Und verdient das Ergebnis der hoheitlichen Zuteilung handelbarer „Treibhausgasemissionslizenzen“ (Zertifikate) und deren politische Rationierung noch die Bezeichnung „Soziale oder Ökologische Marktwirtschaft“? Goldschmidt und Küppers bejahen diese Fragen implizit.

Ich selbst habe schon vor 20 Jahren in meinem Beitrag im einschlägigen „Handbuch Nachhaltige Entwicklung“ (2003) ebenfalls ausgehend vom oben zitierten Buch Alfred Müller-Armacks zu begründen versucht, warum ich diese Fragen verneinen muss. Außer auf Müller-Armack habe ich mich dort aber auch auf den Abschlussbericht der Enquete-Kommission des 13. Deutschen Bundestages „Schutz des Menschen und der Umwelt“ (1998) sowie auf Arbeiten des französischen Wissenschaftsforschers Bruno Latour berufen. Ich habe damals hergeleitet, dass Müller-Armacks „irenische Formel“ nur dann mit individueller Freiheit und Demokratie vereinbar ist, wenn sie nicht als operatives wirtschaftliches Management-Modell, sondern als „produktives Missverständnis“ behandelt wird.

Die Nachhaltigkeits-Enquête des 13. Deutschen Bundestages hatte darauf hingewiesen, dass bei der Umsetzung politischer Gestaltungsansprüche meist andere als die gewollten Ergebnisse erzielt werden, wenn nicht sogar ihr Gegenteil: „Am Ende kommt man bei der Gestaltung gesellschaftlicher Prozesse selten dort an, wohin man wollte – und wenn doch, hat das ursprüngliche Ziel seine Bedeutung geändert, hat der Weg selbst mit seinen Stationen und Umwegen längst die Perspektiven verschoben, neue Horizonte geschaffen. Notwendig ist deshalb die Offenheit der Suchprozesse, damit Versuch und Irrtum einander ablösen und einmal gesetzte Ziele revidiert werden können, wenn sie sich als Irrtum erweisen.“ Überdies, so die Kommission weiter, gebe es „keine eindeutigen Bezugspunkte, die es erlauben würden, wissenschaftlich zu entscheiden, was optimale Umweltzustände sind.“

Diese Einsichten sind vermutlich beim Umzug von Parlament und Regierung nach Berlin in Vergessenheit geraten. Zwar versicherte der damals dafür zuständige Staatsminister, mit Planwirtschaft habe die vom Bundeskabinett im April 2002 verabschiedete „Nachhaltigkeitsstrategie“ nichts zu tun. Doch zeigen die Reihenfolge der dort gewählten Nachhaltigkeitsindikatoren wie das (vergebliche) Insistieren der deutschen und EU-Delegationen auf den „Klima-Gipfeln“ auf entsprechenden quantitativen Vorgaben im dort verhandelten globalen Aktionsplan, dass dem Papier die Überzeugung zugrunde liegt, (natur-)wissenschaftlich sei längst ausgemacht, wohin die Reise gehen muss.

Bruno Latours „Parlament der Dinge“ 

Der (grüne) französische Wissenschaftsforscher Bruno Latour teilt diese Illusion nicht. In seinem Versuch einer „symmetrischen Anthropologie“ von 1991 und in seiner Essay-Sammlung Pandora’s Hope von 2000 räumte er mit der Vorstellung auf, die exakten (Labor-)Wissenschaften („Sciences“, auf Deutsch ganz irreführend „Naturwissenschaften“ genannt) beschäftigten sich mit der Natur und lieferten den Schlüssel für die saubere Trennung zwischen Objekt und Subjekt, zwischen Tatsachen und Werten. Da es unmöglich sei, Menschen und Dinge voneinander zu trennen, existierten die Gegenstände wissenschaftlicher Forschung nicht ohne die Forscher und umgekehrt. Latour schloss daraus: Vor Louis Pasteur habe es (für die Menschen) keine Mikroben gegeben.

Um Glaubenskriege zu verhindern, könne sich die Politik nicht auf die „modernistische Übereinkunft“ einer unabhängig von menschlichen Interessen existierenden Natur berufen. „Natur“ gebe es nur im Plural. Die Erde sei nicht a priori die „eine Welt“, das „gemeinsame Haus“ der Menschen. Die unterschiedlichen konkreten Lebenswelten müssten vielmehr erst (auf möglichst demokratische Weise) „von unten“ zu einem solchen gemacht werden – und zwar mithilfe des von Latour angeregten Parlaments der Dinge mit einem „Oberhaus“, das entscheidet, welche Anliegen einbezogen werden, und einem „Unterhaus“ für das Ordnen der einbezogenen Mischwesen.

Wie der liberale Ökonom Friedrich-August von Hayek (aber unter einem ganz anderen politischem Vorzeichen!) geht also auch Latour davon aus, dass die Menschen, trotz aller erreichten wissenschaftlich-technischen Fortschritte, weiterhin grundsätzlich im Dunkeln tappen müssen. Sie können sich (in Form des „Parlaments der Dinge“) lediglich politisch auf eine „experimentelle Metaphysik“ einigen. Das heißt sie können nur so tun, als hätten sie das für das Management der Erde nötige Wissen.

In diesem Sinne interpretiert Latour Verlauf und Ausgang der Klimakonferenzen von Kyoto (1997) und später Paris (2015). In den Mammut-Palavern sieht er Vorstufen seines „Parlaments der Dinge“. Denn dort habe es erstmals eine politische Repräsentation nichtmenschlicher Wesen neben allen Formen legitimer menschlicher Interessen gegeben. Man dürfe in den Ergebnissen solcher und anderer Großveranstaltungen aber keinen durch rationale Diskurse erzielten Konsens sehen. Vielmehr handele es sich dabei um diplomatische Zweideutigkeiten: „Diplomatie bedeutet, dass es (…) keinen Schiedsrichter gibt, der darüber wacht, ob rationale Verhandlungsbedingungen eingehalten werden und der die eine oder andere Partei des Irrationalismus zeiht, wenn die Verhandlungen scheitern. In der Diplomatie ist vielmehr die Aufrechterhaltung der Zweideutigkeit Bedingung für die Einstellung von Feindseligkeiten. In einer Welt, in der Verstehen unwahrscheinlich ist, haben wir nur den Weg der Diplomatie um Blutvergießen zu verhindern“, erklärt Latour. „Der rationale Diskurs ist demgegenüber ein unerreichbares Ideal. Wir sind zu viele auf der Welt, um uns darauf einigen zu können, wie diese aussehen soll.“ (so Bruno Latour in einem Interview mit dem Verfasser, veröffentlicht in der „Frankfurter Allgemeinen Sonntagszeitung“ am 12.Mai 2002).

Die auf diplomatischen Arrangements fußenden Maßnahmen sind deshalb für Latour nichts weiter als (friedensstiftende) offene kollektive Realexperimente, deren Verlauf durch ein wissenschaftliches Monitoring begleitet werden sollte. Insofern hat Bruno Latour recht, wenn er Versuche, das Kyoto-Protokoll naturwissenschaftlich zu begründen, von vornherein für müßig erklärt. Dennoch hat er sich ohne Vorbehalt hinter die für den Westen suizidären Beschlüsse der Mammut-Palaver des Kioto-Prozesses gestellt. Er unterstützt bis heute den Aberglauben, eine Drosselung, wenn nicht die totale Zerstörung der Wirtschaft durch „Net Zero“ leiste einen Beitrag zur Milderung von Hitze und Trockenheit. Folgerichtig wurde er im Jahre 2021 mit dem „Kyoto-Preis“, einem der neben dem Nobelpreis höchst dotierten Wissenschaftspreise, ausgezeichnet.

Bruno Latour hat mit dem von ihm vorgeschlagenen „Parlament der Dinge“ zwar das Problem der Quellen des Management-Wissens konstruktivistisch aufgelöst und dadurch die Ökologie (zumindest in der Theorie) einigermaßen mit demokratischen Ansprüchen versöhnt. Doch hinter dem damit ausgesprochenen „Primat der Politik“ sind die Belange der Ökonomie beinahe vollständig dem Gesichtskreis entschwunden. Er verdächtigt die Ökonomen sogar, statt auf eine Politische Ökonomie auf eine „Ökonomie des Politischen“ im Sinne eines sparsamen Umgangs mit Politik hin zu arbeiten und regte sich darüber auf, dass auch „Klimaskeptiker“ sich seiner konstruktivistischen Argumentation bedienten.

Bruno Latour geriet m.E. vor allem deshalb in ein wirtschaftlich und ethisch bedenkliches Fahrwasser, weil er seinem „Parlament der Dinge“ Aufgaben zuschrieb, die nach Ansicht Friedrich August von Hayeks und der Begründer des Liberalismus eigentlich der Markt lösen sollte. Nur dort ist ein ethisch einwandfreier Umgang mit dem auch Latour durchaus bewussten Problem der Entscheidungen unter der Bedingung mangelnden, wenn nicht völlig fehlenden Wissens denkbar. Von Marktwirtschaft kann man m.E. eigentlich nur sprechen, wenn die freien Marktteilnehmer die Informationen, die ihren Investitions-, Kauf- und Verkaufsentscheidungen zugrunde liegen, ausschließlich vom Markt selbst und nicht aus konstruierten Narrativen und entsprechenden staatlichen Vorgaben beziehen. Neben den Marktsignalen brauchen die Menschen in diesem Prozess spontaner Ordnungsbildung nur die 10 Gebote der Bibel oder ähnliche seit Jahrtausenden bewährte Lebensregeln ohne Bezug zur außermenschlichen Umwelt als Vorgaben. Jedwede weitere externe Vorgabe muss als Einstieg in den Sozialismus gewertet werden. Kurz: Was nachhaltig ist, “weiß“ in einem liberal-demokratisch und marktwirtschaftlich verfassten Gemeinwesen nur der Markt. Wobei der Markt nicht als Abstraktum verstanden werden darf, sondern als Summe der Entscheidungen Tausender, wenn nicht Millionen vernunftbegabter Individuen. Diese gründen sich auf die Hoffnung, dass sich im Wettbewerb hinter ihrem Rücken materielle Fortschritte einstellen, von denen zuvor niemand geträumt hat. Friedrich-August von Hajek hat das wie folgt auf den Punkt gebracht: „Weil jeder einzelne so wenig weiß, vertrauen wir darauf, dass die unabhängigen und wettbewerblichen Bemühungen Vieler die Dinge voranbringen, die wir wünschen werden, wenn wir sie sehen.“

Latours Vorschlag einer „experimentellen Metaphysik“ kann dagegen alles Mögliche rechtfertigen – insbesondere auch angeblich von „der“ Wissenschaft gebotene repressive, aber kaum wirksame Maßnahmen wie den Lockdown zur Eindämmung einer politisch dekretierten Corona-Pandemie. Das hat Latour in seinem gegen Ende des vergangenen Jahres erschienen Buch mit dem Titel „Wo bin ich?“ explizit getan. Es zeigt, dass der postmoderne Konstruktivismus letztlich immer dazu dient, das jeweils herrschende Narrativ zu bestätigen. Insofern stimme ich dem zu, was die Physiker Alan Sokal und Jean Bricmont 1999 über Latour und andere postmoderne Wissenschaftsforscher schrieben: Es handele sich dabei um „eleganten Unsinn“, der obendrein gefährlich werden kann, wenn er wie im Fall der Covid-„Pandemie“ zur Begründung despotischer Maßnahmen dient. Im Klartext: Ich halte das Einsperren der Bevölkerung und die ihr mithilfe massiver Erpressung angeblich als Schutz vor Covid-19 aufgedrückte ebenso nutzlose wie gefährliche Gen-Spritze für „experimentelle Metaphysik“ reinsten Wassers.

Produktive Missverständnisse

Konsens, da hat Bruno Latour zweifelsohne recht, beruht in einer ungeplanten Welt fast immer auf Missverständnissen. Fortschritte der Neurobiologie auf der einen Seite und die von der Wissenschaftsforschung vermittelten Einsichten in die Entstehungsbedingungen und den politischen Stellenwert wissenschaftlichen Wissens auf der andern Seite legen es nahe, die Hoffnung, über rationale Diskurse zu einvernehmlichen und dauerhaften Lösungen gesellschaftlicher Probleme gelangen zu können, als unbegründet fahren zu lassen.

Wir wissen heute: Missverständnisse sind unvermeidlich. Es fragt sich nur, ob diese destruktiv oder produktiv sind. Die große Kunst der Politik besteht darin, Konsensformeln zu finden, die auf produktiven Missverständnissen beruhen. Dabei handelt es sich im Prinzip um Leerformeln, die einen so großen politischen und wirtschaftlichen Interpretations- und Gestaltungsspielraum bieten, dass alle Akteure damit lange Zeit in Frieden leben und auf einigermaßen anständige Weise ihren wirtschaftlichen Interessen nachgehen können.

Die Väter der „Sozialen Marktwirtschaft“ wussten wohl, warum es besser war, ihr Leitbild nicht in die Form quantitativer Zielvorgaben zu bringen. Jedenfalls gibt es darüber bis heute, je nach politischer Partei oder zivilgesellschaftlicher Organisation, die unterschiedlichsten Vorstellungen. Doch wurde dieses Manko bislang keineswegs zum Anlass, Meinungsverschiedenheiten mit juristischen Mitteln oder gar durch die Anwendung physischer Gewalt auszutragen. Im Gegenteil: Gerade als Leerformel brachte die „soziale Marktwirtschaft“ den Deutschen ein halbes Jahrhundert lang inneren Frieden und Wohlstand. Hätten sich Wissenschaftler und Politiker jedoch schon in den fünfziger Jahren daran gemacht, die Formel zum operativen Managementkonzept mit 20 oder 50 Indikatoren für die Messung seiner Umsetzung auszubauen, hätte der schillernde Begriff höchstwahrscheinlich bald seine Faszination eingebüßt und wäre möglicherweise schon längst wieder in Vergessenheit geraten.

Der Verzicht auf inhaltliche Ausgestaltung und quantitative Operationalisierung wertet die Idee der Sozialen oder Ökologischen Marktwirtschaft keineswegs ab. Denn eine regulative Idee im Sinne Emmanuel Kants (wie Wahrheit, Freiheit oder Gerechtigkeit) ist viel mehr als „nur so ´ne Idee.“ Sie kann durchaus zur materiellen Gewalt werden, indem sie Leidenschaften erzeugt. Neuerdings scheint die Idee der „Sozialen Marktwirtschaft“ bei den Deutschen wieder im Aufwind zu sein. Nach einer im vergangenen Jahr vom Allensbach Institut durchgeführten demoskopischen Umfrage finden 56 Prozent der Deutschen die irenische Formel sympathisch. Im Jahre 2005 waren es nur 34 Prozent. Die Idee einer nachhaltigen Entwicklung mit und in der „Sozialen und Ökologischen Marktwirtschaft“ (aber ohne Rationierung der CO2-Emissionen bzw. des „Ökologischen Fußabdrucks“!) hätte m.E. durchaus das Zeug, weiterhin als friedensstiftendes Missverständnis zu dienen. Das kann sie aber nur, wenn sie den Zauber der Vieldeutigkeit bewahrt.

 




Wissenschaftler fordern Abkehr vom deutschen Atomausstieg

Zwanzig Energie-Experten rufen zu einer realitätspolitischen Wende auf. Publico dokumentiert ihren Appell, mit dem die Unterzeichner eine öffentliche Debatte erzwingen wollen

Von Alexander Wendt

 

Auf der Tagung „20 Jahre Energiewende – Wissenschaftler ziehen Bilanz“ an der Universität Stuttgart am 8. und 9. Juli 2022 widmete sich eine Reihe von Experten der Aufgabe, die energiepolitischen Pläne der aktuellen Bundesregierung und der Regierungen vor 2021 einer Realitätsüberprüfung zu unterziehen.

Ihr Fazit lautete: Egal, ob es um die Energieerzeugung, ihre Speicherung, den Netzausbau oder die Frage der Bezahlbarkeit geht – zwischen der Vorstellung in der Politik und den begleitenden Erzählungen in vielen Medien einerseits und der Wirklichkeit klafft eine Lücke, die sich auch bei noch so großer Anstrengung in absehbarer Zeit nicht schließen lässt.

Spätestens seit sich das Vorhaben nicht mehr verwirklichen lässt, bis 2030 dreißig bis sechzig neue mit russischem Gas belieferte Gaskraftwerke zu errichten, die den Strom aus Atom- und Kohlekraftwerken ersetzen und die nötige Regelenergie liefern sollten, wenn der Wind nicht ausreichend weht und die Sonne nicht scheint, brach die zentrale Stütze des Energiewende-Designs zusammen. Einen Alternativplan legte die Bundesregierung bisher nicht vor.

Die Debatte innerhalb des politischen Betriebs und in einem Teil er Medien konzentriert sich zurzeit auf einen Weiterbetrieb der letzten drei verbliebenen Kernkraftwerke für einige Monate über das Jahresende 2022 hinaus. Gleichzeitig plädieren Politiker, die bisher die Reduzierung des CO2-Ausstoßes zum obersten Ziel erklärt hatten, für eine sehr viel stärkere Kohleverstromung, um nicht eingestehen zu müssen, dass es sich bei dem deutschen Atomausstieg um einen irrationalen Sonderweg handelt, der die Energieversorgung des größten europäischen Industrielandes aufs Spiel setzt. Derzeit steht übrigens noch nicht einmal fest, ob sich die notwendige zusätzliche Steinkohlemenge überhaupt zuverlässig zu den Kraftwerken transportieren lässt.
Eine Betriebsverlängerung der Atomkraftwerke nur um einige Monate würde das grundsätzliche Problem nur ein weiteres Stück in die Zukunft verschieben.

Auf Anregung von Professor André Thess, Organisator der Tagung und Inhaber des Lehrstuhls für Energiespeicherung an der Universität Stuttgart fanden sich Wissenschaftler von 12 Universitäten und Hochschulen und dem Karlsruher Institut für Technologie zusammen, um Politik und Öffentlichkeit mit der „Stuttgarter Erklärung“ zu einer Art Realitätswende aufzurufen: weg von immer neuen hektischen Kurswechseln, hin zu einer langfristig stabilen und bezahlbaren Energieversorgung, die es ihrer Ansicht nach nicht ohne Kernenergie geben kann.
Die Erklärung wurde am 26. Juli beim Petitionsausschuss des deutschen Bundestages eingereicht. Erhält sie mehr als 50 000 Unterschriften, muss ihre Forderung im Parlament behandelt werden: die Rücknahme des Atomausstiegs.

Ziel der Erklärung ist es außerdem, über das parlamentarische Verfahren hinaus eine Debatte in Deutschland anzustoßen, bei der Wissenschaftler mehr und anders zu Wort kommen als bisher.

Publico dokumentiert ihren Wortlaut.

 

Stuttgarter Erklärung

25. Juli 2022

Mit einseitiger Ausrichtung auf Sonne, Wind und Erdgas wurde Deutschland in Energienot manövriert. Steigende Energiepreise und sinkende Versorgungssicherheit gefährden Wettbewerbsfähigkeit und Wohlstand. Das Festhalten am deutschen Atomausstieg verschärft diese Gefahren und bremst – zusammen mit anhaltender Kohleverstromung – den internationalen Klimaschutz. Der Weltklimarat IPCC bezeichnet die Kernenergie als ein Instrument des Klimaschutzes. Die Europäische Union ordnet Kernenergie als nachhaltige Energiequelle ein. Auf dieser Grundlage plädieren wir für den Weiterbetrieb der deutschen Kernkraftwerke als dritte Klimaschutzsäule neben Sonne und Wind. Wir fordern die sofortige Aufhebung der Atomausstiegs-Paragraphen (insbesondere §7 Atomgesetz) und eine Prüfung der sicherheits- technischen Betriebserlaubnis, um deutschen Kernkraftwerken den Weiterbetrieb zu ermöglichen.

Prof. Dr. André D. Thess, Universität Stuttgart
Prof. Dr. Harald Schwarz, BTU Cottbus-Senftenberg
Prof. Dr. Michael Beckmann, TU Dresden
Prof. Dr. Burak Atakan, Universität Duisburg-Essen
Prof. Dr. Alexander Dilger, Westfälische Wilhelms-Universität Münster
Prof. Dr. Francesca di Mare, Ruhr-Universität Bochum
Prof. Dr. Kerstin Eckert, TU Dresden
Prof. Dr. Sabine Enders, Karlsruher Institut für Technologie (KIT)
Prof. Dr. Martina Hentschel, TU Chemnitz
Prof. Dr. Dr. Rafaela Hillerbrand, Karlsruher Institut für Technologie (KIT)
Prof. Dr. Antonio Hurtado, TU Dresden
Prof. Dr. Matthias Kind, Karlsruher Institut für Technologie (KIT)
Prof. Dr. Marco Koch, Ruhr-Universität Bochum
Prof. Dr. Andrea Luke, Universität Kassel
Prof. Dr. Axel Meyer, Universität Konstanz
Prof. Dr. Frank R. Schilling, Karlsruher Institut für Technologie (KIT)
Prof. Dr. Klaus Steigleder, Ruhr-Universität Bochum
Prof. Dr. Robert Stieglitz, Karlsruher Institut für Technologie (KIT)
Prof. Dr. Gerhard Wegner, Universität Erfurt
Prof. Dr. Thomas Wetzel, Karlsruher Institut für Technologie (KIT

Der Beitrag erschien zuerst auf dem Blog des Autors hier