Wasser – ein wahrhaft himmlisches wie rätselhaftes Wetterelement

Das „Feuer“ passt nicht in das Schema, ist aber als Energielieferant unverzichtbar. Das „Licht“ nimmt eine Sonderstellung an, denn es ist keine Erscheinungsform von Materie, sondern eine Folge von Materie, wie man bei der Herstellung von Eisen erkannte und darum unlösbar mit Materie verbunden. Die gesamte lebendige Materie in Gestalt von Pflanzen, Tieren und Menschen ist zudem ohne das Licht nicht denkbar. Diese schlichte Wahrheit steckt in dem Wort „Photosynthese“, bei der grüne Pflanzen aus den zwei anorganischen Stoffen Kohlenstoffdioxid und Wasser mit Hilfe des Lichts organische Materie, also „Nahrung“ für Tier und Mensch, produzieren. Zudem wird dabei de zur Nahrungsverbrennung notwendige Sauerstoff durch Spaltung des Wassermoleküls freigesetzt.
Die Urstoffe wiederum seien aus kleinsten unteilbaren Materieteilchen zusammengesetzt, den Atomen. Diese Auffassung vertrat Demokrit (470-380 v. Chr.). Wenn ein Kind zu einem stattlichen Mensch heranwächst und als Greis stirbt und verwest, dann kehren, so Demokrit, die Atome, „die sich in uns für kurze Zeit zu Lust und Leid gefügt haben“, in den ewigen Kreislauf der Natur zurück. Man erkannte auch, dass die Atome von elementaren Kräften, der Anziehung und Abstoßung, beherrscht werden. Sie sagten: „Das Lieben und Hassen der Atome verursacht die Unruhe der Welt.“ Wenn sich am Himmel eine Wolke bildet, sammeln sich die einzeln und unsichtbar herumfliegenden „Wasseratome“ zu sichtbarem Nebel, winzigen Wassertropfen. Diese können bald wieder verdunsten oder wachsen und als Regen zur Erde fallen. Verdunstet der Regen, dann steigen die „Atome“ wieder in die Atmosphäre auf und werden über die Erde, wenn auch extrem ungleichmäßig, verteilt. Heute wissen wir, dass sich das „Wasseratom“ aus drei Atomen (H2O) zusammensetzt, also ein aus Wasserstoff und Sauerstoff bestehendes „Wasserdampfmolekül“ ist, mit ungewöhnlichen Eigenschaften.

Der Regen fällt vom Himmel, doch wie kommt er in den Himmel?

Kluge Leute haben berechnet, dass die Lufthülle der Erde 13 x 10^12 m3 Wasser enthält. Das sind 13 Billionen Tonnen. Wer jedoch hat die Kraft oder die Energie, diese Riesenmenge an Wasser in die Luft zu heben? Wie viele Tanklaster mit 10 Tonnen Fassungsvermögen braucht man dazu? Die Erdoberfläche insgesamt hat eine Fläche von 510 x 10^6 km2. Würde alles Wasser auf einen Schlag ausregnen und gleichmäßig über die Erde verteilt zu Boden fallen, dann würden auf jeden Quadratmeter 25 Liter (25 mm) Regen fallen. Wäre dies die Jahresausbeute, die gesamte Erde wäre eine einzige Wüste. Walfischbai, eine Hafenstadt am Rande der Wüste Namib, einer typischen Küstenwüste in Namibia, misst im Mittel einen Jahresniederschlag von 22 mm. In Aden im Jemen, der trockensten Stadt des Nahen Ostens, sind es 46 mm.
Andere kluge Leute haben ausgerechnet, dass der mittlere globale Niederschlag etwa 1000 mm oder 1000 Liter pro m2 beträgt. Wenn dies wahr wäre, die Erde wäre keine Wüste sondern grün, vorausgesetzt der Regen wäre gleich verteilt und überall würde die „Globaltemperatur“ von 15° Celsius herrschen. Dies zum Sinn oder Unsinn von Globalwerten. Sie sind „schön“, aber nirgends zu gebrauchen. Wenn 25 mm an Wasser in der Atmosphäre sind, aber im Jahresverlauf 1000 mm ausregnen, dann muss sich im Jahresverlauf die Wassermenge der Luft 40 Mal oder knapp alle 10 Tage komplett erneuern.
Machen wir mal eine Überschlagrechnung: Pro Minute fällt auf der ganzen Erde 1 Milliarde Tonnen Regen. Doch diese müssen zuerst einmal verdunsten und in den Himmel gehoben werden. Dazu wird Energie benötigt, die nicht der Mensch sondern einzig und allein die Sonne zur Verfügung stellt. Um 1 Liter Wasser zu verdunsten oder zu verdampfen, benötigt man etwa 0,63 Kilowattstunden. Bei 1 Tonne sind dies 630 und bei 1 Milliarde Tonnen 630 x 10^9 kWh. Diese Leistung an Verdunstungsenergie muss permanent vorgehalten werden, damit der Wasserkreislauf zwischen Niederschlag und Verdunstung in Gang gehalten werden kann. Bei einem Preis von 20 Cent pro kWh kosten 630 kWh 126 EURO. Die Menschheit müsste also pro Minute rund 125 Milliarden EURO für Verdunstungskosten aufwenden, damit 1 Milliarde Tonnen Regen vom Himmel fallen. Und das Jahr hat 8760 Stunden und diese wiederum 60 Minuten. Nach „Adam Riese“ (1492-1559) müsste die Sonne der Menschheit pro Jahr für die Belieferung mit Regen eine saftige Rechnung über 65.700 Billionen EURO schicken, Jahr für Jahr. Doch wegen der extrem ungleichmäßigen Verteilung des Regens -Arica in der Atacama-Wüste Chiles erhält 0,8 mm und der Berg Wai’ala’ale auf der Insel Kauai in Hawaii im Mittel 11 684 mm- gäbe es enormes Konfliktpotential, die Kosten einigermaßen „gerecht“ unter den Völkern aufzuteilen.
Diese Energie liefert einzig und allein die Sonne mittels Licht und Wärme. An der Obergrenze der Atmosphäre beträgt im Mittel die „Solarkonstante“ von 1368 W/m2. Kalkuliert man mit einem Verlust von 30 %, dann kommen im Mittel an der Erdoberfläche 960 W/m2 an und dienen deren Erwärmung. Von diesen müssen noch 30 Prozent für Verdunstung abgezogen werden. Bleiben 640 W/m2. Diese dienen der Erwärmung des Bodens und werden als Wärme per Leitung und Konvektion an die Atmosphäre weitergegeben. In Deutschland beträgt die mittlere Globalstrahlung etwa 1000 kWh/m2 pro Jahr, ohne von der Sonne eine Rechnung zu erhalten.

Zur Wärme als gestaltende Kraft der Natur

Speziell auf das Wasser bezogen spielt die Wärme, also die Temperatur, eine wichtige Rolle. Wir kennen seine drei Aggregatzustände: fest, flüssig und gasförmig. Alle drei Zustände können gleichzeitig auftreten. Geht Eis in Wasser über und dieses in Wasserdampf, der für uns unsichtbar ist, dann ändert sich die Anordnung der Atome. Man spricht von Phasenübergängen, deren Ursache wiederum in der Energie liegt, die einem Stoff von außen zugeführt oder entzogen wird. Es ändern sich die Gitterstrukturen. Bei Eis sind die Atome zu Gittern montiert, ist jedes Atom über die Elektronen seiner äußeren Schale mit seinen Nachbaratomen fest verklammert. Wird dem Eis Wärme zugeführt, geraten die Atome immer mehr in Schwingung, bis irgendwann der Punkt erreicht ist, an dem sie so stark ausschwingen, dass die atomaren Bindungskräfte nicht mehr stark genug sind, die Atome an ihrem Ort im Gitter zu halten. Übersteigt die Bewegungsenergie die Bindungsenergie, dann geht der Körper in den flüssigen Zustand über, er schmilzt. Führt man dem Wassert weiterhin Energie zu, dann bewegen sich die Atome mit ständig wachsender Geschwindigkeit. Immer mehr Moleküle durchstoßen die Oberfläche des Wassers und entweichen gasförmig als Wasserdampf in die Luft.
Diesen Vorgang kann man in der Natur nach jedem Regen beim Abtrocknen der Straßen und dem Verschwinden der Pfützen beobachten. Auch das Trocknen der Wäsche auf der Leine geschieht ohne Zutun des Menschen. Immer herrschen winzige Luftbewegungen und Temperaturänderungen, mit denen sich die Aufnahmefähigkeit der Luft für Wasserdampf ändert. Schnell trocknen Straße und Wäsche, wenn das Sättigungsdefizit groß und die Aufnahmefähigkeit der Luft für Wasserdampf hoch ist. Bei O°C kann die Luft maximal 4,8g H2O, bei 10°C schon 9,4g und bei 30°C ganze 30,3g pro m3 aufnehmen, bis zur Sättigung. Die Geschwindigkeit, mit der Boden abtrocknet, hängt vom Sättigungsdefizit der Luft wie dem Wind ab und nicht allein von der Temperatur. Extrem trockene und kalte Polarluft wirkt über dem warmen Golfstrom wie ein Schwamm und kann erhebliche Mengen an Wassersdampf aufnehmen und zu ergiebigen Regenfällen führen.
Ist Wasser zu Wasserdampf und damit zu einem unsichtbaren Gas geworden, dann sind die H2O-Moleküle vollkommen frei beweglich und rasen mit kaum vorstellbarer Geschwindigkeit umher, wobei sie sich ständig anrempeln und abstoßen. Ist der Raum begrenzt, wird Luft in einem Behälter eingefangen, stoßen die Moleküle nicht nur gegenseitig zusammen, sondern sie prallen auch auf die Gefäßwände und üben dadurch auf diese einen Druck aus. Erhöht man die Temperatur des eingeschlossenen Gases, dann erhöht sich die Geschwindigkeit der Moleküle, der Gasdruck wächst. Der Druck kann schließlich so groß und die Bewegungsenergie so heftig werden, dass der Behälter platzt. Unter freiem Himmel ist dies nicht möglich, da die von der Erde ausgeübte Schwerkraft proportional dem Quadrat der Entfernung abnimmt, der Raum größer wird. Mit zunehmender Höhe nehmen der Druck und die Temperatur ab. Ein Luftpaket, das thermisch aufsteigt, kühlt sich um 1 Grad pro 100 m Höhe ab. Man nennt dies den trockenadiabatischen Temperaturgradienten. Die Temperaturabnahme mit der Höhe hat schon Alexander vom Humboldt (1769-1859) bei seiner Amerika-Reise 1799-1804 untersucht und die Höhenstufen der Anden beschrieben von der Tierra Caliente bis zur Tierra Nevada oberhalb 5000 Meter. Wird beim Aufsteigen der Luft der Taupunkt unterschritten, setzen Sättigung und Kondensation ein, dann wird die bei der Verdunstung benötigte Wärme als Kondensationswärme wieder freigesetzt und die Abkühlung der aufsteigenden Luft auf 0,5 Grad reduziert. Fließt Luft über ein Gebirge, so erklärt sich hieraus auf der auf der Luvseite der Staueffekt und auf der Leeseite der Föhneffekt.

Struktur des Wassermoleküls bei den Phasenübergängen

Bevor der Mensch Temperatur und Wärme messen konnte, hatte er beobachtet, dass sich feste Körper bei Erhitzung ausdehnen und bei Abkühlung wieder zusammenziehen. Je höher die Temperatur wird, umso heftiger bewegen sich die Moleküle und desto mehr Raum beanspruchen sie. Beim Abkühlen nehmen die Eigenschwingungen der Moleküle ab, das Volumen verringert sich. Gehen Körper vom flüssigen in den festen Zustand über, dann nimmt das Volumen im Schnitt um 10 Prozent ab. Dies gilt allerdings nicht für das Wasser. Es ist ein einzigartiger Stoff. Eis, also Wasser im festen Zustand, hat eine geringere Dichte, ein größeres Volumen und das ist der Grund, warum Eis schwimmt.
Wasser, das abgekühlt wird, verhält sich anfangs wie alle anderen Stoffe auch, es wird dichter. Doch nur bis 4° Celsius. Dann beginnt es, sich wieder auszudehnen, bis es bei O°C fest wird. Dieses ungewöhnliche Verhalten des H2O-Moleküls liegt an der einzigartigen Atombindung der beiden Wasserstoffatome und des Sauerstoffatoms. Die chemische Formel H2O gilt streng genommen nur für den Gaszustand, wo sich die einzelnen Moleküle frei im Raum bewegen, zwar gelegentlich zusammenstoßen, aber sonst nichts miteinander zu tun haben. Kühlt der Wasserdampf ab, dann nimmt nicht nur die Heftigkeit der Zusammenstöße ab, die Moleküle beginnen aneinander zu haften und ein lockeres „Flüssigkeitsgitter“ zu bilden. Der Grund liegt in der speziellen atomaren Bindung. Das O-Atom teilt sich mit jedem H-Atom ein Elektronenpaar und bildet eine stabile Achterschale. Geometrisch hat es die Form eine Pyramide, eines verzerrten Tetraeders, in dessen Zentrum das O-Atom sitzt. Die beiden H-Atome befinden sich an zwei der vier Ecken des Tetraeders. An den beiden anderen Ecken sammeln sich die Elektronen und bilden Wolken negativer Ladung. Dadurch wird das Wassermolekül polar, mit einem positiven und negativen Ladungspol. Diese Polarität führt zwischen einander berührenden Wassermolekülen zu Wasserstoffbrückenbindungen. So entstehen Riesenmoleküle, wobei im flüssigen Zustand ein andauernder Wechsel der Bindungspartner stattfindet.
Dies ändert sich schlagartig bei Unterschreiten der 4° Celsius. Das Knüpfen und Lösen von Wasserstoffbrücken hat ein Ende. Die Moleküle suchen sich einen festen Platz im sich verfestigenden Gitter, treten aber auch plötzlich in Distanz zueinander. Die Dichte des sich abkühlenden Wasser nimmt nicht weiter zu, sondern ab. Bei der Eisbildung werden regelrechte Hohlräume zwischen den Tetraeder-Molekülen gebildet. Diese machen etwa 10 Prozent des Gesamtvolumens aus, weshalb Eis um etwa 10 Prozent leichter ist als Wasser und somit schwimmt. Die Tatsache, dass Eis leichter ist als Wasser, bewirkt, dass Seen und Flüsse von der Oberfläche her und nicht vom Untergrund her zufrieren. Die oben schwimmende Eisdecke schützt das Leben in tieferen Gewässerschichten vor der Kälte des Winters, garantiert Fischen das Überleben im 4 Grad „warmen“ Wasser. Die Fähigkeit, sehr viel Wärme zu speichern, ermöglicht die Entstehung großer warmer Meeresströmungen, etwa des Golfstroms als Art Warmwasserheizung für die Nordwestküsten Europas.
Die einzigartige molekulare Struktur des Wassers macht Wasser zu einem ungemein lösungsfreudigen Stoff. Die polare Ladungsverteilung bewirkt, dass sich Salze im Wasser in ihre Ionen auflösen, also Kochsalz in seine Ionen Na+ und Cl-. Wasser löst aber nicht nur Salz- und Zuckerkristalle auf, sondern auch Gase wie Sauerstoff (O2), Stickstoff (N2), Ammoniak (NH3) oder Kohlenstoffdioxid (CO2). Die Lösungsfreudigkeit des Wassers macht es erst möglich, dass Pflanzen in der Lage sind, die für ihr Wachstum lebenswichtigen Mineralien über die Wurzeln aufzunehmen. Fische können im Wasser nur leben, weil es sehr viel gelösten Sauerstoff enthält, den sie mit ihren Kiemen einatmen. Das CO2, das die Fische ausatmen, wird ebenfalls im Wasser gelöst und wird von den Wasserpflanzen genutzt, die ihrerseits H2O aufspalten und Sauerstoff abgeben, wie die grünen Landpflanzen auch.

Wie „Klimaexperten“ die Natur uminterpretieren und auf den Kopf stellen

Alle Energie für alles organische Leben auf der Erde stammt als elektromagnetische Energie von der Sonne. Wie angenehm ist die wärmende Wirkung der Sonnenstrahlen bei Frost auf der Haut! Und wie erbarmungslos können sie die Haut erhitzen, bis zum Hitzschlag. Ist es dem Wüstensand „gleichgültig“, ob er am Tage auf über +70°C erhitzt wird und sich nachts unter -O°C abkühlt, so gilt dies nicht für „Warmblüter“ wie den Menschen. Er benötigt eine „konstante“ Körpertemperatur von +37°C und muss sich daher gleichermaßen vor Überhitzung wie Unterkühlung schützen. Die unbekleidete menschliche Körperoberfläche strahlt, wie jeder tote physikalische Körper, Wärme ab. Je höher die Temperatur, desto mehr. Die Wärmestrahlung steigt oder fällt mit der vierten Potenz der absoluten Temperatur, die in Kelvin angegeben wird. Bei wolkenlosem Himmel bei windschwachem Hochdruckwetter folgen die Bodentemperatur und auch die bodennahe Lufttemperatur dem Sonnengang, sommers wie winters. Es ist ein stetiges Wechselspiel zwischen der solaren Einstrahlung wie der terrestrischen Ausstrahlung, unter Abzug der Verdunstungsverluste.
Doch wie stark die Erdoberfläche erwärmt wird, hängt nicht nur vom Einfallswinkel der Sonnenstrahlen und der Wärmeaufnahmefähigkeit des Untergrundes ab. Die Feuchtigkeit des Bodens spielt eine ganz gewaltige Rolle. Wasserflächen werden nicht nur deswegen langsamer erwärmt als Fels- oder Sandboden, weil das Wasser die höchste spezifische Wärme hat, sondern weil dem Wasser und feuchten Boden durch Verdunstung immer wieder Wärme entzogen wird. In der Fachliteratur ist zu lesen, dass etwa 25 bis 30 Prozent der eingestrahlten Sonnenenergie allein ob der Verdunstung und der Aufrechterhaltung des Wasserkreislaufs “verbraucht“ werden. Diese Energie geht für die Erwärmung des Erdbodens „verloren“, sie ist aber dennoch nicht verloren, sondern steigt als „latente Wärme“ auf und wird bei der Kondensation mit der Bildung von Wolken wieder freigesetzt. Erst über die dann freigesetzte Kondensationswärme entwickeln Gewitter bei labil geschichteter Atmosphäre ihre volle Kraft und stoßen bis zur Tropopause vor, wo sie sich in Form eines Amboss ausbreiten.
Wenn die beiden Klimaexperten des Potsdam-Institut für Klimafolgenforschung S. Rahmstorf und H. J. Schellnhuber in der 7. Auflage ihres Buches „Der Klimawandel“ (2012) schreiben, „Unser Klima ist im globalen Mittel das Ergebnis einer einfachen Energiebilanz: Die von der Erde ins All abgestrahlte Wärmestrahlung muss die absorbierte Sonnenstrahlung im Mittel ausgleichen.“, dann ist das schlichtweg einfach falsch! Die Erde muss gar nichts ausgleichen! Die Erde strahlt nur das an Energie ab, was sie vorher von der Sonne erhalten, sprich absorbiert, hat. Es ist einzig und allein die Sonne mit ihrer Strahlungsenergie, welche die Temperaturen auf der rotierenden Erdkugel bestimmt. Diese differieren je nach Tages- und Jahreszeit, je nach geographischen Breite oder Länge. Es gibt keine „Einheits- oder Globaltemperatur“, es gibt auch kein „Globalklima“, sondern eine Klimavielfalt, die anhand der irdischen Wettervielfalt berechnet wird.
Alle angestellten theoretischen Betrachtungen sind auch deswegen, und das sollte hier gezeigt werden, reine Fiktion, weil schlichtweg bei den Bilanzberechnungen rund ein Drittel der Solarenergie unterschlagen, unter den Tisch gekehrt wurde. Dieses Drittel dient nicht der Erderwärmung, sondern wird sinnvollerweise von der Natur in den Wasserkreislauf investiert. Was wäre das Leben ohne Wasser, was ein Himmel ohne Wind und Wolken, ohne Regen? Wer „Energiebilanzen“ betrachtet, sollte es sich nicht zu „einfach“ machen, wenn er sich nicht dem Vorwurf der gezielten Bilanzfälschung ausgesetzt sehen will. Bilanzfälschung ist kein Kavalierdelikt, zumal der „Schutz des Globalklimas“ ohnehin ein leeres Versprechen ist!
Oppenheim, den 2. August 2014                                                                     Dipl.-Met. Dr. phil. Wolfgang Thüne




Ferienkinder aus Tschernobyl: Wie man versucht, Menschen in Angst zu versetzen und ihnen den Lebensmut zu nehmen?

Immer der gleiche Blödsinn, möchte man sagen, wenn es nicht so übel wäre. Wie viele durch Angst erzeugte Krankheiten, Depressionen, Abtreibungen, Selbstmorde haben Leute dieser Art auf dem Gewissen?
Was ist los in Weißrussland? Darüber berichten WHO (Weltgesundheitsorganisation), UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) und andere Organisationen, welche sich auf die Ergebnisse von nunmehr über 100 Jahren strahlenbiologischer Forschung stützen, und kommen zu dem Ergebnis, dass es keine erkennbare Verschlechterung des Gesundheitszustandes der Bevölkerung gibt, außer durch Angst erzeugte. 
Vor allem im Bezirk Gomel ist anfangs doch etwas passiert, 172 Kinder bekamen Schilddrüsenkrebs, aber 370.000 blieben gesund. Das ist über 20 Jahre her, seitdem sind die Strahlendosen auf weniger als ein Hundertstel gesunken.

Wer aber nicht in der Lage ist, wissenschaftliche Texte zu verstehen, sollte doch vergleichen können und akzeptieren, dass die Strahlen aus natürlichen Quellen keine andere Wirkung haben als die aus künstlichen. Überall sind wir einer Umgebungsstrahlung ausgesetzt, da kann in Gomel noch ein Millisievert (mSv) durch radioaktives Caesium dazukommen. Außerdem nehmen wir durch Atmen, Essen und Trinken Radioaktivität auf, natürliche, und falls vorhanden, auch künstliche. In Weißrussland kann das heute maximal ein weiteres Millisievert bringen. Nicht viel im Verhältnis zu dem, was die Natur dem Menschen anderswo zumutet und was dort nirgends zu mehr Krankheiten führt.
Aber Sie und Herr Eilers glauben das ja nicht, und da frage ich: Wann sind die Kinder aus dem Iran, aus Brasilien, aus Kerala in Indien dran? 
Hannover, den 31.07.2014




Das Rätsel der Eiszeiten, Teil 10, Global Circulation Models IV

scienceofdoom

Im Teil neun haben wir über eine GCM-Simulation der letzten 120.000 Jahre gesprochen, ein ziemlich ambitioniertes Projekt, das einige gemischte Ergebnisse zeitigte. Die größte Herausforderung ist einfach, ein ganzes GCM über eine so lange Zeit laufen zu lassen. Um das zu tun, hatte das Modell eine reduzierte räumliche Auflösung. Außerdem wurden alle Antriebe „beschleunigt“, so dass die Modellzeit tatsächlich über 1200 Jahre lief. Unter den Antrieben waren Größe, Ort und Höhe des Eisschildes ebenso wie Treibhausgase in der Atmosphäre. In der Realität handelt es sich dabei um Rückkopplungen, aber GCMs sind derzeit nicht in der Lage, diese zu erzeugen.

In diesem Beitrag betrachten wir eines der jüngsten GCMs, das jedoch nur über einen „Schnappschuss“-Zeitraum von 700 Jahren läuft. Das erlaubt die volle räumliche Auflösung, hat aber den Nachteil, dass ein vollständiger Eiszeit-Zyklus nicht einmal annähernd abgedeckt werden kann. Ziel dieses Artikels ist es, das Modell mit den orbitalen Bedingungen von vor 116.000 Jahren laufen zu lassen um zu sehen, ob sich eine permanente Schneedecke an den richtigen Stellen bildet. Dies ist ein Projekt ähnlich denen, die wir in Teil VII – GCM I (frühe GCMs) und Teil VIII – GCM II (GCMs vor einem Jahrzehnt) besprochen haben.

Die Studie kam zu einigen sehr interessanten Ergebnissen hinsichtlich der Rückkopplungen, die wir noch betrachten werden.

Jochum et al (2012)

Das Problem:

Modelle mittlerer Komplexität sowie flussbereinigte GCMs waren typischerweise in der Lage, eine Verbindung zwischen orbitalem Antrieb, Temperatur und Schneemenge zu simulieren. Bislang jedoch haben es vollständig gekoppelte, nicht flusskorrigierte, auf primitiven Gleichungen basierende Klimamodelle nicht vermocht, die Auslösung einer Eiszeit zu reproduzieren, ebenso wie die Abkühlung und Zunahme von Schnee- und Eisbedeckung, die von den warmen Zwischeneiszeiten zu den kalten eiszeitlichen Perioden überleiten.

Milankovitch (1941) postulierte, dass der Antreiber für diese Abkühlung die orbital bedingte Reduktion der Einstrahlung auf der sommerlichen Nordhalbkugel sei und die daraus folgende Zunahme permanenter Schneebedeckung. Die verstärkte permanente Schneebedeckung und seine positive Albedo-Rückkopplung sind natürlich nur Vorboten des Wachstums von Eisschilden. Das Scheitern der GCMs, die Auslösung der Eiszeiten nachzuvollziehen, zeigt ein Scheitern entweder der GCMs oder der Milankovitch-Hypothese.

Falls die Hypothese die Schuldige wäre, würde man sich natürlich fragen, ob das Klima in den GCMs überhaupt angemessen abgebildet werden kann. Wie auch immer, es scheint, als ob die Reproduktion der beobachteten Änderungen zwischen Eiszeit und Zwischeneiszeit hinsichtlich der Eismenge und der Temperatur einen guten Test darstellt, um die Genauigkeit einiger Schlüssel-Rückkopplungen zu evaluieren, die für Klimaprojektionen relevant sind.

Die potentiellen Gründe des Unvermögens der GCMs, die Auslösung der Eiszeit zu reproduzieren, sind vielfältig und reichen von der Numerik der GCMs bis zu vernachlässigten Rückkopplungen von Festlands-, atmosphärischen oder ozeanischen Prozessen auf der Theorie-Seite. Es ist allerdings ermutigend, dass es bei einigen GCMs nur geringer Modifikationen bedarf, damit diese eine Zunahme permanenter Schneebedeckung erzeugen (z. B. Dong und Valdes 1995). Nichtsdestotrotz muss es das Ziel der GCM-Gemeinde sein, das Auftreten zunehmender permanenter Schneebedeckung mit einem GCM zu erzeugen, das an das heutige Klima angepasst ist und ausschließlich Gegenstand von Änderungen des orbitalen Antriebs ist.

Ihr Modell:

Die numerischen Experimente wurden durchgeführt unter Verwendung der jüngsten Version des National Center for Atmospheric Research (NCAR) CCSM4, welches vollständig gekoppelte Atmosphären-, Ozean-, Festlands- und Meereismodelle enthält. CCSM4 ist ein hypermodernes Klimamodell, das in vieler Hinsicht Verbesserungen seines Vorgängers CCSM3 enthält. In unserem Zusammenhang hier besteht die wichtigste Verbesserung in der höheren atmosphärischen Auflösung, weil diese uns gestattet, die Höhe und die Schneebedeckung des Festlandes genauer zu repräsentieren.

Siehe Anmerkung 1 für einige weitere Modell-Einzelheiten aus der Studie. Und lange Zeit haben wir einige Grundlagen von CCSM3 betrachtet – Models, On – and Off – the Catwalk – Part Two. Grenzen des Modells – kein die Eisschilde betreffendes Modul (anders als das FAMOUS-Modell in Teil neun):

Das CCSM enthält immer noch nicht ein Eisschilde-Modul. Darum verwenden wir die Akkumulation von Schnee als das Hauptargument des Auslöse-Szenarios. Die Akkumulation von Schnee auf dem Festland wird berechnet aus der Summe von Schneefall, gefrierendem Regen, Schneeschmelze und dem Entfernen exzessiven Schnees. Exzessiver Schnee wird definiert als eine Schneemenge, die über 1 Meter Wasseräquivalent hinausgeht, also etwa 3 bis 5 m Schnee.

Das Entfernen des exzessiven Schnees ist eine sehr grobe Parametrisierung des Kalbens von Eisbergen, und zusammen mit dem Schmelzwasser wird exzessiver Schnee an das Netzwerk der Flüsse geliefert und eventuell den küstennahen Oberflächen-Gewässern der angrenzenden Ozean-Gitterpunkte zugefügt. Folglich werden die lokale Größe des Eisschildes und das globale Frischwasser-Volumen konserviert.

Probleme des Modells:

Eine weitere Bias, die für diese Diskussion relevant ist, ist die Temperatur auf dem Festland in hohen nördlichen Breiten. Wie im nächsten Abschnitt beschrieben wird, ist eine Menge der CCSM4-Reaktion auf orbitale Antriebe der reduzierten Schneeschmelze im Sommer geschuldet. Eine Kalt-Bias bei der Kontrolle wird es wahrscheinlicher machen, die Sommertemperatur unter dem Gefrierpunkt zu halten, so dass die Schnee-Akkumulation des Modells überschätzt wird. Im jährlichen Mittel sind Nordsibirien und Nordkanada um etwa 1°C bis 2°C zu kalt, Baffin-Insel sogar um etwa 5°C zu kalt (Gent et al. 2011). Die sibirischen Bias sind nicht so dramatisch, aber es ist ziemlich unglücklich, dass die Baffin-Insel, das Zentrum des Laurentide-Eisschildes, eine der stärksten Temperaturbias im CCSM4 aufweist. Ein genauerer Blick auf die Temperaturbias in Nordamerika zeigt jedoch, dass die Kalt-Bias dominiert wird von Bias im Herbst und Winter, während die Baffin-Insel im Frühjahr und Sommer um etwa 3°C zu kalt ist und der kanadische Archipel sogar eine geringe Warm-Bias aufweist.

Ihr Plan:

Die nachfolgenden Abschnitte werden zwei unterschiedliche Simulationen analysieren und vergleichen: einen Kontroll-Lauf 1850 (CONT), in welchem die orbitalen Parameter der Erde auf die Werte im Jahre 1900 gesetzt werden und die atmosphärische Zusammensetzung bei den Werten des Jahres 1850; und eine Simulation identisch mit CONT mit Ausnahme der orbitalen Parameter, die auf die Werte von vor 115.000 Jahren (OP115) gesetzt werden. Die atmosphärische CO2-Konzentration in beiden Experimenten beträgt 285 ppm.

Die Modelle wurden über 700 (simulierte) Jahre laufen gelassen. Dann folgen einige interessante Bemerkungen, warum sie keine Simulation über 120.000 Jahre durchführen können: Dieser experimentelle Aufbau ist natürlich nicht optimal. Idealerweise würde man gerne das Modell seit der letzten Zwischeneiszeit vor etwa 126.000 Jahren integrieren, für 10.000 Jahre in die Eiszeit mit sich langsam änderndem orbitalen Antrieb. Allerdings ist das nicht machbar; eine Integration über 100 Jahre CCSM auf den NCAR-Supercomputern würde etwa einen Monat dauern und einen substantiellen Teil der Computerbelegung der Klimagruppe beanspruchen.

Ergebnisse

Zunächst erzeugen sie in der Tat eine permanente Schneebedeckung in hohen Breiten. Die Studie bietet eine sehr gute Erklärung, wie die unterschiedlichen Klimafaktoren in hohen Breiten zusammenspielen, wo wir nach dem Einsetzen permanenter Schneebedeckung suchen. Es hilft uns zu verstehen, warum grundlegende Energiebilanzmodelle und selbst Modelläufe zwischenzeitlicher Komplexität (EMICs) keine zuverlässigen brauchbaren Antworten liefern können. Schauen wir mal:

 

Bildunterschrift: Abb. 2: Differenz des zonal gemittelten Flusses an der Obergrenze der Atmosphäre (OP115 vs. CONT). Schwarz: Einstrahlung. Blau: Einstrahlung mal Albedo aus CONT. Rot: Gesamt-Kurzwellenstrahlung bei klarem Himmel. Grün: Gesamt-Kurzwellenstrahlung (Jochum et al 2012)

Die Graphik vergleicht die jährliche Sonneneinstrahlung pro Breitenkreis von 115.000 Jahren und heute. Man beachte den zentralen Punkt: Die einfallende Sonnenstrahlung – also die schwarze Kurve – war an den Tropen höher, während die jährliche Einstrahlung in hohen Breiten niedriger war.

Konzentrieren wollen wir uns auf die Nordhemisphäre nördlich von 60°N, welche die Gebiete großräumiger Abkühlung und zunehmender Schneebedeckung überdeckt. Verglichen mit CONT ist die jährliche mittlere Einstrahlung über dieser Arktischen Domäne in OP115 geringer bei 4,3 W/m² (schwarze Linie), aber die hohe Albedo reduziert diesen Unterschied an der Obergrenze der Atmosphäre auf nur 1,9 W/m² (blaue Linie, siehe auch Tabelle 1).

In blau wird das Ergebnis gezeigt, wenn wir die bestehende Albedo berücksichtigen – das heißt, weil eine Menge Solarstrahlung schon in hohen Breiten reflektiert wird, werden sämtliche Änderungen der einfallenden Strahlung durch den Albedo-Effekt reduziert (bevor sich die Albedo selbst ändert). In grün wird das Ergebnis gezeigt, wenn wir die veränderte Albedo der größeren Schneebedeckung von 115.000 Jahren berücksichtigen.

Im CCSM4 führt diese größere Albedo im OP115 zu einer Kurzwellenstrahlung an der Obergrenze der Atmosphäre bei klarem Himmel, die um 8,6 W/m² geringer ist als im CONT – das ist 4 mal das ursprüngliche Signal. Die Schnee/Eis-Albedo-Rückkopplung wird dann berechnet mit 6,7 W/m² (8,6 bis 1,9 W/m²). Interessanterweise ist die Bedeckung mit tiefen Wolken im OP115 kleiner als im CONT, was die Differenz der Gesamt-Kurzwellenstrahlung an der Obergrenze der Atmosphäre um 3,1 bis 5,5 W/m² reduziert (grüne Linie). Zusammengefasst: ein Initial-Antrieb von 1,9 W/m² nördlich von 60°N wird um 6,7 W/m² verstärkt durch die Schnee/eis-Albedo-Rückkopplung und reduziert durch eine negative Wolken-Rückkopplung um 3,1 W/m².

Die zusammenfassende Tabelle:

 

Wegen der größeren meridionalen Temperatur- (Abbildung 1a) und Feuchtigkeits-Gradienten (Abbildung 4a) nimmt der atmosphärische Quer-Wärmefluss in die Arktis zu von 2,88 auf 3,0 PW. Dieser Unterschied von 0,12 PW bedeutet für die Arktis ein Mittel von 3,1 W/m²; das ist eine negative Rückkopplung, die genauso groß ist wie die Wolken-Rückkopplung und die 6 mal größer ist als die Zunahme des meridionalen Wärmetransportes im Ozean bei 60°N (nächster Abschnitt). Folglich kompensieren sich die negative Wolken-Rückkopplung und der meridionale Wärmetransport für die positive Rückkopplung fast vollständig. Übrig bleibt eine Gesamt-Rückkopplung von nur 0,5 W/m². Eine Möglichkeit, diese Rückkopplungen zu betrachten ist, dass das Klimasystem ziemlich stabil ist, wobei Wolken und meridionale Transporte den Einfluss von Albedo-Änderungen begrenzen. Dies könnte erklären, warum einige numerische Modelle Schwierigkeiten haben, die beobachtete Abkühlung in Verbindung mit dem orbitalen Antrieb zu erzeugen.

Ich glaube es ist wichtig zu beachten, dass sie ihre Ergebnisse durch einen unterschiedlichen Mechanismus zu einer der Studien bekommen, die wir in Teil 9 begutachtet haben:

Folglich ist die Zunahme von Schneefall im Gegensatz zu den Ergebnissen von Vetterotti und Peltier (2003) vernachlässigbar im Vergleich zur reduzierten Schneeschmelze.

Ihr Ergebnis:

Die globale Gesamt-Differenz hinsichtlich Schmelzen und Schneefall zwischen OP115 und CONT führt zu einer impliziten Schnee-Akkumulation, die äquivalent ist mit einem Rückgang des Meeresspiegels um 20 m innerhalb von 10.000 Jahren, einiges davon der Kaltverzerrung der Baffin-Insel geschuldet. Das ist weniger als die 50-m-Schätzung, die auf Rekonstruktionen des Meeresspiegels zwischen heute und vor 115.000 Jahren basiert, aber unabhängig davon zeigt sich, dass das Modell die richtige Größenordnung wiedergibt.

Atlantic Meridional Overturning Current (AMOC)

Diese Strömung hat enormen Einfluss auf die höheren Breiten im Atlantik, weil sie wärmeres Wasser aus den Tropen transportiert.

Der meridionale Wärmetransport der AMOC ist eine wesentliche Wärmequelle für den nördlichen Nordatlantik, aber man glaubt auch, dass er für kleine Störungen anfällig ist. Daraus ergibt sich die Möglichkeit, dass die AMOC den orbitalen Antrieb verstärkt oder sogar, dass diese Verstärkung für Vereisungen und Terminierungen der Nordhemisphäre notwendig ist. Tatsächlich zeigt JPML, dass eine Änderung des orbitalen Antriebs in mindestens einem GCM zu einer Abschwächung der MOC führen kann und zu einer daraus folgenden großräumigen Abkühlung der Nordhemisphäre. Hier beleuchten wir den Zusammenhang zwischen orbitalem Antrieb und Stärke der AMOC mit dem CCSM4, welches verbesserte Physik und eine höhere räumliche Auflösung als JPML aufweist.

Im Wesentlichen fanden sie eine begrenzte Änderung der AMOC in dieser Studie. Interessierte Leser können die Studie gerne einsehen. Dies ist ein wichtiges Ergebnis, weil frühere Studien mit geringerer Auflösung oder mit GCMs, die nicht vollständig gekoppelt sind, oftmals eine starke Rolle der MOC bei sich verstärkenden Änderungen gefunden hatten.

 Schlussfolgerung

Dies ist eine interessante Studie. Sie ist wichtig, weil sie ein hypermodernes GCM verwendet, um permanente Schneebedeckung von 115.000 Jahren zu simulieren, einfach mit vorindustriellen Treibhausgas-Konzentrationen und Einstrahlungsbedingungen vor 115.000 Jahren. Das Modell weist eine Kalt-Bias auf (und eine verstärkte Feuchte-Bias) in hohen Breiten der Nordhemisphäre. Dadurch erhebt sich die Frage nach der Signifikanz des Ergebnisses (für meinen skeptischen Verstand):

• Kann ein hoch auflösendes AO-GCM ohne Kalt-Bias in hohen Breiten eine permanente Schneebedeckung nur mit vorindustriellen Werten der Treibhausgas-Konzentration und orbitalem Antrieb vor 115.000 Jahren erzeugen?

• Kann dieses Modell mit dieser Kalt-Bias in hohen Breiten das Ende einer Vereisung reproduzieren?

Das heißt nicht, dass die Studie nicht sehr wertvoll ist, und die Autoren haben sicher nicht versucht, die Schwächen des Modells zu übergehen – tatsächlich haben sie diese sogar noch unterstrichen. Was die Studie ebenfalls zeigt – und was wir auch in früheren Artikeln gesehen haben – ist: wenn wir uns durch Generationen und Komplexitäten der Modelle wühlen, können wir Erfolg haben; dann scheitert ein besseres Modell, dann führt ein noch besseres Modell wieder zum Erfolg. Auch haben wir angemerkt, während das (ebenfalls kalt-bias) Modell von Vetterotti und Peltier (2003) eine permanente Schneebedeckung durch verstärkte Feuchtetransporte in  kritische Gebiete gefunden hatte (was sie als einen „Rückkopplungs-Mechanismus zwischen Atmosphäre und Cryosphäre“ bezeichnen), hat eine jüngere Studie mit einem verbesserten Modell keine Zunahme der Feuchtetransporte gefunden.

Die Details, wie unterschiedliche Modelle zum gleichen Ergebnis kommen, sind wichtig. Ich glaube nicht, dass irgendein Klimawissenschaftler dies anders sieht, aber es bedeutet, dass viele Studien mit „Erfolg“ nicht „Erfolg für alle“ bedeuten und nicht für einen „allgemeinen Erfolg“ stehen können. Die Details müssen untersucht werden.

Diese Studie aus dem Jahr 2012 zeigt die Bedeutung aller (derzeit bekannten) Rückkopplungen – eine Zunahme der Albedo durch verstärke Schneedeckenbildung wird fast vollständig durch negative Rückkopplungen  ausgebremst. Und schließlich zeigt die Studie auch, dass ihr Modelllauf über 700 Jahre  nicht die signifikante Abkühlung der Südpolarregion erzeugen kann:

Noch wichtiger ist jedoch das Fehlen jedweder Reaktion im Polargebiet der Südhalbkugel, die erforderlich sind, um Abbildung 1 zu erklären. Während Petit et al. 1999 zeigen, dass sich die Antarktis zu Beginn der letzten Eiszeit um 10°C abgekühlt hat, zeigt eine jüngere hoch aufgelöste Analyse von Jouzel et al. 2007, dass es nur wenig kälter war als heute (weniger als 3°C beim European Project for Ice Coring in Antarctica (EPICA), Stelle Dome C auf dem Antarktischen Plateau). Natürlich gibt es substantielle Unsicherheiten bei der Rekonstruktion der antarktischen Temperaturen.

Ich habe keinerlei Kommentare zu diesem speziellen Punkt, weil mir das Verständnis der jüngsten Arbeiten hinsichtlich Datierung und Korrelation mit EPICA fehlen (Eisbohrkerne aus Grönland und der Antarktis).

 

References

True to Milankovitch: Glacial Inception in the New Community Climate System Model, Jochum, Jahn, Peacock, Bailey, Fasullo, Kay, Levis & Otto-Bliesner, Journal of Climate (2012) – free paper

Notes

Anmerkung 1 – mehr zum Modell:

Die ozeanische Komponente hat eine horizontale Auflösung, die bei den Längengraden konstant 1,125° beträgt und hinsichtlich der Breite von 0,27° am Äquator bis etwa 0,7° in hohen Breiten reicht. In der Vertikalen gibt es 60 Schichten; die höchste Schicht hat eine Dicke von 10 m und die unterste Schicht eine solche von 250 m. Die atmosphärische Komponente verwendet eine horizontale Auflösung von 0,9° X 1,25° mit 26 Schichten in der Vertikalen. Das Meereis-Modell hat das gleiche horizontale Gitternetz wie das Ozean-Modell, und das Festlands-Modell hat das gleiche horizontale Gitternetz wie das atmosphärische Modell.

Link: http://scienceofdoom.com/2014/01/03/ghosts-of-climates-past-part-ten-gcm-iv/

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/

Teil VII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-7-global-circulation-models-i/

Teil VIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-8-global-circulation-models-ii/

Teil IX: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-9-global-circulation-models-iii/




Große Transformation – Rückwärtssehnsucht nach einer statischen Welt!

Sie alle kennen die „Neolithische Revolution“, die „Industrielle Revolution“, die „Französische Revolution“, die „Russische Revolution“, auch „Große Oktoberrevolution“ genannt, und die „Kultur-Revolution“ von 1968. Revolution bedeutet Umwälzung zum Positiven als auch Umsturz, der meist blutig verläuft und das „Schreckensbild an die Guillotine“ wachruft. Wer Systeme umstürzen will, muss nach unverfänglicheren Begriffen suchen, die keine Abscheu sondern Sehnsüchte wecken, wie die „Große Transformation“. Dahinter kann man alles verbergen und unendliche Wunschträume wecken, insbesondere nach einer heilen, paradiesischen Welt der allgemeinen Glückseligkeit und Gleichheit, wie sie Marx und Engels 1848 im „Kommunistischen Manifest“ vorschwebte.
Solche strategischen Gedankenspiele gelingen am besten, wenn man vorher die Welt in Angst und Schrecken versetzt, ihr die nahende Apokalypse vor Augen geführt hat. Dies passierte 1986 mit der „Warnung vor der drohenden Klimakatastrophe“, bei der zugleich jeder Einzelne in die moralische Pflicht genommen wurde, sich zum „Klimaschützer“ und damit zum „Weltretter“ zu erheben. Wer sich aktiv dazu bekannte, konnte sich über die Anderen erheben, sich als „Gutmensch“ brüsten. Mit derartigen psychologischen Tricks wurde die Masse zu „Klimarettern“ und kettete sich widerstand- und widerspruchlos an den Nasenring der „Klimaexperten“ wie der „Klimapolitiker“. Es wurden als jährliche Schauveranstaltungen „Weltklimagipfel“ unter Leitung der Vereinten Nationen in Gestalt des Weltklimarates IPCC inszeniert, Leitfiguren mit „Friedensnobelpreisen“ ausgezeichnet oder zu „Klimapäpsten“ erhoben.
Nachdem der ewige Klimaschutzappell nicht mehr richtig zog und sich auch mehr und mehr die Angst vor der Klimakatastrophe verflüchtigte, weil alle Prognosen schief lagen und das Wetter partout nicht mitspielte, wurde der „Klimawandel“ zum Schreckgespenst gemacht. Lange Jahre galt die Parole, dass seit der letzten Eiszeit vor gut 10 000 Jahren das Klima konstant gewesen sei, bis dieses von den „reichen“ Industriegesellschaften destabilisiert und aus dem „Gleichgewicht“ gebracht worden sei. Dieser unheilvolle „Klimawandel“ müsse gestoppt und eine globale Güterumverteilung inszeniert werden. Man verabschiedete sich klammheimlich von dem unbotmäßigen und ungehorsamen Wetter, das man ursprünglich zähmen wollte, und erklärte den „Wandel an sich“ zum Feind der Menschheit. Mit der „Großen Transformation“ ist ein weltweites Umerziehungsprogramm in Gang gesetzt worden, denn ohne vorherigen Bewusstseinswandel kann man keinen „Klimawandel“, der im Wortsinn ein „Neigungswandel“ ist, emotional unters Volk bringen.
Kann die Welt jemals in einen statischen Zustand versetzt werden?
Paul Hubschmid (1917-2002) hat einmal festgestellt: „Besserwisser sind meistens Schlechtermacher“. Wer eine Revolution oder Transformation will, muss zuerst die gegenwärtigen Zustände schlecht reden, um dann eine bessere Zukunft herbeireden zu können. Wer den „Klimawandel“ stoppen will, muss den „Wandel an sich“ schlecht reden und als gefährlich darstellen. Doch ist der Wandel schlecht oder ist er nicht völlig natürlich? Sind wir von Natur aus nicht Wanderer und wandeln durch die Welt, uns ständig von der Geburt bis zum Tode wandelnd und verändernd?
Sie alle kennen Sätze wie: „Alles fließt!“ – „Nichts ist so beständig wie der Wechsel!“ – „Wir steigen in denselben Fluss und doch nicht in denselben!“ – „Alle Dinge sind im ewigen Fluss, im Werden, ihr Beharren ist nur Schein!“ – „Die einzige Konstante im Universum ist die Veränderung!“ – „Viel Wissen bedeutet noch nicht viel Verstand!“ – „Eigendünkel ist Rückschritt des Fortschritts!“ Alle diese Lebens-Weisheiten stammen von Heraklit von Ephesos (535-475 v. Chr.), einem ionischen Naturphilosophen, von dem das „Bild vom Atom“ als Elementarbaustein aller Materie stammt.
Auch der Philosoph Platon (428-348 v. Chr.) stellte fest: „Alles bewegt sich fort und nichts bleibt!“ Alles lebt mit der Zeit, unterliegt dem „Zeitpfeil“ und verändert sich mit der Zeit. In der Natur gibt es keinen Stillstand, nur Wandel und Veränderung. Heraklit war ein Repräsentant der Dynamik der Natur. Alles Sein ist nicht statisch, sondern in ewigem Wandel und damit dynamisch zu denken.
Doch zu jeder These gibt es einen Antagonismus, die Antithese, die Gegnerschaft, den Widerstreit, nach Immanuel Kant „die ungesellige Geselligkeit“, die Gegensätze in der Gesellschaft. Die Antithese zu Heraklit formulierte Parmenides aus Elea (520-460 v. Chr.), der das Prinzip der Unveränderlichkeit, der außer der Zeit stehenden Ewigkeit, der Statik vertrat. Parmenides sah in der Vielfalt der äußeren Natur, welche die Sinne betrachten, das Unwahre, Täuschende und dagegen in der Einheit, dem Unvergänglichen, das der Gedanke ergreift, allein das Wahre. Doch wir können die Zeit weder aus der Natur noch unserem Leben eliminieren. Und das macht das Leben spannend, zu einer ewigen Herausforderung. Die „Klimaexperten“ sind die modernen Protagonisten des Parmenides, doch was sie wecken, sind nichts als Illusionen einer „heilen“ aber nie heil gewesenen Welt. Sie bewegen sich außerhalb jedweden Naturverständnisses, wie die permanente Beschäftigung mit der Fiktion „Erforschung mit den Folgen des Klimawandels“ klar zeigt.
Dennoch lieben wir Menschen als „träge Masse“ die Vorstellung von einem „statischen Dasein“ der Zufriedenheit und des Wohlergehens, wie es von der Politik permanent propagiert und versprochen wird. Auf diesem psychologischen Fundament ruht die These von der „Großen Transformation“. Doch die Natur richtet sich nicht nach unseren Wünschen! Dies gilt insbesondere vom Wetter, das macht, was es will, weil es dynamisch und damit vom Verhalten her chaotisch ist. Der Wunsch, den Augenblick und damit die Zeit festhalten zu wollen, ist eine gedankliche Illusion.  
Die „Große Transformation“ (1) und der „Tragödie zweiter Teil“
Der Höhenflug menschlicher Gedanken erhebt sich gerne über die Realitäten der Natur und hält nach möglichen Paradiesen Ausschau. Diese wandeln sich etwas mit der Zeit, dem historischen Umfeld, beruhen aber immer auf einer Vorstellung von der Erde als einem statischen „Schlaraffenland“.
Im Faust II. von Johann Wolfgang von Goethe (1749-1832) ist die Gefahr beschrieben, in die wir uns begeben, wenn wir Illusionen oder Wunschvorstellungen bedingungslos erliegen: „Werd ich zum Augenblicke sagen: Verweile doch! Du bist so schön! Dann magst du mich in Fesseln schlagen. Dann will ich gern zugrunde gehen. Dann mag die Totenglocke schallen, dann bist du deines Dienstes frei. Die Uhr mag stehen, der Zeiger fallen, es sei die Zeit für mich vorbei!“ Wann werden das PIK und der WBGU ihres unglückseligen Dienstes entbunden und wir befreit, uns wieder dynamisch zu entfalten, angstfrei zu leben?
Oppenheim, im Juli 2014; Dipl.-Met. Dr. phil. Wolfgang Thüne
(1) Wer sich um eine gut dotierte Stelle beim WBGU zur Vorbereitung der "großen Transformation" bewerben will möge die Stellenausschreibung des WBGU im Anhang herunterladen.
Einführungstext dort:

S t e l l e n a u s s c h r e i b u n g

Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen (WBGU)

Für unsere Geschäftsstelle in Berlin-Mitte suchen wir zum nächstmöglichen Zeitpunkt eine/n

Wissenschaftliche/n Mitarbeiter/in

Politikwissenschaft/Global Governance

Die vollständige Stellenausschreibung ist in der Anlage (PDF) enthalten.

Related Files




Frau Merkel, Sie wollen den CO2-Ausstoß verringern?

Dummerweise kostet die Energiewende schmerzhaft mehr

Merkels „Energiewende“ bedeutet, wie Sie wissen: weg von der Stromerzeugung mit fossilen Energieträgern (Kohle, Erdgas, Erdöl), weg auch mit der Kernenergie (Uran) und hin zur Stromerzeugung mit Wind, Sonnenschein und pflanzlichen Stoffen. Alle drei Energieträger werden fälschlich „erneuerbare Energien“ genannt und der Strom daraus „Ökostrom“. Zutreffend sind sie alternative und unzuverlässige Energien zu nennen und der Strom aus ihnen Flatterstrom. Außerdem ist diese Energiewende, präziser gesagt, eine Stromerzeugungswende. Aber dummerweise kostet das Erzeugen von elektrischem Strom aus alternativen Energieträgern schmerzhaft mehr als aus fossiler Energie und aus Kernenergie.

Eine ziemlich unbekannte, aber grundlegende Untersuchung aus der Uni Stuttgart


Das ist zwar hinlänglich bekannt, kaum dagegen eine grundlegende Untersuchung dazu, die aus der Universität Stuttgart stammt (hier). Dort hat eine Arbeitsgruppe (S. Wissel et al.) die Herstellkosten für die verschiedenen Verfahren der Stromerzeugung nach den Regeln der Betriebswirtschaftslehre berechnet. Von Bedeutung dabei ist dies: Die Kosten sind – einheitlich bei allen Verfahren – für Neuinvestitionen berechnet (also nicht für schon bestehende Anlagen) und zwar so, als würden sie im Jahr 2015 stattfinden. Auf diese Weise hat die Wissel-Arbeitsgruppe, als sie im Jahr 2010 die Berechnungen anstellte, abgeschriebene Anlagen aus dem Kostenvergleich herausgehalten und verwirrende Diskussionen über die Höhe der Abschreibungskosten damit vermieden.

Ökostrom erzeugen kostet drei- bis siebenmal so viel wie Strom aus Braunkohle

Nach diesen Berechnungen kostet das Erzeugen von Strom aus Windenergie 11,8 bis 14,6 Cent je Kilowattstunde, für Strom aus Solarenergie (Sonnenschein, Fotovoltaik) 27,7 bis 31,8 Cent und Strom aus der Energie der Braunkohle 3,7 Cent je Kilowattstunde. Strom aus Windkraftanlagen ist also dreimal so teuer wie der aus einem Braunkohlekraftwerk und der Strom aus den Fotovoltaik-Anlagen siebenmal so viel. Ihn freiwillig zu kaufen, würde jeder für Blödsinn halten. Folglich wird dieser Strom in Deutschland subventioniert und zugleich mit staatlichem Abnahmezwang ins Netz gedrückt. Die Subvention, die sogenannte EEG-Umlage, müssen die Stromverbraucher zahlen.

Ein schwerwiegender Irrtum

Allerdings wollen die Flatterstrom-Befürworter und dessen Profiteure die Subventionierung nur als Anschubfinanzierung verstanden wissen. Daher behaupten sie, die fossilen Energieträger würden künftig immer knapper werden, folglich im Preis steigen und die Herstellkosten für den Strom daraus die Ökostrom-Herstellkosten übertreffen. Das ist nicht nur deswegen ein Irrtum, weil fossile Energieträger über hunderte und tausende von Jahren zur Verfügung stehen (hierhier und hier), aber vor allem ein schwerwiegender und wesentlicher Irrtum, weil die Ökostrom-Befürworter ein physikalisches Gesetz nicht kennen. Es heißt Kosten-Energie Äquivalenz-Gesetz (KEÄG).

Alles geht nur mit Energie

Auch Sie kennen dieses Gesetz nicht? Ist nicht schlimm, denn ich kannte es ebenfalls nicht. Doch hat mir jemand auf die Sprünge geholfen. Aber um das Gesetz zu erläutern und zu verstehen, muss ich etwas ausholen. Die Ausgangsüberlegung beginnt so: Alles menschliche Tun benötigt Energie. Was immer Menschen verrichten, sie müssen dafür Energie aufwenden. Um sich zu bewegen, um etwas herzustellen, überhaupt um zu leben, geht das nur mit Energie. Selbst um denken zu können, müssen sie zuvor Energie getankt haben, indem sie essen und trinken. Aber Essen und Getränke sind herzustellen, sind zu besorgen, sind zu transportieren, sind zu verteilen. Auch dafür wird Energie benötigt.

Abbildung 1: In Deutschland durch NIE (Nachhaltig Instabile Energien) erzeugte Elektroenergie in TWh und gleichzeitigrt CO2 Ausstoß von fossilen Kraftwerken in Mio t. Ein Einfluss der NIE auf den CO2 Ausstoß ist nicht feststellbar. Bild EIKE, Daten Statista

Nehmen wir als Beispiel unser täglich Brot

Um es anschaulicher zu machen: Nehmen wir als Beispiel unser täglich Brot. Wir essen es nicht nur, weil es uns schmeckt, sondern weil wir etwas zum Essen brauchen; unser Körper will stets versorgt sein, damit er funktioniert und uns am Leben hält. Brot also hilft daran mit, dass wir leben können. Aber bevor es vor uns auf dem Teller liegt, muss es gebacken werden. Der Backofen dafür lässt sich nur mit Energie erhitzen, zum Beispiel mit elektrischer Energie (gewonnen zum Beispiel aus Kohle, Erdöl oder Erdgas, also fossiler Energie) oder mit Strom aus Wasserkraft, Windkraft, Sonnenlicht oder „Biogas“ mittels Pflanzenmasse-Vergärung (letztlich alles Sonnenenergie) oder einem Holzfeuer (pflanzliche Energie, die sich letztlich ebenfalls aus der Sonnenenergie speist).

Die ganze Produktionskette von Brot ist eine Energiekette

Der Backofen musste gebaut werden. Er setzt sich aus Teilen zusammen, die ebenfalls herzustellen waren. Der Ofen musste von dort, wo er gebaut wurde, dorthin transportiert werden, wo er backen sollte. Zuvor waren seine Bauteile zum Ort seiner Herstellung zu transportieren gewesen. Ebenso hat das Brot eine Produktions- und Transportkette durchlaufen: erst das Saatgut, dann dessen Aussaat, zuvor und zwischendurch die Pflege des Ackers, das Düngen, die Schädlingsbekämpfung, dann das Ernten mit dem Mähdrescher, der Korntransport zur Mühle, das Mahlen, der Transport des Mehls zum Bäcker, das Herstellen des Brotteiges. Hergestellten werden mussten auch der Teller, der Strom, die Elektrizitätswerke, die Windkraftanlagen, die Solarzellen, die Transportmittel, das Saatgut die Ackergerätschaften, der Dünger, die Schädlingsbekämpfungsmittel, die Mühle, deren Bauteile …. Und nichts davon war ohne den Einsatz von Energie möglich. Alles, alles geht nur mit Energie. Diese Energie beziehen wir global weit überwiegend (zu über 90 Prozent) aus fossilen Rohstoffen.

Alle Kosten sind letztlich Energiekosten

Man sieht also: Sämtliche Kosten, die durch menschliches Tun und menschliche Bedürfnisse entstehen, lassen sich letztlich auf den dafür notwendigen Einsatz von Energie zurückführen. Das heißt, alle Kosten sind letztlich Energiekosten. Das ist wie ein Gesetz. Und es ist nicht nurwie ein Gesetz, sondern es ist ein Gesetz, ein physikalisches Gesetz. Einem solchen Gesetz kann sich der Mensch nicht entziehen, er muss es hinnehmen. Weil also alle Kosten = Energiekosten sind, also zwischen Kosten und Energie eine Gleichwertigkeit (Äquivalenz) besteht, heißt dieses Gesetz das Kosten-Energie-Äquivalenzgesetz (KEÄG). Formuliert hat es Heinz Schütte. Er hat ihm auch diesen Namen gegeben. Genau erklärt ist es hier und hier. Heinz Schütte (Jahrgang 1939), ist promovierter Chemiker, hat auch Physik und Pharmakologie studiert.

Sind auch die Entsorgungskosten von Kraftwerken berücksichtigt?

Was antwortet Schütte auf die Frage, ob die Entsorgungskosten von Kraftwerken in die Kosten- und CO2-Rechnung in die KEÄG-Überlegungen einbezogen sind? Seine Antwort: „Diese Frage ist in der ‚Wissel-Arbeit’ klar beantwortet: Sämtliche Kosten – wirklich sämtliche!! – sind in der ‚Wissel-Arbeit’ korrekt berücksichtigt. Damit sind selbstredend auch die Entsorgungskosten und der daraus resultierende CO2-Anfall für alle Kraftwerkstypen vergleichbar enthalten.

Die Schlussfolgerungen aus dem Kosten-Energie-Äquivalenz-Gesetz

Aber was bedeutet das KEÄG für die „alternativen Energien“, wenn diese – so lautet bekanntlich das politisch erklärte Ziel – bei der Stromerzeugung CO2 einsparen und damit das „Klima schützen“ sollen? Dieses Gesetz definiert nämlich die Kosten anders als gewöhnlich, und Heinz Schütte zieht daraus diese Schlussfolgerungen:

Auch die Flatterstrom-Kosten resultieren aus dem Verbrauch von Kohle, Öl und Gas

„Die weltweit auftretenden Kosten sind Kosten für Wirtschaftswerte, die in der Vergangenheit durch den Einsatz der Primärenergieträger geschaffen worden sind. Zu diesen Werten gehören Immobilien, Produktionsanlagen, Fahrzeuge, langlebige Gebrauchsgüter, Haushaltsausstattungen, Versicherungen, Sparguthaben, nicht zu vergessen das monetäre Gesamtvolumen der Weltwährungen und vieles mehr. Obwohl sich die Zusammensetzung der Primärenergieträger – Kohle/Öl/Gas – seit dem 2. Weltkrieg verändert hat, bestanden die Primärenergieträger stets und ununterbrochen zu mehr als 90 Prozent aus kohlenstoff-haltigen Fossilien.“ Das, so Schütte, sei auch heute noch so. Durch ihren physischen Einsatz in die Wertschöpfungskette werde ihre äquivalente Menge an CO2 in die Atmosphäre abgegeben. Damit bestünden die heutigen weltweiten Kosten zu über 90 Prozent aus dem Verbrauch von Kohle, Öl und Gas. Folglich resultierten die Kosten für Strom aus “alternativen Energien” ebenfalls zu über 90 Prozent aus dem Verbrauch dieser drei fossilen Energieträger – so, wie auch alle anderen weltweit auftretenden Kosten.

Für weniger CO2 wären zuerst die „Ökostrom“-Anlagen abzuschalten

Da aber die Stromerzeugung mit Wind dreimal so viel kostet wie die mit Braunkohle und die mit Sonnenschein siebenmal so viel, bedeutet das in der Schlussfolgerung von Schütte, dass Windkraftstrom demnach das 3-fache und Fotovoltaik-Strom das 7-fache an Kohle, Öl und Gas verbraucht, als ein Braunkohlekraftwerk benötigt. Dementsprechend betrage die CO2-Emission bei Windrädern das 3-fache und bei Fotovoltaik-Anlagen das 7-fache der CO2-Emissionen eines Braunkohlekraftwerks. Würde also das Klima wirklich durch Reduktion von CO2 „geschützt“ werden, so werde durch die Umstellung auf “alternative Energien” exakt das Gegenteil erreicht. Oder noch verblüffender ausgedrückt: Wenn denn der CO2-Ausstoß verringert werden soll, dann müssen als erstes die „Ökostrom“-Anlagen abgeschaltet werden, nicht die Braunkohle-Kraftwerke.

Höhere Kosten für fossile Energie machen „Ökostrom“ nicht wettbewerbsfähiger

Schütte weiter: Die ständige Verkündung, steigende Kosten für Kohle, Öl und Gas würden die Kostenstruktur zugunsten der dann kostengünstigeren Ökostrom-Anlagen umkehren, stelle sich als fundamentaler Irrtum heraus, denn auch in absehbarer Zukunft werde der Löwenanteil der Primärenergie weiterhin aus Kohle, Öl und Gas bestehen. Wenn also die Kosten für diese fossilen Energieträger stiegen, dann würden sich, weil das KEÄG gelte, zwangsläufig auch die Kosten für die „Erneuerbaren Energien“ (EE) erhöhen. Abhilfe sei nur dann zu erwarten, wenn es gelänge, die technische Effizienz der EE-Produktionsverfahren zu steigern. Dafür notwendig sei eine Effizienzsteigerung um den Faktor 3 und 7. Die aber sei – wegen der schon erreichten technischen Reife dieser Verfahren – physikalisch absolut ausgeschlossen.

Gibt es Widerlegungen?

Dass diese Überlegungen falsch oder nicht allgemein gültig sind, hat nach Schüttes Angaben noch niemand widerlegt. Auf Befragen antwortet er: „Eine seriöse Gegenargumentation ist bisher nirgends veröffentlicht worden. Das ist auch naheliegend, denn ich habe weder eine neue ‚These’ aufgestellt, noch habe ich neue, bisher nicht bekannte Gedanken oder Ideen in die Welt gesetzt. Ich habe lediglich – so, wie ich in meiner Arbeit auch ausdrücklich auf S. 141, Abs. 2, angemerkt habe – ein bekanntes, lehrbuch-gängiges, physikalisches Grundgesetz mit allgemeingültigem, wirtschaftswissenschaftlichem Basiswissen, wie es in entsprechenden Lexika enthalten ist, unter Anwendung gültiger Gesetze der Logik miteinander verknüpft. Ich habe absolut nichts ‚Neues’ erfunden.“

Eine Kritik, Schüttes Entgegnung, eine Zustimmung

Mit kritischen Äußerungen hat sich, worauf Schütte hinweist, bisher nur Dr. Manuel Frondel1) vom RWI Essen und Professor an der Ruhr-Universität in Bochum zu Wort gemeldet. Dazu hat Schütte eine Entgegnung verfasst (beides hier). Bestätigt dagegen wird Schütte von Prof. Dr. Carl Otto Weiss. Dieser schrieb am 16. April 2011 (hier): „… Für eine Einschätzung der Energie- und CO2-Verschwendung der EE muss man sich nur den Zusammenhang zwischen Energieverbrauch und Kosten vor Augen halten. Die Kosten fuer die Herstellung eines Produktes oder einer Dienstleistung sind nämlich fast ausschließlich die Kosten der Primärenergie, welche für ihre Herstellung aufgewendet werden muss. Heutzutage wird alles mit Hilfe von Energie hergestellt. …. Einwände der Art: „aber die Kosten für Kinderausbildung, Kultur, etc. sind ja auch enthalten“ sind nur scheinbar richtig. Auch diese Kosten sind letztlich nichts als Energiekosten. ….. Wenn man es konsequent zu Ende überlegt ‚besteht’ letztlich jedes Produkt/jede Dienstleistung nur aus Energie. Die Herstellungskosten geben also gerade die Energie an, welche zur Herstellung benötigt wurde. Die Erzeugungskosten von Windstrom liegen im Mittel bei ca. 8ct/kWh, also doppelt so hoch wie bei konventionellen Kraftwerken. Das bedeutet, dass für die Herstellung einer kWh Windelektrizität doppelt so viel knappe Primärenergie ( Kohle/Gas/ Öl/ Kernenergie ) erforderlich ist wie bei konventioneller Erzeugung. …“

Wind- und Solarstrom – eine sinnlose Verschwendung von Kohle, Gas und Öl

Professor Weiss verfasste am 22. Februar 2012 auch eine Einleitung zu einem Beitrag Schüttes über das KEÄG (hier). Der Titel des Beitrags lautet „Erneuerbare Energien beurteilt unter dem Aspekt des Kosten-Energie-Äquivalenzgesetzes“. Weiss schreibt: „Vor einiger Zeit argumentierte ich (hier), dass die Erzeugung von Elektrizität aus Wind- oder Sonnenenergie eine sinnlose Verschwendung von Energierohstoffen wie Kohle, Gas, Öl darstellt. Dieser Aussage lag die Vorstellung zugrunde, dass die Kosten zur Herstellung einer Ware oder Dienstleistung ausschließlich die Kosten der Energiemenge sind, welche für die Herstellung aufgewendet wird, welche also im Herstellungsprozess letztlich in Wärme umgewandelt (und als solche in den Weltraum abgestrahlt wird, damit endgültig verloren ist)… Gemäß dieser Vorstellung lassen sich die Energieverbräuche verschiedener Herstellungsverfahren einfach anhand der Herstellungskosten vergleichen, während die üblichen Berechnungen von Energieverbräuchen stets unsicher sind, da die Zurückverfolgung der Energieverbräuche bis auf die Rohmaterialgewinnung niemals im Detail möglich ist. …“

„Kosten als Energie-Äquivalent von Schütte klar nachgewiesen“

Weiss weiter: „Die Schlussfolgerung, dass Erzeugung von Elektrizität durch Wind und Sonnenenergie, angesichts von 3- bis 10-fachen Herstellungskosten, im Vergleich mit Erzeugung in konventionellen Verbrennungskraftwerken, eine gigantische Verschwendung von Primärenergierohstoffen darstellt und (wenn man denn schon mit Schädlichkeit von CO2-Emission argumentiert eine ebenso sinnlose wie gigantische CO2-Emission), wurde jedoch angezweifelt. Die zentrale Annahme, die Kosten seien ausschließlich Energiekosten, wurde in Frage gestellt. Die zentrale Vorstellung von Kosten als Energieäquivalent wurde jedoch kürzlich klar nachvollziehbar und auf naturwissenschaftlichen Prinzipien beruhend nachgewiesen von Dr. Heinz Schütte in der renommiertesten Zeitschrift der Energiewirtschaft „et-Energiewirtschaftliche Tagesfragen“ (Ausgabe 12/2011, Seite 32-37).“ Carl Otto Weiss ist Physiker und war Abteilungsdirektor an der Technischen Bundesanstalt Braunschweig und ist Autor bzw. Mitautor von weit über 200 Fachveröffentlichungen zur Laserspektroskopie. Er gehört auch zum Fachbeirat des Europäischen Instituts für Klima und Energie (EIKE).

Je teurer fossile Energie desto teurer auch der „Ökostrom“

In den „großen“ Medien war vom Kosten-Energie-Äquivalenz-Gesetz noch nichts zu lesen, aber im kleinen Mühlacker Tagblatt vor einem Jahr, jedenfalls in Form eines Leserbriefs (hier). Darin schreibt Balthasar Schmidt aus Ötisheim: „Im Dezemberheft 2011 der wissenschaftlichen Fachzeitschrift „et-Energiewirtschaftliche Tagesfragen“ wurde das „Kosten-Energie-Äquivalenzgesetz“ veröffentlicht, welches durch Anwendung eines naturwissenschaftlichen Grundgesetzes auf elementare Zusammenhänge des Wirtschaftsgeschehens hergeleitet wurde: ‚Ausnahmslos sämtliche im Weltwirtschaftssystem auftretenden Kosten sind zu 100 Prozent reine Energiekosten.’ Da bisher kein ernstzunehmender Wissenschaftler dieses Gesetz mit anerkannten Fakten und Argumenten widerlegt hat, besitzt es uneingeschränkte Gültigkeit. Die Aussagen von Politikern aller Couleur, die Energiewende sei die langfristige Garantie dafür, dass die Preissteigerungen aufhören, muss man als haltlosen Unfug ins Reich der Märchen verweisen. ‚Erneuerbare Energien’ werden mit steigenden Kosten fossiler Energien eben nicht kostengünstiger, sondern teurer, da ihre Kosten zu 100 Prozent aus Kosten für fossile Energien bestehen. …“

„So einfach sind die Zusammenhänge“

Leserbriefschreiber Schmidt weiter: „Bisher war es für die Protagonisten der „Energiewende“ relativ einfach, dem Volk einzureden, dass die anfangs sehr hohen Kosten für „Erneuerbare Energien“ sich schon bald durch Kostendegression auf ganz normale Weise auf ein vertretbares Maß reduzieren würden. Diese unzutreffende Begründung kann man der Öffentlichkeit indes nur so lange verkaufen, wie die Zusammensetzung der Kosten und speziell deren wahre Verursachung nicht explizit bekannt sind. Nachdem das „Kosten-Energie-Äquivalenzgesetz“ formuliert wurde, ist diese Argumentation ein für alle Mal vom Tisch. Wenn man also fossile Energieträger direkt in klassischen Wärmekraftwerken einsetzt, spart man ein Vielfaches an Primärenergie, setzt entsprechend weniger – angeblich schädliches – CO2 frei und verhindert sämtliche den ‚Erneuerbaren Energien’ zu recht angelasteten Umwelt- und sonstigen Nachteile. So einfach sind die Zusammenhänge! Die große Mehrheit des Volkes würde diese Zusammenhänge sofort begreifen, wenn man sie ihm denn erklären dürfte. Das wird aber geschickt verhindert.“
____________________________________________________________________________
1) Manuel Frondel ist Diplom-Physiker und Diplom-Wirtschaftsingenieur und seit Oktober 2003 Leiter des Kompetenzbereichs „Umwelt und Ressourcen“ am RWI. Seit 2009 ist er zudem Professor für Energieökonomik und angewandte Ökonometrie der Ruhr-Universität Bochum. Von 2001 bis 2003 war er Wissenschaftlicher Mitarbeiter im Forschungsbereich Umwelt- und Ressourcenökonomik und Umweltmanagement des Zentrums für Europäische Wirtschaftsforschung (ZEW), Mannheim, und Vertretungsprofessor an der Fachhochschule Heilbronn. Er promovierte am Lehrstuhl Ökonometrie der Wirtschaftswissenschaftlichen Fakultät der Universität Heidelberg. Seine Forschungsinteressen liegen im Bereich der empirischen Wirtschaftsforschung (Quelle hier). Frondel zum Thema „Wie kann eine bezahlbare Energiewende gelingen?“ hier.
Der Beitrag erschiene zuerst auf K.P. Krauses Blog hier