Deutscher Arbeitgeberverband: Interview mit dem EIKE-Pressesprecher Prof. Dr. Horst-Joachim Lüdecke

Es wird kräftig Alarm geschlagen: Klimaexperten glauben zu sehen, wie die Eismassen in der Antarktis unter den Füßen der Pinguine dahinschmelzen und Eisbären aussterben, weil sie keine Eisschollen mehr finden. Höhere Lufttemperaturen und wärmeres Wasser würden das Eis deutlich schneller abschmelzen lassen als die Klimaforscher erwartet hätten. Die Lage sei bereits jetzt so dramatisch, dass nicht einmal mehr die Beschlüsse der Pariser Klimakonferenz helfen würden. Das Meer werde immer noch gefährlich schnell ansteigen, selbst ohne weiteren Anstieg der Treibhausgase. Da lohnt ein Gespräch mit dem Physiker Prof. Dr. Horst-Joachim Lüdecke (i.R.). Er untersuchte die Rolle des CO2, sah sich alle vorhandenen Daten genau an und ist Mitautor von zahlreichen begutachteten Veröffentlichungen in wissenschaftlichen Klima-Fachzeitschriften.

Holger Douglas: Zuerst die Frage nach Knuddelbär Knuts Brüdern: Sterben sie durch unsere CO2-Emissionen aus?

Horst-Joachim Lüdecke: Nein, keine Spur davon. Eisbärpopulationen wuchsen die letzten Jahre stetig an, denn Knuts Kumpels werden nicht weniger gejagt als früher. Eisbären sind gefährliche Raubtiere und keine Knuddelbären. Sie gibt es schon viele Hunderttausende Jahre. Auch beispielsweise vor ca. 120.000 Jahren als eine globale Warmzeit und bei uns subtropische Temperaturen herrschten. Generell gilt: Alle Tiere passen sich erstaunlich schnell an neue Umweltbedingungen an, auch Eisbären.

Holger Douglas: Lassen Sie uns kurz auf den Treibhauseffekt eingehen: Kommt er dadurch zustande, dass UV-Strahlung der Sonne beim Durchgang durch das Glas eines Treibhauses in Wärmestrahlung umgewandelt wird? Wie funktioniert das in der Atmosphäre?

Horst-Joachim Lüdecke: Es ist recht einfach: Die kurzwellige Strahlung der Sonne durchdringt ungehindert die Luft unserer Atmosphäre. Sie wird vom Erdboden aufgenommen, der sich infolge dieser Energiezufuhr erwärmt. Durch Kontakt mit dem Erdboden erwärmt sich schließlich die Luft. Zusätzlich strahlt der Boden Infrarot ab, wie jeder warme Körper.
Diese vom Boden ausgehende infrarote Strahlung wird von den Treibhausgasen – im wesentlichen Wasserdampf, danach CO2, Methan usw. – absorbiert und als so genannte Gegenstrahlung wieder zum Boden zurückgestrahlt. Dies führt dem Boden weitere Energie zu, was seine Erwärmung erhöht. Messungen der Gegenstrahlung sind heute Standard.
In der Atmosphäre kommen noch zahlreiche weitere Effekte hinzu wie z.B. die Konvektion. Vor allem die Wolken spielen für die Temperaturentwicklung eine entscheidende Rolle. Aber das geht über den Treibhausstrahlungseffekt hinaus und ist eine andere Geschichte.
Auch beim Gärtner-Treibhaus geht die kurzwellige Sonnenstrahlung ungehindert durch das Glasdach hindurch. Völlig verschieden vom atmosphärischen Treibhauseffekt ist dagegen, dass die vom Boden erwärmte Luft durch das Glasdach des Gärtnertreibhauses nicht entweichen kann und sich dadurch weiter aufwärmt.

Holger Douglas: Ist das grundsätzlich dasselbe wie in einer kalten, klaren, wolkenlosen Nacht, in der die Erde stark auskühlt, während ansonsten eine Wolkendecke wie ein Wärmekissen wirkt?

Horst-Joachim Lüdecke: So ist es. Man erfährt dies, wenn man sein Auto bei Frost unter einem Baum mit Blättern abstellt oder 50 Meter weiter unter klarem Himmel: Bei freier Sicht zum Himmel bildet sich Eis auf den Scheiben, unter dem Baum nicht. Hier hilft die Gegenstrahlung der Blätter gegen die zu schnelle Abkühlung der Autoscheiben. Es ist eindeutig ein Strahlungseffekt, denn die Temperatur der leicht bewegten Luft ist in beiden Fällen gleich.

Holger Douglas: Jetzt gibt es die Diskussion: Wie viel Strahlung geht weg in den Weltraum? Dafür müsste man eigentlich wissen, was die Wolken machen?

Horst-Joachim Lüdecke: Den reinen Strahlungseffekt kann man theoretisch mit gewissen Unsicherheiten zuverlässig berechnen. Da ist die maßgebende Größe die sogenannte Klimasensitivität als die zusätzliche globale Erwärmung, wenn sich das CO2, das uns ja so sehr interessiert, verdoppeln würde.

Aber das ist noch nicht alles. Es kommen noch Sekundäreffekte hinzu, bei denen die Wolken eine Schlüsselrolle zu spielen scheinen. Wolken wirken zweifach. Tiefliegende Wolken kühlen, sie absorbieren die Sonnenstrahlen. Sehr hoch liegende Wolken machen das Gegenteil.
Diesen Erwärmungs– oder Abkühlungseffekt durch Wolken kann man theoretisch noch nicht berücksichtigen. Es gibt zwei Denkschienen: Die eine sagt, wenn es durch zunehmendes CO2 wärmer wird, dann wird insbesondere um den Tropengürtel herum mehr Wasser verdampft. Wasserdampf ist ein sehr starkes Treibhausgas, also verstärkt sich der Erwärmungseffekt. Man nennt so etwas Rückkopplung; die Erwärmung wird dadurch stärker als durch die reine Strahlenwirkung.
Die andere Denkschiene sagt: Das Gegenteil ist richtig! Mehr Wasserdampf in der Luft führt zu mehr Wolken. Das kühlt ab.

Also: Was ist wahr? Dazu gibt es eine Reihe von wissenschaftlichen Veröffentlichungen, die an Hand von Messungen belegen, dass der Abkühlungseffekt bei weitem überwiegt. Messungen sind immer noch maßgebend, insbesondere in der Klimaforschung wird dies leider oft übersehen.

Die Theorie, die von einer Rückkopplung spricht, ist dagegen nicht durch Messungen belegt. Nach ihr müsste es nämlich über den Tropen in fünf bis sieben Kilometer Höhe eine deutlich messbare Erwärmungszone geben, der unter dem Begriff Hot Spot läuft. Den findet man aber nicht. Es spricht daher alles dafür, dass der reine Strahlungseffekt abgeschwächt und nicht etwa noch verstärkt wird.

Holger Douglas: Erstaunlich, welch kompliziertes Wechselspiel sich im Laufe der Erdgeschichte herausgebildet hat. Und jetzt plötzlich soll der Mensch alles verändern?

Horst-Joachim Lüdecke: Das ist tatsächlich sehr unwahrscheinlich. Den Einfluss des Menschen kann man aus dem Klimarauschen bis heute nicht heraushören. Was wir seit ungefähr 1750, also seit Beginn der Industrialisierung, an Klimaschwankungen erlebt haben, liegt meilenweitweit innerhalb des natürlichen Schwankungsbereichs des Klimas, wie wir ihn aus den Zeiten davor kennen. Vor der Industrialisierung gab es weit heftigere Klimaausschläge als danach.

Es gibt nicht die geringste wissenschaftliche Berechtigung zu behaupten: Hier sehen wir ungewöhnliche Klimaentwicklungen, die eigentlich nur vom Menschen kommen können. Nicht zuletzt belegen dies sogar der Weltklimarat (IPCC) und jedes meteorologische Lehrbuch: Es ist keine Zunahme von Extremwetterereignissen in den letzten 150 Jahren feststellbar. Ich darf kurz anmerken, dass Wetter und Klima nicht identisch sind. Klima ist der mindestens 30-jährige Durchschnittswert von Wetter.

Holger Douglas: Die Temperaturänderungen der Vergangenheit in 100 Jahreszeiträumen konnten Sie in einer wissenschaftlichen Fachveröffentlichung mit einfachen Sinuskurven wiedergeben und haben dabei erstaunlich gleichmäßige Schwankungen festgestellt?

Horst-Joachim Lüdecke: Sie sprechen jetzt Klimazyklen an. Man kennt eine ganze Reihe dieser Zyklen und vermutet, dass sie von der Sonne gesteuert werden. Stellvertretend nenne ich die Atlantische Multidekaden-Oszillation (AMO) mit einer Zykluslänge von etwa 65 Jahren, den De Vries / Suess -Zyklus von etwa 200 Jahren und den Dansgaard-Oeschger Zyklus von etwa 1500 Jahren. Solche Zyklen sieht man in fast allen guten Proxydaten.
Kurz zu Proxydaten: Es sind indirekt ermittelte Klimawerte der Vergangenheit, als es noch keine direkten Messungen gab, wie z.B. Temperaturen oder Niederschläge. Man gewinnt sie aus Analysen von Baumringen, Stalagmiten, Eisbohrkernen, Sedimenten, Pollen usw.
Man findet nun Korrelationen von Sonnenfleckenzahlen mit der Häufigkeit der Isotope Kohlenstoff 14 und Beryllium 10, aber auch mit Klimazyklen. Ein Zusammenhang dieser Daten liegt sehr nahe, aber man kennt bis heute nicht die Mechanismen, die einen solchen Zusammenhang erklären können.

Wir haben in unserem Fachaufsatz den De Vries / Suess-Zyklus näher untersucht, der für uns heute wohl am interessantesten ist. Er hat nämlich eine Periode von rund 200 Jahren, und dieser Zeitraum interessiert uns ja gerade. Es ist etwa der Zeitraum von Beginn der Industrialisierung bis heute.

Aus der guten Übereinstimmung des De Vries / Suess Zyklus mit der Temperaturentwicklung bis zurück zum Jahre 0 n.Chr. und sogar weiter in die Vergangenheit folgern wir, dass dieser Zyklus nicht plötzlich aufhört, sondern auch zukünftig fortbesteht. Wenn man ihn theoretisch weiterführt, müsste es eigentlich bald wieder kühler werden.

Bis jetzt sehen wir von einem deutlichen globalen Abkühlen allerdings noch nichts. Seit 18-20 Jahren herrscht aber immerhin bereits Stillstand in der globalweiten Temperaturentwicklung. Dies ist ein bemerkenswerter Widerspruch zur Erwärmungswirkung des zunehmenden menschgemachten CO2 und wird für den Klima-Alarmismus immer bedrohlicher. Es wird jetzt spannend, wie es in den nächsten 10, 20 Jahren mit den Temperaturen weitergeht.

Holger Douglas: Scheint dieser jüngste Temperaturstillstand nicht doch auf eine leichte Abkühlung hinzudeuten?

Horst-Joachim Lüdecke: Nein. Wir haben zur Zeit einfach einen Stillstand, mehr nicht. Man muss sich nur die Satellitendaten anschauen, die am zuverlässigsten sind. Man sieht dann, dass sich die Südhemisphäre abkühlt, die Nordhemisphäre in etwa gleich bleibt und sich die Arktis als einzige Erdzone wirklich erwärmt. Im globalen Durchschnitt bleibt es seit ca. 18 Jahren unverändert.

Holger Douglas: Wie genau und zuverlässig sind denn die von Ihnen genannten Proxydaten? Es bestehen sicherlich kaum Probleme, 1 bis 2000 Jahre zurückzugehen und die Temperaturentwicklung relativ präzise zu messen. Aber die Erde ist viereinhalb Milliarden Jahre alt; je weiter wir zurückgehen, desto ungenauer werden die Daten. Wie verlässlich sind diese Zyklen-Vorstellungen?

Horst-Joachim Lüdecke: Es hängt von den Zeitlängen ab: Uns interessiert im Zusammenhang der globalen Erwärmung, die gemäß Meinung der Klima-Alarmisten in den letzten 200 Jahren vom Menschen verursacht sein soll, allerhöchstens die letzten 10.000 Jahre. Vor mehr als 350 Jahren haben wir nur Proxydaten, also indirekte Messwerte. Direkt gemessen wird frühestens seit Mitte des 17. Jahrhunderts.

Alle Proxydaten haben ihre Fehler und Nachteile, je länger zurück desto stärker. Baumringe und Stalagmiten zum Beispiel sind keine reinen Proxies für Temperaturen, sondern auch für Niederschläge. Baumringe geben naturgemäß nur die Sommertemperaturen wieder. Eisbohrkerne haben zwar auch ihre Probleme, sind aber wohl am verlässlichsten, wie man es aus dem Vergleich mit Proxies aus Sedimenten weiß.

Die berühmte Eisbohrkern-Kurve der russischen Antarktis-Station Vostok über die letzten 400.000 Jahre, die Temperaturen und den CO2 Gehalt der Arktis nachbildet, ist beispielsweise sehr zuverlässig. Die CO2 Werte haben in diesem Zeitraum übrigens trotz enormer Temperaturschwankungen nur verhältnismäßig wenig geschwankt. Der CO2 Anstieg der letzten 150 Jahre ist daher ohne jeden Zweifel menschgemacht.

Wenn man natürlich noch weiter zurückgeht, dann wird es ungenauer. Aber man hat immer noch eine recht gute Vorstellung bis 500 Millionen Jahre vor unserer Zeit. Es ist heute bekannt, was damals passiert ist. Der CO2-Gehalt war früher regelmäßig höher als heute. Und die Erde erlebte Warmzeiten mit eisfreien Polkappen, aber auch Kaltzeiten, in denen sie eine Eiskugel (Snowball) war.

Vielleicht ist es in diesem Zusammenhang noch erwähnenswert, dass wir in einem Eiszeitalter leben (nicht in einer Eiszeit). Ein Eiszeitalter ist durch die gleichzeitige Vereisung beider Erdpole gekennzeichnet.

Holger Douglas: Die CO2-Konzentration der Erdatmosphäre ging teilweise bis zu 6000 ppm hoch.

Horst-Joachim Lüdecke: Ja, bis zum 15-fachen von heute – ganz grob natürlich. Es gab aber auch einmal einen Zeitpunkt vor etwa 300 Millionen Jahren als der CO2 Gehalt etwa so niedrig wie heute war. Aber wie schon gesagt sonst war er stets höher.

Was jetzt sehr wichtig ist: Es gibt keine Korrelation zwischen Temperatur und CO2-Gehalt. Es gab die Erde schon einmal total vereist mit sehr hohen CO2-Werten vor etwa 450 Millionen Jahren. Umgekehrt gab es kleine CO2-Werte bei wesentlich höheren Temperaturen als heute vor etwa 90 Millionen Jahren.

Holger Douglas: Also kein Zusammenhang zwischen CO2 und Temperaturen?

Horst-Joachim Lüdecke: Nein, der ist nicht zu sehen.

Holger Douglas: CO2 ist ein Spurengas und daher nur in sehr geringen Mengen in der Atmosphäre vorhanden. Hat es überhaupt eine wichtige Wirkung?

Horst-Joachim Lüdecke: Es stimmt, CO2 ist nur ein Spurengas, selbst das Edelgas Argon ist häufiger. Zur Zeit befinden sich 0,04 Volumenprozente CO2 in der Luft. Vor der Industrialisierung waren es etwa 0,028 Volumenprozent. Diese Differenz ist vom Menschen verursacht.

CO2 ist freilich trotz seiner geringen Konzentration als Hauptbestandteil der Photosynthese lebensnotwendig. Ohne CO2 würden wir alle nicht existieren, es gäbe keine Pflanzen oder Tiere, es gäbe nichts, was man als Leben bezeichnen könnte.

Holger Douglas: Man müsste dann doch einen Zusammenhang zwischen dem Wachstum der Pflanzen und dem CO2 Gehalt sehen oder nicht? Je mehr CO2 Gehalt – desto stärker das Wachstum der Pflanzen?

Horst-Joachim Lüdecke: Ja, so ist es. Hierzu gibt es viele wissenschaftliche Untersuchungen, zum Beispiel Messungen an Nahrungspflanzen von Reis über Weizen bis hin zu Sojabohnen. Der Zusammenhang ist eindeutig. Je mehr CO2, umso stärker der Pflanzenwuchs.

Das weiß man heute auch aus Satellitenmessungen: Die Erde ist inzwischen grüner als noch vor 50 oder 100 Jahren. Es stand sogar schon einmal im Spiegel: "die Sahara wird grüner".

Die Ernten haben weltweit auch durch das vom Menschen gemachte CO2 zugenommen. Das ist ein positiver Effekt. Negative Effekte des zunehmenden CO2 sind nicht bekannt.

Holger Douglas: Weiß das schließlich nicht auch der Gärtner, der in seinem Gewächshaus den CO2 Gehalt erhöht, teilweise bis auf 1500 ppm?

Horst-Joachim Lüdecke: Ja, die Blumen- und Tomatenzüchter machen das. Die blasen CO2 ins Gewächshaus rein. Der Effekt ist diesen Züchtern bestens bekannt.

Holger Douglas: Noch einmal kurz zurück zu der Diskussion über das menschengemachte CO2. Früher sind in der Erdgeschichte zum Beispiel große Waldgebiete abgebrannt, das tun sie auch heute noch, es gab heftige Vulkanausbrüche. Die Erde ist nicht der ruhige Planet, auf dem wir friedlich sitzen, sondern unter uns brodelt und zischt es, Vulkane speien große Mengen an giftigen Gasen und Substanzen hinaus. Woher kann man genau sagen, dass der Mensch den CO2-Gehalt erhöht hat und nicht die Natur selber? Wie zum Beispiel 1815 der gewaltige Ausbruch des Vulkans Tambora in der Südsee, der der Erde ein Jahr ohne Sommer beschert hat?

Horst-Joachim Lüdecke: Nicht nur Gase aus Vulkanen werden heute sehr gut vermessen, man hat daher ein recht genaues Bild der Verhältnisse im Allgemeinen. Das IPCC hat in seinem letzten Bericht AR5 eine schöne Abbildung zu den CO2 Senken und Quellen publiziert. Zu den Zahlenwerten gibt es zwar Unsicherheiten, aber keine der Art, dass ganz andere CO2 Quellen und Senken als die heute bekannten möglich wären.

So gibt es das vom IPCC unabhängige internationale Carbon Dioxide Information Analysis Center (CDIAC), das alle einschlägigen Daten zum CO2 Kreislauf zusammenträgt. Die Ergebnisse sind eindeutig. Wir haben beim CO2-Kreislauf einen gewaltigen Austausch zwischen Ozean und Atmosphäre und zwischen Atmosphäre und der Biosphäre. Da gehen ungefähr pro Jahr jeweils etwa 100 Gigatonnen Kohlenstoff hin und her. Der menschliche Anteil ist dagegen relativ klein: Es sind ungefähr nur zehn Gigatonnen, die der Mensch zum jetzigen Zeitpunkt jährlich in die Luft bläst.

Das, was jetzt an CO2 im Vergleich zu vor 150, 200 Jahren zusätzlich in der Atmosphäre ist, stammt vom industrialisierten Menschen. Alle Messungen sind hier stimmig. Das menschengemachte CO2 verschiebt langsam den CO2-Kreislauf in einen anderen Zustand hinein, der aber keineswegs bedenklich ist – ganz im Gegenteil.

Es passiert nämlich Folgendes: Das Meer hat einen extrem höheren CO2-Inhalt als die Atmosphäre daher bleibt seine CO2-Abgabekraft auch bei etwas CO2-Zufuhr immer noch praktisch unverändert. Technisch ausgedrückt, bleibt der CO2-Partialdruck des Meeres konstant. Wenn das CO2 der Atmosphäre zunimmt, steigt dagegen sein Partialdruck an. Die hier durch den Menschen über die Jahre eingebrachten Mengen an CO2 sind im Gegensatz zum Meer wirksam. Damit wird die Partialdruckdifferenz von der Atmosphäre zum Meer größer, und es wird immer mehr CO2 ins Meer gedrückt.

Heute geht beispielsweise schon die Hälfte des vom Menschen durch Industrie, Landwirtschaft, Rodung und Zementproduktion erzeugte CO2 ins Meer und zu gleichen Teilen in das Pflanzenwachstum.
Unmittelbar zu Beginn der Industrialisierung war dieser Anteil null. Wenn der CO2 Gehalt weiter steigt, geht immer mehr ins Meer und die Biosphäre, immer weniger verbleibt in der Atmosphäre. Der atmosphärische CO2-Gehalt kann daher ein bestimmtes Maß nicht überschreiten.

Nach unserer Fachveröffentlichung wird es sich so bei maximal 800-850 ppm einpendeln. Dieser Wert ist vermutlich sogar zu hoch, denn er besiert auf der hypotetischen Annahme, dass mehr als das Doppelte der geschätzten Weltressourcen an Kohle verbrannt wurde.

Holger Douglas: Kann man das, was Sie schildern, als Sättigungsgrenze der Atmosphäre für CO2 bezeichnen?

Horst-Joachim Lüdecke: Ja, das kann man. Es gibt eine Sättigungsgrenze. Das atmosphärische CO2 kann man anschaulich als gespannte Feder sehen: Je stärker die CO2-Konzentration der Luft, umso mehr drückt die Federkraft CO2 ins Meer hinein.

Holger Douglas: Wird das Meer durch das eingeführt CO2 nicht sauer? Und sterben durch diese Versauerung nicht die Korallen?

Horst-Joachim Lüdecke: Nein, Meeresversauerung ist ein weiterer Mythos der Alarmisten. Jeder Chemiker, dem Sie etwas von Meeresversauerung durch zunehmendes atmosphärisches CO2 erzählen, wird schmunzeln. Das Meer ist basisch, hier müsste schon mehr als der vernachlässigbare menschgemachte CO2-Eintrag passieren, bis es sauer wird. Das eingehende CO2 wird zudem nicht nur im Meerwasser gelöst, sondern geht in die Algenproduktion, die Kalkschalenbildung von Meerestieren und langfristig in die Carbonatgesteinsbildung.

Im Meer gibt noch viele unverstandene Effekte. Man weiß z.B. nicht, wieviel Biomasse von der Meeresoberfläche zum Meeresboden sinkt, wieviel karbonisiert wird usw. Theoretisch und durch Labormessungen versteht man zum Beispiel den Revelle Effekt sehr gut. Der besagt, dass bei zunehmendem CO2 Gehalt der Luft die Aufnahmefähigkeit des Meeres für CO2 abnimmt. In den globalweiten Messungen des Verhältnisses von CO2 der Luft gegenüber dem im Meer verschwindenden Anteil zeigt sich der Revelle Effekt bis heute aber gar nicht.

Auch die angebliche Empfindlichkeit von Korallen gegen mehr CO2 im Meerwasser ist ein alarmistischer Mythos. Zahlreiche wissenschaftliche Untersuchungen haben gezeigt, dass sich die Korallen schnell anpassen und ihnen höhere CO2-Konzentrationen bestens bekommen. Die Anpassungfähigkeit von Pflanzen und Tieren an veränderte Umgebungsbedingungen ist fast grenzenlos.

Holger Douglas: Schwanken nicht die Verhältnisse sehr stark, die den CO2 Kreislauf bestimmen? Und verändert sich nicht auch die CO2-Aufnahmefähigkeit des Meeres bei sich ändernden Wassertemperaturen?

Horst-Joachim Lüdecke: Kurzfristig schwankt der CO2-Fluss von Atmosphäre ins Meer und den Pflanzenwuchs tatsächlich stark, was nicht nur durch die Jahreszeiten bedingt ist. Auch die schwankende Temperatur des Meerwassers spielt eine Rolle. Wenn das Wasser kühl ist, nimmt es mehr CO2 auf, wenn es wärmer ist, weniger – ein übertriebener Vergleich wäre eine Sprudelflasche. Man konnte dies gut im Jahre 1998 erkennen, als ein besonders starker El Nino die Meerestemperaturen stark durcheinander brachte. Längerfristig sind die CO2 Flüsse aber glatt und ruhig.

Holger Douglas: Wie hoch ist denn der Einfluss der veränderten Wassertemperaturen auf den CO2 Zyklus?

Horst-Joachim Lüdecke: Wenn man sich die berühmte Vostokdaten von Temperatur und CO2-Gehalt über die letzten 400.000 Jahre anschaut, sieht man, dass beide genau übereinander liegen. Sie sind extrem gut korreliert. Dies erscheint zunächst als ein Widerspruch zu meiner vorherigen Aussage, es gäbe keine Korrelation zwischen CO2 und Temperaturen.

Wissenschaftliche Arbeiten haben die Vostok-Daten genauer untersucht und dabei festgestellt: Das CO2 hinkt grob 800 Jahre der Temperatur der Atmosphäre und damit des Meeres hinterher. Wenn es wärmer wird, dann wird mehr CO2 vom Meer ausgegast. Wenn es kälter wird, dann geht mehr CO2 ins Wasser.

Die Meere benötigen, um sich zu durchmischen, so ungefähr 1000 Jahre. Dies erklärt das CO2 Nachhinken. Anfänglich, als dieser Zusammenhang noch nicht bekannt war, wurde von den Klimaalarmisten sogar gejubelt, CO2 sei generell der Grund für jede Schwankung der mittleren Erdtemperatur. Tatsächlich ist es genau umgekehrt. Abgesehen von diesem gut bekannten Effekt der CO2 Ausgasung aus dem Meer ist keine Korrelation zwischen CO2 und Erdtemperatur bekannt.

Holger Douglas: Kommen wir noch einmal zu dem Kohlenstoff. In Deutschland geht das Wort von der Decarbonisierung um, es müsste eigentlich zum Unwort des Jahres erklärt werden. Dabei ist Kohlenstoff für uns eines der wichtigsten Elemente.

Horst-Joachim Lüdecke: Die organische Chemie ist Kohlenstoffchemie. Mit Dekarbonisierung ist nun Einsparung von CO2-Emissionen zum Schutz des Klimas gemeint. Das ist aber grober Unsinn. Man kann das Klima, das sich unablässig ändert, nicht schützen. Dazu müsste man mit dem Schutz des Wetters anfangen! Noch nie gab es konstantes Klima, so etwas wird es auch nie geben. Fortwährende Klimaänderung ist praktisch ein Naturgesetz. Die alarmistische Hypothese besagt aber, dass CO2 klimaschädlich sei und stark klimaerwärmend wirke. Dafür gibt es keine Belege.

Nur mit entsprechenden Klimamodellen kann man das hinbekommen. In die Modelle steckt man geeignete Voraussetzungen hinein wie zum Beispiel die von mir schon erwähnten Rückkopplungseffekte. Ob diese Effekte eine verlässliche Messbasis haben, interessiert die Modellierer nicht.
Dann bekommt man beliebig hohe Temperatursteigerungen heraus. Nur haben diese Modelle bisher noch nie die Klimavergangenheit wiedergeben können. Klimamodelle stimmen einfach nicht, sie sind falsch; das lässt die Klimaalarmisten erstaunlich ungerührt.

Mojib Latif, einer der bekanntesten Klimamodellierer in Deutschland, hat in einem Spiegel-Interview gefaselt, wir würden keine Winter mehr mit Schnee haben.

Auch ein solcher sachlich bodenloser Unsinn hält die Alarmisten und leider auch die deutschen Medien in ihren Aussagen nicht auf. Insbesondere die Medien geben nur den Alarmisten Gelegenheiten ihre befremdlichen Wahnvorstellungen dem Publikum in Fernsehen und Radio anzudienen. Seriöse Fachkritiker kommen nicht zu Wort.
Wenn es mit dem fehlenden Schnee nicht klappt, wird eben die nächste Sau durch Dorf getrieben, zum Beispiel die hier schon besprochene Meeresversauerung durch CO2.

Real betrachtet ist Decarbonisierung allein schon deswegen absurd, weil unser deutscher CO2 Beitrag verschwindend gering ist. Selbst wenn wir in Deutschland auf sämtliche CO2-Emissionen verzichten würden, wieder in Fellen herumlaufen würden und unser Nahrungsfleisch mit Pfeil und Bogen schießen würden, würde das an der CO2 Bilanz der Welt nichts ändern.
China, Indien, Brasilien und die USA produzieren so gut wie alles menschgemachte CO2. Wenn man die von der GroKo geplanten deutschen CO2 Emissionseinsparungen auch unter Annahme übertriebener Erwärmungsszenarien in Temperaturen umrechnet, kommt man in den nächsten 20 Jahren auf ein paar tausendstel Grad globaler Erwärmung weniger.

Es ist also sachlich völlig idiotisch, was wir da machen. Hier wird offensichtlich von politischen Schaumschlägern eine politische Vorbildfunktion angestrebt. Wir sollten uns überlegen, ob dies sinnvoll ist. Eine deutsche Vorbildfunktion gab es ja schon einmal, mit katastrophalem Erfolg.

Holger Douglas: Der Kohlenstoff ist das wesentliche Element im atmosphärischen Lebenskreislauf. Aus Kohlenstoff bestehen wir, aus dem wird alles andere in der organischen Welt zusammengestellt. CO2 benötigen die grünen Pflanzen als Baustoff. Doch das soll jetzt das schädliche Klimagas sein, das die Erde zerstören, die Meere ansteigen lassen soll?

Horst-Joachim Lüdecke: CO2 Vermeidung ist eine rein politische Agenda und hat mit sachgerechtem Handeln nichts zu tun. Es gibt sogar Aktionen wie CO2 freie Städte, die als Gipfel der Hirnrissigkeit gelten dürfen. In meiner Heimatstadt Heidelberg gab es sogar Ideenwettbewerbe zu CO2-Einsparungen für Kinder. Hier klingt bereits etwas an, das der Instrumentalisierung von unschuldigen Kindern für ideologische Ziele in der ehemaligen DDR entspricht.

Holger Douglas: Eine Gefahr scheint es aber doch zu geben, die Erhöhung der Meeresspiegel. Hat das Abschmelzen der Gletscher damit etwas zu tun?

Horst-Joachim Lüdecke: Seit Ende der letzten Eiszeit etwa vor 12.000 Jahren hat sich der Meeresspiegel um etwa 130 Meter erhöht. Heute ist davon nur ein Anstieg von 1 – 3 mm pro Jahr übrig geblieben. Was die genaue Ursache für den aktuellen Anstieg ist, weiß man nicht. Immerhin scheint das Abtauen des grönländischen Festlandgletschers so um die 20% zu diesem Anstieg von 1 – 3 mm beizutragen.

Zur Gletscherschmelze: Von einer allgemeinen globalen Gletscherschmelze zu sprechen ist unzutreffend. In Teilen der Welt schmelzen die Gletscher wie zum Beispiel in den Alpen und in Grönland. In anderen Teilen nehmen sie dagegen zu wie z.B. in der Antarktis. Die Alpengletscher schmelzen bereits seit Mitte des 19. Jahrhunderts, als es praktisch noch kein menschgemachtes CO2 gab.

Ferner muss man Eisschmelzen sorgsam auseinander halten: Oft wird nur vom Meereis gesprochen. Das ist das Eis, das sich im Winter auf dem Meer bildet, und das im Sommer wieder verschwindet. Meistens ist es nur eine Bedeckung von wenigen Zentimetern bis hin zu Mini-Eisbergen von wenigen Metren Höhe.

Die Bedeckung mit Meereis wird heute mit Satelliten sehr genau gemessen. Täglich werden diese Messdaten aktualisiert und frei im Internet veröffentlicht. Und da zeigt sich der bekannte Jahreszyklus. Im Sommer haben wir ein Minimum an Eisbedeckung, im Winter ein Maximum. Die Medienmeldung ›der Nordpol schmilzt!‹ kommt regelmäßig, wenn im Spätsommer das Minimum erreicht ist. Das hat mit Klimaänderungen überhaupt nichts zu tun.

So gab es Anfang des 20. Jahrhunderts schon einmal die Wetterlage eines so weit zugefrorenen Nordmeeres, dass die Eisbären zu Fuß von Grönland direkt nach Island laufen konnten. Dann in den 1935-er Jahren war die Nordostpassage frei. Alles ist schon einmal dagewesen.
Seitdem mit Satelliten gemessen wird, sieht man kaum Veränderungen des Nordmeereises über mehrere Jahre. In der Antarktis nimmt das Meereis die letzten Jahre dagegen deutlich zu.

Maßgebend für Wettter und Klima ist aber nicht das Meereis sondern die Festlandgletscher, von denen sich übrigens etwa 98% des Weltbestandes in der Antarktis befinden. Der grönländische Eispanzer hat ungefähr 3 Millionen km³ Volumen. Selbst wenn es am Nordpol noch 5° wärmer wäre, dauerte es viele Tausend Jahre, bis er geschmolzen wäre. Bis dahin ist es leider längst wieder kalt geworden.

Holger Douglas: Grönland bezieht sich ja auf Grünland. Die Wikinger lebten dort, aber nur auf einem schmalen, damals grünen Küstenstreifen mit ein wenig Ackerbau. Der Gletscher aber war bereits vorhanden?

Horst-Joachim Lüdecke: Natürlich. Man darf aber nicht denken, dass dort Wein angebaut wurde. Man konnte dort überleben und Ackerbau betreiben. Die Wikinger sind dann wieder abgezogen, als es kälter wurde. Eine Fachveröffentlichung zeigt im Übrigen an Hand von Eisbohrkernanalysen, dass die mittlere Temperatur Grönlands seit 8000 Jahren bis heute um satte 2,5 °C gesunken ist. Das zum medialen "Der Nordpol schmilzt".

Holger Douglas: Die Herrscher von Inselreichen kommen gerne zu Klimaverhandlungen und beklagen lauthals: Wir saufen ab! Die Industrieländer sind dran Schuld! Und sie fordern mehr Milliarden für sich. Moderner Ablasshandel. Aber das ist der offenkundig kein einheitlicher Vorgang, manche Inseln scheinen zu sinken, andere scheinen sich zu heben, je nachdem, auf welchen Erdplatten sie liegen?

Horst-Joachim Lüdecke: Es hängt tatsächlich von lokaler Geologie und von der Plattentektonik ab, ob sich Inseln heben oder senken. Die Malediven brauchen keine Angst zu haben. Soweit ich mich erinnere, sinkt aber Bangladesch ein wenig ab. Hier kommt noch der Effekt der Sedimentanschwemmung durch Flüsse aus dem Himalaya hinzu. Es ist alles komplizierter, als dass man es mit ein paar Schlagworten abhandeln könnte. Holland ist nicht bedroht, hier baut man bei Bedarf höhere Deiche und steht dem Klima-Alarmismus ungewöhnlich vernünftig und reserviert gegenüber.

Holger Douglas: Was steckt Ihrer Meinung eigentlich hinter dem Klimaalarmismus?

Horst-Joachim Lüdecke: Das Ganze ist Ideologie, eine Mischung aus wohlbekanntem Marxismus, Naturromantik und den  Interessen mächtiger Investoren sowie Politiker. Rousseau machte den Anfang. In der deutschen Romantik entstand das Bild vom weisen gütigen Hausvater, der sich um alles liebevoll kümmert. Die Wirklichkeit sieht anders aus. Er ist keineswegs gütig sondern ein brutaler Diktator, der uns vorschreiben will, welche Glühbirnen wir noch verwenden dürfen, dass wir kein Fleisch mehr essen dürfen – kurz, wie wir zu leben haben.

Kretschmann, der die aktuelle Wahl in Baden-Württemberg gewann, ist Musterbeispiel. Sein Ziel, den Schwarzwald und Odenwald mit völlig unnützen Windrädern zu verspargeln hat die Bevölkerung nicht abgehalten, die grünen Umweltverbrecher zu wählen. So hirnerweichend wirkt Ökoideologie.

Die Natur wird von Ökoideologen als gütig angesehen und als Mutter Gaia bezeichnet, was aber nur eine hilfsweise Verführungsmasche für Gläubige ist. Der Mensch würde die Natur schädigen. Doch die Natur ist weder gut noch böse zu uns. Wir müssen und wollen sie zweifellos schützen. Wir müssen aber gleichzeitig auch uns gegen die Natur schützen. Die moderne Medizin mit ihrem Kampf gegen tödliche Bakterien und Viren von Mutter Gaia zeigt es. Ob aber die Grünen Naturschutz wollen, ist mehr als fraglich, wie es Windräder zeigen.

Das Ziel der Ökoideologen ist in Wirklichkeit eine andere Gesellschaft – undemokratisch und diktatorisch. Ökologie ist dabei nur ein Hilfsmittel. Die kühle Billigung der Vernichtung von Hunderttausenden Fledermäusen und Greifvögeln durch Windräder belegt die Motive dieser Leute. Insbesondere die Verbindung von Klimaschutz und undemokratischen Ideologien ist unübersehbar. Echter Naturschutz zählt bei den Klimaschützern nicht mehr.

Holger Douglas: Wie konnte es Ihrer Meinung nach soweit kommen?

Horst-Joachim Lüdecke: Nachdem der Kommunismus verschwand, wurde als neue Ideologie der Klimaschutz entdeckt. Erstaunlicherweise waren die Protagonisten zahlenmäßig nicht sehr stark, setzten sich aber durch kräftige Unterstützung der Politik und mächtiger Geldgeber rasch durch. Die Möglichkeit, durch Klimaangst politische Herrschaft auszuüben und die Luft zu besteuern und für clevere Investoren in sachlich nutzlose grüne Energien neue Geschäftsfelder aufzutun war einfach zu verlockend.
Es wurde die Treibhauswirkung des CO2 entdeckt. Diese hat man dann zunehmend als fiktive Bedrohung instrumentalisiert und die neue Ideologie des Klimaschutzes darauf aufgebaut. Da stecken natürlich auch weitere handfeste geschäftliche Interessen dahinter.

Insbesondere NGOs, Greenpeace ist hier vorrangig zu nennen, reiten auf dieser Welle. Das sich am Rand der Kriminalität bewegende, aber von den deutschen Medien fast schon wie eine Regierungspartei gehandelte Greenpeace macht sein Geschäft zur Zeit mit dem Kampf gegen die Kernenergie. Ironischerweise ist Kernenergie CO2 frei.

Wenn wie jüngst zu lesen war, die Rockefeller Gruppe aus dem Ölgeschäft aussteigen und ins Geschäft der "erneuerbaren" Energie einsteigen will, weiß jeder nachdenkende Zeitgenosse, was sich hier abspielt.

Ich erlaube mir, es an dieser Stelle ganz klar zu sagen: Klimaschutz hat nichts mit Naturschutz zu tun. Klimaschutz ist eine gefährliche undemokratische Ideologie.

Nachtrag EIKE-Readaktion:

Erfahrungsgemäß führt jede News, die den Treibhauseffekt anspricht, zu oft hoch emotionalen, kontroversen Kommentaren. Auf Bitte des Interviewten (Pressesprecher Horst-Joachim Lüdecke) veröffentlichen wir daher sein folgendes Statement:

Liebe Leser: Meine im Interview gemachten Ausführungen über den Strahlungs-Treibhauseffekt, Gegenstrahlung etc. werden von allen maßgeblichen Fachleuten geteilt, sowohl den Alarmisten als auch den "Klimaskeptikern". Zu den "Klimaskeptikern" = IPCC-Gegnern zählen viele mit hohem wissenschaftlichen Ansehen, so etwa die beiden Physik-Nobelpreisträger Ivar Giaever und Robert Laughlin.

Ich habe im Interview den heutigen Kenntnisstand geschildert, eigenes habe ich nicht geäußert. Dieser allgemeine Kenntnisstand wird auch vom EIKE-Fachbeirat vertreten. Die wenigen Fach-Publikationen, die diese Auffassung nicht teilen, sollen damit nicht diskreditiert oder verschwiegen werden. Es ist aber Tatsache, dass sie in der Fachwelt so gut wie keine Resonanz erfuhren. Vielleicht ist dies der Grund, dass die Vertreter dieser Minderheit oft die notwendige Höflichkeit in der Propagierung ihrer Auffassung vermissen lassen. Mehr Sachlichkeit würde vielleicht zu gewinnbringenden Diskussionen führen.

Meine Ausführungen zu den Rückkoppelungseffekten, also IPCC-Klimamodellen, Hot Spot usw. werden selbstredend nur von den IPCC-Gegnern und nicht von den Klima-Alarmisten geteilt.

Um es daher deutlich noch einmal zu sagen: Das was im Interview zum Thema "Treibhauseffekt" zu hören ist, stammt nicht von mir. Es ist das, was die Fachleute des "Skeptikerlagers" und betreffs Strahlungsteil auch noch die IPCC-Fraktion vertreten. Ich bitte daher um Verständnis, wenn ich mich aus weiteren Diskussionen zu diesem Thema heraushalte. Dies auch deswegen, weil ich mich als Physiker zwar mit dem Thema etwas auskenne (hier, hier), aber kein Spezialist auf diesem Gebiet bin. Es gibt Einschlägigeres, stellvertretend (hier, hier). Die wohl vollständigste und umfangreichste Zusammenstellung bietet der Skeptiker-Blog "Science of Doom" (hier). Hier findet sich auch fachliche Kritik an der o. erwähnten Minderheiten-Meinung.

Wer sich also ernsthaft informieren möchte – die wichtigsten Quellen sind genannt. Wer es persönlich möchte, möge sich an einen Experten der riesigen Schar prominenter Gegner des IPCC wenden. Ich nenne stellvertretend nur Namen wie Fred Singer, Richard Lindzen, Nir Shaviv, Henrik Svensmark, Garth Paltridge, Roy Spencer usw. usw. ….. Einige von ihnen sind Mitglieder der Skeptikerorganisation "Global Warming Policy Foundation", gegründet von Benny Peiser. Ich stehe für Antworten nicht zur Verfügung.




Fünf Punkte zum Klimawandel

Es ist ein sehr großes FALLS. Wir könnten Billionen für nichts verschwenden. Tatsächlich hat Lord Stern geschätzt, dass es es wert wäre, jedes Jahr ein paar Billionen Dollar auszugeben, um ein mögliches Desaster in 200 Jahren zu vermeiden. Weil er mit der London School of Economics assoziiert ist, wird ihm geglaubt – zumindest von jenen, deren Erfahrungen mit Versicherungen begrenzt sind. All jene, die diese Erfahrung haben wissen, dass es es nicht wert ist, sich gegen etwas zu versichern, das in 200 Jahren eintreten könnte – es ist unendlich besser sicherzustellen, dass unsere Kinder damit fertig werden. Mit jedwedem Glück werden sie Gleiches mit ihren Kindern tun, und die Ur-Ur-Urenkel werden gute Individuen sein, die sehr gut mit Lord Sterns kleinem Problem umgehen können.

Also habe ich mich entschlossen, die Hypothese ausgehend von fünf Prinzipien zu untersuchen. Es gibt fünf Schritte zu der Hypothese:

1. Der CO2-Gehalt der Atmosphäre steigt.

2. Der CO2-Anstieg in der Atmosphäre geht zum großen Teil einher mit der Zunahme der Verbrennung fossiler Treibstoffe. Die Verbrennung fossiler Treibstoffe führt zu CO2-Emissionen, so dass es sehr angemessen scheint, die beiden Zunahmen in Verbindung miteinander zu bringen.

3. CO2 kann Infrarot streuen über Wellenlängen primär um etwa 15 µm. Infrarot dieser Wellenlänge, welche Energie von unserem Planeten wegführen sollte, wird in die untere Troposphäre zurück gestreut, wo der zusätzliche Energie-Input einen Temperaturanstieg verursachen sollte.

4. Die erwartete Zunahme der Energie der unteren Troposphäre kann langfristige Änderungen des Klimas und der Thermosphäre verursachen, was charakterisiert werden könnte durch eine Zunahme der Häufigkeit und Intensität von Extremwetterereignissen, durch steigende Wassertemperatur in den Ozeanen, eine Verringerung der Eisbedeckung und viele weitere Änderungen.

5. Die größte Bedrohung ist, dass der Meeresspiegel steigen und Gebiete überfluten könnte, die derzeit dicht besiedelt sind.

Sind diese Hypothesen in wissenschaftlichem Sinne haltbar? Gibt es eine solide Logik bei der Herstellung einer Relation zwischen jedem Schritt in dieser Kette?

Der CO2-Anstieg in der Atmosphäre ist unbestreitbar. Viele Messungen zeigen ihn. Zum Beispiel gab es seit dem Jahr 1958 kontinuierliche Messungen auf dem Mauna Loa-Observatorium in Hawaii:

Anstieg und Rückgang von Jahr zu Jahr ist dem je nach Jahreszeit unterschiedlichen Pflanzenwachstum geschuldet. Aber der langzeitliche Trend zeigt eine stetige CO2-Zunahme in der Atmosphäre.

Vor 1958 gab es nur sporadische Messungen des CO2-Gehaltes, keine kontinuierlichen. Nichtsdestotrotz gibt es ausreichende Informationen, eine diesbezügliche Rekonstruktion zurück bis in das Jahr 1850 vorzunehmen:

Es gab einen leichten Anstieg des atmosphärischen Niveaus um das Jahr 1900, dann eine Periode mit nahezu Stillstand bis nach 1950, als ein starker Anstieg einsetzte, der bis zum heutigen Tag anhält. Man behalte diese Graphik mal im Hinterkopf – sie wird in anderer Form noch einmal erscheinen.

Die Schlussfolgerung ist eindeutig – es gab eine Zunahme des CO2-Gehaltes in der Atmosphäre. Was könnte die Ursache dafür sein?

Nun, es gibt die gleiche Verteilung von CO2-Emissionen durch die Verbrennung fossiler Treibstoffe und anderer industrieller Quellen:

Eine ähnliche Verteilung ist kein Beweis – Korrelation ist nicht Kausalität. Aber falls man versucht, die Emissionen direkt mit der Zunahme des CO2 in der Atmosphäre in Verbindung zu bringen, wird man scheitern. Es gibt viele nur teilweise verstandene „Senken“, welche CO2 aus der Atmosphäre entfernen. Die Erkennung der Dynamik all dieser Senken hat sich als schwierig herausgestellt, und darum haben wir kein wirklich gutes chemisches Gleichgewicht zwischen dem, was emittiert wird und dem, was in die Luft kommt.

Glücklicherweise gibt es Isotope, die uns helfen. Es gibt zwei primäre Pflanzenbestandteile, C3 und C4. C3-Pflanzen sind sehr alt und tendieren dazu, eher das Kohlestoffisotop 12C zu bevorzugen als das Kohlenstoffisotop 13C. Pflanzen mit C4-Bestandteil sind vergleichsweise jünger, und sie sind bzgl. ihrer Isotopen-Diät nicht so anspruchsvoll. Fossile Treibstoffe stammen aus einer Zeit, bevor die Evolution C4-Bestandteile hervorgebracht hatte, so dass sie reicher an 12C sind als die heutige Biomasse. Emittiert man also 12C-reiches CO2 aus fossilen Treibstoffen in die Luft, sollte der 13C-Anteil in der Luft sinken, und das ist genau das, was beobachtet wird:

Der Beweis, dass die Verbrennung fossiler Treibstoffe die Ursache für die CO2-Zunahme in der Atmosphäre ist, ist also wirklich schlüssig. Aber hat das irgendwelche Auswirkungen?

Kohlendioxid verteilt Infrarot über eine geringe Energie-Bandbreite. Die Infrarot-Photonen, welche Energie vom Planeten entfernen sollten, werden in die untere Troposphäre zurück gestreut. Die zusätzliche Energie sollte einen Temperaturanstieg verursachen.


Die obere graue Linie zeigt das Spektrum, welches angenähert dem Spektrum der mittleren Albedo des Planeten Erde bei einer Temperatur von 280 K entspricht. Das ist die Temperatur etwa 5 km über der Oberfläche, wo sich einfallende und ausgehende Strahlung im Gleichgewicht befinden. Das tatsächliche Spektrum wird durch die blaue Linie repräsentiert. Der Unterschied zwischen beiden ist die verloren gegangene Energie durch die von Treibhausgasen verursachten Verteilungs-Prozesse. Wasserdampf hat bei Weitem die stärkste Auswirkung. CO2 trägt zum Verlust zwischen 13 und 17 μm bei, Ozon zwischen etwa 9 und 10 μm.

Der Effekt der CO2-Absorption nimmt logarithmisch mit der Konzentration ab. Die Verdoppelung der Konzentration wird nicht irgendwelche Auswirkungen verdoppeln. Tatsächlich befinden sich derzeit etwa rund 400 ppm in der Atmosphäre. Es ist unwahrscheinlich, dass die Welt mit einem Gehalt von 800 ppm sehr viel anders aussehen würde. Sie wird grüner sein – Pflanzen wachsen besser – und es könnte geringfügig wärmer und feuchter sein, aber sonst würde die Welt sehr wie unsere Welt jetzt aussehen.

So wir irgendwelche Auswirkungen jedoch proportional mit der Zunahme der Konzentration geringer werden, so werden sie mit jeder Abnahme proportional zunehmen. [Original: However, just as any effect will lessen proportionately with increase in concentration, so it will increase proportionately with any decrease.] Falls es dabei irgendwelche beobachtbaren Effekte gibt, sollte man sie in historischen Aufzeichnungen finden. Haben wir sie gesehen?

Es gibt „offizielle“ historische Temperaturaufzeichnungen. Eine Version aus jüngerer Zeit von der HadCRU sieht so aus:

Die vertikale Achse zeigt das, was unter dem Begriff „Temperatur-Anomalie“ bekannt ist, also die Abweichung von der mittleren Temperatur über den Zeitraum 1950 bis 1980. Man erinnere sich, dass der CO2-Gehalt erst nach 1950 signifikant wurde, so dass wir diese Abbildung mit diesem Faktum im Hinterkopf betrachten können:

• von 1870 bis 1910 sank die Temperatur, es gab keinen signifikanten CO2-Anstieg.

• von 1910 bis 1950 stieg die Temperatur, es gab keinen signifikanten CO2-Anstieg.

• von 1950 bis 1975 sank die Temperatur, der CO2-Gehalt war gestiegen.

• von 1975 bis 2000 stiegen sowohl die Temperatur als auch der CO2-Gehalt.

• von 2000 bis 2015 hat die Temperatur geringfügig, der CO2-Gehalt hingegen stark zugenommen.

Treibt das Kohlendioxid Temperaturänderungen an? Schaut man auf diesen Beweis, muss man sagen, dass falls es eine Relation gibt, diese sehr schwach sein muss. In einer Studie von den Eisbohrkern-Aufzeichnungen über 8000 Jahre fand ich, dass es eine Wahrscheinlichkeit von 95% gibt, dass sich die Temperatur aus natürlichen Gründen um bis zu ±2°C innerhalb von 100 Jahren ändern würde. Während des 20.Jahrhunderts änderte sie sich um 0,8°C. Schlussfolgerung? Falls das CO2 in der Luft wirklich globale Erwärmung verursacht, muss das Signal erst noch aus dem natürlichen Rauschen auftauchen.

Eines der Probleme mit den „offiziellen“ Temperaturaufzeichnungen wie die oben gezeigte Reihe von HadCRU ist, dass sie Gegenstand von „Adjustierungen“ waren. Während manche Adjustierungen von Rohdaten offensichtlich erforderlich sind, wie beispielsweise die Berücksichtigung der Seehöhe eines Messpunktes, war die Adjustierung in diesem Falle dergestalt, dass die Vergangenheit kälter und die Gegenwart wärmer gemacht worden ist, was die globale Erwärmung viel dramatischer aussehen lässt als es aus den Rohdaten hervorgeht.

Es könnte unvernünftig aussehen, sich auf die offiziellen Daten als „adjustiert“ zu beziehen. Allerdings ist die Grundlage der offiziellen Daten das, was als das Global Historical Climatology Network or GHCN bekannt ist, und es wurde willkürlich adjustiert. Zum Beispiel ist es möglich, die Rohdaten von Kapstadt von 1880 bis 2011 mit den Adjustierungen zu vergleichen, die an die Daten der sich entwickelnden GHCN-Reihen Version 3 angebracht worden waren:

Das Goddard Institute for Space Studies GISS ist verantwortlich für das GHCN. Das Institut befasste sich mit den den Adjustierungen zugrunde liegenden Metadaten. Sie zeigten eine einzelne Datenlinie, gaben die geographischen Koordinaten und die Seehöhe des Messpunktes an sowie eine kurze Reihe bedeutungsloser Daten einschließlich des Wörtchens „COOL“. Die Grundlage der Adjustierungen ist daher unbekannt, aber die Tatsache, dass etwa 40 aufeinanderfolgende Jahre lang Daten um genau 1,10°C „adjustiert“ worden sind, zeigt ziemlich eindeutig, dass hier die Methode „Pi mal Daumen“ angewendet worden ist anstatt von Algorithmen.

Es gab inzwischen so viele Manipulationen der „offiziellen“ Aufzeichnungen der globalen Erwärmung, dass sie keinerlei Glaubwürdigkeit mehr haben. Das soll nicht heißen, dass sich die Erde während der letzten Jahrhunderte nicht erwärmt hat. Gletscher zogen sich zurück, Schneefallgrenzen stiegen. Es gab Erwärmung, aber wir wissen nicht wie viel.

Interessanterweise sind die gemessenen Temperaturen nicht eindeutig. Zum Beispiel hat das Abschmelzen von Eis an Alpenpässen in Europa Wege ans Licht gebracht, die vor 1000 Jahren und noch früher regelmäßig benutzt worden waren. Danach waren sie von Eis bedeckt, das erst in jüngster Zeit wieder geschmolzen ist. Die Schutthalden neben den Wegen, die diese historischen Reisenden genommen haben, bieten eine reiche Vielfalt archäologischen Materials.

Folglich muss die Welt vor einem Jahrtausend mindestens so warm gewesen sein wie heute. Sie hat sich währen der letzten paar hundert Jahre erwärmt, aber die Erwärmung ist primär natürlichen Ursprungs und hat nichts mit menschlichen Aktivitäten zu tun. Wir haben nicht einmal eine Ahnung davon, ob es überhaupt irgendwelche Auswirkungen menschlicher Aktivitäten gibt, und wir können mit Sicherheit nicht sagen, ob irgendein Anteil der beobachteten Erwärmung anthropogenen Ursprungs ist. Die Physik sagt, dass wir eine Auswirkung haben sollten, aber wir können sie noch nicht von der natürlichen Variation unterscheiden.

All jene, die uns ob des Kohlenstoff-Verbrechens anklagen wollen, haben daher ein anderes Verfahren entwickelt – das Globale Zirkulations-Modell. Hierbei handelt es sich um eine Repräsentation der Atmosphäre, welche die Bedingungen innerhalb einer Schicht der Atmosphäre berechnet, typischerweise 5 km X 5 km X 1 km. Jede Schicht wird mit einer benachbarten Schicht in Beziehung gesetzt (falls man über ausreichend Computerleistung verfügt – wenn nicht, müssen die Schichten dicker sein).

Die Modellierer lassen ihre Berechnungen typischerweise einige Jahre in der Vergangenheit beginnen, in denen das Klima bekannt ist. Dann versuchen sie, damit das (bekannte) Klima zu prophezeien vom Startzeitpunkt bis heute. Es gibt viele adjustierbare Parameter in den Modellen, und dreht man an diesen nur ausreichend herum, kann man das Modell an die Historie „anpassen“.

Scheint das Modell erst einmal historische Daten gut genug reproduzieren zu können, wird es auf die Zukunft losgelassen. Dabei schwingt die Hoffnung, dass – selbst wenn die Modelle nicht perfekt sind – eine vernünftige Bandbreite von Prophezeiungen herauskommen wird, falls verschiedene Personen unterschiedliche Frisierungen zu unterschiedlichen Zeiten anbringen. Aus dieser Bandbreite könnte man vielleicht ein paar Hinweise auf die Zukunft gewinnen.

Unglücklicherweise wurden diese Hoffnungen nur zu oft immer wieder enttäuscht. Das El Nino-Phänomen ist ziemlich gut bekannt, es hat eine bedeutende Auswirkung auf das globale Klima – und dennoch ist kein einziges der Modelle in der Lage, dieses zu berücksichtigen. Genauso können die Modelle auch nicht Hurrikane abbilden – der Scale 5 km X 5 km ist einfach zu grob. Sie können lokale Klimate nicht abbilden – eine Stichprobe von zwei Gebieten, die nur etwa 5 km auseinander liegen und von denen es in dem einen Gebiet jährlich 2000 mm Regen gibt, in dem anderen aber nur um 250 mm scheiterte kläglich. Gut wurden die Wind- und Temperaturdaten sowie die lokale Topographie abgebildet. Man hatte mit einem sehr engen Netz gearbeitet, aber da gab es nicht ausreichend Regelknöpfe, um dieses Modell mit der Historie in Einklang zu bringen.

Sogar die in diesen Modellen angewandten Grundlagen der Physik scheitern. Die grundlegende Physik prophezeit, dass sich die obere Atmosphäre zwischen den beiden Wendekreisen schneller erwärmen sollte als die Oberfläche. Regelmäßig steigen Wetterballone mit Thermometern in diesem Gebiet auf. Es gibt drei separate Ballon-Datensätze, und sie alle stimmen darin überein, dass es keinerlei Anzeichen einer zusätzlichen Erwärmung gibt:


[Die Graphik erscheint auch im Original so unscharf. Anm. d. Übers.]

Die schwarzen Quadrate zeigen das Mittel der drei Datensätze. Die Höhe wird in Druckeinheiten angegeben; 100.000 Pascal am Boden und 20.000 Pascal in einer Höhe von etwa 9 km. Es gibt 22 verschiedene Modelle, und deren Mittel zeigt die schwarze Linie. Am Boden zeigt die Messung eine Erwärmung um 0,1°C pro Jahrzehnt, aber die Modelle prophezeien 0,2°C pro Jahrzehnt. In 9 km Höhe zeigen die Messungen immer noch eine Erwärmung um 0,1°C, die Modelle jedoch im Mittel 0,4°C, in Extremfällen bis 0,6°C. Modelle,die um einen Faktor 4 oder mehr falsch sind, können nicht als wissenschaftlich bezeichnet werden. Sie sollten nicht einmal zur Veröffentlichung angenommen werden – sie sind falsch.

Die Hypothese, dass wir auf der Grundlage von Modellen, die sich schon jetzt als falsch herausgestellt haben, das zukünftige Klima vorhersagen können, ist falsch. Internationale Abkommen, den zukünftigen Temperaturanstieg auf X°C über das vorindustrielle Niveau begrenzen zu können, hat mehr mit des Kaisers neuen Kleidern zu tun als mit Realität.

Der dritte Schritt zu unserem Verständnis der Klima-Zeitverschwendung kann also nur lauten, ja, die Welt erwärmt sich, aber um wie viel und warum – davon haben wir keine Ahnung.

Wie könnten die Klimaauswirkungen einer wärmeren Welt aussehen? Was ist „Klima“? Es ist das Ergebnis der Mittelung einer klimatologischen Variable wie etwa Regenmenge oder Luftdruck, gemessen typischerweise einen Monat oder eine Jahreszeit lang, woraus dann über viele Jahre hinweg ein Mittel gebildet wird, als ob man einen Hinweis auf das Wetter bekommen würde, das man in einem Monat oder während der nächsten Jahreszeit erwarten kann.

Zweitens, wir müssen die Bedeutung von „Änderung“ verstehen. In diesem Zusammenhang bedeutet Änderung eindeutig, dass der Mittelwert einer klimatologischen Variable über X Jahre von dem Mittelwert der gleichen Variable über einen anderen Zeitraum von X Jahren abweicht. Aber schon jetzt ist offensichtlich, dass sich das Wetter von Jahr zu Jahr ändert, weshalb es eine natürliche Variation des Klimas von einem Zeitraum von X Jahren zu einem anderen Zeitraum von X Jahren gibt. Daher muss man wissen, wie groß X sein muss, um die natürliche Variabilität zu berechnen und damit zuverlässig irgendwelche Änderungen des gemessenen Klimas zu entdecken.

Dieser Aspekt von „Klimawandel“ scheint in der gesamten bisherigen Debatte übersehen worden zu sein. Man scheint anzunehmen, dass es ein „präindustrielles“ Klima gab, welches man viele Jahre lang messtechnisch erfasst hatte, bevor die Industrie ein wesentlicher Faktor unserer Existenz geworden ist und dass sich das Klima, das wir heute messen, statistisch von jenem hypothetischen Klima unterscheidet.

Das Problem dabei ist natürlich, dass es nur sehr wenige tatsächliche Daten aus jenen präindustriellen Tagen gibt, so dass wir nichts in der Hand haben, um zu erkennen, wie das Klima damals wirklich war. Es gibt keine Grundlinie, von der aus wir eine Änderung messen können.

Angesichts dieser Schwierigkeit haben die Protagonisten des Klimawandels die Hypothese modifiziert. Es wird jetzt kolportiert, dass die beobachtete Erwärmung der Erde das Klima dergestalt ändern wird, dass Extremwetterereignisse immer öfter auftreten. Dies beseitigt die Schwierigkeit jedoch nicht, sondern verschlimmert sie noch.

Zur Illustration nehme man an, dass ein Extremereignis eines ist, dass außerhalb der 95%-Wahrscheinlichkeits-Bandbreite liegt. Also würde man im Verlauf von 100 Jahren im Mittel 5 solcher Extremereignisse erwarten. Anstatt dass man 100 Jahre mit Daten heranzieht, um das mittlere Klima zu ermitteln, gibt es jetzt nur fünf Jahre, um eine mittlere Schätzung des Extremereignisses zu erhalten, und der relative Fehler bei der Mittelung von 5 variablen Ereignissen ist offensichtlich viel größer als der relative Fehler bei der Mittelung von 100 variablen Ereignissen.

Die Daten der Regenmenge von England und Wales zeigen dies ziemlich überzeugend:

Die trendbereinigten Daten sind eng um die Normale verteilt, so dass es sinnvoll ist, hierfür die normale Statistik zu bemühen. Die 5%-Grenzen sind folglich zwei Standardabweichungen auf je einer Seite des Mittels. Im Laufe der 250-jährigen Aufzeichnung würde man 12,5 Extremereignisse erwarten (jene außerhalb der 95%-Grenze). Tatsächlich erfordert es 250 Jahre, um eine vernünftige Schätzung (innerhalb von 12%) nur bzgl. der Häufigkeit extremer Regenmengen vornehmen zu können. Es gibt keine Möglichkeit, irgendwelche Änderungen dieser Häufigkeit aufzufinden, was jedoch nötig wäre, um „Klimawandel“ zu zeigen.

Tatsächlich ist die Lebensspanne eines Menschen unzureichend, um auch nur die Häufigkeit von Extremereignissen herauszufinden. Während aufeinander folgenden 60-Jahre-Perioden gibt es 2, 4, 2 und 2 Ereignisse, ein Mittel von 2,5 Ereignissen mit einer Standardabweichung von 1,0. Es gibt eine Wahrscheinlichkeit von 95%, innerhalb von 60 Jahren zwischen 0,5 und 5,5 Ereignisse zu erleben, wo 3% (5% von 60) erwartet werden. Viele Lebensspannen sind erforderlich, um die Häufigkeit mit hinreichender Genauigkeit zu bestimmen, und noch viel mehr Lebensspannen, um irgendwelche Änderungen der Häufigkeit zu finden.

Man weiß, dass es seit mindestens 150 Jahren wärmer geworden ist. Falls die Erwärmung zu mehr Extremwetter geführt haben sollte, hätte man erwarten können, dass es einige Beweise für eine Zunahme von Extremereignissen während dieses Zeitraumes gebe. Die Main-Stream-Presse versucht uns das mit Sicherheit weiszumachen, wenn es zu einem offensichtlich heftigen Sturm kommt. Aber keiner der klimatologischen Indikatoren, von denen Daten seit mindestens 100 Jahren vorliegen, zeigt auch nur Spuren von Anzeichen einer Zunahme extremer Ereignisse.

Zum Beispiel gab es viele Behauptungen, dass tropische Zyklone an Häufigkeit und Stärke zunehmen. Die WMO berichtet: „Es bleibt unsicher, ob Änderungen der Aktivität tropischer Zyklone in der Vergangenheit über die aus natürlichen Gründen zu erwartende Variabilität hinausgeht“.

Es stimmt, dass die Schäden durch Zyklone zunehmen, aber dies liegt nicht an extremerem Wetter. Es ist die Folge einer immer stärkeren Bebauung, und jedes Bauwerk ist verwundbarer als vor 20 oder mehr Jahren. Daten aus über ein Jahrhundert wurden sorgfältig analysiert, um zu dieser Schlussfolgerung zu kommen. Der IPCC-Bericht stimmt hinsichtlich Extremereignisse damit überein.

Es ist sehr unwahrscheinlich, dass Extremwetter jedweder Art irgendeinen Teil unseres Planeten unbewohnbar macht – darunter sind Dürren, schwere Stürme und Orkane. Tatsächlich ist dies keine allzu große Überraschung – die Menschheit hat gelernt, mit Extremwetter umzugehen, und Menschen bevölkern Gebiete von den kältesten bis zu den heißesten Regionen, vom Meeresspiegel-Niveau bis in Höhen, wo man nach Luft ringen muss. Wir sind nicht nur anpassungsfähig, sondern wir haben auch gelernt, Strukturen zu schaffen, die uns vor den Kräften der Natur schützen.

Natürlich ist ein solcher Schutz nicht kostenlos zu haben. Nicht jeder kann sich die Strukturen leisten, die für ihren Schutz erforderlich sind. Dörfer werden regelmäßig von Stürmen schwer beschädigt, die in den meisten modernen Städten kaum Schäden hinterlassen würden. Flut-Kontrollmaßnahmen sind ausgelegt auf Ereignisse, die einmal während 100 Jahren auftreten, und im Allgemeinen funktionieren sie auch – während arme Länder, deren tief liegende Gebiete regelmäßig überschwemmt werden, sich dringend geeignete Schutzmaßnahmen wünschen.

Tatsächlich ist es eine Herausforderung für die Fähigkeit von Ingenieuren, Schutzmechanismen gegen alle Arten natürlicher Kräfte zu entwickeln. Beispiel: Das Erdbeben vor Japan mit der Magnitude 9 (welches den Tsunami auslöste, der die Reaktoren von Fukushima zerstörte), hat nur wenig Gebäudeschäden verursacht, während es zuvor im gleichen Jahr bei Erdbeben mit einer Magnitude von „nur“ 7 in Wellington, Neuseeland, zu schweren Gebäudeschäden gekommen war. Dabei wurde die Kathedrale von Wellington zerstört, die nicht darauf ausgelegt war, Erdbeben zu widerstehen.

Wir sollten keine Angst vor Extremwetterereignissen haben. Es gibt keinerlei Beweise, dass diese irgendwie stärker sind als in der Vergangenheit, und die meisten von uns können angemessen darauf reagieren. Natürlich werden unsere Schutzmaßnahmen irgendwann nicht ausreichen, aber normalerweise geht dies auf menschliches Versagen zurück und nicht auf exzessive Naturkräfte. Hier beim vierten Schritt unserer Reise können wir schon sehen, wie die Klimawandel-Hypothese strauchelt und zu Fall kommt.

In gleicher Weise erweisen sich die meisten der anderen Angst-Stories bzgl. „Klimawandel“ als Unsinn, wen sie mit realen Daten getestet werden. Die Eisbären verschwinden nicht von der Erde: tatsächlich kann die International Union for the Conservation of Nature während der letzten 400 Jahre keine Änderung der Verlustrate von Spezies erkennen. Die Temperatur war niemals ein starker Indikator für die Ausbreitung von Malaria – das Fehlen entsprechender Maßnahmen bzgl. der menschlichen Gesundheit ist hierbei eine kritische Komponente. Spezies wandern, aber ob die Temperatur dafür der Treiber ist, ist zweifelhaft – angesichts täglicher und jahreszeitlicher großer Temperaturänderungen ist es sehr unwahrscheinlich, dass eine kleine Änderung der Mitteltemperatur dafür die Ursache ist. Gletscher schmelzen, aber die Welt ist wärmer, so dass dies nicht unerwartet kommt.

Eine letzte Frage bleibt übrig: Wird der Meeresspiegel steigen und unsere Küstengebiete verschlucken?

Zunächst muss man erkennen, dass der Meeresspiegel steigt. Das hat er schon während der letzten 25.000 Jahre getan. Allerdings ist er während der letzten 7 Jahrtausende langsamer gestiegen als jemals zuvor:

Die kritische Frage lautet, ob die beobachtete geringe Anstiegsrate als Folge eines sich erwärmenden Klimas zugenommen hat. Es gibt viele Beweise dafür, dass dies nicht der Fall ist. Einer davon sind langzeitliche Daten von Tiden-Messstationen. Sie müssen mit Vorsicht behandelt werden, weil es Gebiete gibt, in denen sich das Land absenkt (wie der Golf von Mexiko, wo der vom Mississippi herangeschwemmte Schlamm schwer auf der Kruste liegt), während sich andere Gebiete heben (wie der größte Teil von Skandinavien, wo die Last eines viele tausend Meter dicken Eispanzers vor 10.000 Jahren verschwunden ist). Eine typische langzeitliche Tiden-Messreihe gibt es aus New York:

Der Trend von 1860 bis 1950 betrug 2,47 bis 3,17 mm pro Jahr; der Trend im Zeitraum 1950 bis 2014 2,80 bis 3,42 mm pro Jahr – beide mit einem 95%-Vertrauensniveau. Die Wahrscheinlichkeit, dass sich nach 1950 eine Beschleunigung zeigt,liegt unter 5%.

Ein weiterer Beweis kommt von den Satellitenmessungen des Meeresspiegels. Die folgende Abbildung zeigt die jüngsten verfügbaren Satelliten-Informationen – sie reichen aber nur bis zum Jahr 1993 zurück. Nichtsdestotrotz ist der Anstieg von 3,3 ± 0,3 mm pro Jahr vollkommen konsistent mit den Tidenmessungen:

Folglich weisen viele Beweislinien auf die gegenwärtige Rate des Anstiegs hin, die etwa 3 mm pro Jahr oder 30 cm pro Jahrhundert beträgt. Unsere bestehenden Schutzmaßnahmen gegen das Meer müssen mit täglichen Änderungen von vielen Metern fertig werden, und Sturmfluten mit einigen weiteren Metern. Die mittlere Höhe unseres Schutzes ist bis etwa 7 m über dem Meeresspiegel ausgelegt, so dass zusätzliche 0,3 m bis zum Ende dieses Jahrhunderts die Anzahl der Wellen etwas erhöhen wird, die über die Barrieren schwappen.

Das IPCC prophezeit, dass der Meeresspiegel in diesem Jahrhundert um 0,4 bis 0,7 m steigen wird. Angesichts der großen Bandbreite dieser Prophezeiung besteht die Möglichkeit, dass es recht hat. Wichtig ist jedoch, dass nicht einmal ein Anstieg um 0,7 m eine Katastrophe wäre, und zwar angesichts der Tatsache, dass unsere Schutzmaßnahmen schon jetzt meterhoch sind – sie um weitere 10% zu erhöhen während der nächsten 80 Jahre wäre kostspielig, aber wir hätten Jahrzehnte Zeit, diese Änderung vorzunehmen. Bis dahin sollte es mehr als hinreichend Warnungen geben, falls wirklich ein signifikanter Anstieg des Meeresspiegels erfolgt.

Unter dem Strich: Unsere fünf Schritte haben gezeigt:

● Die Verbrennung weiter zunehmender Mengen fossiler Treibstoffe hat die CO2-Konzentration in der Atmosphäre zunehmen lassen.

● Die physischen Auswirkungen dieser Zunahme sind auf keine wissenschaftliche Weise nachweisbar. Es mag eine gewissen Erwärmung der Atmosphäre gegeben haben, aber gegenwärtig liegt jedwede Erwärmung fast mit Sicherheit innerhalb der natürlichen Variation der Temperatur.

● Es gibt keine Beweise, weder für irgendeine Zunahme der Häufigkeit oder Magnitude von Wetterphänomenen noch für klimabezogene Änderungen der Biosphäre.

● Es ist unwahrscheinlich, dass jedweder Anstieg des Meeresspiegels in diesem Jahrhundert eine unüberwindbare Herausforderung ist.

Versuche, die globale Temperatur durch die Kontrolle von CO2-Emissionen zu beeinflussen, sind wahrscheinlich ebenso unnütz wie wirtschaftlich katastrophal.

Link: http://wattsupwiththat.com/2016/04/08/five-points-about-climate-change/

Übersetzt von Chris Frey EIKE




Nachgefragt: BR Programm 14.3.2016, Sendung: „Jetzt mal ehrlich Verstrahltes Bayern: Wie viel Wahrheit ist uns zumutbar?“

Zur BR Programm 14.3.2016, Sendung: „Jetzt mal ehrlich  Verstrahltes Bayern: Wie viel Wahrheit ist uns zumutbar?“

 

 

Bild 1, Startbild zur BR-Sendung

Um den Jahrestag von Fukushima erinnerte der BR in einer Reportagesendung auch an das Reaktorunglück von Tschernobyl. Ein junger, hyperaktiver Moderator fuhr durch Bayern und spürte die schlimmen Strahlenauswirkungen auf, welche das damalige Atomunglück in Bayern hinterlassen hat.

Jeder darf seine Meinung kundgeben. Wenn eine Sendung aber mit Wahrheit tituliert wird, sollte solche auch enthalten sein. Der Autor hat darin jedoch eine lupenreine Anti-Atomkraft-Propagandasendung gesehen welche darin gipfelte, dass der Moderator mit half, ein Anti-Atomkraft-Transparent an einem AKW-Zaun anzubringen.

Reportagebeispiele und inhaltliche Kritik

Sendungs-Startbild

Im Startbild zur Sendung hält jemand einen Geigerzähler mit der Anzeige 0,1 µSw in den Händen.

Kritik

0,1 µSw ergeben hochgerechnet 8,8 mS / pa.  Das ist nicht wenig, aber auch nicht übermäßig viel. Eine Gefahr für die Gesundheit ist dadurch nicht im Entferntesten vorhanden.

[1] Erst 100 Millisievert gelten als gefährlicher Grenzwert: Die Wahrscheinlichkeit für einen Anstieg von Krebserkrankungen steigt, wenn der Mensch mindestens in dieser Größenordnung ein Jahr lang durch Strahlen belastet wird. Eine Einzeldosis von 1000 Millisievert führt zu einer Strahlen-Erkrankung mit Symptomen wie Übelkeit, ist aber nicht tödlich.

Natürliche Strahlenbelastungen

Die natürliche Radioaktivitätsbelastung in Deutschland beträgt etwa 2,5 (mSv = Millisievert) im Jahr (Radon-Gas der Luft, kosmische und terrestrische Strahlung, Essen und Trinken sowie Baumaterialien). Doch gibt es große Unterschiede wie die folgenden Beispiele zeigen:

—  Im Schwarzwald bis zu 18 mSv [1]

—  In einigen Gegenden auf diesem Planeten sogar bis 200 mSv im Jahr (Brasilien und Iran)
—  Arbeitsrechtlich darf die Dosisleistung 20 mSv pro Jahr = 10 µSv/h (bei 2000 Arbeitsstunden), nicht überschreiten.

Szenen Umhergehen in „verstrahlter“ Landschaft

In der Reportage selbst wird viel mit einem Geigerzähler in der Landschaft „umhergegangen“, wobei ein ausgewiesener Anti-Atomkraft Aktivist und der Moderator abwechselnd über hohe Strahlenwerte klagen, nie jedoch Werte angegeben oder zeigen. Der Aktivist erklärt, dass es  10 Halbwertszeiten – also 300 Jahre – dauert, bis die Strahlung von Tschernobyl in Bayern verschwunden ist.

Kritik

Nach 10 Halbwertszeiten beträgt die Reststrahlung 0,1 %. Aktuell zeigt wohl ein „Hotspot“ (Startbild, in der Reportage selbst werden nirgends irgendwelche Daten zu Bodenwerten genannt) den der Moderator ausfindig gemacht hat 0,1 µSw (8,8 mS / pa). Nach 2 Halbwertszeiten, also 60 Jahren ist diese Strahlung auf das Maß der durchschnittlichen natürlichen Belastung gesunken. Ab diesem Wert und demnach nach 60 Jahren kann von „verschwunden sein“ gesprochen werden und nicht erst bei einer Reduzierung auf 0,1 % (0,088 mS / pa) mit 300 Jahren.

Das Bayerisches Landesamt für Umwelt hat bereits 2011 eine kleine Broschüre: FAQs zum Jahrestag „25 Jahre Tschernobyl“  veröffentlicht. Darin steht:

[2] Die Strahlenexposition des bayerischen Bürgers durch Tschernobyl ist heute kleiner als 0,01 mSv  (1 Hunderstel MilliSievert) pro Jahr. 

Zum Vergleich:   Die durchschnittliche Strahlenexposition des deutschen Bürgers durch die natürliche Radioaktivität beträgt ca. 2,4 mSv pro Jahr.

Dazu ein Bild aus einer LfU-Broschüre. Wo her wirkliche Gefahren kommen könnten ist darin gut zu sehen.

 

Bild 2 [3] Verschiedene Strahlenquellen im Vergleich

Von einer bedrohlichen, durch Tschernobyl oder auch durch Deutsche Kernkraftwerke verursachten Strahlenbelastung der bayerischen Bürger kann demnach wohl kaum die Rede sein.

Szene Nach dem Aufstellen des Maibaums „juckte“ die kontaminierte Haut

Der Moderator fährt in seinen Heimatort Gersthofen bei Augsburg.

Moderator: „… bei Gersthofen schaut es ja nicht so gut aus, ist ziemlich belastet gewesen“, dann sinngemäß:  … vier Tage nach Tschernobyl wurde von der Dorfjugend bei Regen mit nacktem Oberkörper der Maibaum aufgestellt. Am Tag danach soll es den Leuten  am Körper gejuckt haben.

Kritik

Zu dieser Szene hat der Autor beim BR nachgefragt, auf welcher Datenbasis diese Aussage referiert. Begründung: Ein solch schneller Strahleneffekt am Körper ist bei der geringen möglich gewesenen Kontamination strahlenmedizinisch unmöglich.

Vom BR kam eine Antwort:

Unser Moderator Rainer Maria Jilg schildert ganz persönliche Erinnerungen aus seiner Kindheit. Er zitiert zudem Erinnerungen anderer Zeitzeugen, die subjektiv ein Jucken auf der Haut vernommen haben wollen. Es handelt sich dabei ganz klar und unmissverständlich um persönliche und subjektive Schilderungen und Eindrücke unseres Moderators. Dass diese nicht auf strahlenmedizinischen Untersuchungen basieren, geschweige denn basieren müssen, versteht sich von selbst.

Szene Messen kontaminierter Pilze

Man geht in das Anti-Atomkraft-Umweltinstitut München. Die Institutsleiterin untersucht getrocknete Maronenröhrlinge, Befund: 5225 Becqerel / kg. Die Institutsleiterin sagt, dass der Grenzwert für diese im Moment gemessenen Pilze 600 Bq/kg beträgt, was der Moderator entsprechend alarmistisch kommentiert.

Kritik

Der Grenzwert für Trockenpilze darf bei Trockenpilzen mit dem 10-Fachen gegenüber Frischpilzen gesetzt werden. Das kann man googeln und / oder nachfragen.

Auf die Nachfrage des Autors beim in der Reportage messenden Umweltinstitut e.V. München kam die folgende Antwort:

… vielen Dank für Ihre Nachfrage.

Tatsächlich gibt es in der EU nur zwei Grenzwerte:
– 370 Bq/kg für Milch, Milchprodukte und Säuglingsnahrung
– 600 Bq/kg für alle übrigen Lebensmittel
Einen eigenen Grenzwert für getrocknete Pilze gibt es unseres Wissens nicht. Es ist allerdings richtig, dass für die Umrechnung von Trockenmasse auf Frischmasse bei Pilzen der Faktor 10 in etwa herangezogen werden kann.

Man kann auch bei einem zuständigen Amt nachfragen. Das ist eventuell etwas langwieriger, da so man das falsche erwischt hat dieses die Anfrage nicht einfach weiterleitet, sondern mit der lieben Bemerkung zurückgibt, „man möge sich bitte an das zuständige Amt wenden“. Aber übermäßig schwierig ist es nicht.

Zu guter Letzt gab die Pressestelle des Bayerischen Landesamtes für Gesundheit und Lebensmittelsicherheit (LGL) die folgende Antwort:

Aufgrund der Empfehlung der Kommission 2003/274/Euratom gilt der in der VO (EG) 733/2008 aufgeführte Grenzwert von 600 Bq/kg auch für Pilze. Der Grenzwert von 600 Bq/kg bezieht sich im Falle von Pilzen auf das Gesamtgewicht und nicht auf die Trockenmasse.

Pilze verlieren beim Trocknen ca. 90 %  ihres ursprünglichen Gewichtes. Daher wird der ermittelte Radiocäsiumwert (Leitnuklid: Cäsium 137) der getrockneten Pilze durch den Korrekturfaktor 10 dividiert. Dies würde bei dem von Ihnen angegebenen Cäsium 137 Messwert der getrockneten Pilze von 6000 Bq/kg, einen Cäsium 137 Gehalt bezogen auf die Gesamtmasse, von 600 Bq/kg ergeben.

Der dazu angesprochene BR antwortete:

Text der Nachfrage:

Zu den Grenzwerten bei Trockenpilzen: " Meiner Information nach beträgt der Grenzwert für Trockenpilze das Zehnfache des Wertes für ungetrocknete, also 6.000 bq/kg (was für Trockenpilze auch physikalisch vernünftig erscheint). Damit lag die Belastung der gemessenen Pilze weit innerhalb der Grenzwerte.

BR-Antwort:

"Woher haben Sie diese Information? Auf welchen wissenschaftlichen Grundlagen fußt diese? Laut unseren Recherchen sind die Grenzwerte für alle Wildpilze gleich, egal, ob es sich um  getrocknete, eingelegte oder frische Pilze handelt.

Szene erhöhte Leukämiegefahr für Kinder um Atomkraftwerke

Und weiter geht es im Film. Beim Heranfahren des Moderators an „die Gefahr“ immer durch ein penetrantes, schicksalschwangeres Pochen untermalt. Mit einem Aktivisten von „Ärzte gegen Atomkraft“ (IPPNW) wird die  KiKK-Studie diskutiert.

Anm.: In dieser Studie wurde die Wahrscheinlichkeit des gehäuften Auftretens von Leukämie an Kindern bis 5 Jahren im Umkreis von 5 km um KKWs in Deutschland untersucht.

Der Moderator erklärt: ... im 5 km Umkreis von KKWs ist diese Krebsrate doppelt so hoch. Der Arzt antwortet dazu: „ Wenn man erkennt, dass der Normalbetrieb eines KKW Kinder krank macht dann gibt es nur eine Konsequenz, das AKW abschalten“. Der Moderator ergänzt: „… unglaublich, da liefert eine Studie klare Ergebnisse, aber die müssen dann weiter bewiesen werden ….“

Kritik

Die KiKK-Studie

Die KiKK-Studie[4]  ergab in Deutschland wirklich eine zusätzliche Wahrscheinlichkeit um einen 5 km-Radius von Atomkraftwerken. Diese beträgt statistisch um alle deutschen KKWs zusätzliche 0,8 Erkrankungen im Jahr. Ergänzend heißt es dazu in der Studie:

 — [4] Diese Schätzungen sind wegen der zugrunde liegenden kleinen Fallzahlen mit erheblicher Unsicherheit behaftet

Weiter steht In der Studie dazu, dass dies physikalisch nicht erklärbar ist:

[4] So wird für eine 50 Jahre alte Person, deren Wohnsitz sich in 5km Entfernung zum Kernkraftwerk befindet, eine kumulative Exposition gegenüber luftgetragenen Emissionen von 0,0000019 mSv (milli Sievert) (Obrigheim) bis 0,0003200 mSv (Gundremmingen) erwartet. Die jährliche natürliche Strahlenexposition in Deutschland beträgt etwa 1,4 mSv, die jährliche durchschnittliche Exposition durch medizinische Untersuchungen etwa 1,8 mSv. Demgegenüber ist die Exposition mit ionisierender Strahlung in der Nähe deutscher Kernkraftwerke um den Faktor 1.000 bis 100.000 niedriger. Vor diesem Hintergrund ist nach dem derzeitigen wissenschaftlichen Erkenntnisstand das Ergebnis unserer Studie nicht strahlenbiologisch erklärbar.

Auch ist bekannt, dass in ländlichen Gegenden signifikante Leukämie-Cluster zu finden sind. Auch dieser über Deutschland verteilte Effekt ist nicht erklärbar. Nun sind die KKW-Standorte meistens „in ländlichen Gegenden“. Die Studie untersuchte aber nicht ob sich unter dieser Berücksichtigung die festgestellte (kleine) Leukämiehäufigkeit nivellieren würde.

Ein erklärendes Dokument aus der Schweiz

Mit nur ein bisschen Engagement lässt sich aber Ergänzendes finden und zwar in der Schweiz.

Ein Wissenschaftsteam hat die verschiedenen dazu durchgeführten Studien zusammengetragen, analysiert und die Inhalte und Bewertungen in einer Broschüre zusammengefasst. Allerdings ist dieses Wissenschaftler-Forum erkennbar nicht anti-atomkraftaktivistisch polarisiert:

Das „Forum Medizin und Energie“ (FME) ist ein überparteilicher und breit abgestützter Verein. Die Mitglieder des
FME sind Ärztinnen und Ärzte aus Praxis und Forschung.
Das FME wurde 1984 von Prof. Dr. Martin Allgöwer (1917–2007), ein bekannter Schweizer Arzt und Chirurg, gegründet. Das FME hat sich zum Ziel gesetzt, die Schnittstellen zwischen menschlicher Gesundheit und Energie zu erforschen. Zur Zeit umfasst das FME rund 200 Mitglieder aus der ganzen Schweiz.

Die Broschüre nennt sich:

Forum Medizin und Energie, Postfach, 8040 Zürich, 2012: Kinderleukämie und Kernkraftwerke – (K)Ein Grund zur Sorge?  Grundlagen, Studien, Analysen. Dritte, erweiterte Auflage

Die Schlussfolgerung in dieser Broschüre lautet:

Welche Schlussfolgerungen sind aus den gesammelten Daten zu ziehen? Die Gesamtheit der Studien zeigt, dass
eine Nachbarschaft zu einem Kernkraftwerk generell kein erhöhtes Leukämierisiko bedeutet. An den meisten Kraftwerkstandorten war entweder nie eine Häufung von Leukämiefällen feststellbar, oder sie liess sich bei weiterer Beobachtung nicht bestätigen. An einzelnen Standorten sind vermehrt Krankheitsfälle aufgetreten, doch deren absolute Anzahl liegt in einem Bereich, der sich auch bei anderen Risiken findet: Wohlhabende Lebensumstände, großzügige Wohnverhältnisse und eingeschränkter Kontakt zu anderen Kleinkindern.

Es ist ein Trugschluss, die radioaktiven Emissionen eines Kernkraftwerkes für das Risiko einer Leukämieerkrankung verantwortlich zu machen. Würde nämlich der Entstehungsmechanismus der Krankheit über die ionisierende Strahlung laufen, müsste sich auch die erhöhte Radioaktivität aus natürlichen Quellen in größeren Zahlen der Kinderleukämieerkrankungen niederschlagen. Die bekannten strahleninduzierten Tumoren bei Erwachsenen dürften dabei nicht ausgespart bleiben. Und auch die bekannten Reaktorunfälle mit Auswirkungen auf die Umgebung oder die erhöhte C-14-Belastung während der Kernwaffenversuche der 50er- und 60er-Jahre führten in keinem Fall zu einer Erhöhung der Leukämiehäufikeit, die entsprechend den Proportionen hätte immens ausfallen müssen.

In dieser (interessanten) Broschüre ist auch eine schweizerische Studie gelistet, welche parallel zur KIKK-Studie speziell deren Thematik analysierte, Ergebnis:

Die Öffentlichkeit hat teilweise mit Erstaunen auf das Studienergebnis reagiert, weil das Resultat von demjenigen der deutschen Studie von 2007 abweicht. Dazu ist festzuhalten, dass das Resultat der Schweizer Studie in Einklang steht mit der grossen Mehrheit der rund 50 internationalen Studien, die in den letzten 30 Jahren durchgeführt wurden. Es ist vielmehr die deutsche Studie, die ein „Ausreisser“ darstellt. Mehrheitlich kamen die Untersuchungen zum Schluss, dass kein erhöhtes Risiko für Kinderleukämie um KKW besteht.

Es ist zudem auf ein weiteres wichtiges Ergebnis der Studie hinzuweisen: Sie hat festgestellt, dass auch keine lineare Abstand-Wirkung-Beziehung besteht. Das heisst, dass es nicht immer mehr Fälle gibt, je näher man an einem Kernkraftwerk wohnt. Im Gegenteil, die Studie hat festgestellt, dass es teilweise sogar weniger Fälle gibt, je näher man an einem Kernkraftwerk wohnt.

Ein Vorwurf, der seinerzeit der deutschen Studie gemacht worden war, war der Umstand, dass die Wind-Richtung nicht berücksichtigt worden sei. Wenn ein ursächlicher Zusammenhang zwischen KKW und Kinderleukämie bestehen würde, so die Hypothese, wäre dafür auch die Abluft aus dem KKW-Kamin verantwortlich. Die Schweizer Studie hat die Windrichtung mitberücksichtigt und festgestellt, dass das Risiko unter Einbezug der Windrichtung sogar sinkt.

Wirklich auch gar nichts davon wurde in der Reportage erwähnt.

Denn es bieten natürlich keinerlei Basis für den Alarm welcher dazu berechtigen würde, alle KKWs wegen Leukämierisiko sofort abzuschalten, wie es der IPPNW-Aktivist unterstützt vom Moderator fordert.

Aber selbst wenn man beim Erstellen einer „die Wahrheit zeigenden“ Reportage nicht in der Lage oder Willens ist, dies zu recherchieren.

Wenn 0,8 statistische zusätzliche Krankheitsfälle im Jahr dazu „berechtigen“ sollen, 50 % der Energieversorgung eines Landes sofort abzuschalten, muss man weit vorher alle Autofahrten, Röntgenuntersuchungen, Kindergarten- und –Krippenbesuche und und und verbieten, da das damit verbundene Mortalitätsrisiko wesentlich höher ist.

Szene Interviews von Fachleuten einer für Strahlung zuständigen Behörde

Nun werden zwei Vertreter von mit Strahlung beauftragten Behörden interviewt. Diesen war das Interview erkennbar unangenehm (konnten dem aber wohl nicht entgehen) – denn so unwissend wie sie sich darstellten sollten zwei Promovierte in Führungspositionen kaum sein, außer sie wären eklatante Fehlbesetzungen -.  Jedenfalls ließen sie sich außer zu Allgemeinplätzen zu keinerlei hilfreichen Information, geschweige pro- oder kontra-Aussagen bewegen.

Kritik

Zu diesen zwei verbeamteten farblosen „Figuren“ erspart sich der Autor Kritik. Was erwartet man von einem  Beamten, dem jede ehrliche Aussage die Karriere gefährden könnte.

Reportage-Schluss

Nach etlichen in diesem Stil gedrehten weiteren Episoden endet die Reportage in einer Szene in welcher der Moderator einem Anti-Atomkraft-Aktivisten hilft, ein Demonstrationsplakat an einem KKW-Zaun zu befestigen sowie der Schluss-Aussage des Moderators, dass er die Abschaltung aller deutschen KKWs begrüßt.

Schlusskritik

Es ist dem Autor ein Rätsel, wie ein öffentlicher Sender auf die Idee kommen kann, eine derart offensichtliche Propagandasendung drehen zu lassen und zur besten Sendezeit anzubieten. 

Der Moderator ist laut seiner Vita studierter Musiker und Dipl.- Ing (FH) für Medien. Das ist nichts Schlimmes, sogar beachtenswert – jedoch sind damit besondere Kenntnisse auf dem Fachgebiet Strahlung eher nicht zu erwarten – was der / die Verantwortliche beim BR hätten ahnen können. Trotzdem durfte er eine Fachreportage dazu frei moderieren. Und niemand hielt es für erforderlich, auf die vollkommen fehlende Ausgewogenheit und eklatanten sachlichen Fehler hinzuweisen.

Dass des Bürgers Zwangsbeitrag mit der Bereitstellung von ausgewogener Information begründet wird scheint man beim BR nicht mehr zu wissen, bzw. zu ignorieren, schließlich kann der zahlende Bürger den BR ja nie abwählen.

persönliche und subjektive Schilderungen und Eindrücke“ dieser Art sind jedenfalls keine Information, geschweige „Wahrheiten“ für die der Autor freiwillig etwas bezahlen würde.

Mailadresse des BR: zuschauerservice@br.de

Quellen (sofern nicht im Text direkt angegeben)

[1]

FOCUS 18.03.2011: Strahlung unsere tägliche Dosis

http://www.focus.de/panorama/welt/tsunami-in-japan/wissenschaftliche-hintergruende/strahlung-unsere-taegliche-dosis_aid_609687.html

[2]eine7. Wie groß ist die jährliche Strahlenexposition in Bayern durch Tschernobyl heute?

Bayerisches Landesamt für Umwelt, 12. April 2011: FAQs zum Jahrestag „25 Jahre Tschernobyl“

[3]eine7. Wie groß ist die jährliche Strahlenexposition in Bayern durch Tschernobyl heute?

Bayerisches Landesamt für Umwelt, Publikation: UmweltWissen Strahlung  – Radioaktivität und Strahlung – Vorkommen und Überwachung

[4]

Umweltforschungsplan des Bundesumweltministeriums (UFOPLAN) Reaktorsicherheit und Strahlenschutz Vorhaben StSch 4334: Epidemiologische Studie zu Kinderkrebs in der Umgebung von Kernkraftwerken (KiKK-Studie) Zusammenfassung/Summary




El Hierro – 100 % Erneuerbare? Kann das funktionieren?

Betriebsstrategien für El Hierro ?

Das Programm (Bild rechts) ist in 5 logische Funktionen aufgeteilt, wie die Bedienoberfläche auch zeigt.

Von oben nach unten :

1.              Die Erzeugung

2.              Die Belastung

3.              Der Speichermanager

4.              Die Speicherfüllung

5.              Die Frequenz

6.              Die Leistungsverteilung

Zu 1:  Die Erzeugung

Die Erzeugung besteht aus drei Komponenten. Es ist in erster  Linie die Windkraftanlage bestehend aus 5  Anlagen je 2,3 MW. Für die Simulation werden beim Programmstart alle WKAs als einsetzbar angesehen, wenn die Checkbox WKA-Betrieb  gesetzt ist.

Mit den Commandfeldern + und kann man die Anzahl per Hand einstellen. Die Checkbox WKA-Betrieb kann nur gesetzt werden  wenn entweder die Checkbox Wasserturbine-Betrieb, die Checkbox Diesel-Betrieb oder beide gesetzt sind  Das bedeutet, dass mindestens die Wasserturbine oder die Dieselmaschine ans Netz synchronisiert ist und die Netzfrequenz  im Regelbereich liegt. Eine von beiden Anlagen muss laufen und die Netzfrequenz und Netzspannung diktieren. Mit dem Scrollbar Windkraftanlage kann man die Leistung, der vom zufälligen Wind abhängigen  Stromerzeugung, für Versuche in dieser Simulation einstellen. Die Leistung und die Anzahl der WKA kann man in den beiden Textfeldern sehen. Die Oberwelligkeit der Stromerzeugung und ungünstige Windströmungsverhältnisse am WKA-Standort sind mir bekannt, werden aber in dieser Arbeit, ebenso wie Wirkungsgrade, nicht weiter berücksichtigt

Durch Anwahl der Checkbox Wasserturbine-Betrieb teilt man dem Programm mit, dass die Wasserturbinen ans Netz geschaltet sind und zur Regelung bereitstehen. Mit dem Scrollbar Wasserturbine kann man den Drehzahlsollwert einstellen und damit die Frequenz/Leistung der Maschine bestimmen. Im großen oberen Textfeld wird die Leistung der Maschinen angezeigt In den kleinen Textfeldern wird links der Frequenzeinfluß des Drehzahlreglers und rechts der Windeinfluß des Speichermanagers angezeigt. Die Summe der maximalen Leistung der vier Wasserturbinen beträgt 11,32 MW.

Durch Anwahl der Checkbox Diesel-Betrieb teilt man dem Sytem mit, dass das Dieselkraftwerk ans Netz  geschaltet  ist und zur Regelung bereitsteht. Ich nehme an es handelt sich um mehrere Synchrongeneratoren mit einer Leistung von insgesamt 11,5 MW. Mit dem Scrollbar Dieselkraftwerk kann man den Drehzahlsollwert einstellen und damit die Frequenz/Leistung der Maschine bestimmen. Im großen oberen Textfeld wird die Leistung des Werkes angezeigt . In dem kleinen Textfeld wird Frequenzeinfluß des Drehzahlreglers angezeigt.

Im grossen Textfeld rechts wird die Gesamtleistung der Erzeugeranlagen angezeigt

Zu 2: Die Belastung

Die Belastung der Erzeugeranlagen wird von der Netzlast, den Speicherpumpen mit Festdrehzahl und den leistungsregelbaren Speicherpumpen  gebildet.

Mit dem Scrollbar Netzlast wird die Leistung des Verteilernetzes eingestellt und auf dem Textfeld angezeigt.

Die Speicherpumpen mit Festdrehzahl kann man mit Checkbox Pumpe 1 bis 5 anwählen. Jede Pumpe hat eine Leistung von 0,5 MW. Die Summe wird im großen Textfeld angezeigt. Wann Pumpen zu- oder abzuschalten sind  zeigt ein Textfeld mit begleitendem BEEP an. Zugeschaltet werden soll, wenn die Leistung der regelbaren Speicherpumpen 1,5 MW überschreitet. Abgeschaltet werden soll, wenn die Leistung der regelbaren Speicherpumpen 0,5 MW unterschreitet. Damit soll die Belastung durch Frequenzumrichter so gering wie möglich gehalten werden.

Die zwei regelbaren Speicherpumpen von je 1,5 MW werden vom Programm als beide Pumpen in Betrieb aufgefaßt. Ihre Leistung wird im Handbetrieb mit Scollbar Speicherpumpe eingestellt. Die aktuelle Leistung  wird im großen Textfeld angezeigt. Die Summe der Pumpleistung ergibt sich aus der Addition der Leistung von Festdrehzahlpumpen plus Regeldrehzahlpumpen. Die Überschreitung von 3 MW für die regelbaren Pumpen wird verhindert und durch rote Hintergrundfärbung im Textfeld angezeigt. Die Pumpleistung wird von Speichermanager bestimmt, sofern die Option Windeinfluß Laden/entladen angewählt ist. Im linken kleinen Textfeld wird der Windeinfluß des Speichermanagers angezeigt. Im rechten kleinen Textfeld wird der Frequenzeinfluß angezeigt, wenn diese Betriebsstruktur durch die Checkbox  Frequenzeinfluß gewählt ist. Mit dem Scrollbar Speicherpumpe Frequenzeinfluß kann man den Sollwert zwischen 47.5 Hz und  50 Hz einstellen, wenn man wieder 50 Hz im Netz wieder erreichen will. Im grossen Textfeld rechts oben wird die Gesamtleistung der Belastungen angezeigt

Zu 3: Der Speichermanager

Der Speichermanager hat die Aufgabe das Einspeichern und Ausspeichern von Windenergie in/aus dem Höhenspeicher zu steuern. Ziel ist es die Energiegewinnung aus Windenergie zu vergleichmäßigen. Dazu ist die Ermittlung der mittleren Windleistung der letzten 7 Tage und eine Vorausschau für den aktuellen Tag  nötig. Dies kann nicht Teil dieser Simulation sein. Ein fiktiver Wert kann mit dem Scrollbar Speichermanager eingestellt werden. Der Wert wird im grossen Textfeld rechts angezeigt. Überschreitet die Windleistung diesen Wert, dann wird die Leistung, die über diesem Wert liegt, mit den Speicherpumpen eingespeichert. Liegt die Windleistung unter dem Grenzwert, dann wird die Turbinenleistung vom Speichermanager so erhöht, dass die Summe aus Windleistung + Turbinenleistung dem Grenzwert entspricht. Dazu muss mit der Checkbox Windeinfluß Laden/Entladen diese Funktion eingeschaltet werden.

Eine weitere Funktion des Speichermanagers ist die Begrenzung der Windleistung bei steigender Füllung des Speichers. Dazu nimmt der Speichermanager steigend ab 260 MWh  proportional  WKA ausser Betrieb und verhindert damit eine Überfüllung des Speicher. Diese Funktion wird mit Checkbox  Speicherniveaueinfluß aktiviert.

Bei fallendem Füllstand des Speichers  wird die Turbinenleistung,beginnend  bei 21 MWh Speicherfüllstand proportional gesenkt, bis sie bei 0 MWh  den Nullpunkt erreicht. Diese Funktion wird ebenfalls mit der Checkbox  Speicherniveaueinfluß aktiviert. Der Eingriff auf die aktuelle Turbinenleistung wird mit der Meldung  Diesel zuschalten und begleitendem BEEP angezeigt.

Zu 4: Die Speicherfüllung

Die Speicherfüllung ist mit dem Scrollbar  Füllstand im Bereich 0 bis 270 MWh für Versuche einstellbar Beim Programmstart steht der Wert auf  135 MWh. Die Veränderung des Füllstandes, es handelt sich um ein integrales System, ergibt sich aus der Differenz  der Textfelder SummeLeistung ungeregelt + Leistung geregelt der Speicherpumpen und LeistungTurbine  der Erzeuger.

Zu 5: Die Frequenz

Die Frequenz des Versorgungssystem ist das wichtigste Kriterium zur Beurteilung der Netzstabilität. Es handelt sich um ein  System mit integralem Verhalten. Bei Leistungsüberschuss steigt die Frequenz, bei Leistungsmangel fällt die Frequenz kontinuierlich. Die Frequenz ergibt sich aus der Integration der Differenz  aus Summe der Erzeugerleistung  minus Summe der Netzlast. Das zeitliche Verhalten der Frequenz ist im Simulator gestreckt um etwa den Faktor 10. Sonst ist für den Operator nicht zu sehen, was da passiert. Zulässig ist eine Frequenz zwischen 47,5 Hz und 52,5 Hz . Wird dieser Bereich verlassen so wird  „Schutzaus“ ausgelöst. Das wird durch ein  rotes Textfeld mit Aufschrift „Schwarzfall“ angezeigt. Der weitere Verlauf der Simulation wird angehalten, damit man den Vorfall analysieren kann.. Weiter geht es mit Abwahl  und Neustart des Programms.

Zu 6: Die Belastungsverteilung

Im rechten Teil des Fenster ist eine graphische Darstellung der Leistungsverteilung für Erzeugung auf der linken Seite und Belastung auf der rechten Seite. Die Höhe der Säulen ist proportional den Leistungen. Die Farben entsprechen der Klassifizierung der linken Fensterseite.

Betrachtungen zur Netzstabilität.

Der Betrieb von Windkraftanlagen ist nur in Kombination mit drehzahlgeregelten Erzeugern möglich, da eine WKA nicht zur Frequenzregelung fähgig ist. Weil das so ist, hat man sich für El Hierro etwas ausgedacht :

http://infoscience.epfl.ch/record/198519/files/1-s2.0-S0960148114000755-main.pdf[..]

Man will eine Wasserturbine ans Netz synchronisieren und dann das Arbeitswasser abstellen. Die läuft dann weiter wie ein Synchronmotor. Man stellt sich vor, man hätte dann einen rotierenden Speicher durch die Masse der rotierenden  Maschinenteile und der würde die Frequenz stabilisieren. Aber das Ergebnis wird sein :

Maschine läuft als Synchronmotor

Maschine braucht Antriebsleistung

Maschine geht über Rückwatt vom Netz.

Hier einige Worte zu Rückwatt. Es ist der Kraftwerksausdruck für den Fall, dass eine Erzeugereinheit vom Netz Leistung aufnimmt und motorisch läuft. Die dabei auftretende Leistung nennt man Schleppleistung. Sie tritt auf, wenn man zB. einer Wasserturbine das Arbeitsmittel abstellt.

Hier nochmal der Beitrag von Horst Maler #32:

die Rotationsenergie eines Turbosatzes können Sie bei Lastanstieg nur im Bereich zwischen 50 Hz und 47.5 Hz nutzen. Dann erfolgt "Schutz aus". Bei 49,8 Hz beginnt spätestens der Einsatz der Primärregelung.

Bei Lastausfall im Bereich 50 Hz bis 52,5 Hz.

E_rot= (47,5 / 50) ** 2 = 0.9025

100 % – 90,25% = 9,75 %.

9,75 % der im Turbosatz enthaltenen Rotationsenergie können Sie nutzen. Das ist sehr wenig. Vergessen Sie Rotationsenergie !

Die Generatorspannung ist abhängig von der Drehzahl der Maschine und vom Erregerstrom, der von einem Spannungsregler durch eine Erregeranlage geführt wird. 

Das hat er sehr richtig erkannt und hier bekannt gemacht. Wie die Spanier auf diese Idee kamen ist mir ein Rätsel.

In der angegebenen Maschinenanordnung  ist es nicht möglich nur mit Windkraftanlagen zu versorgen. Es muss immer die Wasserturbine (Abhängigkeit vom Speicher)  und/oder der Diesel laufen, um die Frequenz und die Spannung  zu diktieren.

Größtes Risiko bei  einer Inselanlage ist der teilweise oder komplette Netzausfall oder der plötzliche Windleistungsanstieg (Böe) , denn beide müssen entweder von der Dieselanlage und/oder der Wasserturbine abgeworfen werden können. Dazu müssen die Erzeugeranlagen aber  Leistung haben die sie abwerfen können.

Das die Speicherpumpen einen Frequenzeinfluß haben ist mir nicht bekannt, wäre auch sehr ungewöhnlich, aber eine großartige Idee. Das gibt es nur in dieser Simulation. Man könnte dann  die positive Leistungsdifferenz, die zum Frequenzanstieg führt und letztlich zum Schwarzfall, per Frequenzeinfluß auf die Speicherpumpen umlegen. In meiner Simulation ist das möglich. Für die Speicherpumpen kann mit Checkbox Frequenzeinfluß diese Struktur für die regelbaren Speicherpumpen gewählt werden.

Der Speichermanager kann die Windleistung die grösser als der Windleistungsgrenzwert ist auf die Speicherpumpen umlegen.  Ist die Windleistung kleiner als der Windleistungsgrenzwert dann wird die fehlende Leistung auf die Wasserturbinen umgelegt.  Dazu ist im Speichermanager die Checkbox Windeinfluß Laden Entladen zu aktivieren. Die Leistung der Erzeuger Wasser + Diesel muß immer grösser sein als die maximal mögliche Störung durch Teilnetzausfall oder Windleistungsanstieg (Böe).

Der aufmerksame Leser wird bemerken, dass immer, wenn die Speicherpumpen laufen, auch die Wasserturbinen laufen. Die Speicherpumpen stellen ja für das Netz eine Belastung dar. Das ergibt dann eine Art Kreisverkehr des Energiefluß. Ein Teil der Pumpleistung geht gleich wieder zur Wasserturbine. Das ist leider alternativlos. Um mal diesen schönen Satz zu benutzen.

Wir kommen jetzt zu einem Thema, das meistens nicht zur Sprache kommt. Windanlagen speisen ihren Strom über netzsynchronisierte Wechselrichter in das Netz ein. Die Sinusform des Stroms wird durch Modulation des Impuls-/Pauseverhältnisses der Hochstromschalter erreicht. Trotz nachfolgender Filterung ergeben sich trotzdem Oberwellen in der Netzspannung. Je mehr WKA in Betrieb sind desto stärker die Oberwellen. Die Oberwellen im Netz gefährden die ordnungsgemäße Funktion von Geräten im öffentlichen Netz und müssen so gering wie möglich gehalten werden, was bei Landanlagen im Verbundnetz leichter gelingt als bei Inselanlagen.

Dazu kommt, dass man für die geregelten Speicherpumpen nicht Voithgetriebe sondern Frequenzumrichter einsetzt. Diese sind prinzipiell ähnlich den Wechselrichtern. Sie haben in der steuerbaren Ausgangsfrequenz ebenso Oberwellen wie die WKA, da die Sinusform des Stroms durch Modulation des Impuls-/Pauseverhältnisses der Hochstromschalter erreicht wird. Hier begrenzt sich die Schädlichkeit auf die Antriebsmotore der Speicherpumpen, die dann eine höhere Wärmeabfuhr erfordern, also eventuell ein Kühlgebläse oder größere Motorauslegung. Die Schädlichkeit für das Netz ergibt sich aus der Gleichrichtung des Drehstroms zur Ladung des Zwischenkreises. Der Ladestrom ist nicht sinusförmig und daher oberwellig. Beide, also WKA plus FU  zusammen, ergeben in dem kleinen Inselnetz eine unheilvolle Mischung, der man nur mit Begrenzung der Pumpleistung entgegnen kann. Nun wird man sagen Voithgetriebe seien nicht Stand der Technik und man könnte große Motore mit 1,5 MW nicht im Inselnetz einschalten. Dem ist aber entgegenzuhalten, dass man einen solchen Motor von einem kleinen Anwurfmotor auf Drehzahl bringen kann und dann erst einschaltet. Die Lastfreiheit des Motors kann man durch Einfahren des Ölringschöpfrohres ins Voithgetriebe garantieren. Dann ergibt sich keine Oberwelligkeit im Netz durch diesen Antrieb.

Jetzt die Praxis. Nur eine Einführung !

Wir starten das Simulationsprogramm „Hierro.exe“

Sie finden es hier  bzw. hier

Achtung ! Zahlensystem : Englisch (USA) Visualbasic für Windows 6.0

F          Netzfrequenz

WE      Windeinfluß von Speichermanager auf Turbine

FE        Frequenzeinfluß Drehzahlregler Turbine

PT       Turbinenleistung

PW      Windleistung

PP        Pumpleistung

Auf die Leistungsverteilung achten.

Wir fahren jetzt die Anlage an. Wasserturbine Betrieb                   F=50 Hz

Wir fahren die Netzlast hoch auf 3 MW.                                        F=49,348 Hz  WE=0.0 MW FE=3,0 MW

                                                                                             PT=3 MW

Wir schalten den  Speichermanager ein. Windeinfluß Laden/Entladen

Wir schalten den Frequenzeinfluß auf die Speicherpumpen ein. Frequenzeinfluß

Wir steigern die Netzleistung auf 4 MW                                       F=49,783 Hz WE=3,0 MW FE=1,0 MW

Wir stellen den Turbinendrehzahlsollwert auf 3013,1 U/min             F=50 Hz WE=3,0 MW FE=1,0 MW

                                                                                             PT=4 MW

Wir fahren jetzt die Windanlage an. WKA-Betrieb

Wir fahren die Windanlage auf 3 MW.                                          F=50 Hz WE=0,0 MW FE=1,0 MW

                                                                                             PT=1 MW PW=3 MW

Wir fahren die Windanlage langsam auf 8,5 MW                            F=50 Hz WE=0,0 MW FE=1,0 MW

                                                                                             PT=1 MW PW=8,5 MW PP=5,5 MW

Wir sind jetzt an der oberen Grenze der Netzbelastung  bei 4 MW Netzlast angekommen. Alle Pumpen laufen. Die geregelten Pumpen sind auf 3 MW (rote Warnung). Wenn jetzt eine Böe die Windleistung auf  9,5 MW erhöht dann ist Not angesagt. Die Turbine wirft dann 1 MW ab und hat dann Leistung 0 MW. Die Pumpen können nicht mehr höher. Nichts regelt mehr die Frequenz.

Wir fahren die Windanlage auf 9,5 MW                                        F=50,218 Hz WE=0 MW FE=0,0 MW

                                                                                             PT=0 MW PW=9,5 MW PP=5,5 MW

Jetzt aber in letzter Not eine WKA abwerfen. Wir sind gerettet. Wenn wir nicht eine WKA abwerfen folgt vielleicht folgendes. Das Netz verliert 0,5 MW Last durch den Ausfall einer Speicherpumpe.

Die Netzlast auf  fällt auf 9,0 MW                                                F=52,518 Hz WE=0 MW FE=-10,44 MW

                                                                                             PT=0 MW PW=9,5 MW PP=5,0 MW

Wir haben den Schwarzfall.

Weitere Versuche können jetzt alle Interessierten selbst vornehmen. Aber bitte bekommen Sie keinen Nervenzusammenbruch.

In der Dateianlage zu dieser Arbeit befinden sich die folgende Dateien :

setup.exe     hier                 Das Windows-Installationsprogramm

ElHierro.CAB    hier          Die Programmdatei zur Installation

Beide bitte in ein neues Verzeichnis herunterladen und dann setup.exe starten.




Klima-Sozialismus – Eine Buch-Rezension

Dient das alles nur der offensichtlich beabsichtigten Reduzierung von Leben auf dieser Erde oder ist es gar ein von langer Hand geplanter Völkermord verrückt gewordener, selbsternannter Gutmenschen?

Die beiden Autoren Gerhard Breunig und Dieter Ber führen den Kampf gegen die Mär der drohenden, vom Menschen verursachten Klimakatastrophe faktenreich fort. Sie legen schlüssig dar, dass die Schauermärchen nur einer kleinen Machtelite und den davon – vor allem – profitierenden NGOs nützen und zeigen auf, wie notwendig es ist, sich gegen den modernen „großen Sprung nach vorn“ zu wehren. Denn tun wir das nicht, ist der Weg in eine ungeahnte Armut für Millionen von Menschen nur noch eine Frage der Zeit.“

So wird das Buch „Klimasozialismus“ auf der Homepage des Verlages beschrieben – und wenn man die Lektüre der in der Tat verstörenden Fakten und Hintergründe gelesen hat, dann kann man den beiden Autoren nur zustimmen.

Das Buch von Gerhard Breunig und Dieter Ber zeichnet sich insbesondere dadurch aus, dass dem „Klima-Laien“ und dem interessierten Leser, der noch nicht so tief in den „Dschungel des Wahnsinns“ eingedrungen ist, vermeintlich komplizierte Zusammenhänge einfach und verständlich näher gebracht werden. Es macht dem nicht wissenschaftlich „vorbelasteten“ Leser (auf auch erheiternde Weise) klar, dass der Klima-Schwindel nur einer kleinen Gruppe von vermeintlichen Klima-Gutmenschen nützlich ist – in Form von Milliardengewinnen und allerlei Auszeichnungen und Ehrungen, die den narzisstischen Selbstbeweihräucherern nur allzu gut zu Gesicht stehen.

Lassen Sie sich nicht täuschen vom angeblichen menschengemachten Klimawandel. Nachdem Sie dieses Buch gelesen haben, haben Sie die Grundlagen, um den Schwindel zu entlarven. 

Gerhard Breunig, Dieter Ber "Klimasozialismus; Massenarmut – Millionen Tote – Niedergang der Kulturen. Was bezweckt der weltweite CO2-Schwindel wirklich? 294 Seiten als Hardcover erschienen im Juwelenverlag unter der ISBN Nr, 978 3 945822-38-8

Druckversion hier

E-Book Version hier