Deutscher Arbeitgeberverband: Interview mit dem EIKE-Pressesprecher Prof. Dr. Horst-Joachim Lüdecke

Es wird kräftig Alarm geschlagen: Klimaexperten glauben zu sehen, wie die Eismassen in der Antarktis unter den Füßen der Pinguine dahinschmelzen und Eisbären aussterben, weil sie keine Eisschollen mehr finden. Höhere Lufttemperaturen und wärmeres Wasser würden das Eis deutlich schneller abschmelzen lassen als die Klimaforscher erwartet hätten. Die Lage sei bereits jetzt so dramatisch, dass nicht einmal mehr die Beschlüsse der Pariser Klimakonferenz helfen würden. Das Meer werde immer noch gefährlich schnell ansteigen, selbst ohne weiteren Anstieg der Treibhausgase. Da lohnt ein Gespräch mit dem Physiker Prof. Dr. Horst-Joachim Lüdecke (i.R.). Er untersuchte die Rolle des CO2, sah sich alle vorhandenen Daten genau an und ist Mitautor von zahlreichen begutachteten Veröffentlichungen in wissenschaftlichen Klima-Fachzeitschriften.

Holger Douglas: Zuerst die Frage nach Knuddelbär Knuts Brüdern: Sterben sie durch unsere CO2-Emissionen aus?

Horst-Joachim Lüdecke: Nein, keine Spur davon. Eisbärpopulationen wuchsen die letzten Jahre stetig an, denn Knuts Kumpels werden nicht weniger gejagt als früher. Eisbären sind gefährliche Raubtiere und keine Knuddelbären. Sie gibt es schon viele Hunderttausende Jahre. Auch beispielsweise vor ca. 120.000 Jahren als eine globale Warmzeit und bei uns subtropische Temperaturen herrschten. Generell gilt: Alle Tiere passen sich erstaunlich schnell an neue Umweltbedingungen an, auch Eisbären.

Holger Douglas: Lassen Sie uns kurz auf den Treibhauseffekt eingehen: Kommt er dadurch zustande, dass UV-Strahlung der Sonne beim Durchgang durch das Glas eines Treibhauses in Wärmestrahlung umgewandelt wird? Wie funktioniert das in der Atmosphäre?

Horst-Joachim Lüdecke: Es ist recht einfach: Die kurzwellige Strahlung der Sonne durchdringt ungehindert die Luft unserer Atmosphäre. Sie wird vom Erdboden aufgenommen, der sich infolge dieser Energiezufuhr erwärmt. Durch Kontakt mit dem Erdboden erwärmt sich schließlich die Luft. Zusätzlich strahlt der Boden Infrarot ab, wie jeder warme Körper.
Diese vom Boden ausgehende infrarote Strahlung wird von den Treibhausgasen – im wesentlichen Wasserdampf, danach CO2, Methan usw. – absorbiert und als so genannte Gegenstrahlung wieder zum Boden zurückgestrahlt. Dies führt dem Boden weitere Energie zu, was seine Erwärmung erhöht. Messungen der Gegenstrahlung sind heute Standard.
In der Atmosphäre kommen noch zahlreiche weitere Effekte hinzu wie z.B. die Konvektion. Vor allem die Wolken spielen für die Temperaturentwicklung eine entscheidende Rolle. Aber das geht über den Treibhausstrahlungseffekt hinaus und ist eine andere Geschichte.
Auch beim Gärtner-Treibhaus geht die kurzwellige Sonnenstrahlung ungehindert durch das Glasdach hindurch. Völlig verschieden vom atmosphärischen Treibhauseffekt ist dagegen, dass die vom Boden erwärmte Luft durch das Glasdach des Gärtnertreibhauses nicht entweichen kann und sich dadurch weiter aufwärmt.

Holger Douglas: Ist das grundsätzlich dasselbe wie in einer kalten, klaren, wolkenlosen Nacht, in der die Erde stark auskühlt, während ansonsten eine Wolkendecke wie ein Wärmekissen wirkt?

Horst-Joachim Lüdecke: So ist es. Man erfährt dies, wenn man sein Auto bei Frost unter einem Baum mit Blättern abstellt oder 50 Meter weiter unter klarem Himmel: Bei freier Sicht zum Himmel bildet sich Eis auf den Scheiben, unter dem Baum nicht. Hier hilft die Gegenstrahlung der Blätter gegen die zu schnelle Abkühlung der Autoscheiben. Es ist eindeutig ein Strahlungseffekt, denn die Temperatur der leicht bewegten Luft ist in beiden Fällen gleich.

Holger Douglas: Jetzt gibt es die Diskussion: Wie viel Strahlung geht weg in den Weltraum? Dafür müsste man eigentlich wissen, was die Wolken machen?

Horst-Joachim Lüdecke: Den reinen Strahlungseffekt kann man theoretisch mit gewissen Unsicherheiten zuverlässig berechnen. Da ist die maßgebende Größe die sogenannte Klimasensitivität als die zusätzliche globale Erwärmung, wenn sich das CO2, das uns ja so sehr interessiert, verdoppeln würde.

Aber das ist noch nicht alles. Es kommen noch Sekundäreffekte hinzu, bei denen die Wolken eine Schlüsselrolle zu spielen scheinen. Wolken wirken zweifach. Tiefliegende Wolken kühlen, sie absorbieren die Sonnenstrahlen. Sehr hoch liegende Wolken machen das Gegenteil.
Diesen Erwärmungs– oder Abkühlungseffekt durch Wolken kann man theoretisch noch nicht berücksichtigen. Es gibt zwei Denkschienen: Die eine sagt, wenn es durch zunehmendes CO2 wärmer wird, dann wird insbesondere um den Tropengürtel herum mehr Wasser verdampft. Wasserdampf ist ein sehr starkes Treibhausgas, also verstärkt sich der Erwärmungseffekt. Man nennt so etwas Rückkopplung; die Erwärmung wird dadurch stärker als durch die reine Strahlenwirkung.
Die andere Denkschiene sagt: Das Gegenteil ist richtig! Mehr Wasserdampf in der Luft führt zu mehr Wolken. Das kühlt ab.

Also: Was ist wahr? Dazu gibt es eine Reihe von wissenschaftlichen Veröffentlichungen, die an Hand von Messungen belegen, dass der Abkühlungseffekt bei weitem überwiegt. Messungen sind immer noch maßgebend, insbesondere in der Klimaforschung wird dies leider oft übersehen.

Die Theorie, die von einer Rückkopplung spricht, ist dagegen nicht durch Messungen belegt. Nach ihr müsste es nämlich über den Tropen in fünf bis sieben Kilometer Höhe eine deutlich messbare Erwärmungszone geben, der unter dem Begriff Hot Spot läuft. Den findet man aber nicht. Es spricht daher alles dafür, dass der reine Strahlungseffekt abgeschwächt und nicht etwa noch verstärkt wird.

Holger Douglas: Erstaunlich, welch kompliziertes Wechselspiel sich im Laufe der Erdgeschichte herausgebildet hat. Und jetzt plötzlich soll der Mensch alles verändern?

Horst-Joachim Lüdecke: Das ist tatsächlich sehr unwahrscheinlich. Den Einfluss des Menschen kann man aus dem Klimarauschen bis heute nicht heraushören. Was wir seit ungefähr 1750, also seit Beginn der Industrialisierung, an Klimaschwankungen erlebt haben, liegt meilenweitweit innerhalb des natürlichen Schwankungsbereichs des Klimas, wie wir ihn aus den Zeiten davor kennen. Vor der Industrialisierung gab es weit heftigere Klimaausschläge als danach.

Es gibt nicht die geringste wissenschaftliche Berechtigung zu behaupten: Hier sehen wir ungewöhnliche Klimaentwicklungen, die eigentlich nur vom Menschen kommen können. Nicht zuletzt belegen dies sogar der Weltklimarat (IPCC) und jedes meteorologische Lehrbuch: Es ist keine Zunahme von Extremwetterereignissen in den letzten 150 Jahren feststellbar. Ich darf kurz anmerken, dass Wetter und Klima nicht identisch sind. Klima ist der mindestens 30-jährige Durchschnittswert von Wetter.

Holger Douglas: Die Temperaturänderungen der Vergangenheit in 100 Jahreszeiträumen konnten Sie in einer wissenschaftlichen Fachveröffentlichung mit einfachen Sinuskurven wiedergeben und haben dabei erstaunlich gleichmäßige Schwankungen festgestellt?

Horst-Joachim Lüdecke: Sie sprechen jetzt Klimazyklen an. Man kennt eine ganze Reihe dieser Zyklen und vermutet, dass sie von der Sonne gesteuert werden. Stellvertretend nenne ich die Atlantische Multidekaden-Oszillation (AMO) mit einer Zykluslänge von etwa 65 Jahren, den De Vries / Suess -Zyklus von etwa 200 Jahren und den Dansgaard-Oeschger Zyklus von etwa 1500 Jahren. Solche Zyklen sieht man in fast allen guten Proxydaten.
Kurz zu Proxydaten: Es sind indirekt ermittelte Klimawerte der Vergangenheit, als es noch keine direkten Messungen gab, wie z.B. Temperaturen oder Niederschläge. Man gewinnt sie aus Analysen von Baumringen, Stalagmiten, Eisbohrkernen, Sedimenten, Pollen usw.
Man findet nun Korrelationen von Sonnenfleckenzahlen mit der Häufigkeit der Isotope Kohlenstoff 14 und Beryllium 10, aber auch mit Klimazyklen. Ein Zusammenhang dieser Daten liegt sehr nahe, aber man kennt bis heute nicht die Mechanismen, die einen solchen Zusammenhang erklären können.

Wir haben in unserem Fachaufsatz den De Vries / Suess-Zyklus näher untersucht, der für uns heute wohl am interessantesten ist. Er hat nämlich eine Periode von rund 200 Jahren, und dieser Zeitraum interessiert uns ja gerade. Es ist etwa der Zeitraum von Beginn der Industrialisierung bis heute.

Aus der guten Übereinstimmung des De Vries / Suess Zyklus mit der Temperaturentwicklung bis zurück zum Jahre 0 n.Chr. und sogar weiter in die Vergangenheit folgern wir, dass dieser Zyklus nicht plötzlich aufhört, sondern auch zukünftig fortbesteht. Wenn man ihn theoretisch weiterführt, müsste es eigentlich bald wieder kühler werden.

Bis jetzt sehen wir von einem deutlichen globalen Abkühlen allerdings noch nichts. Seit 18-20 Jahren herrscht aber immerhin bereits Stillstand in der globalweiten Temperaturentwicklung. Dies ist ein bemerkenswerter Widerspruch zur Erwärmungswirkung des zunehmenden menschgemachten CO2 und wird für den Klima-Alarmismus immer bedrohlicher. Es wird jetzt spannend, wie es in den nächsten 10, 20 Jahren mit den Temperaturen weitergeht.

Holger Douglas: Scheint dieser jüngste Temperaturstillstand nicht doch auf eine leichte Abkühlung hinzudeuten?

Horst-Joachim Lüdecke: Nein. Wir haben zur Zeit einfach einen Stillstand, mehr nicht. Man muss sich nur die Satellitendaten anschauen, die am zuverlässigsten sind. Man sieht dann, dass sich die Südhemisphäre abkühlt, die Nordhemisphäre in etwa gleich bleibt und sich die Arktis als einzige Erdzone wirklich erwärmt. Im globalen Durchschnitt bleibt es seit ca. 18 Jahren unverändert.

Holger Douglas: Wie genau und zuverlässig sind denn die von Ihnen genannten Proxydaten? Es bestehen sicherlich kaum Probleme, 1 bis 2000 Jahre zurückzugehen und die Temperaturentwicklung relativ präzise zu messen. Aber die Erde ist viereinhalb Milliarden Jahre alt; je weiter wir zurückgehen, desto ungenauer werden die Daten. Wie verlässlich sind diese Zyklen-Vorstellungen?

Horst-Joachim Lüdecke: Es hängt von den Zeitlängen ab: Uns interessiert im Zusammenhang der globalen Erwärmung, die gemäß Meinung der Klima-Alarmisten in den letzten 200 Jahren vom Menschen verursacht sein soll, allerhöchstens die letzten 10.000 Jahre. Vor mehr als 350 Jahren haben wir nur Proxydaten, also indirekte Messwerte. Direkt gemessen wird frühestens seit Mitte des 17. Jahrhunderts.

Alle Proxydaten haben ihre Fehler und Nachteile, je länger zurück desto stärker. Baumringe und Stalagmiten zum Beispiel sind keine reinen Proxies für Temperaturen, sondern auch für Niederschläge. Baumringe geben naturgemäß nur die Sommertemperaturen wieder. Eisbohrkerne haben zwar auch ihre Probleme, sind aber wohl am verlässlichsten, wie man es aus dem Vergleich mit Proxies aus Sedimenten weiß.

Die berühmte Eisbohrkern-Kurve der russischen Antarktis-Station Vostok über die letzten 400.000 Jahre, die Temperaturen und den CO2 Gehalt der Arktis nachbildet, ist beispielsweise sehr zuverlässig. Die CO2 Werte haben in diesem Zeitraum übrigens trotz enormer Temperaturschwankungen nur verhältnismäßig wenig geschwankt. Der CO2 Anstieg der letzten 150 Jahre ist daher ohne jeden Zweifel menschgemacht.

Wenn man natürlich noch weiter zurückgeht, dann wird es ungenauer. Aber man hat immer noch eine recht gute Vorstellung bis 500 Millionen Jahre vor unserer Zeit. Es ist heute bekannt, was damals passiert ist. Der CO2-Gehalt war früher regelmäßig höher als heute. Und die Erde erlebte Warmzeiten mit eisfreien Polkappen, aber auch Kaltzeiten, in denen sie eine Eiskugel (Snowball) war.

Vielleicht ist es in diesem Zusammenhang noch erwähnenswert, dass wir in einem Eiszeitalter leben (nicht in einer Eiszeit). Ein Eiszeitalter ist durch die gleichzeitige Vereisung beider Erdpole gekennzeichnet.

Holger Douglas: Die CO2-Konzentration der Erdatmosphäre ging teilweise bis zu 6000 ppm hoch.

Horst-Joachim Lüdecke: Ja, bis zum 15-fachen von heute – ganz grob natürlich. Es gab aber auch einmal einen Zeitpunkt vor etwa 300 Millionen Jahren als der CO2 Gehalt etwa so niedrig wie heute war. Aber wie schon gesagt sonst war er stets höher.

Was jetzt sehr wichtig ist: Es gibt keine Korrelation zwischen Temperatur und CO2-Gehalt. Es gab die Erde schon einmal total vereist mit sehr hohen CO2-Werten vor etwa 450 Millionen Jahren. Umgekehrt gab es kleine CO2-Werte bei wesentlich höheren Temperaturen als heute vor etwa 90 Millionen Jahren.

Holger Douglas: Also kein Zusammenhang zwischen CO2 und Temperaturen?

Horst-Joachim Lüdecke: Nein, der ist nicht zu sehen.

Holger Douglas: CO2 ist ein Spurengas und daher nur in sehr geringen Mengen in der Atmosphäre vorhanden. Hat es überhaupt eine wichtige Wirkung?

Horst-Joachim Lüdecke: Es stimmt, CO2 ist nur ein Spurengas, selbst das Edelgas Argon ist häufiger. Zur Zeit befinden sich 0,04 Volumenprozente CO2 in der Luft. Vor der Industrialisierung waren es etwa 0,028 Volumenprozent. Diese Differenz ist vom Menschen verursacht.

CO2 ist freilich trotz seiner geringen Konzentration als Hauptbestandteil der Photosynthese lebensnotwendig. Ohne CO2 würden wir alle nicht existieren, es gäbe keine Pflanzen oder Tiere, es gäbe nichts, was man als Leben bezeichnen könnte.

Holger Douglas: Man müsste dann doch einen Zusammenhang zwischen dem Wachstum der Pflanzen und dem CO2 Gehalt sehen oder nicht? Je mehr CO2 Gehalt – desto stärker das Wachstum der Pflanzen?

Horst-Joachim Lüdecke: Ja, so ist es. Hierzu gibt es viele wissenschaftliche Untersuchungen, zum Beispiel Messungen an Nahrungspflanzen von Reis über Weizen bis hin zu Sojabohnen. Der Zusammenhang ist eindeutig. Je mehr CO2, umso stärker der Pflanzenwuchs.

Das weiß man heute auch aus Satellitenmessungen: Die Erde ist inzwischen grüner als noch vor 50 oder 100 Jahren. Es stand sogar schon einmal im Spiegel: "die Sahara wird grüner".

Die Ernten haben weltweit auch durch das vom Menschen gemachte CO2 zugenommen. Das ist ein positiver Effekt. Negative Effekte des zunehmenden CO2 sind nicht bekannt.

Holger Douglas: Weiß das schließlich nicht auch der Gärtner, der in seinem Gewächshaus den CO2 Gehalt erhöht, teilweise bis auf 1500 ppm?

Horst-Joachim Lüdecke: Ja, die Blumen- und Tomatenzüchter machen das. Die blasen CO2 ins Gewächshaus rein. Der Effekt ist diesen Züchtern bestens bekannt.

Holger Douglas: Noch einmal kurz zurück zu der Diskussion über das menschengemachte CO2. Früher sind in der Erdgeschichte zum Beispiel große Waldgebiete abgebrannt, das tun sie auch heute noch, es gab heftige Vulkanausbrüche. Die Erde ist nicht der ruhige Planet, auf dem wir friedlich sitzen, sondern unter uns brodelt und zischt es, Vulkane speien große Mengen an giftigen Gasen und Substanzen hinaus. Woher kann man genau sagen, dass der Mensch den CO2-Gehalt erhöht hat und nicht die Natur selber? Wie zum Beispiel 1815 der gewaltige Ausbruch des Vulkans Tambora in der Südsee, der der Erde ein Jahr ohne Sommer beschert hat?

Horst-Joachim Lüdecke: Nicht nur Gase aus Vulkanen werden heute sehr gut vermessen, man hat daher ein recht genaues Bild der Verhältnisse im Allgemeinen. Das IPCC hat in seinem letzten Bericht AR5 eine schöne Abbildung zu den CO2 Senken und Quellen publiziert. Zu den Zahlenwerten gibt es zwar Unsicherheiten, aber keine der Art, dass ganz andere CO2 Quellen und Senken als die heute bekannten möglich wären.

So gibt es das vom IPCC unabhängige internationale Carbon Dioxide Information Analysis Center (CDIAC), das alle einschlägigen Daten zum CO2 Kreislauf zusammenträgt. Die Ergebnisse sind eindeutig. Wir haben beim CO2-Kreislauf einen gewaltigen Austausch zwischen Ozean und Atmosphäre und zwischen Atmosphäre und der Biosphäre. Da gehen ungefähr pro Jahr jeweils etwa 100 Gigatonnen Kohlenstoff hin und her. Der menschliche Anteil ist dagegen relativ klein: Es sind ungefähr nur zehn Gigatonnen, die der Mensch zum jetzigen Zeitpunkt jährlich in die Luft bläst.

Das, was jetzt an CO2 im Vergleich zu vor 150, 200 Jahren zusätzlich in der Atmosphäre ist, stammt vom industrialisierten Menschen. Alle Messungen sind hier stimmig. Das menschengemachte CO2 verschiebt langsam den CO2-Kreislauf in einen anderen Zustand hinein, der aber keineswegs bedenklich ist – ganz im Gegenteil.

Es passiert nämlich Folgendes: Das Meer hat einen extrem höheren CO2-Inhalt als die Atmosphäre daher bleibt seine CO2-Abgabekraft auch bei etwas CO2-Zufuhr immer noch praktisch unverändert. Technisch ausgedrückt, bleibt der CO2-Partialdruck des Meeres konstant. Wenn das CO2 der Atmosphäre zunimmt, steigt dagegen sein Partialdruck an. Die hier durch den Menschen über die Jahre eingebrachten Mengen an CO2 sind im Gegensatz zum Meer wirksam. Damit wird die Partialdruckdifferenz von der Atmosphäre zum Meer größer, und es wird immer mehr CO2 ins Meer gedrückt.

Heute geht beispielsweise schon die Hälfte des vom Menschen durch Industrie, Landwirtschaft, Rodung und Zementproduktion erzeugte CO2 ins Meer und zu gleichen Teilen in das Pflanzenwachstum.
Unmittelbar zu Beginn der Industrialisierung war dieser Anteil null. Wenn der CO2 Gehalt weiter steigt, geht immer mehr ins Meer und die Biosphäre, immer weniger verbleibt in der Atmosphäre. Der atmosphärische CO2-Gehalt kann daher ein bestimmtes Maß nicht überschreiten.

Nach unserer Fachveröffentlichung wird es sich so bei maximal 800-850 ppm einpendeln. Dieser Wert ist vermutlich sogar zu hoch, denn er besiert auf der hypotetischen Annahme, dass mehr als das Doppelte der geschätzten Weltressourcen an Kohle verbrannt wurde.

Holger Douglas: Kann man das, was Sie schildern, als Sättigungsgrenze der Atmosphäre für CO2 bezeichnen?

Horst-Joachim Lüdecke: Ja, das kann man. Es gibt eine Sättigungsgrenze. Das atmosphärische CO2 kann man anschaulich als gespannte Feder sehen: Je stärker die CO2-Konzentration der Luft, umso mehr drückt die Federkraft CO2 ins Meer hinein.

Holger Douglas: Wird das Meer durch das eingeführt CO2 nicht sauer? Und sterben durch diese Versauerung nicht die Korallen?

Horst-Joachim Lüdecke: Nein, Meeresversauerung ist ein weiterer Mythos der Alarmisten. Jeder Chemiker, dem Sie etwas von Meeresversauerung durch zunehmendes atmosphärisches CO2 erzählen, wird schmunzeln. Das Meer ist basisch, hier müsste schon mehr als der vernachlässigbare menschgemachte CO2-Eintrag passieren, bis es sauer wird. Das eingehende CO2 wird zudem nicht nur im Meerwasser gelöst, sondern geht in die Algenproduktion, die Kalkschalenbildung von Meerestieren und langfristig in die Carbonatgesteinsbildung.

Im Meer gibt noch viele unverstandene Effekte. Man weiß z.B. nicht, wieviel Biomasse von der Meeresoberfläche zum Meeresboden sinkt, wieviel karbonisiert wird usw. Theoretisch und durch Labormessungen versteht man zum Beispiel den Revelle Effekt sehr gut. Der besagt, dass bei zunehmendem CO2 Gehalt der Luft die Aufnahmefähigkeit des Meeres für CO2 abnimmt. In den globalweiten Messungen des Verhältnisses von CO2 der Luft gegenüber dem im Meer verschwindenden Anteil zeigt sich der Revelle Effekt bis heute aber gar nicht.

Auch die angebliche Empfindlichkeit von Korallen gegen mehr CO2 im Meerwasser ist ein alarmistischer Mythos. Zahlreiche wissenschaftliche Untersuchungen haben gezeigt, dass sich die Korallen schnell anpassen und ihnen höhere CO2-Konzentrationen bestens bekommen. Die Anpassungfähigkeit von Pflanzen und Tieren an veränderte Umgebungsbedingungen ist fast grenzenlos.

Holger Douglas: Schwanken nicht die Verhältnisse sehr stark, die den CO2 Kreislauf bestimmen? Und verändert sich nicht auch die CO2-Aufnahmefähigkeit des Meeres bei sich ändernden Wassertemperaturen?

Horst-Joachim Lüdecke: Kurzfristig schwankt der CO2-Fluss von Atmosphäre ins Meer und den Pflanzenwuchs tatsächlich stark, was nicht nur durch die Jahreszeiten bedingt ist. Auch die schwankende Temperatur des Meerwassers spielt eine Rolle. Wenn das Wasser kühl ist, nimmt es mehr CO2 auf, wenn es wärmer ist, weniger – ein übertriebener Vergleich wäre eine Sprudelflasche. Man konnte dies gut im Jahre 1998 erkennen, als ein besonders starker El Nino die Meerestemperaturen stark durcheinander brachte. Längerfristig sind die CO2 Flüsse aber glatt und ruhig.

Holger Douglas: Wie hoch ist denn der Einfluss der veränderten Wassertemperaturen auf den CO2 Zyklus?

Horst-Joachim Lüdecke: Wenn man sich die berühmte Vostokdaten von Temperatur und CO2-Gehalt über die letzten 400.000 Jahre anschaut, sieht man, dass beide genau übereinander liegen. Sie sind extrem gut korreliert. Dies erscheint zunächst als ein Widerspruch zu meiner vorherigen Aussage, es gäbe keine Korrelation zwischen CO2 und Temperaturen.

Wissenschaftliche Arbeiten haben die Vostok-Daten genauer untersucht und dabei festgestellt: Das CO2 hinkt grob 800 Jahre der Temperatur der Atmosphäre und damit des Meeres hinterher. Wenn es wärmer wird, dann wird mehr CO2 vom Meer ausgegast. Wenn es kälter wird, dann geht mehr CO2 ins Wasser.

Die Meere benötigen, um sich zu durchmischen, so ungefähr 1000 Jahre. Dies erklärt das CO2 Nachhinken. Anfänglich, als dieser Zusammenhang noch nicht bekannt war, wurde von den Klimaalarmisten sogar gejubelt, CO2 sei generell der Grund für jede Schwankung der mittleren Erdtemperatur. Tatsächlich ist es genau umgekehrt. Abgesehen von diesem gut bekannten Effekt der CO2 Ausgasung aus dem Meer ist keine Korrelation zwischen CO2 und Erdtemperatur bekannt.

Holger Douglas: Kommen wir noch einmal zu dem Kohlenstoff. In Deutschland geht das Wort von der Decarbonisierung um, es müsste eigentlich zum Unwort des Jahres erklärt werden. Dabei ist Kohlenstoff für uns eines der wichtigsten Elemente.

Horst-Joachim Lüdecke: Die organische Chemie ist Kohlenstoffchemie. Mit Dekarbonisierung ist nun Einsparung von CO2-Emissionen zum Schutz des Klimas gemeint. Das ist aber grober Unsinn. Man kann das Klima, das sich unablässig ändert, nicht schützen. Dazu müsste man mit dem Schutz des Wetters anfangen! Noch nie gab es konstantes Klima, so etwas wird es auch nie geben. Fortwährende Klimaänderung ist praktisch ein Naturgesetz. Die alarmistische Hypothese besagt aber, dass CO2 klimaschädlich sei und stark klimaerwärmend wirke. Dafür gibt es keine Belege.

Nur mit entsprechenden Klimamodellen kann man das hinbekommen. In die Modelle steckt man geeignete Voraussetzungen hinein wie zum Beispiel die von mir schon erwähnten Rückkopplungseffekte. Ob diese Effekte eine verlässliche Messbasis haben, interessiert die Modellierer nicht.
Dann bekommt man beliebig hohe Temperatursteigerungen heraus. Nur haben diese Modelle bisher noch nie die Klimavergangenheit wiedergeben können. Klimamodelle stimmen einfach nicht, sie sind falsch; das lässt die Klimaalarmisten erstaunlich ungerührt.

Mojib Latif, einer der bekanntesten Klimamodellierer in Deutschland, hat in einem Spiegel-Interview gefaselt, wir würden keine Winter mehr mit Schnee haben.

Auch ein solcher sachlich bodenloser Unsinn hält die Alarmisten und leider auch die deutschen Medien in ihren Aussagen nicht auf. Insbesondere die Medien geben nur den Alarmisten Gelegenheiten ihre befremdlichen Wahnvorstellungen dem Publikum in Fernsehen und Radio anzudienen. Seriöse Fachkritiker kommen nicht zu Wort.
Wenn es mit dem fehlenden Schnee nicht klappt, wird eben die nächste Sau durch Dorf getrieben, zum Beispiel die hier schon besprochene Meeresversauerung durch CO2.

Real betrachtet ist Decarbonisierung allein schon deswegen absurd, weil unser deutscher CO2 Beitrag verschwindend gering ist. Selbst wenn wir in Deutschland auf sämtliche CO2-Emissionen verzichten würden, wieder in Fellen herumlaufen würden und unser Nahrungsfleisch mit Pfeil und Bogen schießen würden, würde das an der CO2 Bilanz der Welt nichts ändern.
China, Indien, Brasilien und die USA produzieren so gut wie alles menschgemachte CO2. Wenn man die von der GroKo geplanten deutschen CO2 Emissionseinsparungen auch unter Annahme übertriebener Erwärmungsszenarien in Temperaturen umrechnet, kommt man in den nächsten 20 Jahren auf ein paar tausendstel Grad globaler Erwärmung weniger.

Es ist also sachlich völlig idiotisch, was wir da machen. Hier wird offensichtlich von politischen Schaumschlägern eine politische Vorbildfunktion angestrebt. Wir sollten uns überlegen, ob dies sinnvoll ist. Eine deutsche Vorbildfunktion gab es ja schon einmal, mit katastrophalem Erfolg.

Holger Douglas: Der Kohlenstoff ist das wesentliche Element im atmosphärischen Lebenskreislauf. Aus Kohlenstoff bestehen wir, aus dem wird alles andere in der organischen Welt zusammengestellt. CO2 benötigen die grünen Pflanzen als Baustoff. Doch das soll jetzt das schädliche Klimagas sein, das die Erde zerstören, die Meere ansteigen lassen soll?

Horst-Joachim Lüdecke: CO2 Vermeidung ist eine rein politische Agenda und hat mit sachgerechtem Handeln nichts zu tun. Es gibt sogar Aktionen wie CO2 freie Städte, die als Gipfel der Hirnrissigkeit gelten dürfen. In meiner Heimatstadt Heidelberg gab es sogar Ideenwettbewerbe zu CO2-Einsparungen für Kinder. Hier klingt bereits etwas an, das der Instrumentalisierung von unschuldigen Kindern für ideologische Ziele in der ehemaligen DDR entspricht.

Holger Douglas: Eine Gefahr scheint es aber doch zu geben, die Erhöhung der Meeresspiegel. Hat das Abschmelzen der Gletscher damit etwas zu tun?

Horst-Joachim Lüdecke: Seit Ende der letzten Eiszeit etwa vor 12.000 Jahren hat sich der Meeresspiegel um etwa 130 Meter erhöht. Heute ist davon nur ein Anstieg von 1 – 3 mm pro Jahr übrig geblieben. Was die genaue Ursache für den aktuellen Anstieg ist, weiß man nicht. Immerhin scheint das Abtauen des grönländischen Festlandgletschers so um die 20% zu diesem Anstieg von 1 – 3 mm beizutragen.

Zur Gletscherschmelze: Von einer allgemeinen globalen Gletscherschmelze zu sprechen ist unzutreffend. In Teilen der Welt schmelzen die Gletscher wie zum Beispiel in den Alpen und in Grönland. In anderen Teilen nehmen sie dagegen zu wie z.B. in der Antarktis. Die Alpengletscher schmelzen bereits seit Mitte des 19. Jahrhunderts, als es praktisch noch kein menschgemachtes CO2 gab.

Ferner muss man Eisschmelzen sorgsam auseinander halten: Oft wird nur vom Meereis gesprochen. Das ist das Eis, das sich im Winter auf dem Meer bildet, und das im Sommer wieder verschwindet. Meistens ist es nur eine Bedeckung von wenigen Zentimetern bis hin zu Mini-Eisbergen von wenigen Metren Höhe.

Die Bedeckung mit Meereis wird heute mit Satelliten sehr genau gemessen. Täglich werden diese Messdaten aktualisiert und frei im Internet veröffentlicht. Und da zeigt sich der bekannte Jahreszyklus. Im Sommer haben wir ein Minimum an Eisbedeckung, im Winter ein Maximum. Die Medienmeldung ›der Nordpol schmilzt!‹ kommt regelmäßig, wenn im Spätsommer das Minimum erreicht ist. Das hat mit Klimaänderungen überhaupt nichts zu tun.

So gab es Anfang des 20. Jahrhunderts schon einmal die Wetterlage eines so weit zugefrorenen Nordmeeres, dass die Eisbären zu Fuß von Grönland direkt nach Island laufen konnten. Dann in den 1935-er Jahren war die Nordostpassage frei. Alles ist schon einmal dagewesen.
Seitdem mit Satelliten gemessen wird, sieht man kaum Veränderungen des Nordmeereises über mehrere Jahre. In der Antarktis nimmt das Meereis die letzten Jahre dagegen deutlich zu.

Maßgebend für Wettter und Klima ist aber nicht das Meereis sondern die Festlandgletscher, von denen sich übrigens etwa 98% des Weltbestandes in der Antarktis befinden. Der grönländische Eispanzer hat ungefähr 3 Millionen km³ Volumen. Selbst wenn es am Nordpol noch 5° wärmer wäre, dauerte es viele Tausend Jahre, bis er geschmolzen wäre. Bis dahin ist es leider längst wieder kalt geworden.

Holger Douglas: Grönland bezieht sich ja auf Grünland. Die Wikinger lebten dort, aber nur auf einem schmalen, damals grünen Küstenstreifen mit ein wenig Ackerbau. Der Gletscher aber war bereits vorhanden?

Horst-Joachim Lüdecke: Natürlich. Man darf aber nicht denken, dass dort Wein angebaut wurde. Man konnte dort überleben und Ackerbau betreiben. Die Wikinger sind dann wieder abgezogen, als es kälter wurde. Eine Fachveröffentlichung zeigt im Übrigen an Hand von Eisbohrkernanalysen, dass die mittlere Temperatur Grönlands seit 8000 Jahren bis heute um satte 2,5 °C gesunken ist. Das zum medialen "Der Nordpol schmilzt".

Holger Douglas: Die Herrscher von Inselreichen kommen gerne zu Klimaverhandlungen und beklagen lauthals: Wir saufen ab! Die Industrieländer sind dran Schuld! Und sie fordern mehr Milliarden für sich. Moderner Ablasshandel. Aber das ist der offenkundig kein einheitlicher Vorgang, manche Inseln scheinen zu sinken, andere scheinen sich zu heben, je nachdem, auf welchen Erdplatten sie liegen?

Horst-Joachim Lüdecke: Es hängt tatsächlich von lokaler Geologie und von der Plattentektonik ab, ob sich Inseln heben oder senken. Die Malediven brauchen keine Angst zu haben. Soweit ich mich erinnere, sinkt aber Bangladesch ein wenig ab. Hier kommt noch der Effekt der Sedimentanschwemmung durch Flüsse aus dem Himalaya hinzu. Es ist alles komplizierter, als dass man es mit ein paar Schlagworten abhandeln könnte. Holland ist nicht bedroht, hier baut man bei Bedarf höhere Deiche und steht dem Klima-Alarmismus ungewöhnlich vernünftig und reserviert gegenüber.

Holger Douglas: Was steckt Ihrer Meinung eigentlich hinter dem Klimaalarmismus?

Horst-Joachim Lüdecke: Das Ganze ist Ideologie, eine Mischung aus wohlbekanntem Marxismus, Naturromantik und den  Interessen mächtiger Investoren sowie Politiker. Rousseau machte den Anfang. In der deutschen Romantik entstand das Bild vom weisen gütigen Hausvater, der sich um alles liebevoll kümmert. Die Wirklichkeit sieht anders aus. Er ist keineswegs gütig sondern ein brutaler Diktator, der uns vorschreiben will, welche Glühbirnen wir noch verwenden dürfen, dass wir kein Fleisch mehr essen dürfen – kurz, wie wir zu leben haben.

Kretschmann, der die aktuelle Wahl in Baden-Württemberg gewann, ist Musterbeispiel. Sein Ziel, den Schwarzwald und Odenwald mit völlig unnützen Windrädern zu verspargeln hat die Bevölkerung nicht abgehalten, die grünen Umweltverbrecher zu wählen. So hirnerweichend wirkt Ökoideologie.

Die Natur wird von Ökoideologen als gütig angesehen und als Mutter Gaia bezeichnet, was aber nur eine hilfsweise Verführungsmasche für Gläubige ist. Der Mensch würde die Natur schädigen. Doch die Natur ist weder gut noch böse zu uns. Wir müssen und wollen sie zweifellos schützen. Wir müssen aber gleichzeitig auch uns gegen die Natur schützen. Die moderne Medizin mit ihrem Kampf gegen tödliche Bakterien und Viren von Mutter Gaia zeigt es. Ob aber die Grünen Naturschutz wollen, ist mehr als fraglich, wie es Windräder zeigen.

Das Ziel der Ökoideologen ist in Wirklichkeit eine andere Gesellschaft – undemokratisch und diktatorisch. Ökologie ist dabei nur ein Hilfsmittel. Die kühle Billigung der Vernichtung von Hunderttausenden Fledermäusen und Greifvögeln durch Windräder belegt die Motive dieser Leute. Insbesondere die Verbindung von Klimaschutz und undemokratischen Ideologien ist unübersehbar. Echter Naturschutz zählt bei den Klimaschützern nicht mehr.

Holger Douglas: Wie konnte es Ihrer Meinung nach soweit kommen?

Horst-Joachim Lüdecke: Nachdem der Kommunismus verschwand, wurde als neue Ideologie der Klimaschutz entdeckt. Erstaunlicherweise waren die Protagonisten zahlenmäßig nicht sehr stark, setzten sich aber durch kräftige Unterstützung der Politik und mächtiger Geldgeber rasch durch. Die Möglichkeit, durch Klimaangst politische Herrschaft auszuüben und die Luft zu besteuern und für clevere Investoren in sachlich nutzlose grüne Energien neue Geschäftsfelder aufzutun war einfach zu verlockend.
Es wurde die Treibhauswirkung des CO2 entdeckt. Diese hat man dann zunehmend als fiktive Bedrohung instrumentalisiert und die neue Ideologie des Klimaschutzes darauf aufgebaut. Da stecken natürlich auch weitere handfeste geschäftliche Interessen dahinter.

Insbesondere NGOs, Greenpeace ist hier vorrangig zu nennen, reiten auf dieser Welle. Das sich am Rand der Kriminalität bewegende, aber von den deutschen Medien fast schon wie eine Regierungspartei gehandelte Greenpeace macht sein Geschäft zur Zeit mit dem Kampf gegen die Kernenergie. Ironischerweise ist Kernenergie CO2 frei.

Wenn wie jüngst zu lesen war, die Rockefeller Gruppe aus dem Ölgeschäft aussteigen und ins Geschäft der "erneuerbaren" Energie einsteigen will, weiß jeder nachdenkende Zeitgenosse, was sich hier abspielt.

Ich erlaube mir, es an dieser Stelle ganz klar zu sagen: Klimaschutz hat nichts mit Naturschutz zu tun. Klimaschutz ist eine gefährliche undemokratische Ideologie.

Nachtrag EIKE-Readaktion:

Erfahrungsgemäß führt jede News, die den Treibhauseffekt anspricht, zu oft hoch emotionalen, kontroversen Kommentaren. Auf Bitte des Interviewten (Pressesprecher Horst-Joachim Lüdecke) veröffentlichen wir daher sein folgendes Statement:

Liebe Leser: Meine im Interview gemachten Ausführungen über den Strahlungs-Treibhauseffekt, Gegenstrahlung etc. werden von allen maßgeblichen Fachleuten geteilt, sowohl den Alarmisten als auch den "Klimaskeptikern". Zu den "Klimaskeptikern" = IPCC-Gegnern zählen viele mit hohem wissenschaftlichen Ansehen, so etwa die beiden Physik-Nobelpreisträger Ivar Giaever und Robert Laughlin.

Ich habe im Interview den heutigen Kenntnisstand geschildert, eigenes habe ich nicht geäußert. Dieser allgemeine Kenntnisstand wird auch vom EIKE-Fachbeirat vertreten. Die wenigen Fach-Publikationen, die diese Auffassung nicht teilen, sollen damit nicht diskreditiert oder verschwiegen werden. Es ist aber Tatsache, dass sie in der Fachwelt so gut wie keine Resonanz erfuhren. Vielleicht ist dies der Grund, dass die Vertreter dieser Minderheit oft die notwendige Höflichkeit in der Propagierung ihrer Auffassung vermissen lassen. Mehr Sachlichkeit würde vielleicht zu gewinnbringenden Diskussionen führen.

Meine Ausführungen zu den Rückkoppelungseffekten, also IPCC-Klimamodellen, Hot Spot usw. werden selbstredend nur von den IPCC-Gegnern und nicht von den Klima-Alarmisten geteilt.

Um es daher deutlich noch einmal zu sagen: Das was im Interview zum Thema "Treibhauseffekt" zu hören ist, stammt nicht von mir. Es ist das, was die Fachleute des "Skeptikerlagers" und betreffs Strahlungsteil auch noch die IPCC-Fraktion vertreten. Ich bitte daher um Verständnis, wenn ich mich aus weiteren Diskussionen zu diesem Thema heraushalte. Dies auch deswegen, weil ich mich als Physiker zwar mit dem Thema etwas auskenne (hier, hier), aber kein Spezialist auf diesem Gebiet bin. Es gibt Einschlägigeres, stellvertretend (hier, hier). Die wohl vollständigste und umfangreichste Zusammenstellung bietet der Skeptiker-Blog "Science of Doom" (hier). Hier findet sich auch fachliche Kritik an der o. erwähnten Minderheiten-Meinung.

Wer sich also ernsthaft informieren möchte – die wichtigsten Quellen sind genannt. Wer es persönlich möchte, möge sich an einen Experten der riesigen Schar prominenter Gegner des IPCC wenden. Ich nenne stellvertretend nur Namen wie Fred Singer, Richard Lindzen, Nir Shaviv, Henrik Svensmark, Garth Paltridge, Roy Spencer usw. usw. ….. Einige von ihnen sind Mitglieder der Skeptikerorganisation "Global Warming Policy Foundation", gegründet von Benny Peiser. Ich stehe für Antworten nicht zur Verfügung.




Kippende Drehachse: Eisschmelze lässt Erde taumeln – Jeden Tag eine neue „Klimasau“ durchs Dorf getrieben

Warum die Erde nicht mehr ganz rund dreht

[2] Die Erderwärmung lässt das Eis von Gletschern schmelzen. Das verändert die Verteilung der Masse auf der Erde. Das wiederum hat Einfluss auf die Polarachse, um die sich der Planet dreht: Sie und der Nordpol verschieben sich. Das wiederum bedeutet, dass die Erde aus dem Gleichgewicht gerät und zu taumeln beginnt. Das geht aus einer in der Zeitschrift "Science Advances" hervor.

"Die jüngste Abweichung von der Richtung des 20. Jahrhunderts ist sehr dramatisch", sagte der führende Autor der Untersuchung, Surendra Adhikari.

Wissenschaftler halten diese Änderung für harmlos. Jonathan Overpeck, Professor für Geowissenschaften an der Universität von Arizona, sagte jedoch, durch die Studie werde hervorgehoben, "wie real und hochgradig groß der Einfluss von Menschen ist, den sie auf den Planeten haben".

Wie hat sich die Erde vor dem (anthropogenen) Klimawandel gedreht

Leider bleiben die fleissig Klimaalarm produzierenden Forscher und unsere Medien die Antwort zur Frage schuldig, warum die Erde dann während der Eiszeiten vor 20.000 Jahren nicht durch das damals um viele Dimensionen größere Eis-Ungleichgewicht ganz „vertaumelt“ ist, wenn das aktuelle bereits „dramatisch“ sein soll.

Das Bild zeigt die damaligen Dimensionen (aktuell befindet sich die Erde im Bild bei „0“ Eisvolumen) und vor allem die Ungleichheit zwischen dem Verlauf der Eisvolumen zwischen der Nord- und Südhemisphere.

Bild [3] Verlauf der Erd-Eisvoluminas während der letzten Eiszei bis heute

Die Wissenschaftler muss man selbstverständlich loben. Schließlich zeigt deren Studie wie genau man heute dank Satelliten anscheinend messen kann. Auch dass schon wieder eine neue kleine Korrelation zwischen irgend etwas entdeckt wurde was zu neuen Vermutungen Anlass geben kann: „Doch die Wirkung der Eisschmelze bestimmt offenbar die Hauptrichtung der kreisenden Polwanderung“[1] hätte man vorher nie geahnt. Es ist eben einer der wichtigen, unendlich vielen klitzekleinen Meilensteine moderner Klimawissenschaft. Und so etwas ist dem Bürger natürlich sofort mitzuteilen.

Eine Verschwörungstheorie lässt jedoch auch vermuten:

Unsere „Leitmedien“ haben von der Regierung die Aufforderung bekommen, Frau Umweltministerin Dr. Hendricks medial zu unterstützen – denn Ihre Unterschrift zum Klimavertrag naht.

Die horrenten Ausgaben Deutschlands an Dritte-Welt Potentaten für alleine vom Klimawandel am sonst sicheren Reichtum und paradiesischen Zuständen gehinderte Entwicklungsländer (Klimahilfsfond) müssen dem Volk schließlich vermittelt werden. Wenn dem Bürger bei schlappen 100 Milliarden US$ jährlich vor den Augen taumelt, hilft nur die Information dass es der Erde dabei doch genau so geht. Dafür können Journalisten schon einmal beide investigativen Augen voll zudrücken. Der Abonnentenschwund lässt sich sowieso nicht aufhalten.

Quellen

[1] DER SPIEGEL auf facebook, 08.04.2016: Kippende Drehachse;Eisschmelze lässt Ede taumeln

https://de-de.facebook.com/DerSpiegel/posts/1025710840847234

[2] DIE WELT 09.04.16: Warum die Erde nicht mehr ganz rund dreht

http://www.welt.de/wissenschaft/article154164518/Warum-die-Erde-nicht-mehr-ganz-rund-dreht.html

[3] GeoForschungsZentrum Potsdam,Scientific, Technical Report STR 07/05, Ingo Sasgen et al.: Glacial-isostatic adju stment and sea-level change near Berkner Island, A ntarctica




Hersteller von Solarpaneelen auf Dächern spielen nur mit, wenn die Spielregeln in ihrem Sinne sind

Da gab es Abengoa – was ich seit Jahren verfolgt habe – die den Bankrott erklärt hat.

Ivanpah, das größte Solarprojekt der Welt in der Wüste Kaliforniens ist von der Schließung bedroht wegen schlechter Ausbeute.

Und dann gibt es noch SunEdison, der weltgrößte Entwickler erneuerbarer Energie. Dieses Unternehmen steht am Rande des Bankrotts (hier), ist doch dessen Aktienwert von 30 Dollar unter 0,50 Dollar gefallen – ein Rückgang über 90% im vorigen Jahr.

Alle diese Pleiten vergrößern das blaue Auge, dass der Solarindustrie erstmals vor fünf Jahren verpasst worden ist mit dem Solyndra-Bankrott.

Weil sie sich Sorgen um ihren Selbsterhalt machen und in ihrem eigenen Interesse – anstatt im Interesse von Amerika allgemein und der Verbraucher im Besonderen zu handeln – sind Industrieverbände auf den Zug der Bevorzugung durch die Energiepolitik aufgesprungen und attackieren jeden, der dem Geschäftsmodell der finanziellen Anreize nicht zustimmt. Zwei derartige Gruppen sind TASC und TUSK – die beide gegründet worden sind und finanziert werden durch die Solarpaneel-Hersteller SolarCity und SunRun unter Beteiligung einiger kleinerer Solarfirmen (SolarCity hat sich jüngst von TASC getrennt).

Die Alliance for Solar Choice (TASC) wird von den führenden Lobbyisten der beiden großen Unternehmen betrieben – und beide haben offensichtliche Verbindungen mit den Demokraten.

Bryan Miller ist Vizepräsident von Public Policy & Power Markets bei SunRun (seit Januar 2013) sowie Präsident der TASC (seit Mai 2013). Seiner Website zufolge war er auch für das National Finance Committee von Obama tätig sowie als Finanz-Koordinator und Wegbereiter für Clinton Gore 1996. Er wurde auch als leitender politischer Berater in die Obama-Administration berufen und war auch Kandidat bei den Wahlen zum Repräsentantenhaus von Florida (allerdings erfolglos).

Vizevorsitzender John Stanton ist geschäftsführender Vizepräsident von Policy & Markets bei SolarCity. In dieser Rolle „obliegt ihm seiner Website zufolge die Zusammenarbeit von SolarCity mit internationalen, staatlichen und lokalen Regierungsorganisationen in einem großen Bereich politischer Dinge“. Zuvor war Stanton geschäftsführender Vizepräsident und General-Berater für die Solar Energy Industries Association (SEIA) – der nationalen Handelsgesellschaft für Industrien, die die Entwicklung von Solarenergie unterstützen – wobei er für die legalen und regierungsamtlichen Angelegenheiten der Gesellschaft zuständig war. Dort spielte er eine zentrale Rolle bei der Verlängerung der Steuervorteile für Solarinvestitionen um 8 Jahre. Er war auch Legislativ-Berater für die EPA unter der Clinton Administration.

In einem Bericht über die Gründung der TASC heißt es: „Zuallererst und am Wichtigsten: die Gruppe wird daran arbeiten, die Net-Energy-Metering-Vorschriften (NEM) in den 43 Staaten zu schützen, in denen es diese Vorschriften gibt“.

Am 25. März berichtete das Wall Street Journal: „Zwei Dutzend Staaten denken über Änderungen ihrer Anreize für Solarpaneele auf Dächern nach … derartige Anreize finanzieller Art waren das Rückgrat des Geschäftsmodells von Solarfirmen, die derartige Paneele herstellen“. Während der letzten Monate haben Nevada und Hawaii ihre NEM-Programme auslaufen lassen. Die TASC reagierte darauf mit Klagen vor Gericht. In Hawaii ist diese TASC-Klage bereits abgewiesen worden. In der Begründung heißt es: „Das Urteil im Sinne der Beklagten hat die TASC-Behauptungen obsolet gemacht“. Im vorigen Jahr hat Louisiana seine Solar-Steuervorteile gestrichen, die „unter den großzügigsten im ganzen Land“ waren. Der Arizona Public Service war der Pionier bei der Modifizierung generöser Solarpolitik, als die Arizona Corporation Commission im Jahre 2013 eine Abgabe für Solarverbraucher festgesetzt hatte.

Als einer der ersten Staaten, die gegen die generöse NEM-Politik vorgegangen war, ist Arizona immer noch ein Schlachtfeld. Dort formierte die TASC eine andere Gruppe – TUSK. Diese Abkürzung steht für Tell Utilities Solar won’t be Killed. Der Lobbyist und ehemalige Kongressabgeordnete Barry Goldwater Jr. wurde auf den Schild gehoben, um als Sprecher für die Industrie den Republikanern ein Gesicht zu geben. TUSK hat sogar einen Elefanten, das Maskottchen der Republikaner, in seinem Logo. Auf der Homepage von TUSK liest man: „Republikaner wollen die Freiheit, die beste Wahl zu treffen sowie den Wettbewerb zur Kostensenkung“. Das stimmt zwar, aber ein Kernwert der Republikaner ist es, die freien Märkte arbeiten zu lassen anstatt es der Regierung zu überlassen, Gewinner und Verlierer auszuwählen.

Obwohl in Arizona registriert, war TUSK jüngst auch in anderen US-Staaten aktiv – darunter Nevada, Oklahoma und Michigan.

Das immer wieder auftauchende Thema in den TASC/TUSK-Kampagnen ist es, das Wort „kill“ mit „solar“ in Verbindung zu bringen – obwohl die Bemühungen bzgl. Modifikationen von NEM nicht beabsichtigen, Solar zu töten. Stattdessen zielen sie darauf ab, die „Anreiz-Zahlungen“ zu adjustieren, um sie gerechter zu machen. Allerdings ist Rooftop Solar ohne diese Gefälligkeiten nicht ökonomisch, wie man in Nevada sehen konnte. Die Unternehmen lehnen es ab mitzuspielen, wenn das Spiel nicht nach den von ihnen gewünschten regeln gespielt wird.

TASC und TUSK sind nur zwei der Wege, auf denen die Rooftop-Solarindustrie versucht, die bevorzugte Politik zu halten. (Die beiden sind auch bekannt als „Koalition von Pächtern [rent seekers] und Wohlfahrts-Königinnen [welfare queens]“. So bezeichnete sie der größte konservative Blog von Louisiana, The Hayride).

Zusätzlich zu den spezifischen Industriegruppen wie TASC, TUSK und SEIA werden auch Dritt-Organisationen wie das Energy and Policy Institute (EPI) engagiert, um öffentlich Bedienstete und Akademiker einzuschüchtern. Das EPI, betrieben von Gabe Elsner, wird als eine Dark Money-Gruppe ohne legales Existenzrecht betrachtet. Es darf vermutet werden, dass EPI ein Ableger dessen ist, was als das Checks & Balances Project (C&BP) bekannt ist – welches ins Leben gerufen worden war, um gegen Organisationen und Politiker zu ermitteln, die nicht hinter den Regierungsprogrammen und hinter Subventionen für erneuerbare Energie stehen. C&BP hat Gelder von SolarCity erhalten. Elsner trat C&BP im Jahre 2011 bei – wo er als Direktor fungierte. Zwei Jahre später verließ er die Gruppierung, um EPI zu gründen – welche C&BP eine „pro-saubere-Energie-Website“ nennt. EPI liefert Material für Attacken auf etablierte Energie-Interessen und zur Diskreditierung von jedem, der Subventionen für Rooftop-Solar nicht unterstützt. Ich selbst war ebenfalls Ziel von Elsners Bemühungen.

Dann gibt es da noch die Solar Foundation – eng verbunden mit SEIA und Regierungsprogrammen zur Förderung von Solar – die jährlich einen Bericht zu Arbeitsplatz-Trends in der Solarbranche in den USA veröffentlicht. Solar-Arbeitgeber geben die Anzahl der Arbeitsplätze via E-Mail- und Telefon-Umfragen an. Diese Anzahl wird dann extrapoliert, um die Arbeitsplätze in der Industrie in der gesamten Nation abzuschätzen. Obwohl diese Berichte fragwürdige Ergebnisse zeitigen (hier), hat sich die Bedrohung durch Arbeitsplatzverluste als ein effektiver Weg erwiesen, Druck auf den Gesetzgeber auszuüben, eine die Industrie begünstigende Politik fortzusetzen – wie NEM.

Gemeinsam haben diese Gruppen eine Kampagne koordiniert, um eine öffentliche Meinung zu erzeugen, von der die Politiker von der öffentlichen Unterstützung für NEMs überzeugt werden sollen. Derartige Fälle findet man in Maine, Nevada, New Hampshire, Colorado und Kansas. Sie sammeln Unterschriften von Solar-Befürwortern (hier) und benutzen diese, um Gesetzgeber und Kommissionäre zu beeinflussen. Sie engagieren sich in gesetzgeberischen Prozessen – und erzeugen, wie ich selbst erfahren durfte, eine überwältigende Präsenz mit Unterstützung nach Art eines Mobs von T-Shirts tragenden und Wink-Elemente schwingenden Befürwortern. Sie schalten Werbeanzeigen und bezeichnen Versuche, die für Solar so generösen NRMs zu modifizieren, als eine „Steuer“ auf Solar. Und sie attackieren Versorger, wie zuvor schon erwähnt, „Solar zu töten“ zu versuchen. Sollte diese kombinierte Kampagne keine Früchte tragen und die NEM-Politik geändert werden, wird Anklage erhoben wie in Hawaii und Nevada geschehen.

Dieser Politik-Protektions-Prozess scheint sich nicht von Prozessen bei irgendwelchen Industrien zu unterscheiden – haben doch die Meisten Handelsgesellschaften und Befürworter-Gruppen, die ihr Anliegen vorantreiben. Man erinnere sich: „Rindfleisch, das gibt es zum Mittag“ und „Schweinefleisch, das andere weiße Fleisch?“ Nur wenige sind wirklich unabhängig, und Selbsterhaltung ist ein natürlicher Instinkt.

Ja,sogar die Fossile-Treibstoffe-Industrie hat Befürworter-Gruppen, wie Miller jüngst klagte.

Der Unterschied besteht darin, dass fossile Treibstoffe die USA mit effizienter, effektiver und ökonomischer Energie versorgen und immer versorgt haben. Deren Vielfalt hat zu niedrigeren Kosten für Verbraucher geführt und die Energiesicherheit Amerikas erhöht. Deren Befürworter kämpfen nicht für spezielle Bevorzugungen, die es dieser Ressource gestatten zu überleben, sondern sie versuchen, neue Regeln und Vorschriften abzuwehren, die darauf abzielen, diese Treibstoffe aus dem Geschäft zu drängen.

Zum Vergleich, die Bemühungen der Solar-Befürworter sind, wie es die TASC eingeräumt hat: „Zuallererst wird die Gruppe daran arbeiten, die Net-Metering-Vorschriften NEM zu schützen“, da ohne diese – und andere politisch korrekte Aktivitäten – Rooftop-Solarenergie wirtschaftlich unsinnig wäre. Weil Rooftop-Solar weder effizient noch effektiv ist, sind die vermeintlichen Einsparungen der Hauptpunkt bei der Werbung. Einige profitieren tatsächlich davon, während die Allermeisten in Gestalt von Steuern und Abgaben zahlen müssen.

Mit dem Potential einer Änderung des politischen Windes ist die Kampagne zu Amerikas Energie-Zukunft zentraler Bestandteil des Präsidentschafts-Wahlkampfes. Hintergrund: Alle Solar-Befürworter scheinen links zu stehen und Gläubige von Big Government zu sein, die höhere Energiepreise wollen.

Wird Big Government die Gewinner und Verlierer aussuchen, oder werden die freien Märkte das Überleben der besten Energiequellen für individuelle Zwecke erlauben?

The author of Energy Freedom, Marita Noon serves as the executive director for Energy Makes America Great Inc., and the companion educational organization, the Citizens’ Alliance for Responsible Energy (CARE). She hosts a weekly radio program: America’s Voice for Energy—which expands on the content of her weekly column.

Link: https://www.linkedin.com/pulse/rooftop-solar-companies-only-play-game-stacked-favor-marita-noon?published=u

Übersetzt von Chris Frey EIKE




Fünf Punkte zum Klimawandel

Es ist ein sehr großes FALLS. Wir könnten Billionen für nichts verschwenden. Tatsächlich hat Lord Stern geschätzt, dass es es wert wäre, jedes Jahr ein paar Billionen Dollar auszugeben, um ein mögliches Desaster in 200 Jahren zu vermeiden. Weil er mit der London School of Economics assoziiert ist, wird ihm geglaubt – zumindest von jenen, deren Erfahrungen mit Versicherungen begrenzt sind. All jene, die diese Erfahrung haben wissen, dass es es nicht wert ist, sich gegen etwas zu versichern, das in 200 Jahren eintreten könnte – es ist unendlich besser sicherzustellen, dass unsere Kinder damit fertig werden. Mit jedwedem Glück werden sie Gleiches mit ihren Kindern tun, und die Ur-Ur-Urenkel werden gute Individuen sein, die sehr gut mit Lord Sterns kleinem Problem umgehen können.

Also habe ich mich entschlossen, die Hypothese ausgehend von fünf Prinzipien zu untersuchen. Es gibt fünf Schritte zu der Hypothese:

1. Der CO2-Gehalt der Atmosphäre steigt.

2. Der CO2-Anstieg in der Atmosphäre geht zum großen Teil einher mit der Zunahme der Verbrennung fossiler Treibstoffe. Die Verbrennung fossiler Treibstoffe führt zu CO2-Emissionen, so dass es sehr angemessen scheint, die beiden Zunahmen in Verbindung miteinander zu bringen.

3. CO2 kann Infrarot streuen über Wellenlängen primär um etwa 15 µm. Infrarot dieser Wellenlänge, welche Energie von unserem Planeten wegführen sollte, wird in die untere Troposphäre zurück gestreut, wo der zusätzliche Energie-Input einen Temperaturanstieg verursachen sollte.

4. Die erwartete Zunahme der Energie der unteren Troposphäre kann langfristige Änderungen des Klimas und der Thermosphäre verursachen, was charakterisiert werden könnte durch eine Zunahme der Häufigkeit und Intensität von Extremwetterereignissen, durch steigende Wassertemperatur in den Ozeanen, eine Verringerung der Eisbedeckung und viele weitere Änderungen.

5. Die größte Bedrohung ist, dass der Meeresspiegel steigen und Gebiete überfluten könnte, die derzeit dicht besiedelt sind.

Sind diese Hypothesen in wissenschaftlichem Sinne haltbar? Gibt es eine solide Logik bei der Herstellung einer Relation zwischen jedem Schritt in dieser Kette?

Der CO2-Anstieg in der Atmosphäre ist unbestreitbar. Viele Messungen zeigen ihn. Zum Beispiel gab es seit dem Jahr 1958 kontinuierliche Messungen auf dem Mauna Loa-Observatorium in Hawaii:

Anstieg und Rückgang von Jahr zu Jahr ist dem je nach Jahreszeit unterschiedlichen Pflanzenwachstum geschuldet. Aber der langzeitliche Trend zeigt eine stetige CO2-Zunahme in der Atmosphäre.

Vor 1958 gab es nur sporadische Messungen des CO2-Gehaltes, keine kontinuierlichen. Nichtsdestotrotz gibt es ausreichende Informationen, eine diesbezügliche Rekonstruktion zurück bis in das Jahr 1850 vorzunehmen:

Es gab einen leichten Anstieg des atmosphärischen Niveaus um das Jahr 1900, dann eine Periode mit nahezu Stillstand bis nach 1950, als ein starker Anstieg einsetzte, der bis zum heutigen Tag anhält. Man behalte diese Graphik mal im Hinterkopf – sie wird in anderer Form noch einmal erscheinen.

Die Schlussfolgerung ist eindeutig – es gab eine Zunahme des CO2-Gehaltes in der Atmosphäre. Was könnte die Ursache dafür sein?

Nun, es gibt die gleiche Verteilung von CO2-Emissionen durch die Verbrennung fossiler Treibstoffe und anderer industrieller Quellen:

Eine ähnliche Verteilung ist kein Beweis – Korrelation ist nicht Kausalität. Aber falls man versucht, die Emissionen direkt mit der Zunahme des CO2 in der Atmosphäre in Verbindung zu bringen, wird man scheitern. Es gibt viele nur teilweise verstandene „Senken“, welche CO2 aus der Atmosphäre entfernen. Die Erkennung der Dynamik all dieser Senken hat sich als schwierig herausgestellt, und darum haben wir kein wirklich gutes chemisches Gleichgewicht zwischen dem, was emittiert wird und dem, was in die Luft kommt.

Glücklicherweise gibt es Isotope, die uns helfen. Es gibt zwei primäre Pflanzenbestandteile, C3 und C4. C3-Pflanzen sind sehr alt und tendieren dazu, eher das Kohlestoffisotop 12C zu bevorzugen als das Kohlenstoffisotop 13C. Pflanzen mit C4-Bestandteil sind vergleichsweise jünger, und sie sind bzgl. ihrer Isotopen-Diät nicht so anspruchsvoll. Fossile Treibstoffe stammen aus einer Zeit, bevor die Evolution C4-Bestandteile hervorgebracht hatte, so dass sie reicher an 12C sind als die heutige Biomasse. Emittiert man also 12C-reiches CO2 aus fossilen Treibstoffen in die Luft, sollte der 13C-Anteil in der Luft sinken, und das ist genau das, was beobachtet wird:

Der Beweis, dass die Verbrennung fossiler Treibstoffe die Ursache für die CO2-Zunahme in der Atmosphäre ist, ist also wirklich schlüssig. Aber hat das irgendwelche Auswirkungen?

Kohlendioxid verteilt Infrarot über eine geringe Energie-Bandbreite. Die Infrarot-Photonen, welche Energie vom Planeten entfernen sollten, werden in die untere Troposphäre zurück gestreut. Die zusätzliche Energie sollte einen Temperaturanstieg verursachen.


Die obere graue Linie zeigt das Spektrum, welches angenähert dem Spektrum der mittleren Albedo des Planeten Erde bei einer Temperatur von 280 K entspricht. Das ist die Temperatur etwa 5 km über der Oberfläche, wo sich einfallende und ausgehende Strahlung im Gleichgewicht befinden. Das tatsächliche Spektrum wird durch die blaue Linie repräsentiert. Der Unterschied zwischen beiden ist die verloren gegangene Energie durch die von Treibhausgasen verursachten Verteilungs-Prozesse. Wasserdampf hat bei Weitem die stärkste Auswirkung. CO2 trägt zum Verlust zwischen 13 und 17 μm bei, Ozon zwischen etwa 9 und 10 μm.

Der Effekt der CO2-Absorption nimmt logarithmisch mit der Konzentration ab. Die Verdoppelung der Konzentration wird nicht irgendwelche Auswirkungen verdoppeln. Tatsächlich befinden sich derzeit etwa rund 400 ppm in der Atmosphäre. Es ist unwahrscheinlich, dass die Welt mit einem Gehalt von 800 ppm sehr viel anders aussehen würde. Sie wird grüner sein – Pflanzen wachsen besser – und es könnte geringfügig wärmer und feuchter sein, aber sonst würde die Welt sehr wie unsere Welt jetzt aussehen.

So wir irgendwelche Auswirkungen jedoch proportional mit der Zunahme der Konzentration geringer werden, so werden sie mit jeder Abnahme proportional zunehmen. [Original: However, just as any effect will lessen proportionately with increase in concentration, so it will increase proportionately with any decrease.] Falls es dabei irgendwelche beobachtbaren Effekte gibt, sollte man sie in historischen Aufzeichnungen finden. Haben wir sie gesehen?

Es gibt „offizielle“ historische Temperaturaufzeichnungen. Eine Version aus jüngerer Zeit von der HadCRU sieht so aus:

Die vertikale Achse zeigt das, was unter dem Begriff „Temperatur-Anomalie“ bekannt ist, also die Abweichung von der mittleren Temperatur über den Zeitraum 1950 bis 1980. Man erinnere sich, dass der CO2-Gehalt erst nach 1950 signifikant wurde, so dass wir diese Abbildung mit diesem Faktum im Hinterkopf betrachten können:

• von 1870 bis 1910 sank die Temperatur, es gab keinen signifikanten CO2-Anstieg.

• von 1910 bis 1950 stieg die Temperatur, es gab keinen signifikanten CO2-Anstieg.

• von 1950 bis 1975 sank die Temperatur, der CO2-Gehalt war gestiegen.

• von 1975 bis 2000 stiegen sowohl die Temperatur als auch der CO2-Gehalt.

• von 2000 bis 2015 hat die Temperatur geringfügig, der CO2-Gehalt hingegen stark zugenommen.

Treibt das Kohlendioxid Temperaturänderungen an? Schaut man auf diesen Beweis, muss man sagen, dass falls es eine Relation gibt, diese sehr schwach sein muss. In einer Studie von den Eisbohrkern-Aufzeichnungen über 8000 Jahre fand ich, dass es eine Wahrscheinlichkeit von 95% gibt, dass sich die Temperatur aus natürlichen Gründen um bis zu ±2°C innerhalb von 100 Jahren ändern würde. Während des 20.Jahrhunderts änderte sie sich um 0,8°C. Schlussfolgerung? Falls das CO2 in der Luft wirklich globale Erwärmung verursacht, muss das Signal erst noch aus dem natürlichen Rauschen auftauchen.

Eines der Probleme mit den „offiziellen“ Temperaturaufzeichnungen wie die oben gezeigte Reihe von HadCRU ist, dass sie Gegenstand von „Adjustierungen“ waren. Während manche Adjustierungen von Rohdaten offensichtlich erforderlich sind, wie beispielsweise die Berücksichtigung der Seehöhe eines Messpunktes, war die Adjustierung in diesem Falle dergestalt, dass die Vergangenheit kälter und die Gegenwart wärmer gemacht worden ist, was die globale Erwärmung viel dramatischer aussehen lässt als es aus den Rohdaten hervorgeht.

Es könnte unvernünftig aussehen, sich auf die offiziellen Daten als „adjustiert“ zu beziehen. Allerdings ist die Grundlage der offiziellen Daten das, was als das Global Historical Climatology Network or GHCN bekannt ist, und es wurde willkürlich adjustiert. Zum Beispiel ist es möglich, die Rohdaten von Kapstadt von 1880 bis 2011 mit den Adjustierungen zu vergleichen, die an die Daten der sich entwickelnden GHCN-Reihen Version 3 angebracht worden waren:

Das Goddard Institute for Space Studies GISS ist verantwortlich für das GHCN. Das Institut befasste sich mit den den Adjustierungen zugrunde liegenden Metadaten. Sie zeigten eine einzelne Datenlinie, gaben die geographischen Koordinaten und die Seehöhe des Messpunktes an sowie eine kurze Reihe bedeutungsloser Daten einschließlich des Wörtchens „COOL“. Die Grundlage der Adjustierungen ist daher unbekannt, aber die Tatsache, dass etwa 40 aufeinanderfolgende Jahre lang Daten um genau 1,10°C „adjustiert“ worden sind, zeigt ziemlich eindeutig, dass hier die Methode „Pi mal Daumen“ angewendet worden ist anstatt von Algorithmen.

Es gab inzwischen so viele Manipulationen der „offiziellen“ Aufzeichnungen der globalen Erwärmung, dass sie keinerlei Glaubwürdigkeit mehr haben. Das soll nicht heißen, dass sich die Erde während der letzten Jahrhunderte nicht erwärmt hat. Gletscher zogen sich zurück, Schneefallgrenzen stiegen. Es gab Erwärmung, aber wir wissen nicht wie viel.

Interessanterweise sind die gemessenen Temperaturen nicht eindeutig. Zum Beispiel hat das Abschmelzen von Eis an Alpenpässen in Europa Wege ans Licht gebracht, die vor 1000 Jahren und noch früher regelmäßig benutzt worden waren. Danach waren sie von Eis bedeckt, das erst in jüngster Zeit wieder geschmolzen ist. Die Schutthalden neben den Wegen, die diese historischen Reisenden genommen haben, bieten eine reiche Vielfalt archäologischen Materials.

Folglich muss die Welt vor einem Jahrtausend mindestens so warm gewesen sein wie heute. Sie hat sich währen der letzten paar hundert Jahre erwärmt, aber die Erwärmung ist primär natürlichen Ursprungs und hat nichts mit menschlichen Aktivitäten zu tun. Wir haben nicht einmal eine Ahnung davon, ob es überhaupt irgendwelche Auswirkungen menschlicher Aktivitäten gibt, und wir können mit Sicherheit nicht sagen, ob irgendein Anteil der beobachteten Erwärmung anthropogenen Ursprungs ist. Die Physik sagt, dass wir eine Auswirkung haben sollten, aber wir können sie noch nicht von der natürlichen Variation unterscheiden.

All jene, die uns ob des Kohlenstoff-Verbrechens anklagen wollen, haben daher ein anderes Verfahren entwickelt – das Globale Zirkulations-Modell. Hierbei handelt es sich um eine Repräsentation der Atmosphäre, welche die Bedingungen innerhalb einer Schicht der Atmosphäre berechnet, typischerweise 5 km X 5 km X 1 km. Jede Schicht wird mit einer benachbarten Schicht in Beziehung gesetzt (falls man über ausreichend Computerleistung verfügt – wenn nicht, müssen die Schichten dicker sein).

Die Modellierer lassen ihre Berechnungen typischerweise einige Jahre in der Vergangenheit beginnen, in denen das Klima bekannt ist. Dann versuchen sie, damit das (bekannte) Klima zu prophezeien vom Startzeitpunkt bis heute. Es gibt viele adjustierbare Parameter in den Modellen, und dreht man an diesen nur ausreichend herum, kann man das Modell an die Historie „anpassen“.

Scheint das Modell erst einmal historische Daten gut genug reproduzieren zu können, wird es auf die Zukunft losgelassen. Dabei schwingt die Hoffnung, dass – selbst wenn die Modelle nicht perfekt sind – eine vernünftige Bandbreite von Prophezeiungen herauskommen wird, falls verschiedene Personen unterschiedliche Frisierungen zu unterschiedlichen Zeiten anbringen. Aus dieser Bandbreite könnte man vielleicht ein paar Hinweise auf die Zukunft gewinnen.

Unglücklicherweise wurden diese Hoffnungen nur zu oft immer wieder enttäuscht. Das El Nino-Phänomen ist ziemlich gut bekannt, es hat eine bedeutende Auswirkung auf das globale Klima – und dennoch ist kein einziges der Modelle in der Lage, dieses zu berücksichtigen. Genauso können die Modelle auch nicht Hurrikane abbilden – der Scale 5 km X 5 km ist einfach zu grob. Sie können lokale Klimate nicht abbilden – eine Stichprobe von zwei Gebieten, die nur etwa 5 km auseinander liegen und von denen es in dem einen Gebiet jährlich 2000 mm Regen gibt, in dem anderen aber nur um 250 mm scheiterte kläglich. Gut wurden die Wind- und Temperaturdaten sowie die lokale Topographie abgebildet. Man hatte mit einem sehr engen Netz gearbeitet, aber da gab es nicht ausreichend Regelknöpfe, um dieses Modell mit der Historie in Einklang zu bringen.

Sogar die in diesen Modellen angewandten Grundlagen der Physik scheitern. Die grundlegende Physik prophezeit, dass sich die obere Atmosphäre zwischen den beiden Wendekreisen schneller erwärmen sollte als die Oberfläche. Regelmäßig steigen Wetterballone mit Thermometern in diesem Gebiet auf. Es gibt drei separate Ballon-Datensätze, und sie alle stimmen darin überein, dass es keinerlei Anzeichen einer zusätzlichen Erwärmung gibt:


[Die Graphik erscheint auch im Original so unscharf. Anm. d. Übers.]

Die schwarzen Quadrate zeigen das Mittel der drei Datensätze. Die Höhe wird in Druckeinheiten angegeben; 100.000 Pascal am Boden und 20.000 Pascal in einer Höhe von etwa 9 km. Es gibt 22 verschiedene Modelle, und deren Mittel zeigt die schwarze Linie. Am Boden zeigt die Messung eine Erwärmung um 0,1°C pro Jahrzehnt, aber die Modelle prophezeien 0,2°C pro Jahrzehnt. In 9 km Höhe zeigen die Messungen immer noch eine Erwärmung um 0,1°C, die Modelle jedoch im Mittel 0,4°C, in Extremfällen bis 0,6°C. Modelle,die um einen Faktor 4 oder mehr falsch sind, können nicht als wissenschaftlich bezeichnet werden. Sie sollten nicht einmal zur Veröffentlichung angenommen werden – sie sind falsch.

Die Hypothese, dass wir auf der Grundlage von Modellen, die sich schon jetzt als falsch herausgestellt haben, das zukünftige Klima vorhersagen können, ist falsch. Internationale Abkommen, den zukünftigen Temperaturanstieg auf X°C über das vorindustrielle Niveau begrenzen zu können, hat mehr mit des Kaisers neuen Kleidern zu tun als mit Realität.

Der dritte Schritt zu unserem Verständnis der Klima-Zeitverschwendung kann also nur lauten, ja, die Welt erwärmt sich, aber um wie viel und warum – davon haben wir keine Ahnung.

Wie könnten die Klimaauswirkungen einer wärmeren Welt aussehen? Was ist „Klima“? Es ist das Ergebnis der Mittelung einer klimatologischen Variable wie etwa Regenmenge oder Luftdruck, gemessen typischerweise einen Monat oder eine Jahreszeit lang, woraus dann über viele Jahre hinweg ein Mittel gebildet wird, als ob man einen Hinweis auf das Wetter bekommen würde, das man in einem Monat oder während der nächsten Jahreszeit erwarten kann.

Zweitens, wir müssen die Bedeutung von „Änderung“ verstehen. In diesem Zusammenhang bedeutet Änderung eindeutig, dass der Mittelwert einer klimatologischen Variable über X Jahre von dem Mittelwert der gleichen Variable über einen anderen Zeitraum von X Jahren abweicht. Aber schon jetzt ist offensichtlich, dass sich das Wetter von Jahr zu Jahr ändert, weshalb es eine natürliche Variation des Klimas von einem Zeitraum von X Jahren zu einem anderen Zeitraum von X Jahren gibt. Daher muss man wissen, wie groß X sein muss, um die natürliche Variabilität zu berechnen und damit zuverlässig irgendwelche Änderungen des gemessenen Klimas zu entdecken.

Dieser Aspekt von „Klimawandel“ scheint in der gesamten bisherigen Debatte übersehen worden zu sein. Man scheint anzunehmen, dass es ein „präindustrielles“ Klima gab, welches man viele Jahre lang messtechnisch erfasst hatte, bevor die Industrie ein wesentlicher Faktor unserer Existenz geworden ist und dass sich das Klima, das wir heute messen, statistisch von jenem hypothetischen Klima unterscheidet.

Das Problem dabei ist natürlich, dass es nur sehr wenige tatsächliche Daten aus jenen präindustriellen Tagen gibt, so dass wir nichts in der Hand haben, um zu erkennen, wie das Klima damals wirklich war. Es gibt keine Grundlinie, von der aus wir eine Änderung messen können.

Angesichts dieser Schwierigkeit haben die Protagonisten des Klimawandels die Hypothese modifiziert. Es wird jetzt kolportiert, dass die beobachtete Erwärmung der Erde das Klima dergestalt ändern wird, dass Extremwetterereignisse immer öfter auftreten. Dies beseitigt die Schwierigkeit jedoch nicht, sondern verschlimmert sie noch.

Zur Illustration nehme man an, dass ein Extremereignis eines ist, dass außerhalb der 95%-Wahrscheinlichkeits-Bandbreite liegt. Also würde man im Verlauf von 100 Jahren im Mittel 5 solcher Extremereignisse erwarten. Anstatt dass man 100 Jahre mit Daten heranzieht, um das mittlere Klima zu ermitteln, gibt es jetzt nur fünf Jahre, um eine mittlere Schätzung des Extremereignisses zu erhalten, und der relative Fehler bei der Mittelung von 5 variablen Ereignissen ist offensichtlich viel größer als der relative Fehler bei der Mittelung von 100 variablen Ereignissen.

Die Daten der Regenmenge von England und Wales zeigen dies ziemlich überzeugend:

Die trendbereinigten Daten sind eng um die Normale verteilt, so dass es sinnvoll ist, hierfür die normale Statistik zu bemühen. Die 5%-Grenzen sind folglich zwei Standardabweichungen auf je einer Seite des Mittels. Im Laufe der 250-jährigen Aufzeichnung würde man 12,5 Extremereignisse erwarten (jene außerhalb der 95%-Grenze). Tatsächlich erfordert es 250 Jahre, um eine vernünftige Schätzung (innerhalb von 12%) nur bzgl. der Häufigkeit extremer Regenmengen vornehmen zu können. Es gibt keine Möglichkeit, irgendwelche Änderungen dieser Häufigkeit aufzufinden, was jedoch nötig wäre, um „Klimawandel“ zu zeigen.

Tatsächlich ist die Lebensspanne eines Menschen unzureichend, um auch nur die Häufigkeit von Extremereignissen herauszufinden. Während aufeinander folgenden 60-Jahre-Perioden gibt es 2, 4, 2 und 2 Ereignisse, ein Mittel von 2,5 Ereignissen mit einer Standardabweichung von 1,0. Es gibt eine Wahrscheinlichkeit von 95%, innerhalb von 60 Jahren zwischen 0,5 und 5,5 Ereignisse zu erleben, wo 3% (5% von 60) erwartet werden. Viele Lebensspannen sind erforderlich, um die Häufigkeit mit hinreichender Genauigkeit zu bestimmen, und noch viel mehr Lebensspannen, um irgendwelche Änderungen der Häufigkeit zu finden.

Man weiß, dass es seit mindestens 150 Jahren wärmer geworden ist. Falls die Erwärmung zu mehr Extremwetter geführt haben sollte, hätte man erwarten können, dass es einige Beweise für eine Zunahme von Extremereignissen während dieses Zeitraumes gebe. Die Main-Stream-Presse versucht uns das mit Sicherheit weiszumachen, wenn es zu einem offensichtlich heftigen Sturm kommt. Aber keiner der klimatologischen Indikatoren, von denen Daten seit mindestens 100 Jahren vorliegen, zeigt auch nur Spuren von Anzeichen einer Zunahme extremer Ereignisse.

Zum Beispiel gab es viele Behauptungen, dass tropische Zyklone an Häufigkeit und Stärke zunehmen. Die WMO berichtet: „Es bleibt unsicher, ob Änderungen der Aktivität tropischer Zyklone in der Vergangenheit über die aus natürlichen Gründen zu erwartende Variabilität hinausgeht“.

Es stimmt, dass die Schäden durch Zyklone zunehmen, aber dies liegt nicht an extremerem Wetter. Es ist die Folge einer immer stärkeren Bebauung, und jedes Bauwerk ist verwundbarer als vor 20 oder mehr Jahren. Daten aus über ein Jahrhundert wurden sorgfältig analysiert, um zu dieser Schlussfolgerung zu kommen. Der IPCC-Bericht stimmt hinsichtlich Extremereignisse damit überein.

Es ist sehr unwahrscheinlich, dass Extremwetter jedweder Art irgendeinen Teil unseres Planeten unbewohnbar macht – darunter sind Dürren, schwere Stürme und Orkane. Tatsächlich ist dies keine allzu große Überraschung – die Menschheit hat gelernt, mit Extremwetter umzugehen, und Menschen bevölkern Gebiete von den kältesten bis zu den heißesten Regionen, vom Meeresspiegel-Niveau bis in Höhen, wo man nach Luft ringen muss. Wir sind nicht nur anpassungsfähig, sondern wir haben auch gelernt, Strukturen zu schaffen, die uns vor den Kräften der Natur schützen.

Natürlich ist ein solcher Schutz nicht kostenlos zu haben. Nicht jeder kann sich die Strukturen leisten, die für ihren Schutz erforderlich sind. Dörfer werden regelmäßig von Stürmen schwer beschädigt, die in den meisten modernen Städten kaum Schäden hinterlassen würden. Flut-Kontrollmaßnahmen sind ausgelegt auf Ereignisse, die einmal während 100 Jahren auftreten, und im Allgemeinen funktionieren sie auch – während arme Länder, deren tief liegende Gebiete regelmäßig überschwemmt werden, sich dringend geeignete Schutzmaßnahmen wünschen.

Tatsächlich ist es eine Herausforderung für die Fähigkeit von Ingenieuren, Schutzmechanismen gegen alle Arten natürlicher Kräfte zu entwickeln. Beispiel: Das Erdbeben vor Japan mit der Magnitude 9 (welches den Tsunami auslöste, der die Reaktoren von Fukushima zerstörte), hat nur wenig Gebäudeschäden verursacht, während es zuvor im gleichen Jahr bei Erdbeben mit einer Magnitude von „nur“ 7 in Wellington, Neuseeland, zu schweren Gebäudeschäden gekommen war. Dabei wurde die Kathedrale von Wellington zerstört, die nicht darauf ausgelegt war, Erdbeben zu widerstehen.

Wir sollten keine Angst vor Extremwetterereignissen haben. Es gibt keinerlei Beweise, dass diese irgendwie stärker sind als in der Vergangenheit, und die meisten von uns können angemessen darauf reagieren. Natürlich werden unsere Schutzmaßnahmen irgendwann nicht ausreichen, aber normalerweise geht dies auf menschliches Versagen zurück und nicht auf exzessive Naturkräfte. Hier beim vierten Schritt unserer Reise können wir schon sehen, wie die Klimawandel-Hypothese strauchelt und zu Fall kommt.

In gleicher Weise erweisen sich die meisten der anderen Angst-Stories bzgl. „Klimawandel“ als Unsinn, wen sie mit realen Daten getestet werden. Die Eisbären verschwinden nicht von der Erde: tatsächlich kann die International Union for the Conservation of Nature während der letzten 400 Jahre keine Änderung der Verlustrate von Spezies erkennen. Die Temperatur war niemals ein starker Indikator für die Ausbreitung von Malaria – das Fehlen entsprechender Maßnahmen bzgl. der menschlichen Gesundheit ist hierbei eine kritische Komponente. Spezies wandern, aber ob die Temperatur dafür der Treiber ist, ist zweifelhaft – angesichts täglicher und jahreszeitlicher großer Temperaturänderungen ist es sehr unwahrscheinlich, dass eine kleine Änderung der Mitteltemperatur dafür die Ursache ist. Gletscher schmelzen, aber die Welt ist wärmer, so dass dies nicht unerwartet kommt.

Eine letzte Frage bleibt übrig: Wird der Meeresspiegel steigen und unsere Küstengebiete verschlucken?

Zunächst muss man erkennen, dass der Meeresspiegel steigt. Das hat er schon während der letzten 25.000 Jahre getan. Allerdings ist er während der letzten 7 Jahrtausende langsamer gestiegen als jemals zuvor:

Die kritische Frage lautet, ob die beobachtete geringe Anstiegsrate als Folge eines sich erwärmenden Klimas zugenommen hat. Es gibt viele Beweise dafür, dass dies nicht der Fall ist. Einer davon sind langzeitliche Daten von Tiden-Messstationen. Sie müssen mit Vorsicht behandelt werden, weil es Gebiete gibt, in denen sich das Land absenkt (wie der Golf von Mexiko, wo der vom Mississippi herangeschwemmte Schlamm schwer auf der Kruste liegt), während sich andere Gebiete heben (wie der größte Teil von Skandinavien, wo die Last eines viele tausend Meter dicken Eispanzers vor 10.000 Jahren verschwunden ist). Eine typische langzeitliche Tiden-Messreihe gibt es aus New York:

Der Trend von 1860 bis 1950 betrug 2,47 bis 3,17 mm pro Jahr; der Trend im Zeitraum 1950 bis 2014 2,80 bis 3,42 mm pro Jahr – beide mit einem 95%-Vertrauensniveau. Die Wahrscheinlichkeit, dass sich nach 1950 eine Beschleunigung zeigt,liegt unter 5%.

Ein weiterer Beweis kommt von den Satellitenmessungen des Meeresspiegels. Die folgende Abbildung zeigt die jüngsten verfügbaren Satelliten-Informationen – sie reichen aber nur bis zum Jahr 1993 zurück. Nichtsdestotrotz ist der Anstieg von 3,3 ± 0,3 mm pro Jahr vollkommen konsistent mit den Tidenmessungen:

Folglich weisen viele Beweislinien auf die gegenwärtige Rate des Anstiegs hin, die etwa 3 mm pro Jahr oder 30 cm pro Jahrhundert beträgt. Unsere bestehenden Schutzmaßnahmen gegen das Meer müssen mit täglichen Änderungen von vielen Metern fertig werden, und Sturmfluten mit einigen weiteren Metern. Die mittlere Höhe unseres Schutzes ist bis etwa 7 m über dem Meeresspiegel ausgelegt, so dass zusätzliche 0,3 m bis zum Ende dieses Jahrhunderts die Anzahl der Wellen etwas erhöhen wird, die über die Barrieren schwappen.

Das IPCC prophezeit, dass der Meeresspiegel in diesem Jahrhundert um 0,4 bis 0,7 m steigen wird. Angesichts der großen Bandbreite dieser Prophezeiung besteht die Möglichkeit, dass es recht hat. Wichtig ist jedoch, dass nicht einmal ein Anstieg um 0,7 m eine Katastrophe wäre, und zwar angesichts der Tatsache, dass unsere Schutzmaßnahmen schon jetzt meterhoch sind – sie um weitere 10% zu erhöhen während der nächsten 80 Jahre wäre kostspielig, aber wir hätten Jahrzehnte Zeit, diese Änderung vorzunehmen. Bis dahin sollte es mehr als hinreichend Warnungen geben, falls wirklich ein signifikanter Anstieg des Meeresspiegels erfolgt.

Unter dem Strich: Unsere fünf Schritte haben gezeigt:

● Die Verbrennung weiter zunehmender Mengen fossiler Treibstoffe hat die CO2-Konzentration in der Atmosphäre zunehmen lassen.

● Die physischen Auswirkungen dieser Zunahme sind auf keine wissenschaftliche Weise nachweisbar. Es mag eine gewissen Erwärmung der Atmosphäre gegeben haben, aber gegenwärtig liegt jedwede Erwärmung fast mit Sicherheit innerhalb der natürlichen Variation der Temperatur.

● Es gibt keine Beweise, weder für irgendeine Zunahme der Häufigkeit oder Magnitude von Wetterphänomenen noch für klimabezogene Änderungen der Biosphäre.

● Es ist unwahrscheinlich, dass jedweder Anstieg des Meeresspiegels in diesem Jahrhundert eine unüberwindbare Herausforderung ist.

Versuche, die globale Temperatur durch die Kontrolle von CO2-Emissionen zu beeinflussen, sind wahrscheinlich ebenso unnütz wie wirtschaftlich katastrophal.

Link: http://wattsupwiththat.com/2016/04/08/five-points-about-climate-change/

Übersetzt von Chris Frey EIKE




Gratis-Strom für alle: Warum kommt diese Erfindung erst jetzt? oder Generation Ökokuli

Bild rechts: Energiefahrrad „Free Electric“. Screenshot aus einem Werbefilm der Organisation Billions in Change

Was hat es mit diesem Gratis-Strom für alle auf sich?

Chip als technikaffine Zeitschrift beschreibt es wie folgt:

Die Strompreise steigen permanent – da kommt eine Erfindung wie diese genau richtig: Ein neu entwickeltes Fahrrad soll in nur einer Stunde so viel Energie erzeugen, dass sich damit ein einfacher Haushalt 24 Stunden betreiben lässt. Die Produktion startet noch in diesem Jahr.
Es klingt fast wie ein (Öko)Traum: Man schwingt sich eine Stunde aufs Fahrrad, verbessert die eigene Fitness, und produziert dabei genügend Strom, um damit den ganzen Haushalt betreiben zu können. Mit dem Bike “Free Electric” der Organisation Billions in Change soll genau das möglich sein. Die Idee dazu ist nicht neu, denn entsprechende Fahrräder sind seit Jahren auf dem Markt. Dennoch gibt es einen großen Unterschied: Die bisherigen Lösungen produzieren genügend Strom, um maximal eine Super-Öko-Energiespar-LED auf Sparflamme anzutreiben. Laut Manoj Bhargava, der hinter Billions in Change steht, soll sein Fahrrad in einer Stunde ausreichend Power für 24 Stunden Strom generieren. Ans Fahrrad angeschlossen ist ein Turbinengenerator, der eine Batterie speist.

Die ersten Geräte sollen im indischen Bundesstaat Uttarakhand getestet werden. Im Laufe des Jahres folgen laut Billions in Change 10.000 weitere Fahrräder, die ebenfalls in Indien zum Einsatz kommen.

Zum Schluss macht Chip ein paar Einschränkungen mit der Energiemenge, die sich so gewinnen lässt – aber an der guten Idee wird nicht gezweifelt.

Etwas Elektrotechnik

Wer auch nur ein bisschen etwas von Elektrotechnik versteht, ist gegenüber der Werbeaussage eher skeptisch. „Bisherige Lösungen“ waren schlecht und die neue ist bahnbrechend? Und das bei einer Technik, welche es seit über 100 Jahren gibt und seit mindestens 10 Jahren auch (Halbleiter-) technologisch praktisch nicht mehr zu verbessern ist – außer eben in der Werbung.

Im Werbefilm zeigt es sich ungewollt realistisch. Die Energie-radelnde Person generiert auf der (ganz kurz gezeigten) Anzeige ca. 11 V und 10 A, also 110 Watt. Wie man damit in einer Stunde mit dem Erradeln von 110 Wh einen „ausreichenden Enrgiebedarf für 24 h generiert, bleibt ein Geheimnis der Innovation.

Bild 2 Energieanzeige beim Energieradeln. Screenshot aus dem Werbefilm der Organisation Billions in Change

Eine einfache Elektrokochplatte für das Camping benötigt 1100 W. Um diese auf voller Leistung zu halten, müssten demnach 10 Personen parallel die Energie erradeln. Leider kann man damit nicht für 10 Personen gleichzeitig kochen, sondern vielleicht für zwei, drei. Also muss man länger radeln und nacheinander für die Radler kochen. Vielleicht sind dann nach ein paar Stunden alle bekocht – bis auf die Kochenden, denn die energieradeln ja nicht -. Wer nun mehrere Stunden ununterbrochen so fest energie-durchgeradelt hat bekommt dadurch aber bestimmt gleich wieder einen gewaltigen Hunger.

Schlimm wird es, wenn die Nacht beginnt. Denn nun muss man auch noch für die Beleuchtung der Kochstelle und des Ruheraumes mitradeln. Und nach einer so schweißtreibenden Öko-Kuli-Radelei will man vielleicht auch duschen. Also für die Duschpumpe noch etwas radeln, und wenn man dazu vielleicht etwas warmes Wasser will, eben noch einmal. Gerade zu ein Glück, dass man zum Schlafen nicht parallel weiter-radeln muss (ausser man stellt dabei so unökologische Ansprüche wie eine Heizung oder Klimaanlage).

Fazit: Die Energieradler befinden sich in einem endlosen Energieradel-Hamsterrad (gab es früher im Bergbau, wurde damals aber gelaufen und verschwand wohl deshalb).

Aber immerhin, designerisch erscheint das Energiefahrrad dagegen schon als Innovation.

Wie ist der monetäre Wert des Energieradelns zu bewerten

Der deutsche Mindestlohn beträgt Brutto 8,5 EUR. Somit beträgt der Netto-Energieradel-Abgabepreis einer einzigen KWh bei durchgängiger 100 % Radelleistung ohne auch nur ein Quentchen Gewinn gemacht zu haben abgerundet 77,2 EUR. Selbst wenn 1 EUR-Jobber dafür radeln, kostet die kWh mit 9,1 EUR noch immer viel zu viel. Daran würden sogar unsere Grünen mit dem Wunsch nach einem 1 EUR kWh-Preis nichts ändern.

Kohlestrom und auch jeder andere kostet so um die 4 … 6 ct / kWh, wenn es zwangsweise EEG sein muss aktuell eher 10 … 20 ct / kWh Gestehungskosten. Auch in armen Ländern ist Elektroenergie – so man sie bereitstellen will – nicht wesentlich teurer zu erzeugen.

Damit kann man ahnen, welchen Preis ein Energieradler in der dritten Welt (denn dafür ist die Innovation gedacht) erwirtschaften kann und auf welchem erbärmlichen Niveau damit sein Verdienst liegen wird.

Aber halt, es gibt doch den 100 Milliarden US$ Klimaopferfond. Bestimmt werden die künftigen Energieradler der dritten Welt daraus „versorgt“. Und dann wird daraus eine bewundernswerte, ökologische, nachhaltige, Welt-rettende WIN WIN WIN Situation für alle (werden) – ein innovatives Erfolgsmodell wie es das eben sonst nur noch in (sozialistischen) Märchen gibt.

Wahre Innovation erkennt nicht jeder

Irgend eine ganz besondere, Welt-rettende und vom Normalbürger bisher noch nicht erkannte Eigenschaft muss dem Fahrrad innewohnen. Warum wohl sonst radeln die Chinesen und Inder (und Holländer) so viel? Haben die unsere westliche Zeitrechnung ohne es zu wissen einfach überradelt? Bestimmt ist es kein Zufall, dass sich unsere – damit wieder einmal hoch-innovativ ausweisende – Klimawandel-Fachfrau Dr. Hendricks ebenfalls intensiv damit beschäftigt hat „Aktionsprogramm Klimaschutz – Frau Hendricks fördert Investitionen für Lastfahrräder zur CO2-Minderung“.

Das hat der Autor damals belächelt – eben nur ein Normalbürger und damit Asche aufs Haupt. Wahre Innovationen erkennen wirklich nur ökologisch nachhaltige Außerwählte. Vielleicht würde es auch helfen, Gehirn-Doping einzunehmen wie manche Grünen Politiker.

Ein Glück, dass wir hier nicht die Verhältnisse von Nordkorea haben. Nicht auszudenken was passiert wäre wenn der Autor es da gewagt hätte, eine solch innovative Eingebung einer großen Vorsitzenden nicht gleich als das was es wirklich ist erkannt zu haben.

Nachtrag

In den Zeitungen kam gerade, dass die United Nations Organization (UNO) als Millenniumsziel daran „arbeitet“, die bitterste Armut auf der Welt zu beseitigen. Als bitterarm gilt nach der UNO jemand, wenn er weniger als 1,25 US$ / Tag verdient.

Doch selbst dieses niedrige Einkommen ist durch Energieradeln niemals auch nur entfernt möglich – ein absolut treffendes Beispiel was Energiearmut wirklich bedeutet. Aber wenn Armut zur Klimarettung der Welt notwendig ist, muss man sie positiv sehen und umsetzen – und (in deutschen Medien) auch so publizieren.