Smart Grid und dezentralisierte Stromerzeugung: Ein flüchtiger Blick auf eine ferne Zukunft

Ist es das richtige Gleis, 1. die Kapazität des Netzes zu erhöhen und neue Übertragungswege einzuführen, um die Integration von Wind- und Solarenergie in brauchbarem Umfang vorzubereiten, oder 2. Smart Meters zu implementieren, um die Versorgung aus dieser schwankenden und unzuverlässigen Quelle zu regeln (sprich zu begrenzen)?

Absolut nicht! Solche unklugen Initiativen werden eine unakzeptabel hohe Investition in die Elemente des Grids erfordern, die nur zu schnell irrelevant werden dürften, wenn die erforderlichen Änderungen der Strominfrastruktur in der Zukunft konstruiert und eingeführt werden.

Aber erste Dinge zuerst: Was bedeuten die Begriffe Dezentralisierte Erzeugung (DG) und Smart Grid?

Dezentralisierte Stromerzeugung (Distributed Generation DG)

Eines der vordergründigen Ziele der DG ist es, eine gewisse Ebene des lokalen Stromverbrauchs zu erreichen und nicht, diesen Strom in das Netz einzuspeisen. Das Aufzwingen eines bestimmten Niveaus Erneuerbarer Energien (RES) und von Einspeisetarifen mit Vorzugspreisen, um die Entwicklung der Wind- und Solartechnik voranzutreiben, wird für Letzteres zu einem „Goldrausch“ führen. Die Stromerzeugung durch Wind und Sonne im großindustriellen Maßstab ist ähnlich der traditionellen Erzeugung, in denen der Strombedarf in großen Gebieten gedeckt wird, und im Falle von Solar- und Windenergie häufig über weite Entfernungen. Der Strom wird geographisch verteilt, und das ist ein Element der Differenzierung von konventionellen Quellen der Stromerzeugung. Aber dies ist so wegen der weit verteilten Treibstoffe sowie Sonnenlicht und Wind.

Die korrekte Darstellung von DG enthält die kleinräumige Stromerzeugung, zum Beispiel durch Solarpaneele auf den Dächern und eventuell Mikrowindturbinen (bessere Designs sind möglich) ebenso wie viele andere kleinräumige Erzeugungsmöglichkeiten, und diese Liste kann ziemlich lang sein. Diese werden in Mikronetze integriert, die selbständig die lokale Produktion steuern, ebenso wie die Speicherung (was auf diesem Niveau auch heute schon möglich ist und in Zukunft vielversprechend aussieht) sowie den Verbrauch und die Verbindung zum Netz über intelligente Leitungen. Mikronetze können viele Arten von „Gemeinden“ bedienen, zum Beispiel Wohngebiete (vor allem in ländlichen Gebieten), eine Kombination von kommerziellen/industriellen/privaten Gemeinschaften und Universitäten. Mit solchen „Konzepten“ wird bereits experimentiert, zum Beispiel an der University of California, San Diego (UCSD). Die Konzepte schließen eine Kombination mit einem Heiz- und Stromsystem mittels Gasturbinen sowie solaren Technologien und Brennstoffzellen ein, die hier beschrieben werden, sowie Elektroautos, beschrieben hier. Ein Zitat von Byron Washom, dem Direktor der Strategischen Energieinitiativen auf dem Campus ist angemessen:

 „Die USCD wird zu einem Laboratorium werden, in dem Technologien getestet werden sowie das Verhalten der Verbraucher analysiert werden kann”.

Man ignoriere den Hype in den o. g. Beispielen, aber applaudiere dem Versuch, sich den beschriebenen Entwicklungen anzunähern, wie sie von Washom auf den Punkt gebracht worden sind.

Werden die “smart” meters, die heute schon installiert werden, mit den smart grids kompatibel sein, die erst noch entworfen und entwickelt werden müssen? Das ist unwahrscheinlich und birgt das Potential hoher unnützer Kosten, was künftige Generationen belasten dürfte. Heutzutage scheint die Hauptaufgabe der smart meters darin zu bestehen, ein Mittel zur Erhöhung der Stromraten zu sein, und zwar durch eine aggressive Preisgestaltung von Tag zu Tag. Damit sollen die erforderlichen großen Investitionen gedeckt werden, vor allem für Windfarmen samt deren zu ihrer Unterstützung erforderlichen Verteilungs- und Erzeugungsmöglichkeiten.

Das Smart Grid

In einer Broschüre des Department of Energy (DOE) werden kurzfristige Initiativen, wie sie im zweiten Abschnitt oben beschrieben werden, als das „intelligentere“ Netz bezeichnet und sollen den Weg zum „smart“ grid ebnen. Sogar ohne jedes Wissen über die involvierten Probleme wird jeder, dem unglaubwürdige Versprechen bekannt sind, die in manchen Werbungen nur zu offensichtlich sind, die Warnzeichen erkennen. Hier folgt ein Auszug aus dem Papier des DOE über Initiativen zum „smarter“ grid (Hervorhebung von mir):

  • Verbesserung der Zuverlässigkeit auf ein Niveau, wie es zuvor noch nie möglich war
  • Verbesserung der Bezahlbarkeit
  • Stärkung unserer globalen Wettbewerbsfähigkeit
  • Vollständige Verbindung von erneuerbaren und herkömmlichen Energiequellen
  • Potentielle Reduzierung unseres Kohlenstoff-Fußabdrucks (interessanter Aspekt)
  • Einführung von Fortschritten und einer Effizienz, die man noch entwerfen muss.

Mehr Informationen hierzu und über die Warnungen der North American Electric Reliability Corporation (NERC) wurden vor Kurzem hier beschrieben.

In Wirklichkeit weiß kein Mensch, wie die smart grids schließlich aussehen werden. Sie repräsentieren eine grundlegende Verschiebung der Infrastruktur unserer elektrischen Energie, die notwendigerweise lange brauchen wird, bis sie sich auswirkt, teilweise auch deshalb, weil sie zu sozialen Auswirkungen bei jeder dieser Umstrukturierungen führen wird. Wie schon erwähnt, ist es sinnvoll, als Zeitrahmen zur Verwirklichung dieser Pläne aus diesen Gründen sowie aus Gründen der Entwicklung und des Preises vieler Technologien innerhalb einer solide konstruierten Architektur die zweite Hälfte des 21. Jahrhunderts anzunehmen.

Führt man sich dies vor Augen, ist die heute vorgenommene aggressive Einführung wahrscheinlich nur vorläufig und hat fragwürdige Motive. Ebenso weiß kein Mensch, wie der Transport, die Kommunikation, die Informationsprozesse, die Bildung, eine Weltregierung, die Gesundheitsvorsorge, die Erzeugung von Nahrungsmitteln und die städtische Entwicklung im gleichen Zeitrahmen aussehen. Effektive Änderungen in all diesen Komplexen sind evolutionärer und nicht revolutionärer Natur. Die Stromerzeugung und –verteilung ist genauso fundamental wie dies alles, und jemand, der dies in kurzer Zeit revolutionieren will, ist einfach desinformiert.

In einem Artikel in der Ausgabe der Zeitschrift Power Magazine im April 2011 [Original: 2021; vermutet wird ein Schreibfehler. A. d. Übers.] mit der Überschrift „Smart Grid und dezentrale Erzeugung: besser beides zusammen“ findet sich ein gut dargestellter Hintergrund für diese Entwicklungen. Unter den vielen dort genannten Details sind einige, die einen vernünftigen Rahmen für diese bedeutende Änderung der Infrastruktur beschreiben:

  • Niemand weiß, wie die Smart Grids im Endeffekt aussehen. Daher sollten keine frühen und große Investitionen in die Entwicklung von Technologien gesteckt werden, bevor diese nicht besser verstanden sind.
  • Eine der primären Funktionen von DG ist es, den lokalen Bedarf zu decken, und nicht die Einspeisung ins Netz.
  • Wir sollten uns nicht durch Diskussionen über die teure Einführung von Konzepten ablenken lassen (d. h. in brauchbarem Umfang die Speicherung von Elektrizität, die großräumige Verbreitung von Elektromobilen), die erst in ferner Zukunft verwirklicht werden können.
  • Eine grundlegende Entwicklung muss der Sicherheit des Internets gelten. Dazu empfiehlt es sich, 1. übereilte Implementationen zu vermeiden und 2. die Wichtigkeit der lokalen Natur der wahrscheinlichsten Struktur künftiger smart grids zu beachten, die einer netzweiten Einspeisung entgegen steht.

Link: http://www.masterresource.org/2011/04/the-smart-grid-and-dg/#more-14745

Übersetzt von Chris Frey für EIKE

Bemerkung des Übersetzers: Unterstrichen wird in diesem Beitrag die lokale Natur der sog. smart grids. Für die großräumige Stromerzeugung z. B. für energieintensive Unternehmen werden sie also nie taugen. Auch wird gründlich mit dem Aktionismus aufgeräumt, der vor allem hierzulande derzeit in dieser Hinsicht an den Tag gelegt wird.

Nur am Rande kurz gestreift wird die Möglichkeit irgendwelcher Institutionen, unseren Stromverbrauch und damit unser gesamtes Verhalten lückenlos zu überwachen. Hier gilt es, besonders wachsam zu sein!

C. F.




Statistiken vernebeln zunehmend die Realität!

Das „Klima“ ist in der Tat ein anhand des Wetters auf statistischem Wege entstandenes Konstrukt. Mit dem Begriff „Klima“ soll das „mittlere Wetter“ an einem Ort versinnbildlicht werden. „Klima“ ist der Platzhalter für eine Idee, die sich nicht auf einen „Gegenstand der Erfahrung“, sondern nach Immanuel Kant (1724-1804) auf die „Totalität aller möglichen Erfahrungen“ bezieht. Nach Hans Blumenberg (1920-1996) schließt jegliche Rede über die Idee „Klima“ die Notwendigkeit einer „metaphorischen Fremdbestimmung“ ein. Nach Blumenberg gilt: „Der Begriff endet in der Mystik, die Metapher im Mythos“. Daher gehen die meisten Klimadispute ebenso ergebnislos aus wie das „Hornberger Schießen“. Mangels Wissen schlägt sich die Masse auf die Seite der Mehrheit der staatlich protegierten Klimaexperten.

Wer also, wie die „Klimaskeptiker“, nur mit der Metapher „Klima“ gegen die Metapher „Klima“ der Klimaexperten ankämpfen will, steht auf ziemlich verlorenem Posten. Dies gilt insbesondere dann, wenn man sich ausschließlich statistischer Waffen bedient und auf einen Kampf in dem von den Klimaexperten vernebelten „Treibhaus“ einlässt. Auch das „Treibhaus“ ist eine Metapher, für ein geschlossenes System oder „Gedankengebilde“, in dem sich die Klimaexperten mit der Politik und den Medien kommunikativ nahezu perfekt global vernetzt haben. Offensichtlich wird dies bei den jährlichen Weltklimakonferenzen oder „Klimagipfeln“ der Vereinten Nationen.

Das Verbindungsglied zwischen Wetter und Klima ist die Statistik, deren Anfänge Volkszählungen waren, wie in Babylon etwa 3800 oder in Ägypten etwa 3000 vor Christus. Die erste Volkszählung in Deutschland gab es 1449 in Nürnberg. Das Statistische Amt des Deutschen Reiches wurde 1872 gegründet. Das Wort Statistik leitet sich von den lateinischen Wort „statistikum“ ab und bedeutet „den Staat betreffend“. Der aus Elbing stammende Gottfried Achenwall (1719-1772) begründete 1749 die Statistik als „Lehre von den Daten über den Staat“. John Sinclair (1754-1835) gab ihr die heutige Bedeutung, das allgemeine Sammeln und Auswerten von Daten. Im Laufe der Zeit hat sich aus der beschreibenden über die mathematische schließlich eine Hypothesen generierende, zutiefst spekulative Statistik entwickelt. Es wird also nicht mehr nur die Verteilung eines Merkmals beschrieben und über statistische Korrelationen eine Verbindung zwischen der Erfahrung oder Empirie und der Theorie hergestellt, sondern es wird versucht zu ergründen, was an der Verteilung eines Merkmals bemerkenswert oder ungewöhnlich ist. Ist wenig oder kein Wissen über einen Forschungsgegenstand wie das „Globalklima“ vorhanden, dann inszeniert man Expertengespräche und erfindet nicht vorhandene Ursachen und Zusammenhänge wie zwischen CO2-Gehalt der Luft und der „Globaltemperatur“. Man nennt diese allein an Ideen, aber nicht an Realitäten gebundene Forschung Explorative Forschung („exploratory research“).

Die ursprüngliche Bedeutung „Klima“

Ein „Kind der Statistik“ ist die Soziologie, die von Auguste Comte (1798-1857) begründet wurde. Die Soziologie untersucht das Zusammenleben von Menschen. Ihr Forschungsgegenstand ist der Gefährte (lat. „socius“) als Gemeinschafts- oder Gesellschaftswesen, kurz „das Soziale“. Herrschen in einer Gesellschaft Frieden und Zufriedenheit, dann spricht man von einem guten sozialen oder gesellschaftspolitischen Klima. Dies ist ein Zustand allgemeiner Zuneigung zwischen den diversen sozialen Klassen und Schichten. Das Wort Klima hat hier seine ursprüngliche griechische Bedeutung „Neigung“. Herrscht Armut und begehren große Teile der Bevölkerung dagegen auf, so kann dies für ein Regime zu einer Klima- oder Neigungskatastrophe, zum Sturz führen. So wie die Soziologie sich nicht um den einzelnen Menschen kümmert, so die Klimatologie nicht um das Wetter.

Ein Produkt der Statistik ist die fiktive Gestalt Normalbürger. Sie gibt es realiter nicht, weder als „Otto Normalverbraucher“ noch als „Max Mustermann“. Dieser Normalbürger ist ein rein rechnerisches Konstrukt, „der Deutsche“. Dieser hat eine Lebenserwartung von 80,1 Jahre, misst 1,70 m, wiegt 87,35 kg, ist 0,4234 mal verheiratet und 0,823 mal geschieden, hat 1,4 Kinder und 0,7 Haustiere, trinkt 2,1 Liter Bier, usw. Doch „der Deutsche“ ist statistisch eine „die Deutsche“, wobei „die Deutsche“ nur 1,65 m und 13 cm kleiner ist als „Er“. Dafür hat Sie eine um 5,16 Jahre höhere Lebenserwartung als Er. Zerlegt man das Konstrukt Normalbürger in seine Einzelteile, dann ist nichts mehr normal im Sinne von natürlich. Jeder Mensch ist ein Individuum und damit weder normal noch unnormal. Jeder Mensch ist einzigartig, kein statistisches Wesen. Den Normalbürger mit Normalgewicht, Normalgröße, Normalmaß gibt es nicht, wie allein schon die verschiedenen Konfektions- und Schuhgrößen zeigen. Als normal wird gerne derjenige von den Machthabern angesehen, der sich ohne Widerspruch dem Zeitgeist anpasst. Ein guter Demokrat ist dann Jeder, der sich gehorsam den Mehrheitsmeinungen fügt.

Wenn die Soziologie auch den als Normalbürger („common man“) deklariert, der zum Durchschnitt der Bevölkerung gehört, so ist dieses konstruierte Wesen dennoch nicht wesenhaft, wenn auch für gewisse politische Ideologien eine fiktive Idealvorstellung. Es ist dann eine politische Machtfrage, was herrschende Mehrheiten für normal erklären, für normal halten. Wer von dieser willkürlichen Normalitätsdefinition abweicht, der wird als anormal, zum Außenseiter erklärt. Normalität ist kein Begriff der Statistik. Normalität bezieht sich auf ein ideologisches, politisch gewolltes Modell der Vollkommenheit. Normalität weist darauf hin, was wir theoretisch sein sollten. Es ist kein Ziel, wonach die meisten Menschen streben. Die Macht setzt Normen, auch über ihre Wortgewalt! Hugo von Hofmannthal (1874-1929) drückte es wie folgt aus: „Für gewöhnlich stehen die Worte nicht in der Gewalt der Menschen, sondern die Menschen in der Gewalt der Worte.“

Es ist die Gewalt der Worte und die Gewalt der Ängste, die zu dem besonders in den Medien wie auf den weltpolitischen Bühnen zelebrierten Klimaschutz-Enthusiasmus geführt haben. Dieser vor allem in den Geistes- und Sozialwissenschaften grassierende Enthusiasmus ist auf ungenügendes naturwissenschaftliches Grundwissen zurückzuführen. Schon Benjamin Franklin (1706-1790) hatte erkannt: „Der Enthusiasmus ist das Kind der Unwissenheit.“ Deswegen sind Kinder und Jugendliche eine politisch auserwählte Zielgruppe, aus der sich Stoßtrupps fanatischer Klimaschützer formieren lassen. Auch die „Klimatologie“ ist ein abstraktes „Kind der Statistik“ und bewegt sich außerhalb des persönlichen Erfahrungshorizonts. Das „Klima“ als durchschnittlicher Zustand der Atmosphäre an einem Ort ist nicht erfahrbar. Sind auch die meteorologischen Einzelwerte messbar und damit erfahrbar, der errechnete Mittelwert ist es nicht.

Alexander von Humboldt und seine Sicht zum Klima

Die Anfänge der empirischen Klimatologie gehen auf Alexander von Humboldt (1769-1859) zurück. 1817 veröffentlichte er eine Arbeit „Von den isothermen Linien und der Verteilung der Wärme auf dem Erdkörper“. Er orientierte sich an einer Arbeit von Edmund Halley (1656-1742) aus dem Jahre 1693. Halley hatte gezeigt, dass die Dauer der Tätigkeit der Sonne die Wirkung von der Schiefe oder Neigung der Strahlen ausgleichen könnte. Im ersten Band des „Kosmos“ definiert Humboldt 1844 „Klima“ wie folgt: „Der Ausdruck Klima bezeichnet in seinem allgemeinsten Sinne alle Veränderungen in der Atmosphäre, die unsere Organe merklich affizieren: die Temperatur, die Feuchtigkeit, die Veränderungen des barometrischen Druckes, den ruhigen Luftzustand oder die Wirkungen ungleichnamiger Winde,…“. Humboldt dachte noch dynamisch-empirisch, er war noch nicht erstarrt in theoretischen Schemata. Als physikalischer Geograph wäre er nie auf die abstruse Idee gekommen, eine „Globaltemperatur“ zu berechnen und ihr ein „Globalklima“ anzudichten, das unsere Sinne affizieren und vom Menschen gesteuert werden könne. Im Gegenteil, Humboldt warnte eindringlich: „Aus unvollständigen Beobachtungen und noch unvollständigeren Induktionen entstehen irrige Ansichten von dem Wesen der Naturkräfte, Ansichten, die, durch bedeutsame Sprachformen gleichsam verkörpert und erstarrt, sich, wie ein Gemeingut der Phantasie, durch alle Klassen der Nation verbreiten.“ Das Treibhaus wie der Treibhauseffekt sind solche unerschütterlichen Gemeingüter der Phantasie! Was solche Art Theorie betrifft, so vertritt Humboldt die Ansicht: „Sie ist in sich abgeschlossen, unveränderlich in ihren Axiomen; anmaßend wie alles Beschränkte, während die wissenschaftliche Naturkunde, untersuchend und darum zweifelnd, das fest Ergründete von dem bloß Wahrscheinlichen trennt, und sich täglich durch Erweiterung und Berichtigung ihrer Ansichten vervollkommnet.“

Das Dogma von der Treibhaushypothese

Da der von den Klimaexperten behauptete „natürliche Treibhauseffekt“ von plus 33 Grad weder empirisch nachgewiesen noch experimentell überprüft werden kann, ist er im Konsensverfahren in den Rang eines Dogmas erhoben. Die internationale Politik stützt alle ihre Klimaschutzmaßnahmen auf diesen Glaubenssatz und weist jede Kritik daran zurück. Sie glaubt, mit der Reduktion der Emission von Treibhausgasen den Klimawandel unterbinden oder bremsen zu können. Doch Dinge, die zwar theoretisch behauptet werden, aber weder messbar noch experimentell überprüfbar sind, sind nichts als bloße Hypothesen. Sie sind keine Basis für naturwissenschaftliche Theoriebildungen.

Unter Hinweis auf den großen Naturforscher Alexander von Humboldt sollte von der Politik gefordert werden, dass nur noch solche Forschungsprojekte mit Steuergeldern gefördert werden dürfen, die keine hypothetischen Behauptungen mit ihren Katastrophenszenarien immer wieder gebetsmühlenartig bestätigen, sondern auf der reinen Empirie aufbauen – auf systematischen Beobachtungen, streng kontrollierten Messungen und reproduzierbaren Experimenten. Ein Zeitgenosse von Humboldt, Friedrich Hegel (1770-1831), sagte einmal: „Das Wahre ist das Ganze“! Das „Ganze“ setzt sich zusammen aus dem Geist, der Idee und der Natur.

Die Treibhaushypothese beruht nur auf zwei Pfeilern, auf dem „Geist“ und der „Idee“. Sie entbehrt des wichtigsten Pfeilers, der „Natur“. Der „Treibhauseffekt“ ist eine simple Behauptung, die noch nie wirklich nachgewiesen werden konnte. Bevor sich ein Effekt, die Abhängigkeit der Temperatur vom Kohlenstoffdioxidgehalt der Luft, im globalen Maßstab zeigt, müsste er tatsächlich gemessen und gezeigt werden können. Doch noch nie hat sich an keinem Punkt der Erde zu keiner Jahreszeit so etwas wie eine beidseitige Abhängigkeit gezeigt. Im Gegenteil, überall wo man gleichzeitig die Tagesgänge von Temperatur und CO2-Gehalt gemessen hat, hat sich gezeigt, dass beiderlei Tagesgänge nichts, aber auch absolut nichts miteinander zu tun haben. Dies gilt gleichermaßen für die Jahresgänge. Mit Sonnenaufgang wird zuerst der Boden und dann erst die Luft erwärmt, während parallel dazu infolge der Photosynthese oder der CO2-Assimilation der Pflanzen der Luft das „Treibhausgas CO2“ entzogen wird. Wären beide Dinge kausal verknüpft, dann müssten nach den Messungen auf dem „Mauna Loa“ in Hawaii, die für global repräsentativ angesehen werden, zum Hochwinter auf der Nordhalbkugel die Lufttemperaturen steigen und zum Hochsommer hin abnehmen. Doch dies steht nicht im Einklang mit der Natur, unserer Lehrmeisterin!

Erfahrung ist gefordert

Den heutigen, ganz auf Computermodelle fixierten Klimaforschern sei empfohlen, sich nicht mehr allein auf Ideen, Theorien und Modelle zu orientieren, sondern an dem Realen, Existenten und Gemessenen, der Empirie. Nach Kurt Lewin (1890-1947) gilt: „Wirklich ist, was wirkt.“ Wirklich ist etwas, das, wie etwa die Lufttemperatur, messbar ist. Gemessen worden ist dagegen noch nie die atmosphärische „Gegenstrahlung“. Im Gegenteil, je klarer der Himmel, desto effektiver ist die nächtliche Abkühlung des Bodens durch Ausstrahlung! Gäbe es die „Gegenstrahlung“, dann dürfte es keine von den Meteorologen für die kommende klare Nacht* angekündigten Bodenfröste geben! An der Wetterstation Oppenheim wurden vom 8. zum 9. Februar in 2 m Höhe gemessen 16 Uhr +10,2°, 22 Uhr +5,1°, 8 Uhr –0,5°; in 20 cm Höhe +11,2°, 2,2° und -1,1°C. War es um 16 Uhr noch 1° wärmer in Bodennähe, so kehrte sich dies im Laufe der Nacht um; um 8 Uhr war es in Bodennähe 0,6° kälter. Diese Umkehrung nennt man Inversion.

Die Meteorologie ist eine analytische, diagnostische und, in sehr begrenztem Maße, prognostische Wissenschaft. Die Klimatologie dagegen ist eine historisch-beschreibende Wissenschaft. Sie wertet jahrzehntelang gesammelte meteorologische Messdaten aus und konstruiert daraus mittlere, für eine Region charakteristische Wetterabläufe, eben das „Klima“. Die klassische Klimatologie hat nie den Anspruch erhoben, am Wetter vorbei die Wetterzukunft vorherzusagen. Diese Unmöglichkeit schaffen auch nicht die modernsten Computer. Alles, was angeblich vorhergesagt wird, sind simple „Szenarien-Rechnungen“, primitive Spielereien ohne wissenschaftlichen Anspruch. Wer sich mit der klimatischen Arbeitsweise befassen möchte, der orientiere sich bitte an Julius von Hann (1839-1921), Wladimir Peter Köppen (1846-1940), Gustav Hellmann (1854-1939), Karl Knoch (1893-1972), Rudolf Geiger (1894-1981), Carl Troll (1899-1975). Von Karl Knoch stammt die Charakterisierung: „Klimatologie ist angewandte Meteorologie“!

Den Unterschied zwischen dem Wetter und dem „Klima“ kann man sich vor Augen führen, wenn man sich die Klimakarten in einem Schulatlas anschaut und danach in www.spiegel.de die Rubrik „Satellitenbilder“. Wer diese weltweit nur eine Woche verfolgt, kann ermessen, wie chaotisch das Wettergeschehen ist und wie schwierig demzufolge Prognosen des Wetters sind. 

Dr. Wolfgang Thüne, Dipl.-Met.

 * Der Artikel wurde a, 9. Februar 2011 verfasst




Die Irrtümer in der Kernenergiediskussion

Ist Radioaktivität gefährlich?

Die ganze Welt ist voller radioaktiver Stoffe. Auch der Mensch trägt Radioaktivität in seinem Körper, er ist eine Strahlenquelle mit ca. 10 000 Becquerel (Bq). Um die Bedeutung dieser Menge von Radioaktivität beurteilen zu können, ist ein Vergleichsmaßstab erforderlich. Man muß wissen, was eventuell gefährlich sein könnte und was harmlos ist. Die Zahl der radioaktiven Zerfallsprozesse in Becquerel (Bq) sagt wenig aus, maßgebend ist erst die Dosis in Sievert (Sv), ein Maß für die im menschlichen Körper durch radioaktive Strahlen umgesetzte Energie. Bei einer kurzzeitigen Ganzkörperdosis von ca. 1 Sievert leidet der Mensch unter der Strahlenkrankheit, aber er gesundet wieder. Bei der 5-fachen Dosis ist mit dem Tode zu rechnen.
Bei einer Teilkörperbestrahlung sieht es ganz anders aus: bei Krebsbehandlungen werden Organdosen von ca. 40 Sievert in ca. 20 Einzelportionen verabreicht, bei Röntgen oder CT können Organdosen größer als 100 Milli-Sievert erreicht werden, das verträgt der Mensch [1]. Immer spielt die körperliche Verfassung und die Zeit der Einwirkung eine Rolle, weil sich der Organismus erholen kann. Das ist individuell verschieden.
Ein passender Vergleich ist die Flasche Schnaps, in kurzer Zeit getrunken kann es extrem schädlich sein, nicht aber bei Verteilung über längere Zeit [Alkohol hat ebenso wie ionisierende Strahlung eine deterministische Wirkung (Strahlenkrankheit bzw. Alkoholvergiftung) und als stochastische Wirkung ein Krebsrisiko].

Die Hintergrundstrahlung in Japan (Fukushima) ist sehr niedrig, sie liegt bei 0,05 bis 0,07 Mikro-Sievert pro Stunde. Erst beim hundertmillionenfachen im Bereich einiger Sievert wird es gefährlich. Dazwischen liegen gesetzlich festgelegte „Grenz“-Werte, die als Vorsorgewerte zu sehen sind.

Grundsätzlich gilt der Satz des Paracelsus auch für Radioaktivität: „Alle Dinge sind Gift und nichts ist ohne Gift, allein die Dosis macht das Gift“. Und bei kleiner Dosis gibt es die „adaptive Antwort“ eines Organismus, denn das Immunsystem des Körpers wird trainiert. Der Organismus lernt es, sich gegen eine Einwirkung von außen zu wehren, wie am Prinzip der Schutzimpfung eindrucksvoll bewiesen wird. Eine kleine Dosis ist nicht schädlich, sie ist oft nützlich.

Die Halbwertszeit beträgt 30 Jahre!

So oder ähnlich heißt es, um eine immerwährende Gefahr zu suggerieren. Aber die Halbwertszeit besagt nichts über „Gefahr“. Es ist umgekehrt, eine große Halbwertszeit heißt, dass wenige Atomkerne zerfallen, das bedeutet wenig Strahlung und daher eher harmlos. Kleine Halbwertszeit bedeutet, dass viele Atomkerne pro Zeiteinheit zerfallen, das heißt dann starke Strahlung und höhere Gefahr. So wurde der ehemalige russische Agent Alexander Litwinenko mit Polonium-210 vergiftet, ein alpha-Strahler mit der Halbwertszeit 138 Tage. Zur Vergiftung reichte weniger als 1 Mikrogramm in seinem Körper. Andererseits kommt der größte Teil der Radioaktivität im menschlichen Körper vom Kalium-40. Es sind ca. 4500 Bq mit Halbwertszeit 1,3 Milliarden Jahre. Der Mensch strahlt fast unendlich lange, das ist harmlos.

Ist eine „verseuchte“ Gegend auf ewig unbewohnbar?

Beispiel Tschernobyl

Vier Jahre nach dem Tschernobyl-Unfall konnte erstmals das kontaminierte Gebiet in den Nachfolgestaaten der UdSSR von Leuten aus dem Westen betreten werden, es waren Fachleute der Wiener IAEO für ca. 3 Monate dort. Von 8000 an die Bewohner verteilten Filmdosimetern zeigten 90% nach 2 Monaten nichts an, weniger als die Nachweisgrenze 0,2 Milli-Sievert. Es errechnet sich weniger als 0,15 Mikrosievert pro Stunde, die ganz normale Hintergrundstrahlung [2]. Zum Vergleich: beim Fliegen auf Reiseflughöhe in unseren Breiten beträgt der Strahlenpegel 5 Mikro-Sievert pro Stunde, in der Concorde waren es wegen der größeren Höhe 10 bis 15 Mikro-Sievert pro Stunde. Daher kritisierte die IAEO in ihrem Bericht die Umsiedlungen als zu weitgehend aus Gesichtspunkten des Strahlenschutzes, dsgl. die Lebensmittelrestriktionen.

Für die evakuierte 30-km-Zone um Tschernobyl wird heute eine zusätzliche Jahresdosis zwischen 0,5 und 5 Milli-Sievert pro Jahr angegeben [3] (in Deutschland haben wir bis zu 10 Milli-Sievert pro Jahr, punktuell kann die Dosis noch höher sein). Es wohnen in der 30-km-Zone wieder Rückkehrer, die man gewähren lässt, und es arbeiten dort auch über 10 000 Menschen, die aber in der Regel in dem 45km entfernten neu erbauten Ort Slavutich schlafen. Man kann das Gebiet um Tschernobyl als Tourist besuchen, dann erhält man beim Flug dorthin eine höhere Dosisleistung und auch höhere Gesamtdosis als vor Ort selber [4].

Beispiel Fukushima

In Japan ist alles anders, es gab von Beginn an ausführliche Info über das Internet, auch in deutscher Übersetzung [5]. Aus dem Verlauf der veröffentlichten Daten zur Ortsdosisleistung an verschiedenen Messpunkten beim Kraftwerk von Fukushima ist alles wichtige zu sehen: Es gab Freisetzungen von Radioaktivität durch die Explosionen und die Druckentlastungen des Containment, dabei wurden während einiger Stunden etliche Milli-Sievert pro Stunde erreicht. Inzwischen geht der Strahlungspegel kontinuierlich an allen Messstellen zurück. Die Strahlung hat die höchsten Werte dicht an den Reaktorblöcken (inzwischen unter 500 Mikro-Sievert pro Stunde), an den ca. 1km entfernten Toren des Geländes < 100 Mikro-Sievert pro Stunde bis < 20 Mikro-Sievert pro Stunde.

Die Daten am Kraftwerksstandort werden in groben Zügen durch Messungen der Ortsdosisleistung am 3.4.2011 im 30-km-Umkreis bestätigt [6]:

Entfernung vom Kraftwerk in km

Ortsdosisleistung in Mikro-Sievert pro Stunde

30

1,1

20

1,3

17

2,5

15

6,5

8

5,5

3

3,6

2,9

1,2

2,5

7,8

1,8

11

1,5

94…109

Zum Vergleich: Ortsdosisleistung auf Reiseflughöhe um 5 Mikro-Sievert pro Stunde. Jahresdosis für fliegendes Personal im Mittel 2,2 Milli-Sievert und maximal 9,0 Milli-Sievert [7]. Es gibt auf der Welt Orte mit einer Jahresdosis > 100 Milli-Sievert, auch dort leben Menschen ohne Beeinträchtigung ihrer Gesundheit [8].

Die Daten zeigen, dass niemand außerhalb des Kraftwerkgeländes von Fukushima eine schädliche Dosis erhalten wird, die zur Strahlenkrankheit führt. Der Strahlenpegel ist im Vergleich zur Hintergrundstrahlung vor dem Unfall erheblich angestiegen, um das hundertfache oder noch mehr. Dennoch ist der Abstand zu einer schädliche Dosis noch groß genug. Die vorsorglich evakuierten Gebiete werden bald wieder bewohnbar sein, falls es die japanischen Gesetze erlauben. Es sind nach Beschluß der japanischen Regierung weitere Evakuierungen im größeren Abstand > 20 km Abstand geplant, wenn dort Jahresdosen > 20 Milli-Sievert erreicht werden können [5]. Ob diese Absichten tatsächlich umgesetzt werden, bleibt abzuwarten, ebenso die Dauer aller Maßnahmen.

Für die Mitarbeiter im Kraftwerk wurde ein Grenzwert von 250 Milli-Sievert festgesetzt [5]. Es bleibt zu hoffen, dass die Arbeiter vorsichtig sein werden und diese Grenze einhalten, dann werden sie mit hoher Sicherheit keine gesundheitlichen Schäden zu befürchten haben.

Was ist mit „verseuchten“ Lebensmitteln?

Natürlich kommt mit der Nahrung zusätzliche Radioaktivität in den Körper, das galt bei Tschernobyl, das gilt heute für Fukushima. Entscheidend ist die Dosis. Rechnen wir dazu ein Beispiel: radioaktiv „belastete“ Pilze mit 4000 Bq/kg, das kommt vor und liegt um den Faktor 100 über dem Durchschnitt unserer Lebensmittel von 40 Bq/kg. Durch Verspeisen von 100g dieser Pilze – das dürfte die Menge einer reichlichen Mahlzeit sein – ergibt sich die zusätzliche Bestrahlungsdosis von 5,6 Mikro-Sievert (errechnet durch Multiplikation mit dem Dosisfaktor 1,4 E-8 Sv/Bq für Cs-137 beim Verspeisen). Das ist auch die Zusatzdosis, die man bei einem 1-stündigen Flug auf Reiseflughöhe in unseren Breiten erhält, wie schon gesagt wurde.

Erst neulich hat Frau Ministerin Aigner mitgeteilt, dass aus Vorsorge der „Grenz“-wert für Lebensmittel von ca. 1000 Bq/kg auf die Hälfte verringert worden ist. Wer 1 kg Nahrungsmittel mit 500 Bq/kg verspeist, erhält eine Dosis, die rund einer Flugstunde entspricht. 70 Millionen Deutsche gehen im Jahr auf Flugreise, und das nicht nur für eine Stunde, das wird toleriert. Dieselbe Dosis durch Lebensmittel soll nicht erlaubt sein – warum, das hat Frau Ministerin Aigner nicht erläutert. Die Gesetzgebung um Strahlung und Radioaktivität ist nicht von Logik gekennzeichnet, es ist Politik!

Übrigens sind die Dosisfaktoren für Cäsium-137 und Jod-131 nahezu identisch (eff. Dosis, Ganzkörper, Ingestion), daher gilt oben gesagtes in ausreichender Genauigkeit auch für Jod-131.

Was sind die Schlussfolgerungen?

In unserer Welt – insbesondere in Deutschland – wird eine Strahlendosis durch Radioaktivität sehr unterschiedlich beurteilt, sehr streng bei Kernkraftwerken, großzügig hingegen bei Flugreisen, Medizin und Bodenstrahlung, das ist Politik [9]. In anderen Ländern ist es ähnlich. Die endgültigen Folgen für Japan müssen abgewartet werden. Heute ist abzuschätzen, dass durch die zerstörten Kraftwerke in Japan keine Menschen zu Schaden kommen werden, obwohl die Kraftwerken im Vergleich zu den in Deutschland schon Sicherheitsmängel aufweisen. Warum dennoch die Kernkraftwerke in Deutschland weg sollen, bleibt ein Geheimnis unserer Politiker. Die Kerntechnik ist keine Risikotechnologie, auch wenn in unzähligen Broschüren, Verlautbarungen, Studien ein Gegenteiliges behauptet wird.

Niedrige Strahlendosen sind nicht schädlich, sie sind nützlich für Lebewesen, das war gängiges Wissen in den 50-er und 60-er Jahren. Dieses Wissen wird heute nicht mehr beachtet, es wird aussterben. In Deutschland wird vom Bundesamt für Strahlenschutz versucht, die Schädlichkeit niedriger Dosen zu beweisen, Aufträge zu Studien wurden vergeben. Es ist zu erwarten, dass in den fertigen Arbeiten schwammige Formulierungen stehen, mit dem Hinweis auf die Notwendigkeit weiterer Untersuchungen.

Es gibt immer wieder Berechnungen von hohen zu erwartenden Opferzahlen infolge Krebs durch Strahlung. Diese sind bei solchen Krebsrisiken zu finden, die in die politische Diskussion geraten sind. Mit Hilfe der dazu benutzten LNT-Theorie können aus kleinen Risiken große beeindruckende Opferzahlen errechnet werden. Von renommierten Strahlenschutzfachleuten wird dieses Vorgehen als falsch beurteilt [8] [10]. Dazu wird später gesondert berichtet.

Dr. Lutz Niemann für EIKE

Literatur

[1] Hans Kiefer, Winfried Koelzer, „Strahlen und Strahlenschutz“, 2. Aufl. 1987, ISBN 3-540-17679-9

[2] „Das internationale Tschernobyl-Projekt“, Schlussfolgerungen und Empfehlungen, IAEO, Wien 1991

[3] Jürgen Kraemer, Dietmar Zappe: „Tschernobyl und die 30-km-Zone“, atw 56. Jg. (2011) Heft 2 Seite 88 ff

[4] Dr. Hermann Hinsch, "Das Märchen von der Asse", ISBN 978-3-8370-9977-5, Seite 30

[5] Radiologischer Lagebericht unter http://fukushima.grs.de/

[6] http://www.youtube.com/watch?v=yp9iJ3pPuL8&feature=player_embedded

[7] StrahlenschutzPRAXIS 1/09

[8] Z. Jaworowski, Symposium „Entwicklungen im Strahlenschutz“ am 29.11.2001, München, auch in atw 47, Januar 2002, Seite 22 – 27

[9] Dr. Klaus Henrichs, „Nutzen und Kosten der neuen deutschen Strahlenschutzverordnung aus pragmatischer Sicht“, Symposium „Entwicklungen im Strahlenschutz“ am 29.11.2001, München

[10] Prof. Klaus Becker, „Ursachen, Folgen und Therapie des Radiophobie-Syndroms“, Vortrag am 28.5.2003 an der University of Massachusetts, gedruckt in atw 49. Jg. (2004) Heft 3 – März, S. 177 ff




Der Todesstoß für die anthropogene globale Erwärmung

Der Einfluss der Sonne wurde als Beitrag zu der beobachteten Erwärmung zwischen 1975 und 1998 als gering angesehen. Die Befürworter der AGW, jetzt versehen mit der Bezeichnung anthropogene Klimaänderung (oder in noch jüngerer Zeit als Klimastörung bezeichnet, so dass die seit Kurzem beobachtete Abkühlung in das Szenario passt), haben immer bestritten, dass die Sonne irgendetwas mit den Temperaturänderungen in letzter Zeit zu tun hatte.

Als Grund geben sie an, dass sich die Totalsolarstrahlung TSI während der genannten Periode so wenig verändert hat, dass sie die beobachtete Erwärmung nicht erklären kann. Ich akzeptiere nicht, dass allein TSI die ganze Wahrheit ist, weil sie schlecht definiert und spekulativ ist im Hinblick auf all die unterschiedlichen Wege, mit denen die Sonne die Erde mittels der gesamten bandbreite physikalischer Prozesse beeinflussen kann.

Neben den Grenzen der TSI als Indikator des solaren Einflusses denke ich, dass man aus den uns zur Verfügung stehenden Aufzeichnungen Schlussfolgerungen ziehen kann. Komischerweise habe ich bisher nicht gesehen, dass diese Schlussfolgerungen irgendwo angemessen diskutiert worden wären, schon gar nicht durch AGW-Enthusiasten.

 Die Verteilung der TSI von 1611 bis 2001.

Es stimmt, wie die Alarmisten sagen, dass das mittlere Niveau der TSI seit 1961 etwa gleich geblieben ist, wenn man die Spitzen und Senken der solaren Zyklen 19 bis 23 herausmittelt.

Allerdings zeigen diese solaren Zyklen ein substantiell höheres Niveau als je zuvor in der historischen Reihe.

Diese Höhe der TSI kann man nicht einfach ignorieren, wie es das IPCC und seine Modellentwickler getan haben.

Der kritische Punkt bei dem hohen Niveau der TSI seit 1961 liegt darin, dass die Sonne schon seitdem mehr Wärme erzeugt hat, als notwendig ist, um eine stabile globale Temperatur zu halten. Allein schon auf dieser Grundlage kann die Theorie der AGW nicht länger aufrecht erhalten werden und sollte begraben werden.

Während der gesamten Periode von 1961 bis 2001 gab es einen stetigen kumulativen Erwärmungseffekt durch die Sonne in den Ozeanen. Die Tatsache, dass die TSI dabei im Mittel keine Änderungen aufwies, ist dabei komplett irrelevant und führt in die Irre.

Es ist sehr unwahrscheinlich, dass ein derartig hohes Niveau der TSI im Vergleich zu historischen Levels überhaupt keine Auswirkung auf globale Temperaturänderungen haben soll, und tatsächlich gab es während der meisten Zeit in dieser Periode eine Verstärkung der positiven pazifischen dekadischen Oszillation, welche die zunehmende Wärme der Ozeane an die Atmosphäre abgab. Mein Link unten zu Artikel 1041 erläutert detailliert meine Ansicht, dass die Sonne der Treiber der zahlreichen ozeanischen Oszillationen ist, die wiederum die globalen Temperaturänderungen steuern. Alle anderen Einflüsse einschließlich des CO2-Gehaltes haben im Vergleich dazu nur eine untergeordnete Bedeutung oder werden in ihrer Wirkungsweise durch solare/ozeanische Antriebskräfte neutralisiert.

Nun könnte man sagen, dass die Zunahme der TSI von etwas über 1363 bis ein wenig unter 1367 Watt pro Quadratmeter während eines Zeitraumes von 400 Jahren wenig signifikant ist. Allerdings stellt ein Quadratmeter nur einen winzigen Bruchteil der Erdoberfläche dar, so dass selbst eine mittlere minimale Zu- oder Abnahme über einem so kleinen Gebiet eine gewaltige Änderung der Wärmebilanz darstellt, wenn man über den ganzen Planeten integriert. Die Geringfügigkeit einer offensichtlichen Änderung ist eine Funktion der Größe der ausgewählten Fläche und nicht ein Indikator für geringe Signifikanz. Zum Glück für uns zeigt die Sonne nicht eine noch größere Variabilität.

Die Beobachtung des historisch hohen Niveaus der TSI von 1961 bis 2001 belegt die Theorien, die ich in meinen anderen Aufsätzen entwickelt habe, und zwar die Theorien über die wirklichen Gründe der jüngsten Erwärmung und die tatsächliche Beziehung zwischen Solarenergie, Ozeanzyklen und globalen Temperaturen.

http://co2sceptics.com/news.php?id=1041

http://co2sceptics.com/news.php?id=1302

Unter anderem zeigt der obige Link zum Artikel 1302, wie die negative PDO von 1961 bis 1975 die Erwärmungseffekte der solaren Zyklen Nr. 18 und 19 ausgebremst hatte, was zu einem geringeren Wärmeeintrag aus den Ozeanen in die Atmosphäre und damit zu einem leichten Abkühlungstrend in jenen Jahren führte, trotz des hohen TSI-Niveaus. Die Phasenänderung hin zu einer positiven PDO von 1975 bis 2001 erlaubte es, dass sich der wärmende Einfluss der solaren Energie in der Atmosphäre wieder bemerkbar machte. Inzwischen beobachten wir sowohl einen Rückgang der TSI als auch eine negative PDO, was ein grundlegend unterschiedliches (und tatsächlich gegensätzliches) Szenario zu dem ist, was zu den Sorgen über eine ausufernde Erwärmung geführt hatte.

Wenn das gegenwärtige Szenario noch einige weitere Jahre andauert, werden die tatsächlichen Ereignisse die meisten der umstrittenen Dinge regeln. Während der letzten 10 Jahre bewegte sich die reale Welt in die Richtung, die von der Theorie des solaren Antriebs vorgegeben ist, und in meinen Aufsätzen habe ich die ozeanischen Mechanismen beschrieben, die die solare Wärme erst in die Atmosphäre und dann in den Weltraum abführen.

Falls die globale Temperatur wieder eine Erwärmung zeigen sollte, trotz eines Rückgangs der solaren Aktivität und/oder einer negativen PDO, könnte die alarmistische Position gerechtfertigt sein. Die alarmistische Seite sagt ein solches Wiedereinsetzen der Erwärmung vorher. Das Hadley Center vermutet dies bereits 2010, andere bis 2015. Sollte sich bis 2015 diese erneute Erwärmung nicht einstellen, ist AGW als Theorie tot. Es würde nicht für AGW sprechen, wenn sich im Zuge einer Verstärkung der solaren Aktivität oder einer positiven PDO tatsächlich wieder eine Erwärmung einstellen würde, denn dies würde lediglich wieder die Sonne als Treiber ins Spiel bringen.

Meine Ansicht ist, dass es derzeit zahlreiche Beweise gibt, die zeigen, dass die AGW-Theorie schon jetzt tot ist, nämlich:

1) Die tatsächlich beobachteten Temperaturwerte entfernen sich mit der Zeit immer mehr von den Modellergebnissen [und zwar nach unten].

2) Die eindeutige Abnahme der solaren Aktivität in letzter Zeit

3) Die Rückkehr zu einer negativen (abkühlend wirkenden) PDO, die bei früheren Vorkommen immer so um die 30 Jahre gedauert hat.

4) Eine Änderung der globalen Wetterlagen, die ich schon um das Jahr 2000 bemerkt hatte, wobei sich die Jetstreams in Richtung des Äquators verlagerten, verglichen mit deren Position während der Warmphase. Die Beobachtung, dass man einen globalen Erwärmungs- oder Abkühlungstrend aus jahreszeitlichen Wetterlagen ableiten kann, scheint mir eindeutig zu sein, und ich habe das in anderen Arbeiten detailliert untersucht.

Jene, die immer noch an AGW glauben, müssen in der Lagen sein zu beweisen, dass irgendein CO2-Treiber stark genug ist, die solaren und ozeanischen Antriebskräfte auszuschalten. Falls alles, was das CO2 macht, darin besteht, die globale Temperatur marginal während solarer Erwärmungs- und Abkühlungszyklen steigen zu lassen, ist nichts zu befürchten, weil der abschwächende Einfluss in kühlen Perioden alle unangenehmen Auswirkungen zu Zeiten der Wärmespitzen überkompensiert

Tatsächlich ist es auch möglich, dass selbst die Extrawärme um den Höhepunkt von Warmphasen vollständig nützlich ist. Der Vorschlag, dass wir unmittelbar vor einer Klimakatastrophe stehen, sollte in das Reich der Komödie verwiesen werden.

Man kann noch Anderes aus der oben gezeigten Historie der TSI ablesen.

Wenn man ein wenig Logik investiert, wird klar, dass es ein ganz bestimmtes Niveau der TSI gibt, bei dem das globale Temperaturbudget ausgeglichen ist, d. h. dass es weder Erwärmung noch Abkühlung gibt. Während der 400 Jahre, seit die Welt das relativ niedrige TSI-Niveau erlebt hatte, muss dieser Punkt der Ausgeglichenheit mehrfach über- bzw. unterschritten worden sein. Daraus folgten die über die Jahrhunderte regelmäßigen Erwärmungs- und Abkühlungsphasen (mit einem allgemeinen mittleren Erwärmungstrend seit 1601).

Die obige Verteilung der TSI überdeckt das geringe Niveau zur Zeit der Kleinen Eiszeit bis zu der gegenwärtigen Warmphase. Das bedeutet, dass der Punkt der Ausgeglichenheit irgendwo zwischen 1363 und 1367 Watt pro Quadratmeter liegen muss. Tatsächlich zeigt schon ein flüchtiger Blick auf die Abbildung, dass dieser Punkt der Ausgeglichenheit offensichtlich niedriger liegt als die TSI zwischen 1965 und 2001. Daraus schließe ich, dass es während dieser Jahre einen stetigen Effekt solarer Erwärmung gegeben hat, der die beobachtete Erwärmung ohne Rücksicht auf den steigenden CO2-Gehalt hinreichend erklärt. Dieser Punkt ist so offensichtlich und einfach, dass ich wirklich nicht verstehe, dass das IPCC und seine Modellierer das nicht sehen konnten.

Die Information, die wir brauchen und die für die gesamte Debatte um die globale Erwärmung von entscheidender Bedeutung ist, liegt in einer Abschätzung des Niveaus der TSI und der damit verbundenen solaren Aktivität, bei dem eine Erderwärmung in eine Erdabkühlung übergeht. Dies wird schwer zu identifizieren sein, weil – wie ich in früheren Arbeiten schon erwähnt hatte – das Herausfiltern des solaren Anteils aus den vielfältigen ozeanischen Zyklen weder schnell noch geradlinig verlaufen wird, und es scheint, als ob die Auswirkungen nicht durch Änderungen der Solarstrahlung selbst, sondern eher durch Änderungen der Wellenlängen und Partikel hervorgerufen werden, die mit Änderungen der solaren Aktivität einher gehen.

Wie ich anderswo erklärt hatte, scheinen die solaren Änderungen das vertikale Temperaturprofil der Atmosphäre zu beeinflussen, und zwar dahingehend, dass sich die geographische Breite der Hauptwolkenbänder [= Jetstreams] verschiebt mit der Folge einer Änderung der Gesamtbewölkung und damit der globalen Albedo, was wiederum die Größe der Energiezufuhr in die Ozeane beeinflusst.

Tatsächlich wird jener Punkt des Übergangs von einer Erwärmung zu einer Abkühlung und umgekehrt selbst mit der Zeit variieren, abhängig davon, ob die ozeanischen Zyklen zu irgendeinem gegebenen Zeitpunkt den von solaren Änderungen vorgegebenen Trend unterstützen oder ihm entgegengesetzt sind. Ähnlich wird die Schnelligkeit dieser Umkehr aus den gleichen Gründen variieren.

Ich kann wirklich nicht verstehen, wie irgendein Klimamodell ohne diese fundamentale Information bedeutende Ergebnisse liefern kann. Klarer Fall, der ‚Elefant’ fehlt im Raum.

Und schließlich, angesichts der weit verbreiteten Sorgen über die Beteiligung des CO2 sollte ich betonen: wenn die solare Energie der Haupttreiber der globalen Temperatur ist, dann besteht die einzige Auswirkung eines verstärkten Treibhauseffektes darin, einen leichten Aufwärtstrend in den vorherrschenden Zyklen von Erwärmung und Abkühlung zu zeigen.

Wegen der logarithmischen Abnahme des erwärmenden Treibhauseffektes durch den zunehmenden Anteil des CO2 wird der Treibhauseffekt niemals groß genug sein, den primären solaren Antrieb oder die regulären Bewegungen von Erwärmung und Abkühlung oder umgekehrt überzukompensieren.

Der einzige ‚Tipping Point’, über den wir uns Gedanken machen müssen, ist der Punkt, an dem das Niveau der globalen Temperatur von Erwärmung zu Abkühlung wechselt, oder umgekehrt. Infolge der viel größeren Bedrohung durch eine globale Abkühlung ist es umso besser, je höher wir diesen Tipping Point der globalen Temperatur legen. Dafür brauchen wir mehr CO2 und nicht weniger.

Die Bandbreite der TSI, innerhalb der die Änderung von Erwärmung zu Abkühlung und umgekehrt stattfindet, liegt in einer Variation von weniger als 4 Watt pro Quadratmeter, die die Erdoberfläche erreicht.

Angesichts der Größe und Verfügbarkeit der Sonne können wir zu jeder Zeit gebraten oder tiefgefroren werden, egal was wir machen. Der einzige Grund, warum die Sonne stabil genug zu sein scheint, damit wir überleben, liegt in den astronomischen Zeitmaßstäben, in denen unsere Spezies nicht viel mehr als ein Blitz in der Dunkelheit darstellt.

Die gesamte moderne Zivilisation wurde durch eine Periode stabiler solarer Aktivität ermöglicht, und zwar innerhalb einer Bandbreite von 4 Watt pro Quadratmeter. Sie ist nicht das Ergebnis von unserem Tun, egal was, wenn die solaren Änderungen diese Bandbreite über- bzw. unterschreiten. Aus Gründen der Wahrscheinlichkeit dürfte es eher so sein, dass die TSI bald von der ungewöhnlichen Stärke in jüngster Zeit zurückgehen wird, ohne jedoch diese Bandbreite von 4 Watt pro Quadratmeter zu verlassen. Es würde die Ankunft der nächsten Eiszeit bedeuten, wenn die TSI signifikant unter den Wert von 1363 sinken würde, aber selbst ein Rückgang auf 1365 vom gegenwärtigen Niveau könnte zu einem gefährlichen Niveau der Abkühlung führen, abhängig davon, wo dieser Tipping Point aktuell liegt.

Eine Periode von vielen Dekaden reduzierter solarer Aktivität würde rasch mehr Emissionen erforderlich machen, um den Planeten zu RETTEN, weil anderenfalls die Populationen der meisten Spezies dezimiert werden. Beim gegenwärtigen Stand der menschlichen Bevölkerung würde eine Wiederholung der Kleinen Eiszeit vor 400 Jahren zu weltweiten massiven Hungersnöten führen. Glaubt wirklich irgendjemand, dass das CO2, das wir produzieren, effektiv genug ist, dieses Risiko auf Null zu drücken, wenn wir viele astronomische Beweise für die Reduktion solarer Aktivität haben, die gegenwärtig im Gange ist?

Und, mehr noch, die tatsächliche weltweite Temperaturentwicklung ist gegenwärtig in zunehmend guter Übereinstimmung mit der Theorie des solaren Antriebs (der durch ozeanische Vorgänge modifiziert werden kann), und zwar sowohl hinsichtlich der Warmphase, die nachfolgende Stagnation und der seit jüngstem beobachtete Trend abwärts.

Der Prozess der Risikoabschätzung durch AGW (falls sich je einer damit befasst hat), ist ein ernsthafter Schwindel.

Dieser Beitrag wurde ursprünglich am 4. Juni 2008 auf climaterealists.com veröffentlicht.

Stephen Wilde LLB (Hons.),  Rechtsanwalt in UK und lebenslanger Enthusiast für Wetter und Klima.

Weitere Beiträge

Im Original folgt eine ausführliche Personenbeschreibung des Autors. Aus Zeitgründen wird diese hier nicht mit übersetzt.

Link: http://www.irishweatheronline.com/irishweather/features/the-death-blow-to-anthropogenic-global-warming/13291.html

Übersetzt von Chris Frey für EIKE

Bemerkung des Übersetzers: Hier liegt wieder ein Beitrag vor, der durch seine klaren und eindeutig begründeten Aussagen hervorsticht. Bemerkenswert ist auch, dass der Autor nie sagt, das ist so oder das ist nicht so, sondern er betont immer wieder, dass er es nicht versteht. Sachlicher kann man seine Standpunkte kaum vortragen.

C. F.




Protokoll: PIK – EIKE wissenschaftliches Kolloqium vom 20.4.11

Bisher lief die wechselseitige Information ausschließlich über Veröffentlichungen in den Medien, bzw. des Internets und Veranstaltungen (Vorträge, Symposien…).  Die Diskussion wurde dort z.T. mit großer Schärfe geführt. Dieses persönliche Treffen sollte daher dem unmittelbaren Informationsaustausch dienen, um ggf. Missverständnisse oder kontroverse Auffassungen im direkten Gespräch zu klären.

Eröffnung

Um 13:40  eröffnete Herr Schellnhuber die Konferenz mit einem kurzen Statement. Er hieß die Gäste willkommen und stellte kurz die Umstände dar, die zur Einladung führten[1]. Er erläuterte dann, warum das PIK, als Gastgeber, keine Medienbeteiligung wünschte, obwohl dies von EIKE vorgeschlagen war. Er gab seinem Erstaunen Ausdruck, dass EIKE im Anschluss an dieses Kolloquium eine Pressekonferenz abzuhalten beabsichtigte. Dann eröffnete er das Kolloquium.

Herr Limburg (Vizepräsident EIKE) bedankte sich im Namen der Gäste für die Einladung, die man als Chance begreifen wolle, mehr miteinander über wissenschaftliche Erkenntnisse und Sachverhalte zu reden.

Stand der Klimaforschung“

Dann begann Herr Feulner mit seinem Vortrag: „Stand der Klimaforschung“ (s. undefinedFeulner). Ein Abriss der wichtigsten Trendentwicklungen aus der Sicht des PIK. Die Diskussion im Anschluss war lebhaft. Herr Vahrenholt stellte den vorgetragenen  Einfluss der solaren Aktivität – Herr Feulner stufte ihn mit 0,1 K als äußerst gering ein – in Frage. Er verwies auf neueste Untersuchungen von Shapiro (Shapiro et al 2011), wonach die TSI-Steigerung von der Kleinen Eiszeit bis heute möglicherweise 6 mal höher war als im AR4 angenommen. Verwiesen wurde auch auf ein in Januar 2010 erschienenen Paper von Solomon, wonach die Abkühlung der letzten 10 Jahre mit dem um 10 % verminderten Wasserdampf in der Stratosphäre in Zusammenhang gebracht wird.

Es wurde auch darauf hingewiesen, dass GISS bei der Erstellung der "Global-Temperatur" auch arktische Temperaturen aufzeigt, obwohl dort als auch in der Antarktis dafür nicht annähernd ausreichende Messstationen existieren.

Herr Link stellte fest, dass die Temperaturoszillationen der Ozeane wie AMO, PDO, El Nino etc. nicht in die Modellrechnungen eingehen, da die Modelle diese auch nicht vorhersagen können. Dieser Feststellung widersprach Herr Rahmstorf. Herr Feulner erläuterte seine Feststellung, dass keine Trendabsenkung der jüngsten globalen Mitteltemperatur zu erkennen sei, weil eine kurzzeitige Betrachtung unter 30 Jahre dies nicht zuließen. Auch würden die Klimamodelle dies nicht so fein auflösen können. EIKE widersprach dieser Feststellung mit dem Hinweis auf die veröffentlichten Daten von z.B. Hadley-Center und UEA, die seit 1998 keinen Temperatur-Anstieg mehr ausweisen.  Obwohl  es richtig sei, so EIKE, dass ein Klimareferenzwert mindestens 30 Jahre umfassen sollte, müsse man feststellen, dass die bisher eingesetzten Modelle die letzten 10 – 15 Jahre nicht angemessen abbilden können.

"Sonne und Klima “

Um 14:20 begann Herr Weber mit seinem Vortrag : Sonne und Klima “ (s. undefinedKurzfassung). In einem kurzen ersten Teil wies er auf die zu erwartende Sättigung der CO2 Aufnahme in der Atmosphäre hin. Heute verbleiben etwa 50 % des anthropogen emittierten CO2 in der Atmosphäre, zu Beginn der industriellen Zeit ging wegen des damaligen CO2 Gleichgewichts  zwischen Ozean und Atmosphäre alles anthropogen emittierte CO2 zunächst in die Atmosphäre. Dann führte Weber die resultierende Differentialgleichung  ein, die im einfachst möglichen Modell bei konstanter CO2 Emission zu einer exponentiellen Sättigung der atmosphärischen CO2 Aufnahme führt. Bei ca. 4 ppm jährlicher CO2 Emission, wie sie heute vorliegt, liegt der Sättigungwert bei ca. 500 ppm CO2. Weber wies ferner darauf hin, dass es gute wissenschaftliche Praxis sei, in der öffentlichen Darstellung zunächst das einfachste Modell vorzustellen und dann die Verfeinerungen und Korrekturen zu diskutieren. In der Diskussion wurden dann entsprechende Korrekturen und Grenzen des Modells vorgebracht.

Im Hauptteil des Vortrags befasste sich Weber mit der indirekten Beeinflussung des Klimas durch die aktive Sonne, bewirkt durch eine bis zu 20% betragende Reduktion der kosmischen Strahlung infolge der solaren Magnetfelder, was wiederum über die daraus folgende Reduktion in der Erzeugung von troposphärischen Aerosolen zu einer starken Erhöhung der terrestrischen solaren Einstrahlung führe. Diese Trends, die Weber in früheren Solardaten gefunden hatte, waren von Herrn Feulner (PIK) in einem Papier bezweifelt worden. Daher ging der Vortrag im wesentlichen um die Qualität der beiderseitigen Analysen. Leider stand Weber nur eine Zwischenfassung des Papiers von Herrn Feulner zur Verfügung, die darüber hinaus missverständlich formuliert war. Wegen eines solchen missverständlichen Arguments vermutete Herr Weber einen technischen Fehler bei Herrn  Feulner. In der Diskussion forderte Her Schellnhuber die Herren Feulner und Weber auf, diese Streitpunkte zunächst in internen Diskussionen zu klären. Dies geschah auch während des Workshops. Herr Feulner bedauerte, dass er bislang nicht die direkte Disskussion gesucht habe und entschuldigte sich dafür. Er wies dann auf die Endfassung seines Papiers hin, wo er hauptsächlich vulkanische Emissionen für die Vorspiegelung eines solar-aktiven Trends verantwortlich machte. Damit war der Vorwurf eines technischen Fehlers vom Tisch. Es wurde vereinbart, die Endfassung des Papiers von Herrn Feulner im Detail zu diskutieren, unter Beteiligung von Herrn A. Hempelmann, der mit Weber eine Kooperation auf diesem Gebiet begonnen hat.

Klimasensitivität des CO2“

Im Anschluß begann Herr Link seinen Vortrag über die Klimasensitivität des CO2“. (s. undefinedKurzfassung). Er nahm kurz zu seinem beruflichen Werdegang als Experimentalphysiker Stellung. Dann stellte er seine Ausführungen unter den bekannten Kernsatz der Naturwissenschaft:.“ Jede Theorie wird in den Naturwissenschaften nur dann anerkannt, wenn sie durch die Beobachtung bestätigt wird. Eine einzige Beobachtung, die der Theorie widerspricht reicht aus, diese zu widerlegen. Die von den Modellen postulierte Wasserdampfverstärkung (WDV), die der essentielle Teil der alarmistischen Vorhersage zur Temperaturerhöhung durch die Klimamodelle ist, konnte durch keine Beobachtung bestätigt werden, im Gegenteil mehrfach widerlegt werden.“ Ein Hot Spot in der mittleren bis oberen Troposphäre der tropischen Regionen sei in Hunderten von Ballonmessungen nicht gefunden worden. Damit entfiele aber die Möglichkeit, dass das Klimasystem durch CO2 mit anschließender WDV außer Kontrolle geriete. Das beträfe auch das sog. 2 ° Ziel. Die verbleibende Temperaturerhöhung durch CO2 Verdopplung berechnete Link mit max. 1,6 K ; wahrscheinlich sei sie aber deutlich geringer. (zitiert u.a Lindzen, Paltridge und Harde). Damit bestünde kein Grund für irgendeinen Klimaalarm. An der wiederum sehr kontroversen Diskussion beteiligten sich umfassend außer Herrrn Link, die Herrn Schellnhuber, Rahmstorf, Puls, Dittrich und Frau Huber. Der Hinweis von Herrn Rahmstorf, dass man allein mit den Milankowitsch-Zyklen das Auf- und Ab der Eiszeiten nicht erklären kann, sondern dafür auch noch das CO2 über die Wasserdampfrückkopplung verantwortlich machen muss, wurde von ihm nicht kausal begründet. Der Anstieg der Temperatur nach den einzelnen Eiszeiten ist aber nicht eine Folge des höheren CO2- Gehalts, sondern der beobachtete CO2-Anstieg ist eine Folge der Entgasung aus den wärmer gewordenen Ozeanen. Die vorgebrachten Argumente von Herrn Link konnten seitens der PIK-Teilnehmer nicht überzeugend widerlegt werden.

 „Extremwetter und Meeresspiegel“

Nach der Kaffeepause begann Herr Puls seinen Vortrag zu „Extremwetter und Meeresspiegel“ (s. undefinedVortrag in Langfassung). Herr Puls wies eingangs darauf hin, daß die Öffentlichkeit in den vergangenen 10 Jahren mit unzähligen und teilweise absurden Alarm-Meldungen zu Wetter und Klima überflutet wurde, überwiegend hochstilisiert zu Signalen einer schon begonnenen Klima-Katastrophe. Weiterhin: In der Öffentlichkeit (Medien und Politiker!) werden die von den Klima-Institutionen veröffentlichten  Ergebnisse der Klima-Modelle meist als Prognosen dargestellt, ohne dass darauf hingewiesen wird, dass es sich lediglich um Szenarien handelt, die mit noch größeren Unsicherheiten verbunden sind, als es Prognosen ohnehin schon sind. Puls schlug dazu vor  –  analog zu einer von Meteorologen soeben verabschiedeten "Hamburger Erklärung" zu Wetter-Langfrist-Prognosen –  eine gemeinsam von PIK + EIKE zu erarbeitende "Potsdamer Erklärung" zu verabschieden mit dem Ziel, gemeinsame Richtigstellungen zu falschen und/oder übertriebenen Klima-Verlautbarungen in den Medien anzustreben. Dazu gab es keine Antwort des PIK, auch nicht im Schluß-Fazit (Schellnhuber).

Puls führte in folgendem anhand von Graphiken, Statistiken und Zitaten diverser Institute aus, dass auch nach 150 Jahren Erderwärmung die Wetterdienste weltweit keine Jahrhundert-Trends finden bei Mittelbreiten-Zyklonen, Tropischen Wirbelstürmen, Tornados, Hochwasser und anderen Wetter-Ereignissen. Gleichermaßen zeigte P. anhand einer Reihe von Pegelmessungen und Satelliten-Daten auf, dass die von einigen Klima-Instituten und vom IPCC erwartete Beschleunigung des Meeres-Spiegel-Anstieges bisher nicht zu finden ist. Herr Rahmstorf wies darauf hin, dass es auch andere Datensätze gäbe. Puls  und Rahmstorf verständigten sich darauf, ihre Daten auszutauschen. Bezüglich der von K.-E. Behre (B., NIHK Wilhelmshaven) über Jahrtausende dokumentierten Trends an der Deutschen Nordseeküste wies Puls  in einer Debatte mit Herrn Kropp darauf hin, dass Behre keine Temperatur-Betrachtungen durchgeführt hat, und dass Behre innerhalb der letzten 400  Jahre eine Abschwächung des Meeresspiegel-Anstieges festgestellt hat, insbesondere für das 20. Jahrhundert.

Globale Langzeit­Temperaturreihen“

Um 17:00 begann Herr Lüdecke seinen Vortrag „Globale Langzeit­Temperaturreihen“ (s. undefinedKurzfassung).  Schon im Vorfeld wurden die verschiedenen Auffassungen zu der Mann´schen Rekonstruktion der Temperatur der letzten 1000 Jahre deutlich. Herr Lüdecke und andere bezeichneten sie als eindeutige Fälschung, worauf Herr Rahmstorf Beweise für diese Behauptung verlangte. Er wurde auf die umfassenden Arbeiten von McIntyre und McKitrick dazu verwiesen. Sehr gut zusammengefasst im Buch „ The Hockeystick Illusion“ von A. Montford.

Die Kernaussage der Untersuchung von Lüdecke und Ewert – belegt durch intensive statistische Untersuchung der Autokorrelation (Persistenz) von vielen tausend Temperaturzeitreihen lautet: „An der Erwärmung des 20. Jahrhunderts ist nichts Ungewöhnliches aufzufinden.“ Nach einem Absenken der Temperatur in den Jahren davor gab es jetzt eine im wesentlichen natürlich verursachte Erwärmung, wenn man von menschgemachten Einflüssen wie dem UHI absieht. Der ist allerdings gut erkennbar. Ähnliche und oft sogar noch stärkere Fluktuationen  sind in der Vergangenheit der letzten 2000 Jahre nachgewiesen. Alle hatten natürliche Ursachen. Die Herrn Schellnhuber und Kropp beteiligten sich lebhaft an der folgenden Diskussion. Herr Schellnhuber zeichnete als Mitautor eines von Herrn Lüdecke zitierten Papers, das das Fehlen der Erwärmung bestätigte, Herr Kropp war Projektleiter des mit der Uni Gießen durchgeführten Projektes zu dieser Studie. Herr Schellnhuber bemerkte, dieses Ergebnis sei trotzdem kein „Smoking Gun“ (gegen eine CO2 induzierte Erwärmung?), während Herr Rahmstorf einwarf, diese Statistik sei „blind“ gegen die Physik. Dem wurde von Lüdecke und Link widersprochen. Herr Kropp warf noch ein, die verwendete Methode sei immer noch in der Entwicklung.

Fazit

Offensichtlich stimmten die Gesprächsteilnehmer in der Wahrnehmung der Fakten weitgehend überein – die vom PIK unwidersprochene Abwesenheit von Extremwetterzunahmen steht hierfür stellvertretend. Die Methode bei der Bewertung dieser Fakten scheint aber verschieden. Während die Vertreter von EIKE die unbedingte Priorität der physikalischen Messungen betonen, muss sich Klimafolgenforschung ihrer Zukunftsbezogenheit wegen notwendigerweise auf Modellprojektionen stützen. Diese können und werden sich aber von den gezählten und gemessenen Fakten mit hoher Wahrscheinlichkeit entfernen. Es wäre wünschenswert, wenn dieser Gegensatz der weitgehend uninformierten Öffentlichkeit besser bekannt wäre. Zur wahrheitsgemäßen Information von Laien sind daher populäre Vorträge von Fachwissenschaftlern, in denen entgegen allen Mess-Fakten von bereits erfolgten katastrophalen Extremwetterzunahmen berichtet wird, die überdies noch einem anthropogen verursachten Klimawandel zugeordnet werden, nicht hilfreich.     

Abschluss: Dank und Gegeneinladung:

Herr Limburg bedankte sich im Namen der Gäste für die offene Diskussion, die EIKE gerne -da die Debatte über die heute von EIKE vorgetragenen Erkenntnisse überraschend fruchtbar war – fortsetzen wolle. Zu diesem Zweck lud er die Kollegen des PIK zu einem ordentlichen Folgetreffen im Spätsommer des Jahres ein. Hierzu gab es keinen Widerspruch.

Mit etwas Verspätung wurde das Kolloquium gegen 17:50 von Herrn Schellnhuber mit einer kurzen Ansprache beendet. Er dankte allen Teilnehmern für die geleistete Arbeit und die fast immer sachliche Art der Auseinandersetzung. Er vermerkte zudem, dass er für das im Anschluss geplante Pressegespräch von EIKE von einer fairen Behandlung des PIK ausginge. Darauf hin lud Herr Limburg Herrn Schellnhuber ein, dabei zu sein. Herr Schellnhuber lehnte ab, er sei privat verhindert, benannte aber  Mitarbeiter statt seiner.

Michael Limburg EIKE

Teilnehmer PIK: Dr. Georg Feulner, Eva Gaigg, Prof. Dr. Friedrich Gerstengarbe, Dr. Veronika Huber, Dr. Brigitte Knopf, Claudia Köhler, Prof. Dr. Jürgen Kropp, Prof. Dr. Anders Levermann, Dr. Jörg Pietsch, Prof. Dr. Stefan Rahmstorf, Prof. Dr. Hans Joachim Schellnhuber, Dr. Thomas Schneider von Deimling, Mareike Schodder, Jonas Viering>Tanja Fröhlich, Prof. Dr. Uwe Ulbrich

Teilnehmer EIKE: Dr. Siegfried Dittrich Prof. Dr. Karl-Friedrich Ewert, Michael Limburg, Prof. Dr. Horst-Joachim Lüdecke, Klaus-Eckart Puls; EIKE Gäste Dr. Alexander Hempelmann, Dr. Rainer Link, Prof. Dr. Fritz Vahrenholt, Prof. Dr. Werner Weber

Eine Englische Version der Vorträge finden Sie als pdf Datei im Anhang


[1] kontroverses Frage- und Antwortspiel während des Zukunftskongresses der CDU/CSU Bundestagsfraktion mit der Vorstellung des Energiekonzeptes und eines Vortrages von Herrn Schellnhuber). 

* Mit Dank an Pierre Gosselin von No Trick Zone für die gelungene Übersetzung

zusätzlich Medienberichte z.B hier

FAZ

MAZ

Richtigstellung EIKE zum FAZ Bericht vom 4.5.11

Bericht einer vergleichbaren Konferenz in Groß Britannien hier 

Skeptics Meet Warmists At Cambridge

Related Files