„Klimaforscher“ Latif sagt voraus: 50 °C in hundert Jahren, Italien erlebt Regengüsse wie seit langem nicht!

Siehe auch ergänzenden Nachtrag am Ende des Beitrages

…Sowohl beim kalten Winter 2009/10 als auch beim vorjährigen heißen Sommer in Mitteleuropa oder jetzt den sintflutartigen Regenfällen in Nord-Italien und Nordspanien handelt es sich um Ergebnisse normaler(!) meteorologischer Prozesse und Wetterlagen. Mit irgendeiner "Klima-Katastrophe" hat weder der vergangene kalte Winter noch der letzte heiße Sommer oder auch das jetzige Wettergeschehen auch nur das Geringste zu tun, und mit CO2 schon ganz+gar nicht !

Die Atmosphären-Strömung "arbeitet" in Wellen und Wirbeln. D i e s e leisten in der Atmosphäre die Energie-Umsätze und Energie-Transporte. In unseren gemäßigten Breiten haben wir es zu etwa 80% des Jahres mit einer mehr oder weniger mäandernden West-Wind-Strömung in den höheren Luftschichten zu tun, wobei als dynamisches Bezugs-Niveau häufig die 500- Hektopascal-Fläche (keine “Ebene“) in ca. 5000 m Höhe benutzt wird.

Das Wetter am Erdboden (also “in Augenhöhe") mit seinen Tiefs, Fronten, Hochs …. ist "ein Abfall-Produkt" dieser Höhenströmung. Die Druckgebilde und Wetter- Fronten entstehen als Folge von Konfluenzen (Konvergenzen) und Difluenzen (Divergenzen) in dieser Höhenströmung – auch Jetstream genannt (Abbildung 1).

Höhenströmung und "Boden-Wetter" werden von den sogenannten Zirkulations- Modellen der welt-weiten Wetterdienste mit guter Genauigkeit für ca. eine Woche prognostiziert. Dabei wird der sogenannte deterministische Anteil dieser physikalischen Prozesse für die Wetter-Prognosen heraus gearbeitet, während mit zunehmender zeitlicher Rechen-Distanz zum Ausgangszustand der unbestimmbare (stochastische) Anteil mehr und mehr überwiegt !

D a h e r geht man derzeit davon aus, daß aus physikalischen Gründen (Chaos- Theorie der Atmosphäre) auch in den nächsten Jahrzehnten (Jahrhunderten?) eine Vorhersagbarkeits-Grenze von ca. 10 Tagen kaum überschritten werden kann.

Schon aus diesen Gründen ist es eine ungeheuere Anmaßung der Klima- Institute, Klima (und damit letztlich Wetter) für 100 Jahre im voraus berechnen zu wollen !! (….selbst auch dann, wenn dieser Vergleich physikalisch etwas "hinkt").

Zu eigentlichen Kernfrage, warum mal sehr kalt und mal sehr heiß :

Wenn die Höhenwind-Strömung weitgehend West-Ost ausgerichtet ist, dann wird mit den Tiefs und ihren Fronten atlantisch temperierte Luft nach Europa gesteuert (Abbildung 2).

   

Das hat zur Folge, daß die Winter in Mitteleuropa mild und die Sommer kühl und regnerisch sind. Die mehr oder weniger ausgeprägten Mäander der ("wetter-steuernden"!) Höhenströmung nennt man wegen ihres globalen/planetaren Auftretens in der meteorologischen Fachsprache "Planetarische Wellen" (nach ihrem Entdecker auch: ROSSBY-Wellen). Dort, wo ein "Wellenbauch" ist, entsteht ein Hochdruck- Keil ; dort, wo ein "Wellental" ist, den die Meteorologen TROG nennen, haben wir tiefen Luftdruck – b e i d e s in "allen" Höhenschichten bis zum Boden, mehr oder weniger.

Auf den Westseiten der Tröge, auch Rückseiten genannt (…und damit am Ostabhang der Keile) wird Kaltluft von höheren (nördlichen) Gefilden in niedere Breiten transportiert (am Boden: "Kaltfronten") ; auf den Ostseiten der Tröge und folglich an den West-Flanken der Hochkeile wird Warmluft von niederen (südlicheren) Breiten nach Norden transportiert – Warmluft-Advektion!

In dieser Zirkulation überwiegen hemisphärisch/global "Wellen-Zahlen" von 5…6…7, seltener 3 oder 4. Bei geringeren Wellen-Zahlen (also 3…4…5) neigt die atmosphärische Strömung aus physikalischen Gründen ("stehende Wellen") zu einer Verlangsamung des West-Ost-Weiterwanderns, bis hin zum "Stillstand" – in der Meteorologie BLOCKIERUNG genannt.

D a n n verstärken sich Hochkeile und Tröge noch, w o m i t sich die Zufuhr von kalter bzw. warmer Luft intensiviert, je nachdem, in welcher Region wir uns unter der Höhenströmung und der sich daraus ergebenden Bodenströmung befinden.

F o l g l i c h : Es gibt im globalen Maßstab gleichzeitig (!!) immer Regionen, in denen es (im Vergleich zum meteorologischen Langzeit-Mittel) entweder "zu kalt" oder eben"zuwarm"ist!! Genau dieses Strömungs-Muster einer BLOCKIERUNGS-Wetterlage ("Blockierung" gegen die "normale" Westdrift) hatte sowohl unseren Winter 2009/2010 bestimmt (Abbildung 3; 28.01.10), als auch unseren Sommer 2010 in den ersten drei Juli-Wochen (Abbildung 4; 10.07.10) .

Der einzige Unterschied – betreffend den vergangenen Winter und den Juli- Sommer 2010 – ist d e r , daß der blockierende Hochkeil im letzten Winter mehr oder weniger über dem Ostatlantik lag, mit einer ständigen "vorderseitigen" Kaltluft-Polarluft-Advektion nach Mittel- und Osteuropa (TROG), w o g e g e n

der Hochkeil im Juli über dem mittleren bis östlichen Europa lag.

D a s hatte zur Folge, daß an der Westflanke dieses Hochkeils und gleichermaßen auf der Ostflanke ("Vorderseite") des "stationären" ostatlantischen Tiefdruck-Troges subtropische Warmluft nach West- und Mittel- Europa geführt wurde ! W a r u m die Atmosphäre sich in machen Jahreszeiten für eine solche “Blockierung“ entscheidet, oder eben – wie z.B. in “normalen“ Sommern – für eine Atlantische Westdrift mit Regen und kühler Luft (wie mehr oder weniger in den Sommern 2007-2009), das ist nicht bekannt.

Interessant ist jedoch, daß diese Zirkulations-Muster der Blockierungen bzw. der sommerlichen West-Wind-Regen-Drift tief in der Erfahrung unseren Vorfahren verankert ist, und in der Bauern-Regel vom “Siebenschläfer“ ihren Niederschlag gefunden hat (vgl. Anlage PDF).

Fazit:

Dieses alles sind meteorologische Prozesse und Wetterlagen, mit irgendeiner "Klima-Katastrophe" hat weder der vergangene kalte Winter noch der jetzige heiße Sommer auch nur das Geringste zu tun, und mit CO2 schon ganz+gar nicht !!!!!

Dipl.-Meteorologe Klaus-Eckart Puls

(Quelle d. Wetterlagen-Abbildungen: Nat.Rdsch. H.2 (1984), Singularitäten der Witterung, S. 61-66)

Nachtrag der Redaktion 12.11.11:

Dem Beitrag von Herrn Puls kann man entnehmen, wie das hemisphärische Wellenmuster die Wetterlagen bei uns beeinflusst. Völlig zu Recht hat er auf die Erhaltensneigung bei stark meridionaler Zirkulation hingewiesen. Als Ergänzung wollen wir noch ein wenig tiefer in die Rossby-Wellentheorie einsteigen.

Die Rossby-Formel zur Verlagerung planetarischer Wellen besagt, dass diese sich umso schneller ostwärts verlagern, je höher der sog. zonale Grundstrom ist. Außerdem wandern kürzere Wellen (z. B. 8 Tröge/Hochkeile) schneller als längere Wellen (4 bzw.5 Tröge/Keile). Die ultralangen Wellen 1 (=Asymmetrie des Jet-Streams zum geographischen Nordpol), 2 und 3 bewegen sich retrograd, d. h. westwärts, sofern sie überhaupt vorhanden sind.

Eine dieser Wellenzahlen wird also stabil gehalten. Im Sommer ist dies häufig bei der Wellenzahl 5, im Winter bei der Wellenzahl 4, bei sehr starkem zonalen Grundstrom auch die Wellenzahl 3. Da man, grob vereinfacht, die Stärke des zonalen Grundstroms mit der Stärke des Westwindimpulses vergleichen kann, ist bei einer kürzeren Wellenzahl, die stabil gehalten wird, der Westwindimpuls deutlich schwächer. Im Unterschied Sommer/Winter leuchtet das ein und braucht hier nicht weiter erläutert zu werden.

Zwei Dinge sind im aktuellen Fall interessant: 1. Im Moment, das zeigt eine einfache harmonische Zerlegung des Jet-streams in einzelne Wellenanteile, wird die Welle 5 stabil gehalten, was für diese Jahreszeit schon sehr ungewöhnlich ist (siehe unten). Sollte das Anfang Dezember auch noch so sein, zeichnet sich im kommenden Winter eine stark verringerte Neigung zu Westwindwetterlagen ab.

2. Weiteres Indiz für den derzeit schwach ausgeprägten Westwindimpuls ist die lange zeitliche Dauer des gegenwärtigen Wellenmusters, worauf ja auch Herr Puls in seinem Beitrag schon hingewiesen hatte.

Was eine stark verminderte Neigung zu Westwindwetterlagen für unser Wetter (nicht Klima!) im Winter bedeutet, ist wohl ziemlich leicht auszurechnen.

Ein Grund (von mehreren, teils wohl noch nicht einmal bekannten) für die verringerte Westwindbereitschaft ist sicherlich die Tasache, dass im äquatorialen Pazifik nach wie vor eine riesige Kaltwasseranomalie zu finden ist, in abgeschwächter Form auch im subtropischen Atlantik. Dies bedeutet, dass der absolute Temperaturgegensatz der Wassertemperatur zwischen niedrigen und hohen Breiten vermindert ist, was mit der Atmosphäre natürlich in Wechselwirkung steht.

Weiteres hierzu kann man mit den Stichworten "Rossby, hemisphärische Wellen" etc. googeln.  

A n l a g e zur meteorologischen Erläuterung:

“Die Bauernregel vom Siebenschläfer“

So ist auch ein kausaler Zusammenhang nicht gesichert, wenn ein warmer Sommer

auf einen kalten Winter folgt, oder umgekehrt. In der überwiegenden Zahl der Fälle

passiert das nämlich nicht.

Gleichermaßen gibt es für entsprechende Jahreszeiten-Prognosen weiterhin kein

wissenschaftlich abgesichertes Verfahren.

Related Files




Mögen Sie Äpfel mit erhöhter Radioaktivität?

Viele Jahre war der Ertrag recht spärlich, bis mir ein Fachmann von dem notwendigen richtigen Obstbaumschnitt berichtete. Also wurde ich Lehrbub beim Vorsitzenden des hiesigen Gartenbauvereins. Der Fachmann zeigte mir, wie es richtig zu machen ist. Die Ernten wurden von Jahr zu Jahr größer. Bald waren es schon so viele Äpfel von den zwei Bäumen, dass wir nicht mehr alle Früchte verzehren konnten, also wurden die unansehnlicheren Früchte zu Saft verarbeitet. Nur einen Nachteil hatten die vielen Äpfel: Sie waren nicht so schön, sie hatten außen schorfigen Bereiche mit dunklen Stellen im Inneren bis zum Kernhaus. Da wusste der Fachmann vom Gartenbauverein keinen Rat, er verwies mich an die nächst höhere Instanz, den Fachleuten von riesigen Gartencenter im Nachbarort. Die Antwort dort war recht eindeutig: Kaliummangel, evt. könnte auch Pilzbefall die Ursache sein. Ich wollte nicht spritzen, zudem erschien Kaliummangel eine logische Erklärung zu sein. Bei großen Erntemengen genügt die Remineralisierung des Bodens nicht mehr zu Versorgung der Pflanzen mit Nährstoffen. Es muss gedüngt werden, gerade das war die segensreiche Erfindung des Justus von Liebig gewesen. Also habe ich sogleich Kali-Obstbaumdünger gekauft, zwei Packungen zu je 2,5kg.

In Kalium ist besonders viel Radioaktivität enthalten, Kalium-40 ist die wichtigste Quelle von Radioaktivität, mit der jeder Mensch sich selber und seine Umwelt bestrahlt. Ich hatte diese Strahlenquelle im Rucksack vom Gartencenter bis nach Hause getragen. Es war mir ein leichtes, aus den Angaben auf der Packung die Menge der Radioaktivität zu errechnen: Es waren 15 000 Becquerel Radioaktivität in zwei einfachen Pappschachteln [1]! Und die Strahlung von Kalium-40 ist harte Gamma-Strahlung von erheblicher Reichweite, das d ½ in Luft sind ca. 95 Meter [2]. Diese Gamma-Strahlung hat mich durchbohrt, als ich den Rucksack heim trug. Vielleicht wurde ich dabei total „verstrahlt“, aber das weiß ich nicht so genau, jedenfalls habe ich nichts davon bemerkt. Ich habe den Obstbaumdünger nach Anleitung unter meinen Apfelbäumen verteilt, damit habe ich 15 000 Becquerel Radioaktivität in der Umwelt verteilt. „Freisetzung von Radioaktivität“ in der Umwelt, das hat schon oft knallige Schlagzeilen in der Presse zur Folge gehabt; also gut, dass ich von niemandem bei meinem evt. verwerflichen Tun beobachtet wurde.

Jetzt ist es Herbst, die Apfelernte liegt sorgsam ausgebreitet im Keller. Und was für schöne Äpfel, makellos, kein Schorf mehr, keine dunklen Stellen mehr im Inneren. Also muss die Vermutung mit dem Kaliummangel gestimmt haben. Dann haben unsere Äpfel jetzt aber auch mehr Radioaktivität als in den vergangenen Jahren – erhöhte Radioaktivität. Ich kann das durch Nachmessen nicht beweisen, weil mir die Gerätschaften dazu fehlen. Aber der Erfolg spricht für sich, ein weiterer Beweis ist nicht erforderlich.

Es gibt Apfelstrudel, eine wahrhaft köstliche alpenländische Spezialität, Apfelstrudel mit erhöhter Radioaktivität. Und wir haben wieder Früchte zu Saft verarbeiten lassen, Apfelsaft mit erhöhter Radioaktivität – wer kann dazu schon „nein“ sagen? Und wer bei mir vorbeikommt, dem werde ich gern eine Kostprobe der erhöhten Radioaktivität anbieten.

Und im nächsten Jahr werde ich wieder eine Portion Radioaktivität in unserem Garten verstreuen, ich mache ähnliches wie unsere Landwirte [3]. Die Umweltminister in Land und Bund werden es wohl nicht bemerken, sie sind mit „Klimaschutz“ beschäftigt. Nur der Präsident des Bundesamtes für Strahlenschutz darf es bemerken, der soll nämlich auch gelernter Gärtner sein, versteht also viel von Radioaktivität und von Gartenbau…

Dr. Lutz Niemann für EIKE

[1] Obstbaumdünger ist ein Mischdünger mit weiteren Spurenelementen Phosphor und Stickstoff. In Phosphordünger kann viel Radioaktivität enthalten sein, weil in den Lagerstätten (z.B. in Marokko) neben im phosphorhaltigen Mineral auch Uran vorliegt. Nach Angaben von Fachleuten kann sich durch Uran und deren Zerfallsreihe die Aktivität des Düngers auf das Doppelte erhöhen. Daher könnte die Gesamtaktivität 30 000 Bq erreichen, wobei sich in den U-Zerfallsreihen viel alpha-Strahler befinden mit einer 20-fach höheren biologischen Wirksamkeit als beta- oder gamma-Strahler.

[2] „d ½ = 95 Meter“ bedeutet, dass bei einem parallelen Strahl nach 95 Metern die Intensität auf die Hälfte abgesunken ist.

[3] Die Kali+Salz AG fördert in Deutschland jährlich etwa 6 mal 10 hoch 12 Becquerel K-40 an die Erdoberfläche. Davon gelangen 2 bis 3 mal 10 hoch 12 Becquerel als Kali-Dünger auf deutsche landwirtschaftliche Flächen, und später wird mit Speisen und Getränken von den Menschen in unserem Lande jährlich etwa genau diese Menge an K-Aktivität konsumiert. Unser „Verzehr“ von Radioaktivität ist ein ganz natürlicher Vorgang, der zum normalen Leben gehört.




Kritik an Trenberth‘ Energiefluss

Das Trenberth/IPCC “Earth’s Energy Budget Diagram”

(2. Entwurf vom 25. 10.2011 von Bob Fernley-Jones, genannt Bob_FJ)

Die nachfolgende Grafik stammt aus einem Trenberth –  Papier von 2009. Sie ist eine Aktualisierung der Grafik aus dem IPCC-Bericht von 2007 (war auch schon im 2001er Bericht):

Das Ungewöhnliche an dieser Grafik ist: Sie zeigt nicht den Wärmetransfer durch Abstrahlung von der Erdoberfläche. Stattdessen beschreibt sie den Treibhauseffekt in Form eines Strahlungsflusses, so wie die Autoren ihn sehen. Anders gesagt, als elektromagnetische Strahlung. Dazu enthält sie weitere Beschreibungen, mit denen Naturwissenschaftler auf dem Kriegsfuß stehen. Die elektromagnetische Strahlung ist eine Energieform, die häufig mit Wärme verwechselt wird. Später wird gezeigt, dass die oben dargestellte Oberflächenabstrahlung (Surface Radiation) von 396 W/m2 sich ganz anders als Wärme verhält. Auch kann eine Temperaturänderung in Materie nur stattfinden, wenn es Wärmeaustausch gibt, ganz gleich, wie viel elektromagnetische Strahlung in der Atmosphäre herumsaust.

Die nachfolgende Abb. 2 ist ein leichter verständliches Schema. Es stammt von der NASA und aus Wikipedia. Dieses Schema vermeidet die oben angesprochene Problematik.

Abb. 2                                                     (NASA)

Im zitierten Trenberth et al. Papier wird gesagt, dass die in der Grafik mit 396 W/m2 angegebene emittierte Elektromagnetischen Strahlung nach dem Stefan-Boltzmann-Gesetz abgeleitet wurde, unter Annahme von durchschnittlichen jährlichen Bedingungen. Unter Hintanstellung einiger untergeordneter, aber dennoch wichtiger Fragen, sollte man sich vor Augen halten:

1) Das Stefan-Boltzmann’sche Gesetz beschreibt die Gesamtemission von einer flachen Oberfläche, die gleichmäßig in alle Richtungen abgeht (isotropisch/hemisphärisch). Stefan hat das experimentell entdeckt, sein Schüler Boltzmann hat es mathematisch abgeleitet. 

2) Die gleichmäßige halbkugelförmige elektromagnetischen Abstrahlung wird durch die Sonne unter Beweis gestellt. Sie erscheint bei bloßer Betrachtung mit dem Auge als flache Scheibe gleichmäßiger Helligkeit, sie ist aber in Wirklichkeit eine Kugel.
Von ihrem Außenrand geht die Strahlung tangential zur Erde ab, nicht senkrecht. Das Beispiel ist nicht ganz treffend wegen der Besonderheit der solaren Randverdunkelung. Diese rührt daher, dass die Oberfläche der Sonne nicht fest, sonder aus Plasma mit Verdunkelungseffekten besteht. Das sieht man aber nicht.
(Bei direkter Sonnenbeobachtung immer geschwärzte Gläser benutzen!)

3) Stefan benutzte bei seinem Laborexperiment einen kleinen flachen Körper, der in eine Halbkugel abstrahlte, die Ergebnisse können auf größere Bereiche übertragen werden, indem man viele flache Körper zu einer flachen Gesamtheit zusammensetzt, weil elektromagnetischen Strahlung einander durchdringt. Man denke dabei an nächtliche Autoscheinwerfer: Die Helligkeit der Scheinwerfer entgegenkommender Autos verändert sich nicht, wenn das eigene helle Licht darauf trifft. (Nicht zu verwechseln mit Blendwirkung oder Streulicht!)

4) Die nachfolgende Zeichnung zeigt, warum die Abstrahlung in seitliche Richtungen am größten ist. Das gilt [in der Atmosphäre] sowohl für die anfängliche Stefan-Boltzmann’sche halbkugelförmige Bodenabstrahlung, wie auch für die nachfolgende kugelförmige Abstrahlung aus der Atmosphäre.

5) Zur Erläuterung der Abb. 3:  Die Lufttemperatur sinkt mit der Höhe (mit dem Gradienten). Wenn wir uns aber eine dünne Luftschicht mit geringer Turbulenz über einem kleinen Gebiet in einem kleinen Zeitintervall vorstellen, dann können wir die Temperatur in der Schicht als konstant betrachten. Die am stärksten konzentrierte Strahlung innerhalb der Schicht geht horizontal in alle Richtungen. Der Netto-Wärmeaustausch dabei ist Null. Wo die Abstrahlung nicht genau horizontal ist, wird sie von benachbarten Schichten abgefangen.

Die zutreffendere Art der Beschreibung ist die vektorielle. Eine vektorielle Beschreibung ist eine mathematische Methode zur Behandlung von Parametern, die Richtungsinformationen enthalten.

In Abb. 4 geht man von einer beliebigen elektromagnetischen Abstrahlung (C) mit recht flachem Winkel aus und betrachtet deren vertikale und horizontale Vektorbestandteile. Die Länge jedes Vektors ist proportional der Stärke des Strahls in seiner Richtung: A + B = C.  Die Abbildung stellt den Sachverhalt nur zweidimensional dar, bei dreidimensionaler Betrachtung gibt es unzählige ungerichtete Strahlen. Die Mehrzahl konzentriert sich in der horizontalen Ebene in alle Richtungen, dort nähern sich die vertikalen Vektorbestandteile dem Wert Null an.

6) Trenberths Abb. 1 geht von 65% Wärmeverlust an der Erdoberfläche durch Konvektion und Kondensations/Verdampfung aus. Dabei wird nicht erwähnt, dass infolge des Wärmeaustauschs nach oben zusätzliche IR-Abstrahlung in der Luftsäule stattfindet, weil sie erwärmt wird. Es fängt zunächst mit sphärischer Abstrahlung und Absorption an, aber mit zunehmender Höhe und Verdünnung der Luft wird die Absorption geringer, schließlich geht nur noch Strahlung in den Weltraum. Deswegen hat die aus dem Weltraum beobachtete IR-Abstrahlung der Erde komplexe Quellen aus vielen Höhen. Man weiß aber nie genau, woher sie kommt. Daher sind viele Zuschreibungen der Quellen „schwierig“.

Was heißt das nun?

Die anfänglich isotrope Stefan-Boltzmann’sche Emission (Trenberths globale 396 W/m2) wird zum größten Teil von den Treibhausgasen nahe der Oberfläche sofort eingefangen (lassen wir mal außer acht, dass ein Teil auch direkt in den Weltraum durch das sogenannte “atmosphärische Fenster” geht). Dennoch ist der größere Anteil der anfänglichen Stefan-Boltzmann’schen 396-Watt-Oberflächen-Abstrahlung durchgängig lateral, wenn man die von Trenberth angenommen konstanten Bedingungen unterstellt. Es findet überhaupt kein Wärmeaustausch statt, die horizontalen Strahlungsvektoren können nicht im behaupteten 396er Senkrechtfluss enthalten sein, weil sie außerhalb der vertikalen Sicht sind.

Nachdem die anfänglichen atmosphärischen Absorptionen stattgefunden haben, kann das nur für die Oberflächenluft gültige Stefan-Boltzmann’sche Gesetz nicht mehr angewandt werden. (Obschon einige Wolken zuweilen fast wie Schwarze Körper betrachtet werden.) Der Großteil der anfänglichen Absorption/Emission der Luft findet in Bodennähe statt, aber die vertikale Verteilung ist hoch, wegen erheblicher Variation in den Pfadlängen der Photonen. Sie unterscheiden sich unter dem Einfluss vieler Faktoren, ein großer Faktor ist die regionale und sehr viel stärkere Verteilung der Konzentration des Treibhausgases Wasserdampf. Sie beträgt in globaler Betrachtung ~0 bis ~4 %. Im Vergleich dazu: Die CO2-Konzentration ist mit ~0.04 % in etwa konstant. Beim Versuch der Modellierung der möglichen Wirkungen trifft man auf eine sehr hohe Gesamtkomplexität. Das soll hier nicht weiter betrachtet werden. Wichtig ist nur, dass alle Luftschichten mit zunehmender Höhe ständig eine ganze Menge an seitlicher Abstrahlung besitzen, die teilweise von den Stefan-Boltzmann’schen hemisphärischen 396 Watt angetrieben wird und daher keinen Anteil an den in Abb. 1 behaupteten vertikalen 396 Watt haben kann.

Ergebnis:

Der von  Trenberth et al. als 396 W/m2 dargestellte vertikale Strahlungsfluss von der Erdoberfläche bis in die hohen Wolkenschichten wird auch von prinzipiellen Überlegungen nicht gestützt. Die Stefan-Boltzmann’schen 396 W/m2 sind definitionsgemäß isotropisch, wie auch deren Abklingen mit aufsteigender Höhe. Dabei überwiegen stets die horizontalen Vektoranteile, die bei vertikaler Betrachtung keine Rolle spielen. Die verbleibenden vertikalen Komponenten der elektromagnetischen Abstrahlung aus dieser Quelle sind deshalb geringer als die behaupteten 396 W/m2.

Es ist offensichtlich, dass der durch Konvektion und Verdampfung verursachte Wärmeverlust an der Oberfläche sich zum tatsächlichen vertikalen Verlust durch elektromagnetischen Abstrahlung addiert. Das wird auch vom Weltraum her beobachtet. Dieser Verlust kann sehr wohl in der Größenordnung von 396 W/m2 liegen. Das ist aber nicht der von Trenberth beschriebene Stefan-Boltzmann’sche Abstrahlungsprozess.

Autor Bob Fernley-Jones

ist ein pensionierter Maschinenbauingenieur und lebt in Australien

Der Originalbeitrag erschien hier

(Die Übersetzung besorgte Helmut Jäger, EIKE)

###############################################

Zusatz für besonders Interessierte

Wer weiß mehr? :

In der Abb. 5 unten stellen die links angegebenen NIMBUS 4 Satellitendaten alle Strahlungsquellen dar, wie sie vom Weltraum her beobachtet werden. In unserem Falle von einem Punkt über dem tropischen Pazifik. Die gesamte Abstrahlungsmenge wäre das Integral unter der Kurve. Es wird leider nicht angegeben. Für Vergleichszwecke gibt ein MODTRAN Kalkulator für eine Beobachtungshöhe von 100 km eine interessante Information zu dieser Abbildung. Sie wird in der Tabelle darunter detailliert. Leider gibt der Kalkulator keine globalen Daten oder durchschnittliche Bewölkungsbedingungen an. Wir vergleichen also Äpfel mit Birnen. Das tun wir nicht nur bei NIMBUS sondern auch bei Trenberth. Allerdings scheinen sie alle von gleicher Größenordnung, wie aus den zusätzlichen Tabellenwerten ersichtlich.

Vergleich MODTRAN & “Trenberth” aus zwei Höhen, dazu die Oberflächentemperatur

Ort

Kelvin

10 Meter

100 Km.

(Zentigrad)

Tropische Atmosphäre

300K

419 W/m^2

288 W/m^2

(27C)

Mittlere Breiten Sommer

294K

391 W/m^2

280 W/m^2

(21C)

Mittlere Breiten Winter

272K

291 W/m^2

228 W/m^2

(-1C)

Sub-Arktischer Winter

257K

235 W/m^2

196 W/m^2

(-16C)

Trenberth Global

288K ?

396  W/m^2

239 W/m^2

(15C ?)

Vergleich MODTRAN & “Trenberth” aus vier Höhen:  W/m^2

Ort

Aus 10 m

Aus 2 Km

Aus 4Km

Aus 6Km

Tropische Atmosphäre

348

252

181

125

Mittlere Breiten Sommer

310

232

168

118

Mittlere Breiten Winter

206

161

115

75

Sub-Arktischer Winter

162

132

94

58

Trenberth Global

333   Von hoher Bewölkung herrührend (= Stefan-Boltzmann lt. MODTRAN)




Eschenbachs einfacher Vorschlag

Ein ganz einfacher Vorschlag: Mal nicht mehr an morgen denken!

Willis Eschenbach schrieb am 31.10.2011:

Es gibt ein wunderschönes Papier von 2005, das mir bis dato entgangen war. Es stammt vom Los Alamos National Laboratory und heißt: Unser kalibriertes Modell taugt nicht für Vorhersagen. [Our Calibrated Model has No Predictive Value (PDF)]

 

Abb. 1: Der Tinkertoy Computer. Nicht geeignet für Vorhersagen.
            (Anm. d. Ü.: Tinkertoy ist ein altes amerikanisches Konstruktions-
                               Baukastensystem für Kinder)

Das Abstract des Papiers sagt alles, viel besser als ich es könnte:

Abstract: Man nimmt oft an, dass ein auf echte Meßdaten kalibriertes Modell eine wenn auch noch so begrenzte Vorhersagefähigkeit hätte. Falls nicht, müsste das Modell nur etwas verbessert werden. Anhand eines Beispiels aus der Ölindustrie wird der Nachweis geführt, dass selbst kalibrierte Modelle keinerlei Eignung für Vorhersagen haben können. Sogar dann, wenn kein Modellierungsfehler vorliegt. Es konnte auch bewiesen werden, dass ein kleiner Modellierungsfehler das Bauen von vorhersagegeeigneten Modellen unmöglich machen kann. Es war unmöglich zu erkennen, welche Modelle sich für Vorhersagen eignen und welche nicht.

Daraus folgten drei Ergebnisse, ein erwartetes und zwei unerwartete.

Das erwartete Ergebnis: Modellen, die auf existierende Messdaten kalibriert oder abgestimmt sind, kann durchaus die Eignung zur Vorhersage fehlen. Das ist offensichtlich. Könnte man ein Modell derart einfach abstimmen, dann könnte man die Börsenkurse oder das Wetter im kommenden Monat mit guter Genauigkeit vorhersagen!

Das zweite Ergebnis kam völlig unerwartet: Einem Modell könnte überhaupt die Vorhersage-Eignung fehlen, selbst wenn es perfekt wäre. Das Modell würde die physikalischen Zusammenhänge perfekt abbilden, genau, und in jedem Detail zutreffend. Auch wenn ein solches Modell auf Messdaten abgestimmt wäre, zudem noch auf perfekte, könnte ihm trotzdem die Vorhersage-Eignung fehlen.

Das dritte unerwartete Ergebnis war die Auswirkung von Irrtümern. Sogar bei kleinen Modellierungsfehlern kann es dazu kommen, dass man kein Modell mit hinreichender Vorhersage-Eignung bauen kann.

Anders gesagt: Selbst wenn ein abgestimmtes (“kalibriertes”) Modell die Physik korrekt abbildet, kann es trotzdem keine Vorhersage-Eignung besitzen. Und wenn noch ein kleiner Fehler drin steckt, dann Gute Nacht!

Da war ein ganz sauberes Experiment durchgeführt worden. Es gab nur drei einstellbare Abstimm-Parameter. Und schon sind wir bei John von Neumann, der sagte: Man kann mit drei Parametern einen Elefanten erzeugen und mit vier Parametrn kann man ihn dazu bringen, den Rüssel zu schwenken.

Mag der Leser selbst entscheiden, was das für die vielen Klimamodelle bedeutet und deren Eignung zur Simulation der zukünftigen Entwicklung des Klimas. Die Klimamodelle sind in der Tat abgestimmt, oder wie die Modellierer sagen, sie sind „kalibriert“. Und sie haben mit Sicherheit mehr als drei Parameter.

Ich möchte daher einen ganz bescheidenen Vorschlag machen: Könnten die Klimatologen nicht einfach mal aufhören, Entwicklungen für Zeiträume länger als ein Jahr vorherzusagen? In keiner anderen wissenschaftlichen Disziplin wird jedes Forschungsergebnis mit so vielen „könnte“, „möchte“, „möglicherweise“, „vielleicht“ belegt, wenn es in zehn, dreißig, hundert Jahren zu einer Katastrophe kommen könnte. Für ein einziges Jahr möchte ich darum bitten, dass die Klimatologen die vielen Klima-Phänomene studieren, ohne ständig zukünftige Veränderungen vorhersagen zu wollen. Wir haben noch lange nicht alles beim Klima verstanden. Das gegenwärtige und das vergangene Klima sollten daher untersucht werden, und nur ein einziges Jahr lang sollte mal die Zukunft in Ruhe gelassen werden.

Es gibt keinen vernünftigen Grund für die Annahme, die derzeitigen Klimamodelle für vorhersagefähig zu halten. Nur als Beispiel: keines hat die derzeitige Pause in der Erwärmung vorhergesagt. Und im zitierten Papier wird gezeigt, dass es wirklich keinen theoretischen Grund gibt, sie für vorhersagefähig zu halten.

Modelle, auch Klimamodelle, können uns manchmal nützliches Wissen über das Klima aufzeigen oder mitteilen. Können wir uns nicht darauf für eine Weile beschränken und die Modelle nur einsetzen, um das Klima zu verstehen, nicht um es vorherzusagen?

Und wie steht es mit 100- oder 500-jährigen Vorhersagen? Dabei ist völlig egal, ob wir sie „Szenarien“ oder wie auch immer in politisch korrekter Sprechweise nennen. Etwas auf 500 Jahren vorhersagen zu wollen, ist ein Witz. Das sollte man bleiben lassen, ohne dass etwas verloren ginge.

Ich meine, dass die Alarmschläger nach der ununterbrochenen Kette von falschen Vorhersagereien eines Paul Ehrlich, John Holdren, James Hansen und der übrigen reihenweise gescheiterten Weltuntergangspropheten nun eine Atempause begrüßen müßten, um nicht weiter die noch schlimmere Zukunftskatastrophe zusammenphantasieren zu müssen. Sie müssten es doch mal satt haben, ständig zu erleben, wie ihre Vorhersagen des Hitzetods der Welt immer wieder in der hässlichen Realität wie Seifenblasen zerplatzen. Ich meine, sie würden sich freuen, mal ein Jahr lang nicht an morgen denken zu müssen.

Grüße an Alle

W. (Willis Eschenbach)

(Übersetzung: Helmut Jäger, EIKE)




Stimmungs-Werbung in den Medien – genannt Energiedialog!

Eine Auswahl der Überschriften dieser Beiträge dieser Seite:

ENERGIEWENDE IN DEUTSCHLAND

Große Herausforderungen auf dem Weg in ein neues Energiezeitalter

ENERGIESYSTEM IM WANDEL

Effizient, intelligent und vernetzt

SMART METER

Intelligenz ist alles, was zählt

ENERGIE INTELLIGENT NUTZEN

Deutschland wird 40 Millionen Energie-Manager haben

usw. usw.Gemeint ist damit ein streng moderiertes Frage- und Antwortspiel mit dem Leser, der aufgefordert wird mit den Veranstaltern zu diskutieren. Die Veranstalter sind neben Die Welt, RWE, DENA und Siemens. 

Stellvertretend für viele Anfragen unserer Leser seien zwei herausgegriffen:

So fragt Dipl. Ing Vollert am 5.11. per Email:

Weitere Fragen an die Experten :

* Wieviele Pumpspeicherwerke werden benötigt um in Deutschland alle Konventionellen Kraftwerke für mehrere Tage ersetzen zu können ?

* Wievielen Wasserstoffspeichern alternativ entspräche diesen Wasserspeichern ?

* Wieviele Windräder bei guten Windverhältnissen müssten gebaut werden um unsere konventionellen Kraftwerke ( fossil und Kern ) zu ersetzen ?

* Wo soll dagegen die Biomasse in unfruchbaren Kontinenten herkommen, wenn dort keine Kernenergie zum Einsatz kommen kann?

* Warum glaubt man nur an den technischen Fortschritt bei den erneuerbaren Energien und nicht bei konventioneller Kraftwerkstechnik wie auch bei der Kerntechnologie ?

* Wie soll bei großer Biomassenutzung bei weiterwachsender Bevölkerung der Konflikt mit der Nahrungsmittelproduktion quantitativ und qualitativ gelöst werden ?

* Wie wird bei HGÜ ’s mit Gleichspannungen über 1 Mio. Volt das Kurzschlussrisiko beherrscht ?

* Bei der Idee Desertec werden zwischen Plus und Minuspol über sehr große Entfernungen 1,6 Mio. Volt geplant !!! ( nach meinen Informationen aus den vdi-nachrichten gibt es für diese Aufgabe eben noch kein realisiertes Beispiel , die HGÜ’s in Afrika und China sind hier nicht vergleichbar ! )

* Wie wird die schlechte Energieausbeute der Photovoltaik und deren misserabler Erntefaktor auf das Niveau der derzeitigen deutschen Kernreaktoren gebracht ?

* Wie wird bei Wasserstoffspeichern die Expolsionsgefahr durch Druckwellen umgangen ?

* Wie wird verhindert, daß entgegen der Brundlandkommision weiter viel zu viel fossile Energien verbrannt werden, wenn weltweit 456 Kernreaktoren stillgelegt werden ?

* Wieviele Seevögel glauben die Experten dürfen wir Deutschen mit unserer Energiewende opfern ?

* Welches Energieeinspaarvolumen weltweit ( auch bei den noch aufstrebenden Entwicklungsländern ) ist ohne Kapitalvernichtung und Nullwachstum in MW möglich ?

* Wieviel Land- und Seefläche werden geopfert werden müssen um 456 Kernreaktoren weltweit durch "Renevables " ersetzen zu können ?

* Ich möchte hier einmal aufhören, den ich glaube, die zu erwartenden ehrlichen Antworten sprechen für sich.

Gruß ihr Abonnent und skeptischer akademischer Leser

Mit freundlichen Grüßen

Walter Vollert Dipl.-Ing.

 Antworten bisher: keine

Und ein Herr Walter V. (auch das ist Walter Vollert; wie wir inzwischen erfahren haben) bekommt diese ausführliche Antwort:

 

Walter V.: Sehr geehrte Herrn, um es klar vorweg zu nehmen, ich halte Sie für die Totengräber der deutschen Industrie und Wirtschaft. Ich bin aufgrund der " Energiewende " nach 39 Jahren aus der CDU ausgetreten und werde mit meiner 5-köpfigen Familie demnächst zu keiner Wahl mehr gehen. Wir haben bereits einen intelligenten Stromzähler mit dem Ergebniss, dass meine Frau in der Nacht und am Wochenende wäscht und wir trotzdem zweistellige Energiekostensteigerungen erleiden. Es gibt keine Stromspeicher mit mehr als 30 % Wirkungsgrad, eher darunter. Batterien sind am Ende ihrer Lebensdauer Sondermüll und müssen energieintensiv recycelt werden. Gleichstrom-Hochspannungsnetze sind gefährlicher als moderne Kernreaktoren und sind im Kurzschlussfalle nicht schadfrei abschaltbar. Bioenergie steht in Konkurrenz zur Nahrungsmittelproduktion und sollte bei weiter wachsender Weltbevölkerung unterbunden werden. Windkraftwerke sind Kapitalvernichter. Es gibt keine wirtschaftlichen Möglichkeiten Boen und Stürme langfristig ohne Reparaturen auszugleichen. Gaskraftwerke bringen uns in unverantwortliche Abhängigkeit von Russland und sind nur Lösungen für etwa die nächsten 30 Jahre. Ich könnte meine Argumentation stundenlang fortsetzen. Ihr wütender Leser

Die Experten-Antwort von Siemens: Lieber Herr V. vielen Dank für Ihre Meinung. Lassen Sie uns allerdings kurz dazu Stellung beziehen:

 

• Über die Energiewende hat die Politik entschieden. Für uns gilt Primat der Politik

• Sie sprachen die geringen Wirkungsgrade von Energiespeichern an – in der Tat ist die Speicherung von elektrischer Energie mit Verlusten im Zuge der Umwandlung verbunden. Allerdings sind mit Stromspeichern nicht nur Batterien gemeint, die in der Tat recht geringe Wirkungsgrade aufweisen. Pumpspeicherkraftwerke mit rund 90% Wirkungsgrad sind als Zwischenspeicher von Energieüberschüssen ebenso geeignet wie neue Technologien, beispielsweise die Wasserstoff-Elektrolyse, wo wir Wirkungsgrade im Bereich von 70% erwarten. Zwar ist jeder Verlust bei der Zwischenspeicherung bedauerlich, doch mit den Erzeugungsüberschüssen, die infolge der Erneuerbaren Energien zeitweise ins Netz fließen, wäre die Alternative, die elektrische Energie gar nicht zu nutzen.

Stichwort Kosten:

• Wir müssen alles dafür tun, dass sich der zusätzliche Strompreisanstieg in einem moderaten Rahmen bewegt. Wie hoch die Kosten für den Umbau des Energiesystems letztlich ausfallen werden, hängt davon ab, auf welche Weise und wie schnell der Umstieg vollzogen wird.

• Aus volkswirtschaftlicher Sicht bevorzugen wir ein Szenario, bei dem die Erneuerbaren Energien und die Netze massiv ausgebaut werden und die Schwankungen der bei der Erzeugung der Erneuerbaren Energien durch zusätzliche Gaskraftwerke und Speicher ausgeglichen werden.

• Daraus würde sich ein geringer Strompreis-Anstieg ergeben.

• Für die Industrie gilt, dass Deutschland als Standort attraktiv und wettbewerbsfähig bleiben muss – auch für energieintensive Branchen wie z.B. die Stahl- oder Chemieindustrie. Es war richtig und wichtig, dass die Regierung im Energiepaket die energieintensive Industrie, die im internationalen Wettbewerb steht, von CO2-Zertifikatskosten befreit hat.

• Um die Kosten zu begrenzen, ist es wichtig, die Effizienz des gesamten Energiesystems zu erhöhen. Wenn Anlagen und Geräte weniger Energie verbrauchen, können steigende Strompreise zumindest zum Teil kompensiert werden.

Stichwort HGÜ (Hochspannungs-Gleichstrom-Übertragung)

 

• Gleichstrom-Hochspannungssysteme sind seit Jahrzehnten im Einsatz und haben sich als zuverlässige, sichere und verlustarme Transporttechnik für elektrische Energie bewährt. Aufgrund der steigenden Länge von Transportwegen für Strom wird die Verbreitung von HGÜ-Systemen in diesem Jahrzehnt deutlich zunehmen. Die von Ihnen genannte Gefährlichkeit der HGÜ-Technik können wir nicht nachvollziehen.

Stichwort Windkraftwerke:

• Die Windenergie hat sich in den vergangenen Jahren rasch entwickelt. An Standorten mit sehr guten Windverhältnissen ist die Windenergie heute bereits wettbewerbsfähig im Vergleich zur Stromerzeugung aus fossilen Energieträgern( Z.B. Ein von Siemens realisierter Windpark in Neuseeland.)

• Richtig ist, die Kosten für Windenergie müssen weiter gesenkt werden. Dabei können unterschiedliche Hebel betätigt werden. Einer ist die Industrialisierung über den ganzen Projektprozess hinweg, d.h. über die Produktion der Windturbinen, über den Transport bis hin zur Installation vor Ort müssen alles standardisiert und optimiert werden.

• Der wichtigste Hebel, um die Kosten weiter zu verringern ist das Thema Innovation

Stichwort „Abgängigkeit von russischem Erdgas:

• Das in Deutschland genutzte Erdgas stammt zu einem Drittel aus Russland. Ein weiteres knappes Drittel importieren wir aus Norwegen, das letzte Drittel setzt sich in etwa zu gleichen Teilen aus niederländischer und deutscher Förderung zusammen, wobei geringe Mengen derzeit noch aus Dänemark und Großbritannien stammen.

• Eine Abhängigkeit von einem einzelnen Lieferanten befürchten wir nicht, weil die anderen Bezugsquellen ähnliche Anteile tragen und zudem jedes Lieferland noch über weitere Exportkapazitäten verfügt. Ein unschätzbarer Vorteil von Erdgas ist die massive Speicherinfrastruktur. Deutschland verfügt weltweit über die viertgrößten Erdgasspeicher und kann derzeit ein Viertel seines Jahresbedarfs speichern. Derzeitige Projekte werden das Speichervermögen sogar auf 40% des Jahresbedarfs steigern.

• Infolge neu entdeckter und erschlossener Gasfelder sowie unkonventioneller Vorkommen schätzt die Internationale Energieagentur (IEA) die Reichweite von Erdgas beim aktuellen Verbrauchsniveau auf mindestens 75 Jahre

Inwieweit Dr. Michael Süß von der Siemens AG Sektor Energy die gestellten Fragen  korrekt und umfassend beantwortet hat, mögen die Leser selbst entscheiden.

Die Redaktion