STICKOXIDE und der DIESELMOTOR (2)

Reinhard Marx
Wir betrachten wieder die Verbrennung von Cetan mit einem Luftüberschuß von 40 %, λ = 1,4, wie in meinen Beitrag Stickoxide und der Dieselmotor (1)“ bereits gezeigt.
Das Abgas enthält:
_______________________________________________________
75,3 %vol Stickstoff 73,4 %gew N2 1,251 g/l
  5,6 %vol Sauerstoff 6,3 %gew O2 1,429 g/l
  9,2 %vol Kohlendioxid 14,1 %gew CO2 1,977 g/l
  9,8 %vol Wasserdampf 6,1 %gew H2O 0,894 g/l
  0,08 %vol Stickstoffmonoxid 0,08 %gew NO 1,34   g/l
         100,0 %            100,0 % 1,22   g/l
_______________________________________________________
Seine Menge beträgt 18,1 Nm3/kg Kraftstoff oder 15,2 Nm3/l; es kann mit einer Dichte von ρ = 1,22 g/l bei Normalbedingungen (0°C und 760 Torr) gerechnet werden, allerdings ohne Wasserkondensation.
Wenn jetzt die Betrachtungsweise einer spezifischen Emission von CO2 und NO je Kilometer eingeführt wird, wie es leider üblich geworden ist, müssen zunächst Fahrbedingungen festgelegt werden.
Das Fahrzeug habe einen Verbrauch von 6.000 ml/100 km, dann werden je km 60 ml ( ̴50 g) verbrannt; diese ergeben eine Abgasmenge von 15,2 dm3/ml x 60 ml/km = 912 dm3/km, also einen knappen Kubikmeter, der 1,1 kg wiegt. Entsprechend den oben angeführten Gewichtsanteilen ergibt sich nun eine spezifische Emission je Kilometer von 156 g CO2 und 890 mg NO. Letzteres würde sich allerdings in der Kälte zu NO2 oxidieren, wodurch das Gewicht auf 1365 mg/km anwüchse. Das entspräche einer Emissionskonzentration von 1.230 ppm NO2 oder 800 ppm NO, wovon ja die Betrachtung ausgegangen war. Die Zahlen ändern sich entsprechend, wenn mehr oder weniger Kraftstoff je Fahrstrecke verbraucht wird.
Bei dieser Rechnung wurde also angenommen, dass das Abgas bei 700°C etwa die 800 ppm NO enthält; die Angaben des TÜV-Essen sprechen aber von 600-800 ppm, was sowohl über- als auch unterschritten werden könnte. Ähnlich ungenau sind dann auch die obigen Angaben.
Was bisher aber noch gar nicht berücksichtigt wurde, ist die Tatsache, dass NO mit abgefangenem Ruß im Partikelfilter des Abgassystems reagiert, denselben zu CO2 oxidiert, das Filter dabei reinigt und selbst zu Stickstoff wird – die Größenordnung dieses Einflusses ist mir momentan nicht bekannt. Wohl aber weiß man, dass die Harnstoffeinspritzung nach dem Partikelfilter (bei > 180°C) zu einer weiteren starken Herabsetzung des NO-Gehaltes führt; man kann nach einer solchen Behandlung mit 100-300 mg NOx/km rechnen. Die weitere Entwicklung der Harnstoffbehandlung lässt auf noch geringere Werte in der Zukunft hoffen, die in der Größenordnung von 50 mg/km liegen könnte (Prof. Koch, TH Karlsruhe).
Statt 1230 ppm hätten wird nun also noch ca. 180 ppm und liegen damit um den Faktor 7 unter dem unbehandelten Abgas; dieser wird sich nochmals um das Vierfache verbessern lassen, so dass sich letztlich eine praktisch 30-fache Erniedrigung ergeben wird.
Wenn zur Erreichung des vorgeschriebenen Immissionswertes von 40 µg/m3 früher eine Verdünnung um den Faktor 25.000 als erforderlich errechnet war, wird es jetzt nur noch etwa das 800-fache sein. Da die geforderte Immission bisher nur maximal um den Faktor 2 überschritten wurde, dürften die geplanten Nachrüstungen mit Hardware mehr als genug sein – die Verbesserung nur durch eine optimierte Software bestehender Motore wäre wahrscheinlich auch bereits ausreichend.
Soviel zur Emission eines Dieselmotors.
Es sei nun etwas zu den festgesetzten maximalen Grenzkonzentrationen der Schadstoffe gesagt.
Der Immissionswert für NO2 von 40 µg/m3 wurde schon in meinem ersten Bericht als übertrieben tief bezeichnet.
In der Zwischenzeit sind andere Berichte veröffentlicht, die die Gefährlichkeit von Stickoxiden (und auch Feinstaub) in der genannten Höhe in keiner Weise bestätigen und hundertfache (!) Konzentrationen noch für unbedenklich erachten (Prof. Köhler, Lungenfacharzt, vormals Präsident der Deutschen Gesellschaft für Pneumologie). Damit käme man in den Bereich der für NO2 aufgestellten MAK- oder, wie es jetzt heißt, AGW-Werte. Dieser betrug in Deutschland für NO2 bis zum Jahr 2004 noch 9.500 µg/m3. Die Bearbeitungskommission für solche Grenzwerte befürwortete damals, den Wert um eine Zehnerpotenz zu erniedrigen, also 950 µg/m3 zu fordern; allerdings war diese Zahl lange Jahre noch nicht rechtsverbindlich, erst 2014, also 10 Jahre später, erfolgte diese Einstufung endgültig – die Kommission hat es sich also nicht leicht gemacht und lange daran geforscht.
In der Schweiz gilt immer noch ein hoher Grenzwert für MAK von NO2: 6.000 µg/m3.
In den USA hat das EPA eine Immissionskonzentration von 100 µg/m3 festgelegt, wobei vereinzelte Stundenwerte bis zu 190 µg/m3 auftreten dürfen – auch in Deutschland sind kurzzeitige Erhöhungen bis 200 µg/m3 erlaubt. Insgesamt ist dort aber generell das 2½-fache gegenüber Deutschland erlaubt; das bedeutet, hätten wir auch diesen Grenzwert, gäbe es überhaupt kein Problem mit den Dieselabgasen in unserem Land !
Ich hatte in meinem ersten Bericht gesagt, dass das unverdünnte und unbehandelte Abgas mit 0,08vol % NO und 9,2 %vol CO2 absolut toxisch sei, wenn man es einatmete. Ein Leser fand diese Bemerkung übertrieben – ich möchte dazu noch etwas ausführen:
Ein Gehalt von 0,08 % NO würde in der Tat bei kurzer Exposition kaum gefährlich sein, wenn man den früher sehr hohen MAK-Wert und die Bewertung von Herrn Professor Köhler betrachtet. Anders ist es mit dem CO2; das aus der Lunge ausgeatmete Gas enthält etwa 4 % davon. Eine eingeatmete Luft mit 8 % CO2 wirkt in kurzer Zeit tödlich („erstickend“), so dass unsere 9,2 % wirklich sehr gefährlich sind, das Abgas muss schnell verdünnt werden, um in erträgliche Konzentrationen zu kommen. Diese liegen bei 9 g/m3 oder 0,7 %gew in Deutschland (MAK-Wert), so dass eine mehr als 10-fache Verdünnung schnell erfolgen muss, was aber kein praktisches Problem darstellt.
Wenn in einem kleinen, unbelüfteten Raum sich viele Personen längere Zeit aufhalten, entsteht „dicke Luft“, man sagt, es fehle Sauerstoff und belüftet. Der Sauerstoff fehlt aber gar nicht, sondern es ist das ausgeatmete CO2 der Anwesenden, das das Wohlbefinden beeinträchtigt, und wird dann durch die Belüftung ausgetrieben.
Könnte es nicht auch sein, dass in unseren Großstädten mit viel Verkehr und bei Windstille die „schlechte Luft“, die ja wirklich zu bemerken ist, mehr dem CO2 als allen anderen Beimengungen zuzuschreiben ist ?? Das CO2 riecht zwar nicht, was von anderen Verbrennungsrückständen aber doch zu sagen ist, auch wenn sie in unschädlichen Mengen vorkommen. Und CO2 kommt gleichermaßen von allen Verbrennungsmotoren, nicht nur vom Dieselmotor !
Manche Verwaltungen von Großstädten, in denen die geographische Lage und eine ungünstige Wettersituation zu gesundheitlichen Problemen geführt hat, halfen sich dadurch, dass Fahrverbote dergestalt verhängt wurden, dass täglich abwechselnd Fahrzeuge mit geraden oder ungeraden Zulassungsnummern fahren durften – unabhängig von der Art und Größe ihres Antriebsmotors.
Schluß-Bemerkung
Armes Kohlendioxid !
Erst schreit die halbe Welt, dass Du das Klima schlecht machst – Du seist ein „Klimakiller“ (eine Unmöglichkeit per se),
 im Gegenteil, Du ermöglichst das Pflanzenwachstum und beschleunigst es – und jetzt hänge ich Dir noch an, Du würdest die Luft in den Städten ungenießbar machen!
 




STICKOXIDE und der DIESELMOTOR (1)

Reinhard Marx

  1. Chemische Gleichgewichte

     Reaktion A: N2 + O2   ↔   2 NO („Stickstoffverbrennung“)
In einem Dieselabgas mit 74% Stickstoff und 6% Sauerstoff (s.u.) sind im chemischen Gleichgewicht folgende Stickoxide (NO) auf Grund der thermodynamischen Daten zu erwarten:
_________________________________________________________
bei     25°C            1 Zehnmillardstel ppm (= fast gar nichts)
bei   700°C          45 ppm
bei 1.200°C    1.300 ppm
bei 2.700°C 13 % (in Luft mit 23% O2), = 130.000 ppm
_________________________________________________________
Das Gas NO ist farblos und hat nur ein sehr geringes Lösungsvermögen in Wasser.
       Reaktion B: 2 NO + O2   ↔   2 NO2 („Oxidation von Monoxid zu Dioxid“)
In Luft mit 23 % Sauerstoff und bei 25°C liegt das Verhältnis Dioxid zu Monoxid (NO2 : NO) bei über 500.000.
So ist in Luft bei 25°C praktisch kein NO mehr neben NO2 vorhanden, die Reaktion ist aber sehr temperaturabhängig, und sie verläuft relativ schnell.
Bei ca. 480°C wird sie bereits endotherm, und der Zerfall von NO2 in NO und Sauerstoff setzt verstärkt ein, was bei 650°C so gut wie vollständig ist.
Das braune Gas NO2 löst sich gut in Wasser nach der Formel 2 NO2 + H2O → HNO2 + HNO3, die salpetrige Säure ihrerseits ist aber nicht beständig und zersetzt sich nach der Formel 3 HNO2 → HNO3 + H2O + 2 NO. Das dabei gebildete NO ist ein Problem bei jeder Gaswäsche, weil es sich erst wieder oxidieren muss, um weiter ausgewaschen werden zu können, häufig aber vorher entweicht.

  1. Emissions-Konzentrationen

Man spricht häufig von NOx-Konzentrationen, weil sowohl NO als auch NO2 vorhanden sein kann. Die Gleichgewichtsbetrachtungen zeigen aber, dass bei Raumtemperaturen praktisch nur NO2 vorhanden ist, es bildet sich aus NO und Luftsauerstoff ziemlich schnell. Bei hohen Temperaturen (Verbrennungen) kann sich aber nur NO bilden, das nach Abschreckung und bei Sauerstoffanwesenheit so gut wie vollständig verschwindet und so zu NO2 wird.
Die emittierten NOx-Mengen führen nun in der Umgebung der Emissionsquelle zu Immissionen, deren zulässige Konzentrationen folgendermaßen definiert sind:
40 µg/Nm3 im Jahresmittel, höhere vereinzelte Spitzenwerte dürfen 200 µg/Nm3 während
1 Stunde nicht überschreiten.
Gemessen wird in einiger Entfernung von der Emissionsquelle und in der Nähe menschlicher Wohnungen unter Berücksichtigung der herrschenden Windrichtung. Die Messpunkte werden von den Überwachungsbehörden festgelegt. Das Verhältnis zwischen zulässiger Emissions- und Immissionskonzentration beträgt bei NOx also 2.500:1 (= erforderlicher Verdünnungsfaktor).
(1 Nm3, „Normkubikmeter“, ist der Kubikmeter bei 0°C und dem Druck von 1 atm oder 760 Torr)
An den Arbeitsplätzen in der Industrie gilt der sogenannte MAK-Wert („maximale Arbeitsplatzkonzentration“), er beträgt für Stickoxide 0,95 mg/Nm3 (= 950 µg/Nm3 oder 735 µg/kg), früher war er noch erheblich höher eingestuft. Dieser Wert bedeutet, dass die Beschäftigten während acht Stunden und fünfmal in der Woche dieser Konzentration maximal ausgesetzt sein dürfen – wobei keine gesundheitliche Beeinträchtigung zu befürchten wäre.
Verteilte man die 40 h Wochenarbeitszeit mit einer Belastung von 950 µg/Nm3 gleichmäßig auf die Gesamtzeit von 168 h in der Woche, ergäbe sich ein Durchschnittswert von 226 µg/Nm3, unter der Annahme, dass in den 128 Stunden Freizeit gar keine Belastung besteht. Dieser Wert entspricht etwa der zugelassenen kurzfristigen Immission von 200 µg/Nm3.

  1. Verhältnisse bei Dieselmotoren

Bei stationären Großanlagen könnte jetzt wieder die schon erwähnte alkalische Gaswäsche installiert werden, was aber bei beweglichen Fahrzeugen nicht durchführbar ist. Hier bietet sich ein anderes Verfahren an: Das heiße Abgas wird mit einer wässerigen Lösung von Harnstoff behandelt, wobei nur die Stoffe N2, CO2 und H2O entstehen. Die summarische Reaktionsgleichung wäre ganz grob folgende:

CO (NH2)2 + H2O + 3 NO     →     5/2 N2 + CO2 + 3 H2O

Weitere veröffentlichte Kennzahlen zum Dieselmotor: Je Liter Kraftstoff werden ca. 14 m3 Luft benötigt (bei λ= 1,4 als Überschussfaktor) und etwa 2,65 kg CO2 erzeugt. Seine Dichte beträgt 0,84 kg/l und der Heizwert 9,7 kWh/l.

  1. Theoretische Verbrennungsrechnung im Dieselmotor:

Man kann folgende vereinfachte Reaktionsgleichung aufstellen, bei der als Kraftstoff Cetan genommen ist, Lambda mit 1,4 gerechnet wird und 800 ppm NO im Abgas entstehen sollen:
______________________________________________________________________________
C16H34 + 24,5 O2 + 93,75 N2 + λ-Luft      16 CO2 + 17 H2O + 93,75 N2 + 0,1 NO + λ-Luft
226           784             2625        1363               704            306           2625            4         1359
______________________________________________________________________________
                     Gewichts-%     Volumen-%                                
Stickstoff           73,4                75,3
Sauerstoff            6,3                  5,6
CO2                   14,1                  9,2
Wasserdampf       6,1                  9,8
Stickoxid NO       0,080              0,077 (unbehandelt, unverdünnt) 
__________________________________________________________
Die Abgasmenge beträgt 18,1 m3/kg oder 15,2 m3/l Kraftstoff. Als Luftbedarf ergibt sich 16,3 Nm3/kg oder 13,7 Nm3/l. Vielleicht wäre noch folgende Zahl interessant: Ein Fahrzeug, das einen Verbrauch von 5 l/100 km hat und mit einer Geschwindigkeit von 50 km/h fährt, würde minütlich 833 m zurücklegen und dabei 42 ml (=35 g) Kraftstoff verbrauchen und rund 0,6 m3 Abgas produzieren.
Damit ein konzentriertes Abgas mit ca. 800 ppmgew NO in den Bereich dessen gelangt, das in der Industrie genehmigt ist (= 77 ppmgew), müsste es zunächst zehnfach verdünnt werden, was bei einem fahrenden Automobil, das minütlich beispielsweise 0,6 m3 ausstößt, leicht geschieht, eine weitere Verdünnung um den Faktor 105 wäre erforderlich, um den MAK-Wert zu erreichen. 0,6x10x105 = 630 m3 (= z.B. 2,5 m x 2,5 m x 100 m), ein Volumen, das ein Fahrzeug in 14 Sekunden durchfährt, so dass selbst diese Verdünnung kein Problem darstellt. Schwieriger wird es, den festgesetzten Immissionswert von 40 µg/Nm3 zu erreichen, der eine weitere Verdünnung um das 24-fache erforderte.
Das unverdünnte Abgas ist mit Sicherheit gesundheitsschädlich, sogar giftig beim direkten Einatmen (nach Abkühlung !), allein schon wegen seines hohen CO2-Gehaltes, eine Verdünnung ist also erforderlich. Der Faktor von 1 : 1.000 ist nicht schwer zu erreichen, wie dargestellt, um an den MAK-Wert des NOx zu gelangen. Trotzdem ist die Maßnahme, bei Fahrzeugstillstand den Motor abzustellen, wenn man sich im dichten Stadtverkehr befindet, richtig. Daraus resultiert, dass auch ein häufiges Wiederstarten erforderlich wird, was die Starterbatterie stark belastet. Die Batteriehersteller haben dieser Anforderung allerdings bereits Rechnung getragen.
Aus diesen Betrachtungen ergibt sich, dass bei dichtem Verkehr und Windstille sich NOx-Konzentrationen über dem Immissionsgrenzwert ergeben können. Das kann aber nicht durch eine wie auch immer geartete „Software“ verhindert werden, vielleicht nur etwas gemindert werden – die Naturgesetze der Verbrennung lassen sich nicht ändern. Die Anwendung der Harnstoffeinspritzung ist für so tiefe Grenzwerte wie 40 µg/Nm3 eine reale Möglichkeit, also das Anbringen einer „Hardware“, um bei der gängigen Wortwahl zu bleiben. Ob der Wert von 40 µg/Nm3 allerdings wirklich erforderlich ist, sollte noch einmal gründlich überprüft werden. Der gültige und bereits reduzierte MAK-Wert ist mit Sicherheit nach langen Untersuchungen festgelegt worden, eine geforderte weitere Reduzierung um das 24-fache für den Straßenverkehr erscheint um ein Vielfaches überzogen ! Der zeitweise bereits zulässige Immissionswert von 200 µg/Nm3 (21 % des MAK-Wertes) wird von Dieselfahrzeugen so gut wie nie in der Realität erreicht und sollte als Grenzwert eingeführt werden, weil er durchaus noch als gesundheitlich ungefährlich betrachtet werden muss. Damit erübrigte sich die große Aufregung über die „schrecklichen“ Dieselemissionen, und der „Skandal“ bezöge sich nur noch auf die betrügerischen Versprechungen einiger PKW-Hersteller.
Es sei noch auf eine relative Zahl hingewiesen, die bei NOx und auch bei CO2 gerne angeführt wird: Die Emissionsmenge je gefahrenen Kilometer. Das ist überhaupt keine technische Zahl, und sie sollte vollkommen unterbleiben. Die Emissionen hängen allein vom Kraftstoffverbrauch (in kg oder l) und vielleicht auch der Fahrweise ab – ein mit laufendem Motor stehendes Fahrzeug emittiert pro Kilometer unendlich viel ! Wer viele Liter Kraftstoff verbraucht, emittiert auch viele Mikrogramm NOx.
Bei Otto-Motoren wird ohne Luftüberschuss gearbeitet (λ = 1), dabei kann sich so gut wie kein NO bilden, wohl bleibt aber immer etwas unverbranntes CO übrig, das dann mittels zugeführter Luft an dem bekannten nachgeschalteten Katalysator zu CO2 umgesetzt und unschädlich gemacht wird.
 




Zirkelschlüsse der Klimamodelle

Das Ergebnis ist, dass Menschen die Ursache der globalen Erwärmung sind und Klimawandel die eingehende Hypothese ist. Dies ist ein Zirkelschluss in Reinformat, nämlich dass man folgert, was man zuerst vermutet.

Diesen Kreisschluss kann man deutlich in dem erkennen, was Viele als den maßgeblichsten wissenschaftlichen Report bzgl. Klimawandel ansehen, obwohl er in Wirklichkeit der populärste Alarmisten-Report ist. Wir reden von der Summary for Policymakers des jüngsten IPCC-Berichtes AR 5. Diese 29 Seiten starke Summary steht hier.

Die „rauchende Kanone“ des Zirkelschlusses liegt in nur zwei Abbildungen, nämlich den Abbildungen 5 und 6.

[Anmerkung: Ich habe diese beiden Graphiken hier aus dem verlinkten PDF eingefügt, was im Original nicht der Fall ist. Sie scheinen recht undeutlich, vor allem die Bildinschrift. Man klicke das Original an, wenn man es näher wissen will. – Anmerkung des Übersetzers]

Abbildung 5 im PDF


Man betrachte zunächst Abbildung 5 auf Seite 14. Sie ist ein wenig technisch, aber wie es in der ersten Zeile der Bildinschrift heißt, sind dies die „Haupttreiber des Klimawandels“ (dem IPCC zufolge, heißt das). Es sind nur 11 dieser Haupttreiber gelistet, ein jeder mit einem farbigen horizontalen Balken, wobei Einige in mehrere Komponenten unterteilt sind.

Die Länge jedes Balkens repräsentiert den best guess des IPCC, wie stark sich jeder Treiber seit 1750 (und bis 2011) ausgewirkt hat, was sie „Antrieb“ [forcing] nennen. Folglich muss jeder der beobachteten Klimawandel während dieses 261 Jahre langen Zeitraumes diesen Treibern geschuldet sein, und genau das ist es, was die Modelle annehmen.

Tatsächlich wird von den Modellierern verlangt, dies anzunehmen, falls sie ihre Ergebnisse in die IPCC-Abschätzung eingehen lassen wollen. Etwa 100 große Klimamodelle werden für diese Modellierung herangezogen – in einer gewaltigen koordinierten Bemühung, welche mehrere Jahre dauert. Diese Bemühung wird koordiniert durch das US-Energieministerium.

Die rauchende Kanone beginnt mit der Tatsache, dass 10 dieser 11 Treiber auf menschliche Ursachen zurückgehen. Der einzige natürliche Treiber sind Änderungen der solaren Einstrahlung („irradiance“ genannt), doch ist dieser Balken so klein, dass er im Grunde gar nicht zählt. Tatsächlich kann man ihn in der Abbildung kaum erkennen.

In allen Fällen nimmt das IPCC der Einfachheit halber an, dass alle Treiber des Klimawandels anthropogen verursacht sind. In der wissenschaftlichen Literatur werden noch viele andere Treiber behandelt, die aber einfach ignoriert werden, hier und in den Modellen.

Falls alle Treiber des Klimawandels wirklich anthropogenen Ursprungs sind, dann müssen alle beobachteten Änderungen offensichtlich auch anthropogen verursacht sein.Und genau das erkennt man in Abbildung 6 auf Seite 18:

Abbildung 6 im PDF


Diese Abbildung zeigt 16 separate kleine Bildchen. Jedes davon zeigt dreierlei:

1) Einen beobachteten Klimawandel

2) Das Aussehen des Modelloutputs ohne menschliches forcing

3) Das Aussehen des Modelloutputs mit menschlichem forcing.

Angesichts des Umstandes, dass der einzige erlaubte Antrieb anthropogener Natur ist, ist es keine Überraschung, dass der Modelloutput nur dann zu den Beobachtungen passt, wenn der menschliche Antrieb mit einbezogen wird. Wie kann es anders sein? Die 18 Modelloutputs ohne anthropogenen Antrieb ändern sich nicht. Aber das können sie ja auch nicht, weil keine natürlichen Antriebe zugelassen sind.

Aber anstatt zu erkennen, dass dieses Ergebnis einfach aus den eingehenden Hypothesen folgt, behauptet das IPCC erstaunlicherweise, dass damit bewiesen wird, dass Menschen die einzige Ursache für Klimawandel sind. Dabei wird nichts dergleichen bewiesen, und der Zirkelschluss schließt sich damit.

Die Simplizität dieses Trugschlusses ist atemberaubend. Falls man annimmt, dass nur Menschen einen Klimawandel verursachen können, dann folgt daraus natürlich, dass alle Klimawandel von Menschen verursacht sind. Aber dies gilt nur für die Hypothese, nicht für die Wissenschaft. Die Argumentation verläuft perfekt im Kreis.

Eine legitime wissenschaftliche Abschätzung würde die vielen anderen Treiber mit berücksichtigen, welche gegenwärtig betrachtet werden. Eine legitime wissenschaftliche Modellierung würde diese Treiber erklären, um zu sehen, welchen Beitrag sie zu den beobachteten Klimawandeln leisten.

Unglücklicherweise ist weder das IPCC noch die extensive und kostspielige Modellierung, welche zu Stützung vorgenommen wird, legitim. Dass das US-Energieministerium im Zentrum all dieser politisierten Nicht-Wissenschaft liegt, ist besonders verwerflich und bedarf dringend einer Änderung.

So wie es jetzt ist, ist diese gesamte Modellierung einfach nur Müll, weil eine falsche Antwort als Hypothese eingeht. Es gibt so etwas wie Wissenschaft durch Vermutung nicht. Falls die Modelle nicht der Wissenschaft folgen, sollte man sie gar nicht erst laufen lassen.

Link: http://www.cfact.org/2018/03/01/circular-reasoning-with-climate-models/
Übersetzt von Chris Frey EIKE




Eine grüne Stromversorgung Deutschlands

Im Konsens errechnen dazu seit 1988 tausende sog. Klimawissenschaftler eine angeblich drohende dramatische Erwärmung der Erde, wenn denn die Menschheit zu ihrem Nutzen ein wenig vom Kohlendioxid wieder freisetzt, das die Flora zum Zwecke seiner Ernährung in Milliarden von Jahren in Kohlenstoff und Sauerstoff aufgetrennt hatte.
Diese vermeintliche Klimasensitivität des CO2 zerplatzt wie eine Seifenblase nur deshalb, weil „dem Konsens“ ein Vorzeichenfehler (!!) unterlaufen ist:  
https://de.scribd.com/document/372778420/Klimasensitivita-t-des-CO2-eine-Seifenblase
https://de.scribd.com/document/373094316/Der-CO2-Klimawandel-und-das-Vorzeichen-Science-is-not-settled
Es kommentiert die Visionen der Frau Baerbock ein „konventioneller Hinterbliebener“, der seit 1960 mit an einer Stromversorgung werkelte, die bis zur Jahrtausendwende Deutschland zuverlässig, umweltfreundlich und im internationalen Vergleich recht preiswert mit elektrischer Energie versorgt hatte.

„Netze und Speicher“

Eine Vision der Annalena Baerbock,

Ein Kommentar von Ulrich Wolff im Text kursiv
Der Strukturwandel in der Energieversorgung und der Einzug neuer, oftmals digitaler Technologien bieten uns in Zukunft neue und bessere Möglichkeiten zur Absicherung einer auf schwankenden Wind- und Solarenergie basierenden Stromversorgung.
„Noch gibt es dafür in Deutschland ersatzlos die Großkraftwerke, deren Beitrag zur Stromversorgung jedoch gegenwärtig bereits signifikant verdrängt wird, so dass ihre spezifischen Stromkosten steigen, erforderliche Gewinne schmelzen und so bei der Braunkohle sogar Rücklagen für Renaturierung gefährden können.“
Statt der alten Großkraftwerke werden künftig immer mehr kleinere, effiziente und flexibel einsetzbare Gas- und Biogas-Kraftwerke sowie zunehmend auch Speicher zur Sicherstellung der Stromversorgung eingesetzt.
Die Großkraftwerke existieren bereits, „kleinere“ müssen mit unvermeidbar größeren spezifischen Errichtungs- und Betriebskosten erst noch gebaut werden. Sowohl der Brennstoff Biomasse als auch Erdgas sind signifikant teurer als Braunkohle, importierte Steinkohle und Kernenergie.
Die vielen, dezentralen Anlagen werden über ein leistungsfähiges Stromnetz miteinander verbunden, das den Strom schnell und effizient vom Erzeugungs- zum Verbrauchsort transportiert.
Ein solches Stromnetz müsste erst noch installiert und bezahlt werden, Strom fließt allerdings auch dann weder schneller noch effizienter.
Strombedarf und Stromerzeugung werden so über eine intelligente Steuerung jederzeit und an jedem Ort zielsicher aufeinander abgestimmt.
Für ein solches Flatterstromnetz müsste eine solche Steuerung zunächst entwickelt, erprobt, installiert und bezahlt werden.
So wird die Stromversorgung der Zukunft aussehen. Speicher und Netze wirken darin funktional sehr ähnlich, auch wenn sie physikalisch völlig verschieden sind.
Elektrizität lässt sich leider nur in homöopathischen Mengen (z. B. im Kondensator) speichern. Daher kann im vermeintlichen Speicher lediglich die Art der Energie mehrfach und mit signifikantem Verlust gewandelt werden.
Denn beide tragen dazu bei, kurzzeitig auftretende Überschüsse und Engpässe auszugleichen. Damit nehmen sie eine Schlüsselstellung im künftigen Stromsystem ein.
Speicher, in denen sehr viel Energie „versickert“, könnten niemals eine Schlüsselstellung in einer wirtschaftlichen Stromversorgung einnehmen.
Zusätzlich bergen das Gasnetz und die daran angeschlossenen Gasspeicher ein großes Speicherpotenzial, das über „Power to Gas“ erschlossen werden kann.
Der Wirkungsgrad von „Power to Gas und Gas to Power” ist meist kleiner als 0.5, so dass auf diesem Weg jeweils mehr als die Hälfte des Stroms verloren geht. Die Investitions- und Betriebskosten solcher Technik sind gewaltig.
Hierdurch ist auch ein saisonaler Ausgleich von Erzeugung und Verbrauch denkbar, da das Gasnetz eine größere Kapazität sowie eine höhere Reaktionsträgheit aufweist als das Stromnetz.
Das Stromnetz selbst hat keine Speicherkapazität! Eine entsprechende Erweiterung des Gasnetzes müsste entwickelt, erprobt, errichtet und bezahlt werden. – Vergleichsweise ist es „durchaus denkbar“, den Mond zu besiedeln. Doch wer will dort einziehen und wer will das bezahlen?
Durch eine Kopplung der beiden Netze kann „Power to Gas“ zu mehr Versorgungssicherheit beitragen.
„Mehr Versorgungssicherheit?“ War etwa die vor dem Einstieg in die sog. Energiewende mit den Großkraftwerken in Deutschland erreichte sehr große Versorgungssicherheit etwa nicht ausreichend?
Klar ist jedoch: Versorgungssicherheit kann inzwischen nicht mehr national, sondern muss im europäischen Kontext gedacht werden. Heute schon wird in jeder Sekunde im Jahr Strom über Deutschlands Grenzen im- und exportiert. Das entspricht europäischem Recht und kein EU-Staat darf dies be- oder gar verhindern.
Zu diesem Zweck wird seit Jahrzehnten ein europäisches Verbundnetz erfolgreich betrieben. Inzwischen macht es jedoch bereits „der Fuß in der Tür einer deutschen Energiewende“ für einige Staaten notwendig, ihre Netze durch Eingriffe vor dem deutschen „Flatterstrom“ zu schützen.
Der Vorteil: Durch die enge Kooperation mit den Nachbarstaaten kann man künftig die Stromversorgung deutlich kostengünstiger absichern. Denn statt die für Stromkunden teuren, nur selten gebrauchte Reservekraftwerke im eigenen Land vorrätig zu halten, kann man in Engpasssituationen preisgünstigen Strom aus dem Nachbarland beziehen.
Die in den Nachbarländern vorhandenen Reservekraftwerke reichen offenbar nicht einmal dafür aus, dass die Uhren in Deutschland richtig gehen.
Das nutzen vor allem die Nachbarstaaten Deutschlands, die unseren preiswerten Strom importieren.
Ist es etwa sinnvoll, Strom (sogar mit Zuzahlung) zu verschenken, nur damit bereits heute überschüssige Windkraft nicht abgeschaltet werden muss?
Aus deutscher Perspektive stellt die Stärkung des europäischen Energiebinnenmarktes letztlich eine Stärkung von Speicherkapazitäten dar.
Oder verlässt sich einer auf den anderen bei der Reserveleistung, denn Pumpspeicher, die mehr als Schwankungsspitzen glätten, hat doch ohnehin niemand?
Daher ist es längst überfällig, den europäischen Energiebinnenmarkt durch einen integrierten Netzausbau voranzutreiben und damit die Flexibilität in Bezug auf Verbrauch und Speicherung zu ermöglichen.
Die USA, Japan und unser Nachbar Frankreich bleiben ganz einfach glücklich und zufrieden bei ihren Großkraftwerken! – Blickt der Rest der Welt wirklich gebannt auf ein grünes Deutschland, um dann dem Versuch zu folgen, ihr Land mit Flatterstrom aus Kleinkraftwerken, zu versorgen?
 
 




Ärzte brauchen auf den Klimawandel medizinische Antworten…

Nach der Kältewelle steigen endlich die Temperaturen. Doch ein massiver Wetterumschwung erhöht auch das Risiko für einen Infarkt

Inzwischen kommen die Bürger auch mit dem Wetter nicht mehr alleine zurecht. Ist es Winter, muss die WHO bereits Kleidungstipps geben und auf die Kälte hinweisen [3], wohl weil zu Viele fest davon überzeugt sind, dass seit dem ominösen Klimawandel keine Winter mit Kälte vorkommen können und nicht mehr gelernt haben, wie Kleidung wärmt. Bald wird auch in Vergessenheit geraten, wofür Heizungen da sind. In Zukunft stellt diese eine App ein und das Wissen darüber, was diese App eigentlich macht, geht unwiederbringlich verloren.
Kommt zusätzlich ein Wetterumschwung, ist der Bürger inzwischen jedoch ganz neuen Gefahren ausgesetzt. Denn solche sind schnell tödlich und nehmen, wie es jeder lernt, durch den Klimawandel immer mehr zu.
Kein Wunder, dass unsere Ärzte die Gefahr erkannt haben und immer tiefschürfender zum Klimawandel-Krankheits-Zunahmerisiko forschen.
Inzwischen sind aus diesem Forschungszweig bereits Erfolge sichtbar: Auf einem Herzkongress in Orlando (USA) wurden erste, harte Fakten präsentiert. Und diese sind geradezu erschütternd:
Jeder Temperatursprung von einem Tag zum nächsten mit 5 Grad Differenz erhöht die Herzinfarktrate um satte 5 % [3]. 30.000 Herzpatienten wurden dazu untersucht. Und weil es so viele waren – und die Anzahl der Daten in der Klimawandelforschung nach einhelliger Expertenmeinung die Qualität ausmacht [5] -, kann das Ergebnis nicht falsch sein.

Wie schlimm wird es besonders gefährdete Gebiete Deutschlands, wie zum Beispiel Franken, treffen?

Wie zufällig kam gleich zur SZ-Meldung am folgenden Montag in einer Lokalzeitung die Zusatzinformation, dass Franken besonders vom Klimawandel getroffen ist
nordbayern: [4] In Franken und der Oberpfalz ist der Klimawandel längst da.
In Bayern ist es damit bereits so schlimm, dass ihn die bayerische Umweltministerin mit den Händen greifen kann, wie sie einmal berichtete.
Wer nun in einer solch gefährdeten Gegend von Deutschland lebt, wo jeden Tag das Infarktrisiko dramatisch ansteigen kann und diese Gefahr auch noch deutlich zunehmen wird, möchte natürlich wissen, wie hoch diese einzuschätzen wäre. Leider hat diese ganz praktische Frage die SZ-Journalisten nicht mehr interessiert und so blieben ihre Leser damit vollkommen alleine gelassen.
Zum Glück ist der Autor ebenfalls von dieser Fragestellung betroffen, weshalb er sich die von der SZ versäumte Mühe gemacht hat, die Auswirkungen auf im besonders gefährdeten Franken wohnende Bayernbürger abzuschätzen.

Gefährdungsanalyse Franken

In Franken liegt Nürnberg mit einer DWD Wetterstation, ID: 3668. Deren Wetterdaten sind anbei mit den Infarkt-Risikodaten ausgewertet.
Laut den amerikanischen Ärzten ist die Temperaturdifferenz von einem Tag zum anderen die kritische Belastung. Bild 1 zeigt dazu den Absolutwert des Tages-Maximum zum Vortags-Minimalwert. Die Differenzen sind schon gewaltig und die relevanten 5 Grad Temperaturdifferenz häufig überschritten, was bedeutet: Es ist fast ständig eine deutliche Erhöhung der Infarktgefahr vorhanden.

Bild 1 Temperaturdifferenz Absolutwert des Tages-Maximum zum Vortags-Minimum mit gleitendem Jahresmittel (weiß) von 1950 – 2017 der DWD-Station Nürnberg (blau).


Im Folgebild sind die Werte in die „ereignisrelevanten“ 5 Grad-Sprünge geclustert, von denen jeder +5 % Infarktrisiko darstellt.

Bild 2 Die Daten von Bild 1 als Anzahl von 5 Grad Sprüngen (braun). Gleitendes Jahresmittel (weiß)


Daraus bleibt nur ein Fazit übrig: Die Temperaturwechsel haben einen hohen Anteil an der Infarktrate.
Beim Ansehen dieser Auswertebilder (-Mittelwerte) kommt man vom Thema „Temperatur-Differenz-bedingte Infarktraten-Eintrittswahrscheinlichkeits-Erhöhung“, jedoch sofort zu einer anderen Fragestellung.

Wo ist die gemeldete, Klimawandel-bedingte Verstärkung?

Im SZ-Artikel wird darauf hingewiesen, warum die „Infarkt-Erkenntnis“ so wichtig ist: Früher waren abrupte Temperaturwechsel scheinbar eine Ausnahme, während sie aufgrund des Klimawandels inzwischen normal sind und sogar weiter zunehmen:
SZ: [3] Die SZ-Aussage einer Erhöhung der Temperatur-Differenzen ist falsch

Wenn die Bilder 1 und 2 stimmen, muss sich die angegebene Häufung der Temperatur-Differnezextreme wo anders verstecken.
Deutschland ist beim Wetter nicht so extrem, wie die USA. Es könnte also sein, dass bei uns erst die Temperaturdifferenz von zwei Tagen das relevante Ergebnis liefert.
In den folgenden Grafiken sind nun dazu die Differenzen nach Absolut- und Maximalwerten dargestellt. Doch unabhängig, wie man auswertet, das Ergebnis lautet: Es gibt keine Erhöhung der Temperaturdifferenzen.
Somit bleibt nur eine Schlussfolgerung übrig:
Die Aussage in der SZ: [3]

Bild 3 Absolute Temperaturdifferenz zweier Folgetage Min. zum Maximumwert mit gleitendem Jahresmittel von 1950 – 2017 der DWD-Station Nürnberg


Bild 4 Maximale, absolute Temperaturdifferenz während ein- bis zweie Folgetagen, Min. zum Maximumwert mit gleitendem Jahresmittel von 1950 – 2017 der DWD-Station Nürnberg


Nun könnte es sein, dass nicht die Maximalwerte, sondern nur das Tagesmittel vom Klimawandel betroffen ist. Anbei deshalb die absolute Differenz des Tagesmittels zum Vortagesmittel. Deren Differenzen haben durch den „Klimawandel“ eindeutig abgenommen. Gut erkennbar darin die (negative) Korrelation zwischen CO2-Konzentratio und Abnahme der Tagesmittel-Differenzen.

Bild 5 Differenz Tagesmittel zum Vortag von 1950 – 2017 der DWD-Station Nürnberg (braun). Gleitendes Jahresmittel (schwarz, Maßstab rechts). Darüber kopiert der CO2-Konzenrationsverlauf von 1970 – 2015 (blau)

Findet sich der Klimawandel-Einfluss, wenn man noch weiter zurückschaut?

Nun könnte es sein, dass die Auswertung falsch ist, weil der Zeitraum der Nürnberger Datenreihe zu kurz ist. Im Artikel der nordbayerischen Nachrichten findet sich dazu nämlich eine Hinweis:
nordbayern: [4] … Extreme Wetterereignisse wie der Starkregen vor zwei Jahren waren in den letzten 15 Jahren in Deutschland wesentlich häufiger als im Jahrhundert davor ...
Man muss wohl das ganze, vorherige Jahrhundert auswerten, um mit den letzten 15 Jahren vergleichen zu können. Leider findet sich dazu keine Station in Franken (mit Tagesauflösung), doch die Datenreihe von Aachen reicht zum Beispiel so weit zurück.
Also das Analysespiel anhand der Tagesdaten von Aachen nochmals durchgeführt. Das Ergebnis:
Es zeigt sich nun noch deutlicher, dass der ominöse Klimawandel die Temperaturdifferenzen nicht erhöht.
Leider endet die Messreihe von Aachen mit dem Jahr 2011, so dass von den wichtigen, letzten 15 Jahren einige fehlen. Der Autor wagt jedoch die Behauptung, dass diese letzten, fehlenden Jahre am Auswerte-Ergebnis wenig ändern würden.

Bild 6 Temperaturdifferenz Tagesmittel zum Vortag und gleitendes Jahresmittel (Maßstab rechts)von 1891 – 2014 der DWD-Station Aachen (ID: 3)


Bild 7 Temperaturdifferenz des Vortages-Min. zum Maximumwert des Folgetages und gleitendes Jahresmittel (Maßstab rechts) von 1891 – 2014 der DWD-Station Aachen (ID: 3)


Bild 8 Tagesmaximum und gleitendes Jahresmittel (Maßstab rechts) von 1891 – 2014 der DWD-Station Aachen (ID: 3)


Als Abschluss noch eine Prüfung, ob wenigstens die großen Temperaturdifferenzen durch den Klimawandel zugenommen haben. Doch auch dazu ergibt die Langzeitreihe eine vollständige Entwarnung.

Bild 9 Gleitende Jahresmittel der Folgetage mit Temperaturdifferenzen >15 Grad (grün) und >20 Grad (rot) von 1891 – 2014 der DWD-Station Aachen (ID: 3)


Zu Extremereignissen gehören auch Starkniederschläge. Dass es sich bei Starkregenereignissen ebenfalls nicht anders verhält, wurde bereits in früheren Artikeln gezeigt:
EIKE 22.08.2017: Verschiebt der Klimawandel Europas Hochwässer dramatisch
EIKE 12.08.2017: Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels

Einflüsse des Klimawandels auf die Infarkt-Mortalität

Korrelationen sind so herrlich statistisch und klingen toll nach Wissenschaft. Deshalb zeig das Bild 10 eine solche zwischen der Infarktmortalität und CO2-Konzentration in der Atmosphäre: Die Verläufe sind eindeutig hoch signifikant negativ korreliert und belegen, dass die sich erhöhende CO2-Konzentration dem menschlichen Herzen genau so gut tut, wie den nach CO2 dürstenden Grünpflanzen.

Bild 10 Sterbeziffern Herzinfarkt Deutschland von 1985 – 2012. Quelle: Die Welt. Vom Autor darüber gelegt der Verlauf der CO2-Konzentration in diesem Zeitraum (grün)


Medizinverlag Krause und Pachernegg GmbH A-3003 Gablitz: Insgesamt hat das Herzinfarkt-Risiko über die letzten Jahrzehnte für Männer und Frauen abgenommen.
Jeder weiß, dass gerade die Mittelmeerländer besonders vom Klimawandel gebeutelt werden.
Frankfurter Allgemeine, 27.10.2005: Klima: Mittelmeerländer leiden besonders unter Klimawandel
Dazu der erkennbar, sehr positive Einfluss des Klimawandels auf die Infarkt-Sterberate in verschiedenen EU-Ländern, welche nahe am Mittelmeer oder im Süden liegen.

Bild 11 Infarkt-Sterberaten verschiedener EU-Länder. Quelle: Ärzte-Zeitung

Abschlussergebnis der kleinen Recherche

Wenn es einen Bereich der Wissenschaft gibt, der seine Reputation ständig neu verliert, und einen Bereich der Leserinformation, mit dem unsere Medien immer neu belegen, wie ideologisch hinterlegt „berichtet“ wird, dann gehört das Thema (AGW-)Klimawandel dazu.
Der hier rezensierte Artikel der SZ zeigt zudem, warum gerade die Süddeutsche Zeitung oft als „Alpenprawda“ betitelt wird.
Verlegt sich (wie bereits zu erkennen ist) die forschende Ärzteschaft in Zukunft zum „Abzapfen“ von Fördermitteln nun verstärkt auf den Klimawandel als Mortalitäts- und Krankheitsfaktor, dürften in kurzer Taktung immer neue „Erkenntnisse“ ans Licht kommen. Ob diese den Patienten helfen, wird man nicht fragen dürfen.
Ergänzender Hinweis: Mehr Details zur Studie, als in den deutschen Medien (und hier) berichtet wurden, lassen sich nachlesen bei: [6] WUWT: The latest medical malpractice: blaming “climate change” for heart attacks

Behörden als Propagandainstitute

Die SZ ist natürlich nicht alleine. Unsere Behörden gehen mit „gutem Beispiel“ voran. Eine ganz aktuelle Pressekonferenz des DWD zeigte es wieder exemplarisch:
Pressemitteilung: [7] Klima-Pressekonferenz 2018 des DWD
… In seinem Rückblick auf das Wetter und Klima im vergangenen Jahr hob der DWD hervor, dass das Jahr 2017 weltweit erneut eines der drei wärmsten Jahre seit Aufzeichnungsbeginn 1881 war. Der Trend zur globalen Erwärmung ist also, so Dr. Thomas Deutschländer, Klimaexperte des DWD, nach wie vor ungebrochen …
Das Jahr 2017 brachte in Deutschland viele Wetterextreme
„Das Jahr 2017 stand hierzulande aber auch ohne neuen Rekord ganz im Zeichen des Klimawandels“ so Deutschländer. Dies zeigte nicht nur die Verteilung statistisch betrachtet zu warmer und zu kalter Monate. So waren nur der Januar und September im Vergleich zum vieljährigen Mittel zu kühl. Auffällig seien auch die vielen Extremereignisse gewesen. Wiederholt kam es zu Sturm und Starkregen. Als Beispiele nannte der DWD-Experte die Stürme Axel im Januar 2017 sowie Xavier und Herwart im Oktober 2017. Tief Rasmund brachte der Stadt Berlin und dem Umland am 29. Juni an nur einem Tag Niederschlagsmengen von rund 150 Litern pro Quadratmeter (l/m2). An der Wetterstation Tegel wurde sogar ein Spitzenwert von 196,9 l/m2 gemessen. Hinzu kamen extreme Witterungsabschnitte, wie eine andauernde Trockenheit im Frühjahr oder das anhaltend trübe Wetter zwischen September 2017 und Januar 2018. So summierte sich das Sonnenscheindefizit in diesem grundsätzlich eher sonnenscheinarmen Zeitraum deutschlandweit auf über 74 Stunden. Außergewöhnlich war auch der neue Temperaturrekord für den März 2017. Mit einer Mitteltemperatur von 7,2 °C und einer Abweichung von +3,7 Grad wurde der bisherige Rekord von 1938 und 1989 um 0,2 Grad übertroffen.
Ob solche meteorologischen Extremereignisse zugenommen haben, sei allerdings statistisch nach wie vor schwierig nachzuweisen. Als Gründe nannte Deutschländer häufig noch zu kurze Beobachtungsreihen, die hohe natürliche Klimavariabilität sowie Probleme bei der flächendeckenden Erfassung von kleinräumigen Ereignissen. Dennoch sei die beobachtete Häufung solcher Ereignisse auch 2017 ein Indiz für die Annahme vieler Klimaforscher, dass extreme Wettersituationen mit weiter steigenden Temperaturen zunehmen dürften.
Selbstverständlich kommen nur harte Fakten vor. Doch werden extreme Ereignisse ganz bewusst so gelistet, als ob es Klimawandel-bedingt, zunehmende wären. Obwohl der Fachmann des DWD genau weiss, dass es nicht „statistisch nach wie vor schwierig nachzuweisen“ sei, sondern bewiesen ist, dass es diese Extremereignisse schon immer gab und sie deshalb mit einem (AGW-)Klimawandel nichts zu tun haben. Es gibt – und das sollte gerade mit diesem Artikel (wieder) gezeigt werden, keine „ … beobachtete Häufung solcher Ereignisse … „. Die „ … Probleme bei der flächendeckenden Erfassung von kleinräumigen Ereignissen … „ können das Problem schon gar nicht lösen, denn die damit gewonnenen Daten lassen sich nicht mit den historischen vergleichen (was man natürlich trotzdem macht, indem man in die Vergangenheitsdaten simuliert).
Wer die wohl wissentlich falschen Darstellungen nicht glaubt, sollte sich bei kaltesonne die gerade erschienene Listung historischer Extremereignisse ansehen. Heute auftretend, würden viele wohl zu sofortigen Massenpaniken führen.
kaltesonne 6. März 2018: Extremwetter in den letzten tausend Jahren
Extremwetter Fazit
Selbst wenn man den Chronisten einige Übertreibungen unterstellt, dürfte feststehen, dass Extremwetter in der Vergangenheit nicht seltener, sondern öfter eintraten und diese Ereignisse nicht harmloser, sondern schlimmer waren, als das was wir heute erleben. Verglichen mit den vergangenen 1000 Jahren, leben wir heute in einer ruhigen Zeit. Am ähnlichsten scheint mir noch das 13. Jahrhundert mit dem 20. Jahrhundert zu sein. Zwar scheinen Hunger in einer globalisierten Wirtschaft nicht mehr vorstellbar, zumindest in den s. g. entwickelten Ländern. Auf die Marktpreise hat das Wetter auch heute noch Einfluss, wie man selbst bei kleinen Wetterabweichungen wie ein Spätfrost im April in 2017 beobachten konnte. Da erfroren mal eben die Blüten an den Obstbäumen und schon waren Kirschen und Äpfel knapp und teuer.
Was würde heute geschehen, wenn wie in all den Jahrhunderten der kleinen Eiszeit, die Flüsse in Europa zufrieren würden, oder der Winter von Oktober bis Juni anhält? Wie würden wir reagieren, wenn Niederschläge und Überschwemmungen, oder Hitze und Dürre Ausmaße annehmen wie sie die Chronisten beschrieben haben? Und wer garantiert uns, dass es nicht doch wieder mal so kommt, denn Extremwetter hat es zu allen Zeiten gegeben, egal ob das Klima kälter oder Wärmer war. Es hat den Anschein, dass es in den wärmeren Perioden etwas weniger Wetter-Abweichungen vom „Normalen“ gab. Das mag aber auch daran liegen, dass die Extreme zum Kalten hin für uns Menschen schädlicher sind als die zum Warmen hin. Klar dürfte auch sein, dass wir Menschen Extremwetter nicht verhindern und auch nicht herbei zaubern können, selbst nicht mit Kohlendioxyd.

Wie subtil und konsequent der DWD in seinen alarmistischen Darstellungen vorgeht, zeigt ergänzend ein Beispiel aus der DWD-Publizierung: Klima-Pressekonferenz des Deutschen Wetterdienstes am 25. März 2014 in Berlin: Zahlen und Fakten zum Klimawandel in Deutschland
Auf der Seite 34 sieht man dort die folgende Information mit Schaubild:

Bild 12 Quelle [8]

Dazu gibt es eine Rezension des Autors:
EIKE 23.10.2017: Deutschland erwärmt sich schneller als der Rest der Welt – oder etwa doch nicht?
mit dem folgenden Bild 13. Darin sind die Daten von Bild 12 (mit dem alternativen, aber fast identischen Giss-Globaldatensatz), durch Skalierung der Deutschland-Temperaturreihe angepasst worden, um einen Vergleich zu ermöglichen.
Und sofort sieht man, dass die Verläufe aus zwei Zeitsegmenten bestehen und die Temperatur Deutschlands seit den 60er Jahren des letzten Jahrhunderts deutlich langsamer als der globale Durchschnitt steigt. Man könnte sogar so weit gehen, zu behaupten, die linearen Regressionen ergeben falsche Werte und Deutschland „hinkt“ sogar seit 1881 „hinterher“.
Ein exemplarisches Beispiel, wie man Information in die gewünschte Richtung „dreht“.

Bild 13 [9] GISS Globaltemperatur 1880 – 2017 (gleitendes Jahresmittel, blau) und Deutschland DWD Jahreswerte (rot) übereinander gelegt (mit Anpassung an den Anfangs- bis Mittelteil des Zeitraums). Temperaturachse der Deutschlandwerte nicht mit den GISS-Werten übereinstimmend. Grafik vom Autor erstellt

Quellen
[1] SZ 3./4. März, Printausgabe: „Herzenssache“
[3] SZ 3. März 2018: Herzschmerz nach dem Frost
[4] nordbayern: In Franken und der Oberpfalz ist der Klimawandel längst da
[5] Flashcrash Klimaalarm. Wer Klimaalarm posaunt, bekommt immer recht (Teil 2)
[6] WUWT March 4, 2018: The latest medical malpractice: blaming “climate change” for heart attacks
[7] 06.03.2018 Pressemitteilung zur Klima-Pressekonferenz 2018 des DWD
[8] DWD-Broschüre: Klima-Pressekonferenz des Deutschen Wetterdienstes am 25. März 2014 in Berlin: Zahlen und Fakten zum Klimawandel in Deutschland
[9] EIKE 23.10.2017: Deutschland erwärmt sich schneller als der Rest der Welt – oder etwa doch nicht ?