Eine Messstation fast ohne Wärmeinseleffekt (WI): Schwierigkeiten bei Temperaturvergleichen

Welche Auswirkungen haben diese neu geschaffenen Wärmeinseln auf die Wetterstationen, die eben genau dort sind, wo die Menschen leben und arbeiten?
Glücklicherweise gibt es eine Temperatur-Messstation, bei der sich nur wenig in der weiten Umgebung verändert hat, also ein dunkler Fleck auf dieser Karte. Leider nicht bei uns, sondern in den USA: Die Dale-Enterprise-Weather-Station in Virginia. Die kleine weit verstreute Ansiedlung liegt vier Meilen von der nächsten Kleinstadt Harrisonburg entfernt.

Abb. 2: Dale-Enterprise ist eine Ansammlung von Gehöften, Farmen und Einzelhäusern entlang des US-Highway 33 in Virginia/USA. (latitude 38°27’19N and longitude 078°56’07W)


Aber auch ohne menschlichen Eingriff bleibt nichts so wie es war, Natur und Klima verändern sich immer, und Menschen gestalten mit, vergrößern ihre Anwesen, steigern den Energieverbrauch und breiten sich in die Fläche aus. Resultate sind breitspurige Straßen in der unmittelbaren Umgebung, asphaltierte örtliche Zugangswege zu größeren und besser beheizten Räumen mit steigendem Energieverbrauch. 1880 soll Dale Enterprise noch eine Wetterstation bei einer einsamen Farm gewesen sein, weit weg von der damals kleinen Ansiedlung Harrisonburg. Inzwischen hat sich auch diese Kleinstadt in die Fläche erweitert, der ausufernde Ortsrand ist nur noch eine Meile von Dale Enterprise entfernt. Wir gehen jedoch davon aus, dass Dale Enterprise selbst immer noch eine relativ wärmeinselarme Ansiedlung geblieben ist.
Auch die Tagesmittelwerte wurden immer nach demselben Muster von inzwischen drei Ahnen der Familie Heatwole seit 1880 bestimmt und so die Jahreswerte ermittelt. Dale Enterprise ist die älteste anerkannte Wetterstation in Virginia.
Anmerkung zu den umfangreichen Temperaturdaten: Bei einigen Jahren fehlten Monatsergebnisse. Wir haben deshalb den fehlenden Monat mit dem Durchschnittswert der restlichen über 130 Monatsmittel ergänzt, um für das betreffende Jahr ein vergleichbares Jahresmittel zu erhalten. Es fehlten insgesamt deutlich weniger als 1 Prozent der Monatswerte, so dass diese Vorgehensweise das Gesamtergebnis fast nicht beeinflusst hat.
Die folgende Abbildung 3 zeigt den Temperaturverlauf dieser Station aus den einzelnen Jahresmitteln. In den USA ist die Maßeinheit Fahrenheit (F) für Temperaturen gebräuchlich und nicht Celsius, wobei 32 F Null Grad Celsius entspricht. Und 50 F entspräche 10 C.

Abb. 3: Auf der x-Achse sind die Temperaturen in der in den USA üblichen Fahrenheitskala aufgetragen. Die Trendlinie ist leicht fallend seit 1880


Die Überraschung ist groß, es gibt keine Erwärmung bei dieser Station seit 1880 bis 2016.
Wir können die letzten 140 Jahre grob in vier Teile unterteilen:

  1. Temperaturrückgang 20 Jahre lang von 1880 bis 1900
  2. Ein erneuter 20-jähriger Anstieg bis 1920
  3. Etwa auf gleichem Niveau von 1920 bis 1990
  4. Erneuter Rückgang ab 1990 bis heute, d.h. eine Abkühlung in der Gegenwart

Ergebnis 1: Obwohl diese Station auch nicht ganz wärmeinselfrei ist, zeigt sie einen (unbedeutenden) Temperaturrückgang, auf alle Fälle keine Erwärmung in den letzten 137 Jahren. Das heißt aber auch, dass es im unbebauten 10 km Umkreis der Station noch ein klein wenig mehr kälter wurde.
Ergebnis 2: In der jüngeren Gegenwart, in diesem Falle ab 1990 sind die Temperaturen gefallen und nicht gestiegen. Fallende Temperaturen, wenn auch nur in Virginia, sind das genaue Gegenteil einer Erwärmungskatastrophe.

Daraus lassen sich vorsichtigerweise auch Rückschlüsse für Deutschland ableiten. Laut Deutschem Wetterdienst sind die Temperaturen seit dem Jahre 2000 bis heute gleich geblieben, gemessen in den mehr oder weniger stark mit Zusatzwärme beeinflussten deutschen Stationen. Allgemein wirkt der Wärmeinseleffekt (WI) der Städte und Gemeinden, in welchen die meisten Messstationen sich befinden, einer Abkühlung entgegen. Und die deutschen Daten sind nicht wärmeinselbereinigt. (WI)
Wir haben den WI-Korrekurfaktor für Deutschland seit 1891 ermittelt. Er beträgt für die letzten 130 Jahre ungefähr 1,2 Grad mit einer Genauigkeit, die wir mit +/-0,3C angeben. Siehe: http://www.eike-klima-energie.eu/news-anzeige/klimaerwaermung-in-deutschland-nicht-nachweisbar-der-dwd-hantiert-mit-falschen-daten-eine-bestandsaufnahme-der-deutschlandtemperaturen/ und WI ist der hauptsächliche Temperaturtreiber
http://www.eike-klima-energie.eu/news-cache/der-waermeinseleffekt-wi-als-massgeblicher-treiber-der-temperaturen/
Die WI-bereinigte Deutschlandkurve seit 1891 sähe dann so aus:

Grafik 4: WI-bereinigte Deutschlandtemperaturen. So wäre der Temperaturverlauf, wenn Deutschland genauso geblieben wäre, wie es 1891 war und die Messstationen auch noch an denselben viel kälteren Orten von damals stehen würden.


Dieser (grüne) Temperaturverlauf gilt weitgehend für die freie Fläche Deutschlands außerhalb der Ansiedlungen, – das sind etwa 85% Deutschlands -die Natur richtet sich außerhalb der Städte nach den WI-bereinigten Temperaturen. Deswegen macht der Mai immer noch die Bäume grün, bzw wieder die Bäume grün, denn vor über 25 Jahren war die Erstblüte in der freien Fläche früher. (Eigenbeobachtungen)
Auch viele anderen Indizien und Beobachtungen sprechen für die Richtigkeit dieser 1,2 Grad Wärmeinselanteil seit 1891 für Deutschland. Hier sollen einige genannt werden:
Temperaturen in der freien Fläche, weitab der Wärmeinseln

Abb. 5: Dieses Bild entstand in einem FFH-Schutzgebiet im Frankenbachtal im Ostalbkreis in der freien Fläche, weitab von allen Ansiedlungen und Wärmeinseln. Die Maiaufnahme zeigt den kümmerlichen Blattaustrieb verschiedener Sträucher am 19.05.2012. Die Vegetation der Bäume nimmt die tatsächlichen Maitemperaturen wahr und die sind in Deutschland nach einer 20jährigen Mai-Abkühlungsphase wieder so tief wie vor mindestens 55 Jahren, als der Betrachter erstmalig hier war. Man betrachte auch den Entwicklungsstand bei der Bodenflora. An Eisheiligen lag in diesem Tal auf 440mNN sogar kurzzeitig Schnee. In der freien Fläche Deutschlands macht immer noch der Mai die Bäume grün wie in dem schönen 240 Jahre alten Liedchen von Mozart beschrieben wird.


Ich möchte betonen: Die vom Deutschen Wetterdienst=DWD veröffentlichten Temperaturreihen sind richtig ermittelt. Sie gelten aber nur für die vom Menschen großflächig geschaffenen Zivilisationsflächen, also für die hellen Punkte der Nachtaufnahme bei Grafik 1. Und dort gibt es die Erwärmung seit 1850 bzw. seit 1891 tatsächlich. Beim Temperaturvergleich mit früheren Jahrzehnten braucht man einen Korrekturfaktor, um zu wissen, welcher Anteil der Temperaturen als Zusatzwärme vom Menschen kommt und welcher vom Klima. Täglich nehmen diese vom Menschen geschaffenen Wärmeflächen zu, in Deutschland derzeit um 70 ha täglich
Betrachten wir nochmals die Grafik 4, die WI-bereinigten Deutschlandtemperaturen: Das Jahr 2010 war sogar das drittkälteste Jahr seit den Temperaturaufzeichnungen. Die Flora/Fauna in der freien Fläche empfand die 6,7 Grad und richtete sich entsprechend ein. Eigene Beobachtungen im Frankenbachtal zwischen Ellwangen und Aalen in Süddeutschland ergaben: Anfang Mai: Knospen, kaum Blätter der Bäume, Mitte Mai: Blattaustrieb. Ende Mai: Blätter der Bäume wachsen, erst Anfang Juni voller Blattaustrieb. Froschablaiche Anfang Mai und nicht Ende März/April, Frühblüher im April anstatt im März. Im März 2010 waren der Boden und die Laichtümpel der Frösche und Kröten noch zugefroren. Wegen der verkürzten Vegetation wurde das Obst 2010 im Ostalkreis nicht reif und erfror teilweise im November auf den Bäumen als der erste Schnee fiel.
Genauere Beschreibung, siehe hier
http://www.wahrheiten.org/blog/2011/01/27/waermeinseleffekt-taeuscht-klimaerwaermung-vor/
Für den Temperatur-Vergleich mit den Jahren von 1890 bis 1900 darf man für das Jahr 2010 nicht die ermittelten 7,8 Grad des DWD nehmen, sondern man muss davon den WI von 1,2C subtrahieren, damit man Äpfel mit Äpfeln vergleicht. Die Natur außerhalb der Ansiedlungen richtet sich nach den 6,6 C
Der Wärmeinseleffekt ist eine menschengemachte Zusatzwärme bei den Messstationen, aber diese anthropogene Zusatzwärme bezieht sich nicht bloß auf Städte und Siedlungen, sondern großräumig wurden auch Flächen und ganze Regionen wärmer gemacht. In BaWü wäre dies der gesamte Oberrheingraben, der Mittlere Neckarraum und der Bodenseeraum mit Oberschwaben. Auch die Abholzung von 50 km2 Regenwald täglich und die weitere Urbanisierung von 70 ha täglich in die Freifläche Deutschlands hinein haben auf die Dauer Auswirkungen auf eine größere Gesamtfläche.
Unser WI ist ein historisch sich auf die Messstationen auswirkender Zivilisations-Wärmeeffekt und geht von folgenden Fakten aus, beschreibt und vergleicht:
1) Das reine Stadt-Landgefälle =UHI in heutiger Zeit
2) Die Station von heute mit derselben Stationsumgebung von früher und
3) Die Zusatzwärme, die in der einströmenden Luft aus den Nachbarländern bereits enthalten ist.
Fazit: Seit dem Ende der kleinen Eiszeit um 1850 ist es in Deutschland und weltweit wärmer geworden. Diese Erwärmung wurde jedoch nicht durch einen C02-Treibhauseffekt bedingt, denn dieser Ideologie fehlt der wissenschaftliche Versuchsnachweis. Richtig ist, der Mensch ist mitverantwortlich durch zivilisatorische Veränderungen, bedingt durch die Bevölkerungszunahme von weniger als einer Milliarde auf nun über 7 Milliarden Menschen. (für die Wiedererwärmung nach 1850 gibt es natürlich auch noch andere Ursachen). Der dadurch hervorgerufene großflächige Wärmeinseleffekt ist somit der primäre Temperaturtreiber in Deutschland und weltweit, vor allem, wenn man bedenkt, dass in diesen großflächig geschaffenen Wärmeinseln – siehe Grafik 1- nun auch die Messstationen stehen, während diese in früheren Zeiten oft bei unbeheizten Klöstern, bei Gutshöfen, bei Forsthäusern oder Köhlereien am Waldrand oder bei wissenschaftlichen Instituten am Stadtrand standen. Das sind alles Orte, die von der Urbanisierung heute längst eingeholt sind.
Die allgemeine Panikmache wegen einer C02-Klimaerwärmung bis zum vorhergesagten Hitzetod der Erde im Jahre 2100 ist wissenschaftlich nicht begründbar und somit ein Märchen, ein fanatischer Glaube, ohne jeden Versuchs- und Anwendungsbeweis. Er beruht auf einer (bewussten) Fehlinterpretation der Messdaten. Ein Glaube, der sich hartnäckig hält, weil bereits zu viele gut daran verdienen. Mit Umwelt- und Naturschutz hat diese C02-Pseudoreligion gar nichts zu tun, sie schadet auf Dauer sogar dieser wichtigen Grundeinstellung der Menschen. Aber nicht nur der wissenschaftliche Versuchsbeweis und technischen Anwendungen dieses Erwärmungsglaubens fehlen, auch die CO2-Erwärmungshypothese wurde mehrmals widerlegt, zuletzt durch die Physiker und Strahlungsexperten Tscheuschner, Kramm, Gerlich, Dlugi, ein Beispiel dafür hier:
http://www.schmanck.de/0707.1161v4.pdf
Es wird höchste Zeit, den Umwelt- und Naturschutz anstelle eines fragwürdigen, wissenschaftlich nicht konsensfähigen Klimaschutzes weltweit in den Mittelpunkt des Handelns zu stellen. Saubere Luft, sauberes Wasser, ein intaktes Ökosystem kommen den Menschen heute und zukünftig zugute. Natur- und Umweltschutz wäre deshalb ein konsensfähiges Ziel aller Völker.

Abb. 6: Der Temperaturverlauf Europas in den letzten 1100 Jahren. Von einer mittelalterlichen Warmzeit, als die Alpen weitgehend gletscherfrei waren, sind wir noch lange entfernt. Am rechten Ende sieht man ab 1850 die Beendigung der kleinen Eiszeit, 1900 erreichen wir wieder die 1100-jährige Durchschnittslinie. Seit 1998 ist der fallende Trend erkennbar. Die letzten 120 Jahre müssten allerdings noch WI-bereinigt werden, siehe unsere Abb. 4.


Doch erneut ein warmes Mittelalter – wohl unser sehnlichster Wunsch – haben wir nicht in der Hand. Der dominierende solare Einfluss auf unser Klima, der Einfluss der kosmischen Strahlung und die pulsierend in größeren Zeiträumen schwankenden Erdumlaufbahnen in Verbindung mit dem thermischen Gedächtnis des Ozeans wird sich auch dann nicht ändern, wenn sich der Mensch bzw. Politiker als Zauberlehrlinge versuchen.
Es wird endlich Zeit, dass wir aufhören, Kohlendioxid zu verteufeln. C02 ist für die Erde ein lebensnotwendiges Gas. Alles irdische Leben ist auf Kohlenstoff aufgebaut. Ohne C02 wäre die Erde kahl wie der Mond. C02-Einsparung ist trotzdem wichtig, einmal wegen der Ressourcenschonung und, weil bei jedem Verbrennungsprozess nicht allein sauberes Kohlendioxid frei gesetzt wird, sondern auch jede Menge giftige, umweltschädliche Gase wie Kohlenmonoxid, Feinstaub, Ruß und krebserregende Kohlenwasserstoffe.
Josef Kowatsch, Naturschützer und unabhängiger Klimaforscher.
Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Frits Bolkestein: Intellektuelle und Klima-Alarmismus

Dem Club of Rome Report zufolge befand sich die Welt in einem Durcheinander infolge Umweltbelastungen, exzessiver Bürokratisierung, grenzenloser Urbanisierung, weit verbreiteter Arbeitslosigkeit, Entfremdung von der Jugend, Inflation und Zerfall von Wertesystemen. Ausgeprägte Korrekturen mussten vorgenommen werden bevor es zu spät war.

Der Report befasste sich mit den Wechselwirkungen zwischen fünf kritischen Faktoren: Bevölkerungswachstum, exzessive Bürokratisierung, Ausbeutung natürlicher Ressourcen, Industrialisierung und Verschmutzung. Die Schlussfolgerung lautete, dass die Menschheit auf eine Periode großer Leiden zusteuere infolge Mangel an Nahrungsmitteln, Mangel an Rohstoffen und zu starker Verschmutzung.

Die Mansholt-Kommission wünschte eine Neubewertung der Konzepte von Wohlstand und Wachstum. Die Niederlande sollten ein Beispiel setzen und lernen, innerhalb der Grenzen zu leben, die angesichts der endlichen Natur unseres Planeten inhärent waren. Natürlich würde dies eine Abnahme unseres Lebensstandards bedeuten. Aber man glaubte, dass dies unvermeidlich sei.

Was ist seitdem geschehen? Der „Report des Club of Rome“ prophezeite die unmittelbar bevorstehende Erschöpfung nicht erneuerbarer Ressourcen. Kupfer würde in 36 Jahren ausgehen, Gold in 11 Jahren, Blei in 26 Jahren, Quecksilber in 13 Jahren, Zinn und Zink jeweils in 17 bzw. 23 Jahren. Allerdings ist dies nicht eingetreten. Auch Öl, welches dem Bericht zufolge in nur 31 Jahren alle sein sollte, wird immer noch erzeugt. Fazit: Der Report hat offensichtlich das Potential der Technologie erheblich unterschätzt. Aber die Medien waren ihm verfallen. Die niederländische Qualitätszeitung NRC Handelsblad beispielsweise berichtete über den Report unter der Schlagzeile „Katastrophen bedrohen die Welt“ (31. August 1971).

Der Bericht der Mansholt-Kommission hatte gleichermaßen wenig Auswirkungen, weil am Eröffnungstag der Sitzung des niederländischen Parlaments im Jahre 1974 der Finanzminister Wim Duisenberg (PvdA) die Bevölkerung aufgerufen hatte, mehr zu kaufen, um die Wirtschaft zu erhalten. Und die „neue internationale Wirtschaftsordnung“, das „Baby“ seines Parteigenossen Jan Pronk, Minister für Entwicklungshilfe, ging unrühmlich den Bach hinunter und musste der „neuen nationalen wirtschaftlichen Unordnung“ Platz machen.

Ein Jahrzehnt später wurden wir in Alarm versetzt, weil der Boden unter den sterbenden Wäldern in Deutschland schwer versauert sei. Man glaubte, dass dies auch in anderen Gebieten von Europa geschehen würde. Diese Furcht wurde befeuert durch die emotionale Bindung der Deutschen mit ihren Wäldern. „Das große Waldsterben“ führte zu Panik, welche auch die Niederlande erreichte. Die RIVM (National Agency for Public Health and Environment) und das Umweltministerium behaupteten, dass große Waldgebiete schon nicht mehr zu retten waren. Aber zu einem „ökologischen Hiroshima“ war es nie gekommen. Wir wissen heute, dass die Wälder im Erzgebirge extrem hohen SO2-Konzentrationen ausgesetzt waren. Die Bäume schienen jedoch kaum durch die Versauerung gelitten zu haben. Wie auch immer, derzeit sind sie in einem besseren Zustand denn je.

Viele Untergangsszenarien waren im Umlauf und wurden nachdrücklich von den Medien propagiert. Ein paar davon möchte ich erwähnen. (1) Eine globale Hungersnot war unvermeidlich. (2) Eine Krebs-Epidemie infolge von Pestiziden würde unser Leben verkürzen. (3) Wüsten würden sich mit 2 Meilen pro Jahr ausdehnen. (4) Computer-Netzwerke würden zusammenbrechen wegen des Jahrtausendwechsel-Effektes. (5) Der Rinderwahnsinn würde hunderttausende Menschen töten. (6) Die Nanotechnologie würde außer Kontrolle geraten. (7) Die Gletscher würden verschwinden (obwohl über die Hälfte ihres Rückzugs bereits vor dem Jahr 1950 stattgefunden hatte). All dies ist nicht eingetreten.

Warum haben so viele Intellektuelle Freude an der Prophezeiung von Katastrophen? Hinsichtlich der Wissenschaftler ist der Grund eindeutig: Wer von ihnen eine Katastrophe prophezeit, wird Forschungsgelder erhalten für Forschungen, wie man eine solche Katastrophe vermeiden kann. Der International Energy Agency IEA zufolge werden wir während der nächsten 25 Jahre 2,3 Billionen Euro ausgeben, um die globale Temperatur um weniger als 0,02°C sinken zu lassen.

Außerdem gibt es bedeutende industrielle Interessen, wollen die Industrien doch Investitionen in Dinge tätigen, die vermeintlich die globale Erwärmung bekämpfen sollen. 2000 Jahre Christentum haben in der Psyche der Menschen des Westens einen Sinn für Schuld und Sühne hinterlassen. Wir sind schuldig, also verdienen wir die Katastrophen, denen wir ausgesetzt sind. Solange wir nicht bereuen und den Instruktionen der Untergangspropheten folgen.

Während der siebziger und achtziger Jahre machten sich sehr viele Menschen, vor allem im Westen, Sorgen über alle Arten negativer Entwicklungen. Jetzt, 35 Jahre später, ist dies nicht mehr in diesem Ausmaß der Fall. Armut, Mangelernährung, Analphabetentum, Kinderarbeit und Kindersterblichkeit nehmen schneller ab als jemals zuvor. Außerhalb des Nahen Ostens gibt es kaum Kriege. Guerilla-Bewegungen suchen Frieden. Das drängendste Problem heutzutage sind Wanderbewegungen [die sicher nicht Klimawandel zur Ursache haben! Anm. d. Übers.]

Und was ist mit der globalen Erwärmung? Während der ersten Hälfte des 20. Jahrhunderts ist die Temperatur um ein halbes Grad Celsius gestiegen. Seit 1950 erwärmt sich die Atmosphäre mit einer Rate von 0,13 Grad pro Jahrzehnt. Aber zwischen 1998 und 2013 stieg die Temperatur nur noch mit einer Rate von 0,04 Grad. Und im vergangenen Jahrzehnt ist die Temperatur praktisch gar nicht mehr gestiegen. Das IPCC nennt dies eine Erwärmungspause oder einen Stillstand – ein Stillstand, der von keinem einzigen Klimamodell prophezeit oder projiziert worden war. In jedem Falle befinden wir uns nicht am Abgrund zu Katastrophen, wie oftmals behauptet wird.

Gibt es also keine Probleme? Riesige Mengen anthropogener Treibhausgase werden jährlich in die Atmosphäre freigesetzt. CO2 ist eines dieser Treibhausgase, allerdings nicht so stark wirkend wie Wasserdampf. Zufälligerweise ist das „Treibhaus“ von Gott gesandt. Würde es nicht existieren, läge die Temperatur auf der Erde bei 18 Grad unter Null. Außerdem ist CO2 der Urstoff allen Lebens schlechthin. Ohne CO2 gibt es keine Pflanzen, keine Tiere, keine Menschen.

Die Analyse von Satellitendaten hat gezeigt, dass die Erde während der letzten 30 Jahre grüner geworden ist – die Vegetation auf der Erde hat um 14% zugenommen. Die Hälfte davon geht auf die Zunahme der CO2-Konzentration in der Atmosphäre zurück.

Falls jemand CO2-Emissionen reduzieren möchte, sollte der Verbrauch fossiler Treibstoffe beendet und ersetzt werden durch Erneuerbare. Windturbinen können erneuerbare Energie erzeugen. Aber da gibt es einen Haken: Das Europäische Zertifikate-Handelssystem ETS gestattet einer Seite Einsparungen bei CO2-Emissionen, welche von anderen Seiten genutzt werden können. Die Gesamt-CO2-Emissionen bleiben dabei gleich. Das nennt man den „Wasserbett-Effekt“.

Und was ist mit den Kosten? Das National Energy Agreement der Niederlande wurde im September zwischen vielen interessierten Gruppen beschlossen – außer mit Ingenieuren mit Know-How der zur Verfügung stehenden technischen Optionen sowie Repräsentanten der Energieverbraucher und Steuerzahler, die die Rechnung zu schultern hatten. Die Kosten werden abgeschätzt auf 72 Milliarden Euro, wovon 31 Milliarden Euro auf die Windenergie entfallen.

Andere Experten sind zu noch viel höheren Schätzungen gekommen. Soweit es Windenergie betrifft, sollte man auch die Kosten für neue Infrastruktur und Back-Up ins Kalkül ziehen. Falls der Wind nicht weht oder auch bei zu starkem Wind erfordert die Versorgungssicherheit Back-Up-Kapazitäten auf der Grundlage fossiler Treibstoffe. Dem „Green Court of Auditors” der Niederlande zufolge liefern die Turbinen auf See außerdem während 60% der Zeit keinen Strom. Auf dem Land sind es 75%. Wie auch immer, es ist das Große Geld. Wird es effektiv verwendet?

Die Milliarden, die zur Realisierung der Regierungspläne hinsichtlich Windenergie erforderlich sind, tauchen im nationalen Haushalt nicht auf. Energieverbraucher müssen dafür aufkommen via ihrer Stromrechnungen. Heute zahlen Verbraucher im Schnitt 40 Euro pro Monat. Dieser Beitrag wird sich fortwährend erhöhen bis auf 63 Euro pro Monat im Jahre 2020. Außerdem wurde den Bürgern durch das Energie-Abkommen ein Beitrag von 36 Euro pro Monat auferlegt. Zusammen macht das 100 Euro pro Monat. Dies bedeutet, dass die Brauchbarkeit und Notwendigkeit dieser Maßnahmen nicht Gegenstand von Beratungen im Parlament waren.

Der Klimagipfel von Paris im Dezember 2015 sollte „den Planeten retten“. Aber er wird die selbst gesteckten Ziele längst nicht erreichen. Falls alle teilnehmenden Länder das tun würden, was sie versprochen haben, würde die Temperatur im Jahre 2100 um lediglich 0,17 Grad reduziert sein. Werden teilnehmende Länder ihre Versprechungen halten? Die traurige Erfahrung mit dem Kyoto-Protokoll lehrt uns, dass dies keineswegs so sein muss.

Die Klimadiskussion ist sehr politisiert. Ein französisches Sprichwort sagt „ Du choc des opinions jaillit la vérité“ (Die Wahrheit ergibt sich aus dem Zusammenprall von Meinungen). Bisher waren die Befürworter der AGW-Hypothese nicht willens, in eine offene und freie Diskussion einzutreten. Zum Beispiel behauptete das IPCC im Jahre 2007, dass die Gletscher des Himalaya wegen der Erwärmung bis zum Jahr 2035 verschwunden sein könnten. Dies stellte sich als ein alarmistischer Druckfehler heraus. Einen solchen typographischen Fehler könnte man als ein Kavaliersdelikt ansehen. Allerdings hat der Vorsitzende des IPCC Rajandra Pachauri derartige Kritik an der Himalaya-Prophezeiung als „arrogant“ und „Voodoo-Wissenschaft“ diffamiert.

Die frühere norwegische Premierministerin und Sonderbotschafterin der UN bzgl. Klimawandel sagte im Jahre 2007: „Es ist unverantwortlich, rücksichtslos und zutiefst unmoralisch, den Ernst der Lage in Frage zu stellen. Die Zeit der Diagnose ist vorbei. Jetzt muss gehandelt werden“. Im Grunde sagt sie damit: „Ich habe nachgedacht, und jetzt stören Sie mich nicht mit den Tatsachen!“

Aber die Änderung ist imminent. Die Netherlands Physical Society (NVV) hat im Oktober 2015 im Wetteramt der Niederlande KNMI in De Bilt eine Tagung abgehalten mit der Absicht, eine allgemeine Erklärung zu verabschieden. Was ist bei diesem Treffen herausgekommen? Der Vorsitzende Jan van Ruitenbeek entschied, keine einzige öffentliche Verlautbarung auszugeben wegen der großen Meinungsunterschiede bei der Formulierung einer allgemeinen Position. Das Ergebnis wäre ein nichtssagender Kompromiss gewesen. Tatsächlich ist die Etablierung wissenschaftlicher Fakten durch Handzeichen absurd. Sogar das IPCC höchstselbst räumt ein, dass es eine Vielfalt möglicher Folgen gibt.

Die Errichtung und Installation von Windturbinen kostet ein Vermögen. Es ist offensichtlich, dass Lobbyisten versuchen, das Ergebnis des politischen Entscheidungsprozesses zu beeinflussen. Der Fernsehsender ARD in Deutschland hat den beispiellosen politischen Einfluss der Windenergie-Lobby kritisiert, den diese auf die Politik der Regierung ausübt. Der ARD zufolge geraten Menschen, die der Installation von Windturbinen Widerstand leisten, unter starken Druck, ihre Opposition aufzugeben.

Alles in Allem gleicht diese ganze Diskussion einem religiösen Disput zwischen Klima-Alarmisten als Gläubige und Skeptikern als Häretiker. Warum haben so viele Intellektuelle Freude daran, Katastrophen zu prophezeien? Ist es, weil sie sich in der Aufmerksamkeit der Medien sonnen? Oder hat es irgendetwas zu tun mit christlichen Schuldgefühlen?

Frits Bolkestein.
[Frits Bolkestein is former leader of the Netherlands (classical) Liberal Party, former Minister of Defence and former Eurocommissioner.]
Source:
http://www.elsevier.nl/kennis/blog/2017/01/waarom-intellectuelen-zo-graag-wereldrampen-voorspellen-436737/
Übersetzt von Chris Frey EIKE




Jahrtausend­hochwasser am 01.06.2016 in Simbach – so entstehen Mene­tekel des Klima­wandels

Eigentlich ist das nichts aufregendes, doch dieses Mal waren sich einige „Wahrheitsinstitute“ sicher, im vergangenen Jahr erstmals ein 1000-jähriges Klimawandel-bedingtes Ereignis dingfest gemacht zu haben.
[1] Süddeutsche Zeitung, 30. Dezember 2016: Das zerstörerische Hochwasser hat die Seelen überflutet
… Hochwasser. Ein Wort, das zum Grundwortschatz der Niederbayern gehört. Weil in Niederbayern jedes Jahr irgendwo die Flüsse überlaufen. Doch was am 1. Juni 2016 über das Rottal hereinbrach, war keines dieser Hochwasser, die man kannte. Es war eine
Flut, wie sie laut Statistik alle 1000 Jahre vorkommt. Ein Wetterphänomen, das selbst Experten in Bayern für unmöglich hielten.
dpa, 30. Dezember 2016 (Lokalausgabe der nordbayerischen Nachrichten): In Deutschland war Bayern der Kältepol – Bundesweit war es aber dennoch um 1,4 Grad zu warm
… Folge enormer Niederschläge: In Westmittelfranken und in Oberbayern kam es zu katastrophalen Überflutungen.
Simbach am Inn versank in einem Jahrtausendhochwasser.
Man muss hinzufügen, dass In beiden Publizierungen kein direkter Hinweis auf eine Verbindung zum Klimawandel steht. Doch die Art der Darstellung zeigt, dass man es vermuten soll. Und eine Quelle für diese „Vermutung“ findet sich direkt in einer Publizierung des Deutschen Klimakonsortiums und dem DWD:
Deutschlandfunk 12.09.2016: [11] Klimawandel Deutsches Klimakonsortium warnt vor Starkregen in Deutschland
Der Klimawandel ist laut Deutschem Klimakonsortium unbestreitbar. Zu den Folgen zählt auch die Gefahr von Starkregen.
Der Klimawandel werde dazu führen, das Starkregen in Deutschland öfter auftreten wird, intensiver sein wird, also länger anhalten wird, so der Vize des Deutschen Wetterdienstes. Sein Fazit mit Blick auf die tödlichen Fluten in Braunsbach:
„Die Message ist: So eine Niederschlagsmenge ist theoretisch in Deutschland nahezu an jedem Ort möglich. Im Sommer. Betonung: Im Sommer.“

In der nun folgenden Analyse wird nur auf das Ereignis Simbach Bezug genommen, welches in den zwei Zeitungsmeldungen als ein nur alle 1000 Jahre vorkommendes Ereignis indirekt als ein Beleg des schon beginnenden – negativen – Klimawandel-Einflusses dargestellt wird.

Das Ereignis am 1. Juni in Simbach am Inn

Zum Nachlesen wurde es bereits detailliert in zwei Artikeln auf EIKE dargestellt. Anbei deshalb nur kurze Auszüge:
EIKE 09.06.2016: [4] An den Unwettern ist der Mensch eher nicht schuld – aber ganz sicher an deren Folgen
EIKE 06.07.2016: [2] Das Unwetter bei Simbach am Inn – Ein Nachtrag zur Debatte im Bayerischen Landtag:
Das damals kurz nach dem Ereignis Geschriebene gilt immer noch. Lediglich die Niederschlagsangaben müssen zwischenzeitlich korrigiert werden, denn die Daten des DWD sind (immer noch) unvollständig, was damals nicht richtig erkannt wurde. Doch die damals aufgrund der Recherche mutig getroffene Feststellung, dass die Ursache der extremen Fluthöhe (Normalhöhe: ca. 50 cm, Fluthöhe: Ca. 5 m) ein Dammbruch war, wurde von anderen Stellen bestätigt.
[5] FOCUS ONLINE 03.06.2016: Simbach am Inn Verstopftes Rohr löste offenbar Flutwelle aus
… und Schuld daran war offenbar ein verstopftes Rohr. Als sich darin Bäume und Sträucher verfingen, nahm die Katastrophe ihren Lauf – jetzt will die Stadt reagieren.
… Es soll sich um ein Wellstahlrohr handeln, das häufig an Bächen als Straßenunterführung verbaut ist – so auch beim Simbach. Durch Sträucher und Bäume sei das Rohr verstopft gewesen. Dadurch habe sich ein Stausee gebildet. Als der Straßendamm brach, sei der See als Flutwelle durch den Ort geströmt.

Süddeutsche Zeitung, 9. Juni 2016: Hochwasserkatastrophe Rohr löste offenbar Flutwelle in Simbach aus
Die Ursache der tödlichen Flutkatastrophe in Simbach am Inn war offenbar ein verstopftes Rohr. Weil eine Unterführung des Simbachs durch Bäume und Sträucher verstopft war, hatte sich vor einem Straßendamm im Norden der Stadt ein gigantischer Stausee gebildet. Als dieser Damm brach, ergoss sich am Nachmittag des 1. Juni eine riesige Flutwelle über die Stadt.

Wer „erfand“ das 1000-Jahre Ereignis?

Eine Nachfrage dazu an die dpa, welche Fundstelle zur Einstufung als 1000-Jahre-Ereignis angezogen wurde, sowie an den DWD, wie dort das Ereignis bewertet wird, wurden bisher nicht beantwortet. Somit lässt sich die Quelle nur vermuten. Aufgrund der Recherchen kommt der Autor zu dem Schluss, dass es die Darstellung eines Münchner Professors für den Bayerischen Landtag sein könnte (in [2] beschrieben)). Dieser Professor informierte damals in einer Stellungnahme:
WELT N24, 16.06.2016: [3] Die Analyse der Simbacher Sturzflut ist beunruhigend
Zwei Wochen nach der Flutkatastrophe von Niederbayern verheißt die erste vorsichtige wissenschaftliche Bewertung nichts Gutes für die Zukunft: Eine vergleichbare Wetterlage wie Ende Mai und Anfang Juni hat es nach Einschätzung eines Experten noch nie gegeben – und technische Schutzmaßnahmen gegen so genannte tausendjährige Hochwasser gebe es in keinem Staat der Welt. Das sagte Martin Grambow am Donnerstag im Landtag, er ist Leiter der bayerischen Wasserwirtschaft und Professor an der Technischen Universität München.
Phänomen neuer Ausprägung“
Tausendjähriges Hochwasser – im Fachjargon als „HQ 1000“ bekannt – bedeutet, dass ein Gewässer auf einen Rekordpegel anschwillt, der im statistischen Schnitt nur alle tausend Jahre einmal erreicht wird.
In
Simbach am Inn war am ersten Juni der Pegel des gleichnamigen Simbachs innerhalb kurzer Zeit um fünf Meter angestiegen. „Wir gehen davon aus, dass wir es mit einem Phänomen in einer neuen Ausprägung zu tun haben“, sagte Grambow dazu.
Nach historischen Aufzeichnungen könnte es im Jahr 1766 einmal eine ähnliche Wetterlage gegeben haben, doch genau klären lässt sich das nach Grambows Angaben nicht.
… Und technische Hochwasserschutzmaßnahmen gegen derartige Katastrophen sind nach Grambows Einschätzung allein aus Kostengründen quasi ausgeschlossen: „Es gibt keinen Staat der Welt, der auch nur annähernd versuchen würde, HQ1000-Ereignisse mit technischen Möglichkeiten zu bewältigen.“

Dieser Professor erzählt praktisch ununterbrochen von etwas „Tausendjährigem“. Ob er damit nur die Fluthöhe in Simbach oder das Niederschlagsereignis, oder beides meinte, lässt sich nicht genau ableiten. Es dürfte aber ziemlich sicher sein, dass sich die dpa und SZ auf diese Darstellungen beziehen.

Die Niederschlagsdaten in Simbach am besagten 1. Juni 2016

Es überrascht, aber im Datensatz des DWD mit Stundenauflösung fehlen an diesem wichtigen Tag die Messwerte von vier vollen Stunden. Anscheinend ist diese Messstelle den ganzen Vormittag vor dem Dammbruch (am Nachmittag) ausgefallen. Im Datensatz mit Tagesauflösung ist der Tag (inzwischen) mit -999 als fehlerhaft gekennzeichnet.
Im Bild 1 dazu die Daten der Messstelle Simbach und zusätzlich die von drei nahe gelegenen Messstationen

Bild 1 Niederschlags-Stundenwerte von Simbach und dreier Nachbarstationen vom 31.05. – 01.06.2016


Die fehlenden Daten der vier Vormittagsstunden am 01.06. der Messstelle Simbach lassen sich nicht aus den Nachbarstations-Messwerten rekonstruieren. Diese zeigen nur, wie extrem lokal begrenzt dieser hohe Niederschlag bei Simbach stattgefunden hat.
Aufgrund dieser „Datennot“ wurden die Werte deshalb anhand der Angaben aus einem DWD-Foliensatz [6] ergänzt. Darin ist für Simbach anhand von Radardaten ein Niederschlag für die zwei Tage (31.5. – 1.6.) von 180 mm angegeben. Obwohl Radardaten und Stationsmesswerte nicht direkt vergleichbar sind, wurde dieser Radar-Messwert zur Ergänzung des fehlenden Tageswertes am 1.6. verwendet:
Simbach 31.05.: Niederschlag 74,6 mm (DWD-Wert)
Simbach 01.06.: Niederschlag 106 mm (Ermittlung: lt. DWD 180 mm für zwei Tage, 180 mm – 74,6 mm = aufgerundet 106 mm)
Damit sehen die Niederschlagsgrafiken wie folgt aus: Bild 2 zeigt die Tageswerte seit dem Jahr 1952. Der Tageswert am 1.6.2016 ist hoch, erscheint aber bei Weitem nicht 1000-jährig selten zu sein.

Bild 2 Niederschläge Simbach Tageswerte 1951 – 2016. Vom Autor aus den DWD-Daten und einer Ergänzung für den 1.6.2016 erstellt


Erst wenn man die Niederschlagssumme zweier Tage zusammen (Bild 3) als Maßstab nimmt, wird das Bild am 1.6. extremer und die zwei Tage ragen etwas weiter heraus. Jetzt muss man nur noch glauben, dass alle Niederschlagsspitzen der Vergangenheit genauer als die am 1.6. gemessen wurden und örtlich gleich verteilt erfolgten.
Wahrscheinlich liegt man mit der Aussage nicht weit daneben, dass seit 1954 ca. drei Mal ein vergleichbares Niederschlagsereignis stattgefunden hat. Und wenn man die Auszüge der Stadtchronik liest [4], gab es in der Vergangenheit regelmäßig schlimme Unwetter- und Flutereignisse von beiden Seiten, den umliegenden Bächen und vom Inn selbst, teilweise auch gemeinsam auftretend (was am 1.6. nicht der Fall war).

Bild 3 Niederschläge Simbach, 2-Tageswerte gleitend summiert, 1951 – 2016. Vom Autor aus den DWD-Daten und einer Ergänzung für den 1.6.2016 erstellt


Nun zu umliegenden Messstellen mit längeren Niederschlags-Mess-Zeitreihen (Bilder 5-7).
Die Messwerte dieser umliegenden Stationen zeigen, dass Starkregen-Mengen der Vergangenheit öfters deutlich höher als die aktuellen waren und sie bestätigen die kleinräumige Verteilung des Ereignisses von Simbach.

Bild 4 Lage von Messstationen dieser Gegend mit weiter zurückreichenden Tageswerten


Bild 5 Niederschläge Pfarrkirchen, Tageswerte seit 1951. Bild vom Autor anhand der DWD-FTP-Daten erstellt


Bild 6 Niederschläge Simbach Zeilarm Tageswerte seit 1951. Bild vom Autor anhand der DWD-FTP-Daten erstellt


Bild 7 Niederschläge Rotthalmünster, Tageswerte seit 1951. Bild vom Autor anhand der DWD-FTP-Daten erstellt


Dazu eine noch längere Zeitreihe, natürlich aus einer anderen Gegend, aber relativ typisch für das Voralpenland.
An der Station Hohenpeißenberg sieht man ebenfalls die extreme Variabilität von Tagesniederschlägen – und dass das Jahr 2016 (welches vollständig im Datensatz enthalten ist) keine herausragende „Stellung“ einnahm. Niederschläge wie in Simbach gibt es auch dort.
Anhand der 2-Tages-Summen (Bild 9) sieht man, dass dies für 2-Tages-Ereignisse wie in Simbach sogar verstärkt gilt. Nebenbei zeigt dieses Bild, dass die Daten vor 1880 zu viele Lücken aufweisen, um mit den historischen Anfangsdaten (bis 1880) Aussagen zum Niederschlag durchzuführen.

Bild 8 Niederschlag Hohenpeißenberg seit 1801 – 2016. Grafik vom Autor anhand der DWD-FTP-Daten erstellt


Bild 9 Niederschlag Hohenpeißenberg seit 1801 – 2016, 2-Tages-Summen. Grafik vom Autor anhand der DWD-FTP-Daten erstellt

Was sagt der Deutsche Wetterdienst

Dieser hat nach den Ereignissen vom letzten Jahr zwei Schriften herausgegeben, welche sich etwas mit der Einstufung auseinandersetzen. Anbei Zitierungen daraus:
DWD: [9] Während die stündlichen Niederschlagsmengen der meisten Gewitter Wiederkehrzeiten unter zehn Jahren aufwiesen, lagen die Wiederkehrzeiten für die extremsten Stundensummen, abgeleitet aus den Radarmessungen, über 100 Jahre.
Das ist schon einmal ein Anhaltspunkt, unabhängig davon, wie der DWD die Vergleichs-Daten der letzten 100 Jahre ermittelt haben will, wenn selbst modernste Messstationen bei solchen aktuellen Ereignissen keine liefern und in der Not auf Radardaten zurück gegriffen werden muss.
Beim Versuch einer Trendermittlung zeigen sich dann Vermutungen, aber so richtig liegt kein belegbarer Trend vor.
DWD [10] Für den Sommer (meteorologisch sowie hydrologisch) lassen sich dagegen praktisch keine Trends identifizieren. Hier dominieren kurz- und längerfristige zyklische Variabilitäten. Zudem verlief die Starkniederschlagsentwicklung seit 1951 in den einzelnen Regionen sehr unterschiedlich, wodurch das indifferente Gesamtbild zu dieser Jahreszeit noch weiter verstärkt
wird. Lediglich für den hydrologischen Sommer und den höchsten ausgewerteten Schwellenwert ist für die Südhälfte Deutschlands eine leichte Zunahme erkennbar. Obgleich aufgrund des geringen Anstiegs nicht gesichert, ist dieses Ergebnis insofern beachtenswert, dass hier gerade der deutlich extremste Schwellenwert etwas heraussticht
… untermauern die charakteristisch hohe Niederschlagsvariabilität im Sommer, wo sowohl Zu, als auch Abnahmen des Starkniederschlages selbst an benachbarten Stationen auftreten können,
Andauern unterhalb von 24 Stunden
Für kürzere Dauerstufen von weniger als 24 Stunden liegen konkret für das Gebiet von Deutschland bislang noch recht wenige Erkenntnisse zum Trendverhalten von Starkniederschlägen vor. Zwar deuten Analysen von flächendeckenden Radardaten daraufhin, dass es in den vergangenen 15 Jahren zumindest regional eine Zunahme auch von Starkniederschlägen kurzer Dauer gegeben hat, jedoch sind diese Aussagen aufgrund der geringen Länge der Zeitreihen nicht sonderlich aussagekräftig.

Und es könnte mit Trends auch umgekehrt sein:
DWD [10] Gemäß erster Ergebnisse einer aktuellen Untersuchung dieser Daten weisen die hohen Niederschlagsschwellen der Dauerstufe 60 Minuten während der Monate Mai bis September in den meisten Regionen Deutschlands im Zeitraum 1965 bis 2015 häufiger einen negativen als einen positiven Trend auf.
Das beliebte Spiel, fehlende Daten mittels Simulationen zu erzeugen, klappt hier ganz und gar nicht:
DWD [10] Vergleich mit Klimaprojektionsergebnissen
Für den Sommer lassen sich auf Basis des im Rahmen dieser Untersuchung verwendeten Ensembles kaum Aussagen treffen, da die vier betrachteten Modelle die Änderung der Auftrittshäufigkeit von Starkniederschlägen widersprüchlich projizieren. Die Projektionen stimmen lediglich in der Aussage überein, dass der Anteil der Starkniederschläge am Gesamtniederschlag zukünftig steigen wird. Dabei bleibt aber offen, wie sich dieser Anstieg auf die Zunahmen von Häufigkeit und Intensität der Starkniederschläge verteilt.
Zum Schluss wird der DWD ganz „genau“ und sagt, dass derzeit nichts bekannt, aber alles möglich erscheint:
[10] Zum einen simulieren die Klimamodelle – wenn überhaupt – erst ab etwa 2020 eine leichte Zunahme. Zum anderen existieren zumindest für den süddeutschen Raum Anzeichen für einen geringfügigen Anstieg in den vergangenen rund 50 Jahren.
[6] Der Zeitraum ist aber (noch) zu kurz um „klimafeste“ Aussagen über die Verteilung des Starkregenrisikos oder gar über Trends abzuleiten.
Fazit
Nach den Angaben des DWD:
– könnte der Niederschlag bei Simbach ein 100-Jahre-Ereignis gewesen sein, obwohl in [6] steht: „Die Niederschlagssummen in Simbach liegen noch weit unter historischen Rekorden!“ und die Datenqualität für Starkniederschlag miserabel ist,
– ist es nicht möglich, einen Klimawandel-Bezug herzustellen, man kann ihn höchstens vermuten,
– ist über das Hochwasser, welches mitten durch die Stadt Simbach flutete nichts ausgesagt.
Verschlimmernd kommt hinzu, dass das Unwetter nicht – wie es die Klimatheorie verlangt – nach Hitzetagen erfolgte, sondern nach eher kühlem Wetter.

Der Simbach – kein Bach mit „immer nur 50 cm Wassertiefe“

Wenn „Fachleute“ sich etwas „nicht vorstellen können“ und von „nie gekannter Größe“ faseln, ist immer Vorsicht geboten. Oft ist das nur Ausdruck fehlenden Wissens.
Wer aufgrund der Schilderungen des Professors meint, der Simbach sei ein ruhig und gemütlich durch den Ort plätschernder Stadtbach und hätte noch nie Probleme bereitet, muss nur in die Stadtchronik schauen. Anbei ein Auszug daraus:
[4] Wieder nur 18 Jahre später kam die nächste Flutkatastrophe auf den Ort zu. Diesmal war der Simbach der Auslöser, der im Juli 1938 nach einem Gewitterregen derart anschwoll, dass er aus seinem Bett heraustrat und weite Teile Simbachs überschwemmte.
Und noch einmal nur 16 Jahre später, im Juli
1954, wurde Simbach von der nächsten Flutkatastrophe heimgesucht; diesmal aus einer Kombination von Simbach- und Inn-Hochwasser. Nach wochenlangem Regen trat zunächst am 8. Juli der Simbach über die Ufer und überschwemmte kurzzeitig von der Bach- über die Inn- und Gartenstraße den gesamten Ortskern. Das Wasser floss schnell wieder ab, doch nun wurde die Lage am Inn immer brenzliger. Am 9. Juli wurde dort die Hochwassermarke von 1899 überschritten. Immerhin gab es nun einen funktionstüchtigen Damm, doch auch dieser drohte jetzt, dem Wasser nicht mehr standhalten zu können.
Wie unberechenbar die Simbacher Gewässer bleiben, zeigt auch eine Einschätzung von Rudolf Vierlinger zur Hochwassergefahr durch den Simbach. Nach den Erfahrungen von 1954 wurde auch dieser aufwändig ausgebaut, um zu verhindern, dass er noch einmal über die Ufer tritt. Über die Baumaßnahmen, die 1958 abgeschlossen wurden, schreibt Vierlinger 1986: Was Jahrhunderte hindurch von vielen Generationen sehnlichst erwünscht wurde, ging endlich in Erfüllung. Die Bewohner der Stadt Simbach haben nun von dieser Seite her keine Gefahr mehr zu befürchten.
Doch nur fünf Jahre, nachdem diese Zeilen geschrieben wurden, zeigte der Simbach, dass er noch immer unberechenbar war. Nach heftigen Regenfällen schwoll er binnen kürzester Zeit so stark an, dass er am Abend des 31. Juli
1991 auch sein nun ausgebautes Bett verließ und sich als Wasserwalze durch die Straßen von Simbach schob. Wieder wurden weite Teile der Stadt überschwemmt, von den direkt am Bach gelegenen Straßen, über die Inn- bis weit hinein in die Gartenstraße.

Verbauung des Simbach

In [4] wurde es mit Details beschrieben, daraus ein paar Auszüge zur Information:
[4] Diplomarbeit 2007:
… Beim Simbach kann man davon ausgehen, dass Laufverkürzungen auf Grund von Begradigungen im Umfang von bis zu 50% vorliegen. Die ursprüngliche Länge betrug 13-15 km, wobei es heute nur noch etwa 10 km sind. Als absolutes Hauptproblem ist die Beeinträchtigung durch Begradigung des Flusslaufes zu sehen. Diese zog eine Eintiefung des Gewässerbettes nach sich und damit sind natürliche Ausuferungen kaum noch möglich. Es besteht kaum noch Raum für eine Retention der Hochwasserwelle und die Uferstreifen- und Rückhaltefunktion ist gestört, bzw. nicht vorhanden. Dazu kommt der fehlende oder untypische Uferbewuchs.
… Durch Sohl- und Uferverbau wird dem Gewässer sein Verlagerungspotential, seine Breiten- und Tiefenvariabilität sowie seine Strukturausstattung genommen (Abbildung 3.15)
… Weiterhin ist im Hochwasserfall eine geringe Retention (Abflachung der Hochwasserwelle) zu beobachten.

Beispiel eines damaligen Blogeintrags:
[4] … ich lebe seit mehr als 50 Jahren in Simbach. Ich weiß noch wie es hier Stück für Stück mehr und mehr zugebaut wurde. Bis zum letzten cm wird an die Bäche rangeackert. An jeden Hang werden Häuser gebaut und Bäume abgeholzt. So rutscht bei jedem Starkregen, und da müssen es nicht unbedingt 150l sein, immer mehr Dreck in die Bäche. Die Bäche werden immer mehr in kleine Backbette mit „Durchlässen“ gezwängt. Wasser sucht sich seine Bahn.
Ich habe in den letzten 30 Jahren dreimal erlebt das der Simbach die Dämme überflutet hat, aber so wie dieses mal war es noch nie. Noch nie wurde soviel Holz und Unrat mitgeführt und hat letztendlich alles platt gewalzt.

Ausserdem ist in Simbach ein Damm am Bach gebrochen der gerade saniert wurde, heißt, der war noch nicht mal richtig fertig. Da hatte das Wasser dann „leichtes Spiel“
Fazit
Die Gegend im Einzugsbereich des Simbach und auch der Bach selbst, sind mit dem historischen Zustand nicht mehr auch nur entfernt vergleichbar. Somit sind Vergleiche mit früheren Flutereignissen praktisch nicht mehr durchführbar.

Die Einschätzungen des Professors

Wie man bei einer solch konfusen (Niederschlags-)Datenlage und zwischenzeitlich erfolgten Verbauungen sowie Flächen-Nutzungsveränderungen herausbekommen will, dass das Ereignis Simbach Klimawandel-bedingt wäre und dazu noch ein Tausend-jähriges Ereignis darstellt, entzieht sich jeglicher rationalen Belegung. Zumindest die Daten, zu denen ein Privatbürger Zugang hat, geben es nicht im Ansatz her und auch vom DWD wird es nicht berichtet.
Dem Professor gelingt es jedoch, hemmungslos schlimmste Szenarien zu fabulieren.
[7] Prof. Grambow spricht von Megazellen, Extremhochwasser, nie gekannter Größe, Zerstörung, Überlastung und er sagt zugleich: „Unsere Befürchtung ist, dass solche Ereignisse in Zukunft wesentlich häufiger auftreten werden.“ „Handelt es sich denn dabei um ein Klima- oder ein Wetterphänomen?“ fragt Hans Ritt (CSU). Das sei unter Experten umstritten, sagt Grambow – wobei die Allermeisten der Ansicht seien, man habe es hier mit den Boten des Klimawandels zu tun. „Wenn es den Klimawandel gibt, dann schaut er genauso aus.“ Also Starkregen, Sturzfluten, Überschwemmungen, milliardenschwere Schäden und schlimmstenfalls Tote – darauf werden wir uns einstellen müssen.
Auch seine Aussage zum angeblich unvermeidlichen Dammbruch erscheint mehr als höchst fragwürdig, eigentlich gegen besseres Wissen. Denn es ist belegt [2], dass der gebrochene Damm überhaupt nicht als solcher gebaut wurde, sondern ein Planungsfehler der 70er Jahre war.
[2] SZ:Simbach am Inn war am ersten Juni der Pegel des gleichnamigen Simbachs innerhalb kurzer Zeit um fünf Meter angestiegen. „Wir gehen davon aus, dass wir es mit einem Phänomen in einer neuen Ausprägung zu tun haben“, sagte Grambow dazu,
kann nach allen bisherigen – seitens eines Amateurs recherchierbaren Informationen – eigentlich nur noch als Schwachsinn bezeichnet werden. Denn seit wann ist der Bruch einer falsch gebauten Talquerung aufgrund von Überlastung – unter anderem, weil der Durchfluss verstopfte – mit folgender Flutwelle „ein Phänomen einer neuen Ausprägung“?
Solche „Phänomene“ gibt es rund um die Welt. Ungewöhnlicher ist, dass es diese auch in Deutschland immer wieder gibt.
Hierzu könnte man sich allerdings vorstellen, dass dieser Professor damit etwas ganz anderes ausdrücken wollte und menschliches Versagen und Dilettantismus bei solchen Infrastrukturmaßnahmen speziell für den bayerischen Landtag so umschrieben hat. Denn sonst hätte er dieses hohe Haus damit konfrontieren müssen, dass ihre vielen und teuren Maßnahmen zur CO2-Vermeidug (wie es Simbach so erfolgreich gemacht hat, dass es dafür einen Preis gewann) nichts nutzen, aber sinnvolle Maßnahmen in der Infrastruktur blockieren.
Leider ist diese Auslegung unwahrscheinlich. Der Herr Professor ist im Beirat und Mitglied in der Steuerungsgruppe der „Internationalen Expertengruppe zur Bewahrung des Erdsystems“ (IESP). Diese Expertengruppe ist (lt. WIKIPEDIA) mit Prof. Schellnhuber „verbandelt“ und firmiert unter anderem mit folgender Aussage:
ISPE-Faltblatt: Krisen bewältigen, die geographische Grenzen überschreiten Beispiel: Erderwärmung
Damit hat der Professor auch kein Problem damit, gemeinsam mit Professor Harald Lesch (auf EIKE kürzlich mehrfach kritisch rezensiert und auf kaltesonne) während einer Podiumsdiskussion die gesamte, gängige Klimaapokalypse „herunterzubeten“ und dabei noch zu behaupten, aus einer Beobachtungszeit seit 2007 signifikante Klimawandel-Zusammenhänge ableiten zu können.
TZ, 21.11.2016: [12] Dauerregen und Sturzfluten Folgen des Klimawandels
[12] H. Lesch: Auch für Bayern habe die Erwärmung Folgen. „Seit 1960 hat sich die mittlere Temperatur in Bayern um 1,6 Grad erhöht.“ Mehr Wärme bedeutet mehr Verdunstung. Und mehr Verdunstung bedeutet mehr Niederschlag. „Wasser in der Atmosphäre ist ein Terrorist“, sagte Lesch plakativ und meint damit die Energie, die bei der Kondensation frei wird. „Da oben ist der Teufel los.“ Die Menschen in Bayern müssten deshalb vermehrt mit heftigen Gewittern, Starkregen und Platzregen rechnen.
Prof. Grambow: [12] Wie neu diese extremen Regenfälle sind, erklärte Martin Grambow, Leiter der Abteilung Wasserwirtschaft im Umweltministerium und Professor an der TU München. „Wir verfolgen diese Extremereignisse seit 2007.“ Damals hatte eine Sturzflut das mittelfränkische Baiersdorf verwüstet. Starker Regen an sich sei noch nichts Neues. Aber dass sich diese mit Wasser aufgeladenen Tiefs schlagartig, „wie ein Eimer Wasser“, abregnen und das auch noch, ohne sich zu bewegen, sei in Baiersdorf oder in Simbach das Besondere gewesen. „Das haben wir früher in unseren Breiten nicht beobachtet“, sagte Grambow.
Wie weit Herr Lesch mit seiner Darstellung „… Und mehr Verdunstung bedeutet mehr Niederschlag“ daneben liegt, ist in [14] dargestellt. Daraus die relevanten Jahreszeit-Daten für Bayern. Seit dem Beginn der Messreihen hat sich am Niederschlag wirklich überhaupt nichts verändert. Herrn Lesch dürfte dies bekannt sein. Seine Aussagen dazu sind damit sehr vorsichtig formuliert „rational nicht erklärbar“. Dabei ist ein Standardsatz von H. Lesch in seinen Vorträgen: „Jeder hat das Recht auf eine eigene Meinung. Aber nicht auf eigene Fakten.

Bild 9.1 Frühling: Verlauf Temperatur (Bayern und Baden-Württemberg) und Niederschlag (Bayern) 1881 – 2016. Vom Autor aus den DWD-Daten erstellt


Erwärmung gleich mehr Niederschlag?

Es ist physikalisch richtig, dass wärmere Luft mehr Feuchte speichern kann. Nicht richtig ist die Ableitung daraus, damit würde es bei zunehmender Erwärmung immer mehr und stärker regnen (siehe die Bilder 9.1 und 9.2).
Erst kürzlich erschien ein Artikel, der über dieses Thema aufklärte:
EIKE:
Über den Unterschied zwischen Energie, Arbeit und Leistung – und warum das für die Klima-Prophezeiungen eine Rolle spielt
Beispiele sind:
Die Sahara, sie war zur römischen Warmzeit feuchter als heute,
die Kalmengürtel, welche rund um die Welt trotz der Lage in heißen Zonen immer trocken sind,
der Sahel, der dank der Erwärmung feuchter wird (weil der Monsun nun wieder hinein gelangt).
Und die genannten Unwetter sind ein Beispiel: Sie erfolgten nicht nach Hitzetagen. Sie waren (lokal) trotzdem so extrem, weil kein Wind blies, der die Wolkengebirge weiter bewegte; wenig Wind, das das Gegenteil von dem, was zunehmen sollte.
Prof. Lesch hat das in seiner Ausführung geflissentlich „übersehen“. Er hat auch „übersehen“, dass seine Aussagen zum Niederschlag in Bayern langfristiger betrachtet nicht stimmen. Belegbar ist, dass der Niederschlag in Bayern sich seit 1880 in keiner Jahreszeit verändert hat, wie es in einer ganz aktuellen, umfangreichen Rezension anhand der Daten gezeigt ist:
EIKE: Der Klimamonitoringbericht 2016 für Süddeutschland,
EIKE: Die Niederschlagsentwicklung in Deutschland und weltweit zeigt keinen Klimawandel-Einfluss
was auch international Gültigkeit hat:
kaltesonne: eine weitere seriöse Studie aus dem Dezember 2015 im Journal of Hydrology von van Wijngaarden und Syed konnte in den letzten mehr als 150 Jahren keine signifikanten Aufälligkeiten in den Niederschlägen entdecken, trotz des enormen klimatischen Wechsels von der Kleinen Eiszeit hin zur Modernen Wärmeperiode. Hier der Abstract:
Changes in annual precipitation over the Earth’s land mass excluding Antarctica from the 18th century to 2013
Der DWD stellt es deshalb auch wesentlich vorsichtiger und differenzierter dar:
[12] … Allerdings spielen bei der Niederschlagsbildung eine ganze Reihe weiterer Faktoren und Prozesse … eine wesentliche Rolle. Dementsprechend ist zumindest mit regionalen Unterschieden zu rechnen. Nicht überall werden die Niederschläge im gleichen Maße zunehmen, in manchen Gebieten könnte es durchaus auch trockener werden.
Was der DWD hier verklausuliert sagt, ist die Tatsache, dass die Simulationen beim Niederschlag grandios versagen:
EIKE: Klimamodelle rekonstruieren Niederschlagsentwicklungen nur mit gröbsten Fehlern
Zu Prof. Grambows Bemerkung lässt sich nur ergänzen: Wie wollte man so extrem lokal begrenzte Starkniederschläge früher beobachten, wenn es erst heute mittels Wetter-Radar im Ansatz gelingt?

War das „Ereignis Simbach“ damit ein 1000-Jahre Klimamenetekel

Nach Überzeugung des Autors auf gar keinen Fall. Nicht einmal, dass es ein 100-jähriges gewesen sein könnte, wie man aus der DWD-Schrift vielleicht ableiten könnte, ist wahrscheinlich, zumindest ebenfalls nicht belegbar.
Begründungen:
-Die Daten seit 1951 (länger zurückreichend aus der Gegend fand der Autor nur einen Datensatz bis zum Jahr 1931) geben es nicht her.
-Die Stadtchronik gibt es nicht her (sie berichtet von schlimmsten Fluten in der Vergangenheit)
-Die in jüngerer Zeit erfolgten Verbauungen des Bach-Oberlaufs und massiven, landwirtschaftlichen Veränderungen der Flächen (welche schon vorher von Personen als Hochwasser-Gefahr beschrieben wurden [4]) geben es nicht her
-und die gebrochene Talquerung, welche nie als Damm gedacht war, schon gar nicht.
-Daten vor ca. 1890 sind – wie das Beispiel Hohenpeißenberg zeigt – beim Niederschlag sehr lückenhaft und lassen keine wirkliche Analyse zu.
Daten über 1000 Jahre, welche zur Belegung eines solch kleinflächigen, nur mittels moderner (selbst aktuell noch mit Schwächen behafteten) Radartechnik rekonstruierbaren Ereignisses dienen könnten, erscheinen dem Autor nicht möglich. Dem DWD liegen solche wohl auch nicht vor – sonst hätte er es in seinen Publizierungen erwähnt.
Trotzdem wird es wohl so kommen, dass die „Tausend-Jahre“ Darstellung des Professors bald auf WIKIPEDIA und in Schulbüchern auftaucht.
Nachdem ein deutsches Gericht festgestellt hat, dass die Meldung einer Presseagentur als „wahr“ angenommen werden darf und nicht mehr überprüft werden muss, begeht damit auch niemand eine Falschaussage, oder wird seiner Verantwortung, solche zu vermeiden nicht gerecht.
Die SZ zeigte, wie es funktioniert und warum man diese Zeitung in Foren häufig als „Alpenprawda“ bezeichnet: Obwohl sie selbst vom Dammbruch berichtete, wurde dieses Wissen danach „vergessen“ und von der Flut, welche „ … alle 1000 Jahre vorkommt“ [1], fabuliert.
Es kann natürlich sein, dass es wieder 1000 Jahre dauert, bis in Simbach vor dem Ort ein Damm bricht und nochmals eine
5 m hohe Flut durch den Ort rast. Vorher konnte es nicht vorkommen, da diese Talquerung erst in den siebziger Jahren gebaut wurde. Mit der nötigen Phantasie lassen sich für das 5 m Flutereignis somit jedoch beliebige „Statistikwerte“ fabulieren, nur hat keiner davon etwas mit einem Klimawandel zu tun.

Der Katastrophenalarm

Es erschüttert zudem, dass im Hochtechnologieland Deutschland es nach Tausend Jahren noch nicht möglich ist, vor einem Starkregenereignis zu warnen. Man kann es zwar schon so langsam erkennen, doch dann kann eine Behörde noch lange nicht informieren. Zwar gibt es überall Sirenen und inzwischen auch andere Kommunikationsmittel, doch aus irgend einem Grund wird zwar ununterbrochen vor der Temperatur im Jahr 2100 gewarnt, vor einem aktuellen Starkregen rechtzeitig zu warnen ist aber anscheinend nicht zulässig, weil die Zuständigkeiten ungeklärt sind.
Wie lief der Katastrophenalarm am 01.06.2016 ab?
Eine kleine Recherche zeigt exemplarisch, wie damit in einer Gegend, welche seit Menschengedenken ständig von Fluten bedroht ist, umgegangen wird. Man erinnere sich daran, dass die Starkregenfälle in Bayern und Württemberg bereits einen Tag zuvor begannen und jedem Sachkundigen klar war, dass die Unwetterlagen mangels Wind lokal abregnen würden.
Der Tag davor:
inFranken.de, Meldung vom 31.05.2015: Schwere Unwetter in Bayern – Verwüstungen in Region Ansbach
Feuerwehrfahrzeige stehen am 29.05.2016 in Ansbach (Bayern) an einer überfluteten Straße vor einem Haus. Schwere Regenfälle hatten zu Überschwemmungen geführt.

Am 01.06.2016 bei Simbach.
tz: [12] … Nein, vorbereitet sei er auf dieses Ausmaß natürlich nicht gewesen, sagt Hans Prex, Kreisbrandrat im Landkreis Rottal-Inn. Der Morgen des 1. Juni begann für den Feuerwehrmann mit einem scheinbar banalen Einsatz. Im Gemeindegebiet von Ering war eine Herde Schafe vom Wasser eingeschlossen. „Erst nach und nach haben wir gemerkt: Das hört ja gar nicht mehr auf zu regnen.“ Rinnsale, die im Juni normalerweise ausgetrocknet sind, hatten auf einmal einen Wasserstand von einem Meter. „Um 12 Uhr mittags habe ich den Landrat angerufen“, sagt Prex, „und ihn gebeten, den Katastrophenalarm auszulösen.
Ausgelöst wurde der Katastrophenalarm dann ca. 2 1/2 Stunden später. Da war die Talquerung vor Simbach aber schon gebrochen.
[15] Passauer Neue Presse: Um 14.30 Uhr hat das Landratsamt Rottal-Inn den Katastrophenfall ausgerufen.
Dabei ist das Thema unzureichender Warnungen und Maßnahmen längst bekannt. Herr Kachelmann hat ein Jahr zuvor mangelnde Unwetterinformation bereits massiv bemängelt:
12Jun 14: Das Unwetter, Kachelmann, der WDR — und der Fluch der Routine
… Der WDR will künftig bei drohenden Unwettern seine Zuschauer mit Einblendungen im laufenden TV-Programm warnen. Das ist eine Lehre, die der Sender aus den Abläufen am Pfingstmontag gezogen hat. Mehrere Menschen in Nordrhein-Westfalen waren an diesem Tag bei außerordentlich heftigen Unwettern ums Leben gekommen; Kritiker wie Jörg Kachelmann hatten dem WDR vorgeworfen, dafür eine Mitverantwortung zu tragen, weil er in seinen Programmen nicht angemessen gewarnt habe.
In einer größeren Kolumne ist das ganze Informationsdrama ausführlich dargestellt:
TYCHIS EINBLICK, 31. Mai 2016: Wetterwarnung kann der ÖR nicht, nur Klimawandel Sturzbäche und das Fernsehen.
Wie oft, haben Fachpolitik-Kräfte höherer Hierarchien aber äußerst sachkundige und hilfreiche Lösungsvorschläge parat:
[4] Frau Hendricks: … aber für Überschwemmungsgefahren durch Bäche und kleine Flüsse seien die Landesbehörden zuständig. In Zukunft müsse dort der Katastrophenschutz angepasst werden. So müsse beispielsweise innerhalb einer Stunde gewarnt werden. „Darauf sind wir noch nicht eingestellt“, sagte Hendricks. Dafür sollten die lokalen Behörden etwa auch Lautsprecherwagen durch die betroffenen Gebiete schicken.
Da will die bayerische Umweltministerin nicht nachstehen. Sie umschreibt bisheriges Versagen und Unvermögen allerdings wesentlich eleganter und vor allem zeit(geist-)gemäßer. Vor allem weiß sie sehr genau, wie man sich von Verantwortung entlastet und elegant delegiert.
[16] Bayerisches Staatsministerium für Umwelt und Verbraucherschutz, PRESSEMITTEILUNG:
Auf Initiative von Umweltministerin Scharf hat das Kabinett im Sommer eine weitere Stärkung des Hochwasserschutzes in den Regionen beschlossen: Neben 30 neuen Stellen für die Wasserwirtschaftsverwaltung wird eine zusätzliche Komponente „Sturzfluten“ in das Hochwasserschutz-Aktionsprogramm 2020plus aufgenommen. An zusätzlich 20.000 Kilometern Gewässer Dritter Ordnung, für die die Gemeinden zuständig sind, werden darüber hinaus neue Hochwassergefahrenkarten erstellt. Insgesamt stehen in den kommenden beiden Jahren zusätzlich 12 Millionen Euro zur Verfügung. Der Umgang mit Sturzfluten erfordert das erfolgreiche Zusammenspiel verschiedener Bereiche wie Wasser- und Baurecht, Landwirtschaft und Katastrophenschutz. Deshalb hat das Bayerische Umweltministerium heute das interdisziplinäre Symposium „Herausforderung Starkregen im Zeichen des Klimawandels“ in der Residenz in München organisiert. Scharf: „Der Mensch steht im Mittelpunkt unseres Handelns. Der intensive Dialog ist ein wichtiger Schritt zu mehr Sicherheit für unsere Bürger. Wir brauchen das Erfahrungswissen vor Ort genauso wie den engen Schulterschluss zwischen Klimaforschung und Entscheidern.“ Rund 300 Betroffene, Experten und Vertreter der Politik haben gemeinsam auf die Ereignisse im Sommer 2016 zurückgeblickt, zukünftige Auswirkungen und Herausforderungen des Klimawandels beleuchtet und Handlungsmöglichkeiten zur Vorsorge diskutiert.

1000 Jahre können auch genau anders herum enden: Es hängt nicht vom Klima, nicht vom CO2, sondern alleine von denkenden Menschen ab

Das Beispiel der Flutereignisse in Nürnberg (Bild 10) zeigt, wie solche „Tausend-jährige“ Ereignisse auch genau anders herum verlaufen können. Seit Beginn des „schlimmen Klimawandels“ gab es nicht einmal mehr mittlere Hochwasser (enden 1958), obwohl statistisch längst ein katastrophales und mehrere große hätten erscheinen müssen. Kennt Nürnberg damit keinen Klimawandel?
Selbstverständlich hat es „einen“, zumindest der Klimaschutzmanager der Stadt ist sich da ganz sicher und weiß viel Rat und Tat dazu:
Stadt Nürnberg, Homepage: Wir machen das Klima
Das Referat für Umwelt und Gesundheit engagiert sich seit langem für den Schutz unseres Klimas und seit 2009 auch für die Anpassung an den nicht mehr zu vermeidenden Klimawandel.
Dafür sind auch gewaltige, „sicher“ klimawirksame Maßnahmen in Umsetzung:
Stadt Nürnberg, Homepage: An morgen denken: Nürnbergs Strategie zum Klimaschutz
Die Stadt Nürnberg hat die künftige Entwicklung des Strom- und Wärmeverbrauchs untersucht und darauf aufbauend Maßnahmen bestimmt, um auch in Zukunft die Lebensqualität der Bürgerinnen und Bürger zu sichern
Klimaschutzfahrplan 2010 – 2020
Der Klimaschutzfahrplan 2010-2020 hat das Ziel, bis 2020 die CO2-Emissionen um 40 % gegenüber 1990 zu verringern.
Ohne der Stadt Nürnberg irgendwie nahe treten zu wollen, dürfte jedoch der einzige, wahre Grund für die „Klimaruhe“ sein, dass bereits Anfang 1900 (nach einem katastrophalen Hochwasser) mit der Planung eines Flutüberleiters begonnen wurde, der endlich 1958 fertig gestellt war. Und ein Wunder (oder Vorhersehbares) geschah: Seitdem gibt es dort keine Hochwasser-bedingten Überflutungen mehr.
Die Nürnberger können damit nur ihren Altvorderen danken, dass diese damals noch nicht auf deutsche Klima(hysterie-)professoren, UmweltministerInnen und KlimaschutmanagerInnen gehört haben und nicht zuerst mit der CO2-Vermeidung begannen (wie es Simbach in jüngerer Zeit vor-gemacht hat).

Bild 10 [4] Stadt Nürnberg Hochwasserereignisse von 1350 bis 2016. Daten vom Autor als Ereignisgraphik umgesetzt

Es ist nun (fast) etwas gemein, die Info zu wiederholen. Aber die Stadt Würzburg zeigte einmal exemplarisch, dass Schildbürger niemals aussterben.

Bild11 Hochwassermarken des Mains bei Würzburg seit dem Mittelalter bis 2013. Grafik vom Autor anhand der Datentabelle der Stadt Würzburg erstellt.


Trotz der bekannten und wirklich eindeutigen Hochwasser-Pegelstände des Main (Bild 11), legte man das Afrikafestival 2013 in die Hochwasserzone und wunderte sich dann, dass ein wirklich nur ganz kleines wie zu erwarten war, auch kam. Selbstverständlich war daran dann „der Klimawandel“ schuld.
DIE WELT, 05.12.14: Würzburg (dpa/lby): Der Klimawandel macht dem Würzburger Africa Festival zu schaffen: 2013 wurde es von Hochwasser überrascht, musste abgebrochen werden und herbe Verluste verkraften. Um künftig im Fall von Naturkatastrophen und ähnlichen Notfällen finanziell abgesichert zu sein, hat der Veranstalter nun eine Stiftung gegründet. «Das Wetter wird leider nicht besser, sondern schlechter. Wir müssen uns auf den Klimawandel einstellen», betonte Festivalleiter … am Freitag in Würzburg.
Gegen den Klimawandel helfen eben leider keine Fakten, weshalb man auch schon lange keine Fachleute mehr fragt:
Aussage des Wasser-Wirtschaftsamtes Würzburg: [13] „Die Hochwasser jüngeren Datums nach 1909 sind historisch unbedeutend (20-Jahre Ereignisse)

Wenn es den Klimawandel gibt, dann schaut er genauso aus

Zurück zum Ursprungs-Thema. Im Fabulieren von Klimaapokalypsen ist der Professor offensichtlich geübt:
[7] man habe es hier mit den Boten des Klimawandels zu tun. „Wenn es den Klimawandel gibt, dann schaut er genauso aus.
Im Bayerischen Landtag kann man die Wirkung solcher Sprüche problemlos testen, denn versehentlich vorhandene Kenntnis zum Thema ist dort eher nicht zu erwarten [2] und sollten doch Reste „herumsitzen“, würden diese sich nicht gegen die Parteidoktrin „outen“.
Anmerkung: Da die CSU-Umweltministerin (wohl mangels Kenntnissen) und alle anderen Oppositionsparteien (mangels einer eigenen Meinung) beim Klimawandel in aller Regel die Überzeugung der GRÜNEN pflegen, eher noch versuchen, diese zu übertrumpfen, reicht es, deren Aussage als Beispiel zu nennen. Nach einem sinnvoll erscheinenden Vorspann enden diese, wie nicht anders zu erwarten war:
[8] Bündnis 90 DIE Grünen: Lehren aus der Flutkatastrophe 2016
… Langfristig muss natürlich die Ursache dieser Starkregenereignisse benannt und bekämpft werden: der menschengemachte Klimawandel. Wir setzen uns dafür ein, die erarbeiteten Ziele der Klimakonferenz endlich in Nationales Recht zu gießen und umzusetzen.
Nachdem der Professor bis auf das Jahr 1766 zur Belegung zurückging, anbei eine informelle Listung, wie das angeblich „vorindustrielle, natürliche Ideal-Klima“, welches aktuell auch vom „Bayerischen Landtag“ herbeigesehnt wird, damals erlebt und der Nachwelt übermittelt wurde.
Quelle: Die inzwischen geschlossene Seite: www.wetterklimafakten.eu
1651: wohl extremst feuchtes Jahr in ganz Europa, Hungersnot. 26.2. „Petriflut“ Nordsee, Tausende Tote, Juist und Langeoog zerrissen ,Landverluste
1657/58: sehr kalter Winter
1658: Folge des kalten Winters: viele Überschwemmungen, Feb: großes Rhein-Hochwasser, Köln 12,07 m Pegel
1661: 22.9. : Überschwemmungen in Spanien. In Malaga 3.000 eingestürzte Häuser, Tausende Tote
1665: sehr heißer Sommer
1666: wieder sehr heißer Sommer, Hitze und Dürre, ausgetrocknete Flüsse, verdorrte Felder (wohl der heißeste des sonst kalten Jahrhunderts)
1669: 16.4.: Heftiger Regen löst Bergsturz in Salzburg aus, 300 Tote (seitdem gibt es den Beruf des „Bergputzers“)
1675: 4./5.11.: Sturmflut Holland, Tausende Tote, viele Zerstörungen
1682: wohl sehr feuchtes Jahr, viele Überschwemmungen überall, Donauhochwasser im Sommer
1687: Sommer: gewaltige Regenfälle Westeuropa, Überschwemmungen
1693: 24.6.: 24-stündiges Gewitter zerstört große Teile Kölns
1703: 26.11.: schwerster Sturm der englischen Geschichte, 8.000 Tote, 14.000 Obdachlose
1708/09: sehr kalter Winter Westeuropa, bis zu 100.000 Tote. Einer der kältesten Winter überhaupt. 10 Wochen alles gefroren
1717: Weihnachtsflut Nordsee, 20.000 Tote
1719: Sommer: Dürre und Hitze Europa: Ausgetrocknete Flüsse
1720: Katastrophales Lawinenjahr in den Alpen, viele Tote
1735: Gewaltige Überschwemmungen in Russland. Tausende Tote, ganze Dörfer und Städte weggeschwemmt. (Vielleicht die schlimmste Flutkatastrophe dort überhaupt)
1742: 5.6. großes Donauhochwasser
1768: Indien: Extrem-Monsun, riesige Überschwemmungen. Danach bleibt der Monsun 2 Jahre lang aus.
Erste genauere Wettermeldungen aus den USA setzen ein: Die lange Reihe von Hurrikan-Meldungen beginnt, jährlicher Wechsel der Häufigkeit, kein Unterschied zu heute.
Quellen
[1] Süddeutsche Zeitung, 30. Dezember 2016: Das zerstörerische Hochwasser hat die Seelen überflutet
[2] EIKE 06.07.2016: Das Unwetter bei Simbach am Inn – Ein Nachtrag zur Debatte im Bayerischen Landtag
[3] WELT N24, 16.06.2016 : Die Analyse der Simbacher Sturzflut ist beunruhigend
[4] EIKE 09.06.2016: An den Unwettern ist der Mensch eher nicht schuld – aber ganz sicher an deren Folgen
[5] FOCUS ONLINE 03.06.2016: Simbach am Inn Verstopftes Rohr löste offenbar Flutwelle aus
[6] DWD Foliensatz, 10. DWD Klimatagung: Bewertung des Starkregenrisikos in Deutschland auf der Basis von Radardaten
[7] Bayerischer Landtag, Donnerstag, 16. Juni 2016: Hochwasser in Simbach und Maßnahmen gegen weitere Katastrophen
[8] Bündnis 90 DIE Grünen: Lehren aus der Flutkatastrophe 2016
[9] DWD Schrift, Dr. Markus Ziese at al., Stand: 03.06.2016: Andauernde Großwetterlage Tief Mitteleuropa entfaltet Ihr Unwetterpotential mit starken Gewittern und massiven Schadensgeschehen in Deutschland
[10] DWD Schrift, Paul Becker at al., Stand: 19.07.2016: Die Entwicklung von Starkniederschlägen in Deutschland Plädoyer für eine differenzierte Betrachtung
[11] Deutschlandfunk 12.09.2016: Klimawandel Deutsches Klimakonsortium warnt vor Starkregen in Deutschland
http://www.deutschlandfunk.de/klimawandel-deutsches-klimakonsortium-warnt-vor-starkregen.697.de.html?dram:article_id=365651
[12] TZ, 21.11.2016: Dauerregen und Sturzfluten Folgen des Klimawandels: Wie gut ist München geschützt?
https://www.tz.de/muenchen/stadt/folgen-klimawandels-da-oben-ist-teufel-los-7001100.html
[13] Umweltamt der Stadt Würzburg – Wasserwirtschaftsamt, Publikation: Historische Hochwasser am Main
http://www.wuerzburg.de/2007/m_10317

[14] EIKE 16.01.2016: Der Klimamonitoringbericht 2016 für Süddeutschland
[15] Passauer Neue Presse, 01.06.2016: Hochwasser: Simbach „Land unter“ – Katastrophenfall ausgerufen
http://www.pnp.de/region_und_lokal/landkreis_rottal_inn/pfarrkirchen/2093679_Hochwasser-Simbach-Land-unter.html
[16] Bayerisches Staatsministerium für Umwelt und Verbraucherschutz, 21.11.2016 PRESSEMITTEILUNG Nr. 215/16




Über einen vergeblichen Versuch, unsere Welt vor der Dekarbonisierung zu retten

Ein Warnhinweis vorweg: Wenn Sie Anhänger der „Klimareligion“ sein sollten, könnte der nachfolgende Artikel bei Ihnen zu schweren Beeinträchtigungen bis hin zur Schnappatmung führen.
Jede wissenschaftliche Theorie und jedes wissenschaftliche Theorem kann durch einen einzigen schlüssigen Gegenbeweis widerlegt werden. Und jetzt stellen Sie sich einmal vor, sie hätten einen ganz eklatanten Widerspruch in einer wichtigen physikalischen Berechnung entdeckt, der die Welt, so wie sie uns erklärt wird, nachhaltig verändern würde – oder besser ausgedrückt, Sie glauben entdeckt zu haben, dass es gar nicht notwendig wäre, unsere Welt durch eine Dekarbonisierung bis zum Jahre 2100 vor einer menschengemachten Klimakatastrophe zu retten.
Denn der langfristige Blick in unsere Zukunft wird überschattet von der im Pariser Klimaabkommen vereinbarten Großen Transformation durch eine globale planwirtschaftliche Dekarbonisierung der Welt bis zum Jahre 2100. Mit einer solchen globalen „Energiewende“ hin zu „erneuerbaren Energien“ will die Weltgemeinschaft einer befürchteten „Selbstverbrennung“ unserer Erde entgegenwirken.
Aber ganz so einfach ist das nun auch wieder nicht mit der Weltrettung, denn dazu müsste man ja nicht nur eine sehr mutige wissenschaftliche Vereinigung finden, die ein solches Papier überhaupt zur Diskussion stellt, sondern diese Erkenntnis auch noch einer interessierten Öffentlichkeit zugänglich machen. Man müsste also kritische Meinungsmultiplikatoren davon überzeugen, diese Erkenntnis einer öffentlichen Diskussion zuzuführen. Aber das ist in einer Zeit von „Fake-News“ natürlich immens schwierig, wenn man keine zitierfähigen wissenschaftlich überprüften Ergebnisse zur Stützung dieser neuen Erkenntnis vorweisen kann. Naja, vielleicht können die’s dort ja einfach nicht glauben, nachdem sie jahrzehntelang gegen den Klimaalarm angekämpft haben. Der Autor selbst muss sich ja auch immer wieder mal davon überzeugen, dass er seine Argumentationskette wirklich korrekt hergeleitet hat. Offenbar ist es für uns Menschen sehr schwierig einfach loszulassen, wenn wir irgendetwas erst einmal richtig verstanden zu haben glauben …

VON NIX KOMMT NIX

Der politische Einfluss des WBGU: Die gefährlichen Weissagungen des Papstflüsterers
Über Einsteins Relativitätstheorie sagt man ja, es habe einstmals bei ihrer Veröffentlichung weltweit keine Handvoll Physiker gegeben, die sie spontan verstanden hätten. Da wäre also ein sogenanntes Peer-Review zur Überprüfung dieser Theorie völlig sinnlos oder als Voraussetzung für eine Veröffentlichung sogar kontraproduktiv gewesen. Bei der oben erwähnten Entdeckung ist es dagegen sehr viel einfacher, weil es eben nicht um ganz neue Physik geht, sondern lediglich um die korrekte Anwendung eines bereits bekannten und allgemein anerkannten physikalischen Gesetzes. Und deshalb müsste es weltweit auch einige Hunderttausende mit universitärer Ausbildung in Physik geben, die eine solche Fehlanwendung des Stefan-Boltzmann Gesetzes Kraft ihrer eigenen physikalischen Kenntnisse beurteilen können müssten – also schaunmermal, ob die nachfolgende Argumentation am Ende vielleicht doch noch irgendjemanden überzeugen kann:
 
Der angebliche Treibhauseffekt unserer Atmosphäre ist das Ergebnis einer unzulässigen Verknüpfung eines Durchschnittswertes aus der globalen Energiebilanz mit dem Stefan-Boltzmann Gesetz aus der Physik, das aber wiederum für die Berechnung der sogenannten Schwarzkörpertemperatur zwingend einen stabilen thermischen Gleichgewichtszustand fordert.
Die vorgeblich vom Menschen verursachte „Globale Erwärmung“ basiert auf einer Verstärkung des atmosphärischen Treibhauseffektes durch den vom Menschen verursachten CO2-Ausstoß, Zitat zum Treibhauseffekt aus Wikipedia, dort unter „Energiebilanz“, mit eigenen Hervorhebungen:
… Sogenannte Energiebilanzen werden mit einem Mittelwert der Einstrahlung auf die Erdoberfläche gerechnet: Die Erde erhält Solarstrahlung auf der Fläche des Erdquerschnitts πR 2 und hat eine Oberfläche von 4πR2. Diese beiden Flächen haben ein Verhältnis von 1:4. Das heißt, wenn 1365,2 W/m² auf die Erde einstrahlen und in Erd-Oberflächentemperatur umgesetzt würden, könnte die Erdoberfläche durchschnittlich 341,3 W/m² auch wieder abstrahlen.
…Würde der Erdboden nur von einer Strahlung in Höhe von 239 W/m² bestrahlt, so würde die Erdoberfläche im Mittel eine Temperatur von etwa -18 °C annehmen, wenn sich die Wärme gleichmäßig über die Erde verteilen würde.
Aber es gibt eine weitere Bestrahlung durch die aufgeheizten Treibhausgase mit 333 W/m², die so genannte atmosphärische Gegenstrahlung. Damit absorbiert die Erdoberfläche insgesamt 161 W/m²+333 W/m²=494 W/m² – und die werden bei der tatsächlichen mittleren Erdoberflächentemperatur von +14 °C auf mehreren Wegen abgegeben…“
Ein „atmosphärischer Treibhauseffekt“ als ein Prozess zusätzlicher thermischer Aufheizung unserer Erde um etwa 33 Grad aus sich selbst heraus durch eine vorgebliche „atmosphärische Gegenstrahlung“ steht aber in völligem Widerspruch zu den Gesetzen der Thermodynamik, nach denen jegliche Art von Energieerzeugung aus dem Nichts (Perpetuum Mobile) unmöglich ist.
Dazu ein erklärendes Beispiel: Stellen Sie sich einmal vor, Sie hätten in Ihrem Haus zwei Räume und würden in einem dieser Räume einen Ofen mit einer festen Heizleistung aufstellen, die Tür zwischen beiden Räumen wäre offen. Dann würden Sie berechnen, wie stark dieser Ofen beide Räume gemeinsam – ohne die trennende Wand – erwärmen könnte und in dem erwärmten Raum nachmessen. Die Differenz zwischen der im geheizten Raum gemessenen höheren Temperatur und der niedrigeren theoretischen Temperatur für beide Räume würden Sie dann als „Treibraumeffekt“ bezeichnen und Ihrem Ofen eine zusätzliche Heizleistung zusprechen.
In ganz ähnlicher Weise wird der „natürliche Treibhauseffekt“ unserer Erde berechnet. Bei der konventionellen Herleitung des Treibhauseffektes aus dem Stefan-Boltzmann Gesetz werden nämlich gleich zwei gravierende Fehler gemacht, wie im Vergleich mit dem obigen Zitat aus Wikipedia zur Erklärung des Treibhauseffektes sofort deutlich wird:

  • Erstens wird die einfallende Sonneneinstrahlung im Stefan-Boltzmann Gesetz rechnerisch auf eine doppelt so große Fläche verteilt (gesamte Erdoberfläche = 4πR2), als die tatsächliche aktive Fläche beträgt, auf der die Sonne temperaturwirksam ist (Tagseite der Erde = 2πR2). Dadurch wird dann die Schwarzkörpertemperatur der Erde nur aus der halben spezifischen Energieeinstrahlung (also aus ¼ anstelle von tatsächlich ½ der Solarkonstanten) berechnet, woraus sich dann zwangsläufig eine viel zu niedrige Schwarzkörpertemperatur ergibt.
  • Zweitens wird bei diesem Ansatz der im Stefan-Boltzmann Gesetz zwingend geforderte thermische Gleichgewichtszustand zwischen Einstrahlung und Abstrahlung durch die Einbeziehung der sich ständig abkühlenden Nachtseite der Erde vernachlässigt. Man rechnet dort nämlich einfach mit dem Mittelwert aus der oben zitierten Energiebilanz für die ganze Erde.

Dieser konventionelle Ansatz für die Schwarzkörperberechnung unserer Erde unter Einschluss der Nachtseite wäre aber nur dann richtig, wenn es zwei Sonnen mit der halben Strahlungsleistung unserer Sonne gäbe, die jeweils eine Hälfte der Erde beleuchten würden – allerdings wüssten wir dann wiederum nicht, wie hoch in diesem Fall die tatsächlich gemessene Durchschnittstemperatur der Erde wäre.
Anmerkung: Hier stellt sich übrigens spontan die Frage, wie denn eigentlich die Sonneneinstrahlung in den aktuellen Klimamodellen behandelt wird, lediglich als ein globaler Durchschnittswert oder mit dem tatsächlichen Wechsel von Tag und Nacht?
Bei unserer halbseitig von der Sonne erwärmten Erde kann man nun aber im Gegenteil nicht ernsthaft behaupten, dass an jedem beliebigen Ort ein einheitliches Temperatur-Gleichgewicht herrscht, denn die Nachtseite der Erde kühlt sich ja ständig ab. Wir können also an jedem beliebigen Ort der Erde unterschiedliche Tag- und Nachttemperaturen messen. Damit stellt sich die Frage, welche gemessene Temperatur wir dann als Vergleich zur berechneten Schwarzkörpertemperatur heranziehen sollen, die Tag- oder die Nachttemperatur oder eine willkürliche Kombination aus beiden – und wenn ja, welche? Auf diese Frage gibt das Stefan-Boltzmann Gesetz aber gar keine Antwort.
Bei einem halbseitig beleuchteten Körper wie der Erde darf man vielmehr wegen des im Stefan-Boltzmann Gesetz zwingend vorgegebenen thermischen Gleichgewichts die unbeleuchtete Nachtseite gar nicht in die Berechnung der theoretischen Schwarzkörpertemperatur einbeziehen. Denn die Randbedingungen dieses Gesetzes schreiben ausdrücklich einen stabilen Gleichgewichtszustand zwischen eingestrahlter und abgestrahlter Energiemenge vor. Oder anders ausgedrückt, das Stefan-Boltzmann Gesetz ist trotz seiner mathematischen Formulierung eben keine beliebige Gleichung, sondern ein physikalisches Gesetz, das einen strengen Gleichgewichtszustand beschreibt. Man darf es also nicht als platte Rechenanweisung verstehen, um aus jeder beliebig gemittelten Strahlungsmenge irgendeine Temperatur oder umgekehrt aus jeder beliebig gemittelten Temperatur irgendeine Strahlungsmenge zu errechnen.
Vielmehr steht das Gleichheitszeichen im S-B Gesetz als zwingende Bedingung für ein ganz bestimmtes Verhältnis von Strahlung und Temperatur, nämlich für ein stabiles thermisches Gleichgewicht. Man muss dieses Gleichheitszeichen im Stefan-Boltzmann Gesetz also so verstehen, dass sich erst in einem solchen thermischen Gleichgewichtsfall die dort in Form einer Gleichung vorgegebene Relation zwischen Strahlungsmenge und Temperatur einstellt.
Anmerkung: Wenn Sie diese Aussage nicht glauben wollen, dann suchen Sie im Internet doch bitte einmal nach einer „Stefan-Boltzmann Gleichung“. Sie werden dann in ungefähr 0,22 Sekunden 11.600 Ergebnisse ausschließlich für das Stefan-Boltzmann-Gesetz erhalten; denn eine „Stefan-Boltzmann Gleichung“ gibt es nicht…
Wenn also die Schwarzkörpertemperatur unserer Erde bisher tatsächlich falsch berechnet worden sein sollte und damit der atmosphärische Treibhauseffekt lediglich auf einen Rechenfehler zurückzuführen wäre (hier ab Seite 19), dann hätte das natürlich ganz unmittelbare Konsequenzen für den globalen Klimaalarm:

  • Kohlenstoffdioxid (CO2) wäre plötzlich gar nicht mehr der böse Klimakiller, zu dem es in den vergangenen Jahrzehnten panikheischend aufgebaut worden ist, sondern würde wieder zur Quelle alles Lebens auf unserer Erde.
  • Der Plan für die „Dekarbonisierung“ unserer Welt bis zum Jahre 2100 um jeden Preis wäre hinfällig geworden. Und somit bräche die gesamte Klimareligion zusammen und damit auch die Sinnfälligkeit für Ablasszahlungen nach dem „Erneuerbare Energien Gesetz“ (EEG).
  • Die sogenannte „Energiewende“ mit zwei voneinander unabhängigen Erzeugungssystemen für elektrischen Strom, nämlich konventionelle und „erneuerbare“ Stromerzeugung parallel nebeneinander, würde als das entlarvt, was sie tatsächlich ist, nämlich vom Standpunkt der Wirtschaftlichkeit, Nachhaltigkeit und Ressourcenschonung ein völliger Irrwitz.

Ohne einen atmosphärischen Treibhauseffekt stünden also plötzlich all die politischen, wissenschaftlichen und wirtschaftlichen Profiteure der vorgeblich vom Menschen verursachten Klimakatastrophe vor dem argumentativen Nichts, das EEG wäre eine völlig unnütze Verschwendung von wertvollen Ressourcen  und eine Dekarbonisierung der Welt wäre absolut unnötig geworden.
Uli Weber ist Geophysiker und Publizist.
Übernommen von Tichys Einblick hier
Auf „Die kalte Sonne“ finden Sie eine ausführlichere Begründung der hier geschilderten Hypothese.
 




Die sich selbst rechtfertigenden Kosten von Kohlenstoff

„Dieser Wert ist die beste Einschätzung der Regierung, wie viel die Gesellschaft auf längere Sicht gewinnt, wenn man jede Tonne der Hitze fangenden Kohlendioxydemissionen reduziert, die Wissenschaftler mit der globalen Erwärmung verbunden haben.

Bei derzeit $ 36 pro Tonne Kohlendioxid, wird diese Metrik mit einem komplexen und umstrittenen Satz von Modellen, zur Schätzung einer Vielzahl von künftigen Kosten für die Gesellschaft genutzt, im Zusammenhang mit steigenden Temperaturen und Meeresspiegel und dann mit einem Abzinsungssatz als langjähriges, wirtschaftlichen Werkzeug, um zu beurteilen, wie viel es heute wert ist, Kohlendioxid zu beschränken, das Generationen schädigt. (Für den Kontext, die Vereinigten Staaten emittierten etwa 5,1 Milliarden Tonnen CO2 im Jahr 2015, von insgesamt 36 Milliarden weltweit.)“

 Nun, das mag alles sehr wissenschaftlich klingen, aber lassen Sie uns diese Behauptung: „schadet Generationen“ klären.
 Die Social Cost of Carbon (SCC) sind eine Vermutung über die unbekannten zukünftigen ökonomischen Effekte, die aus unbekannten zukünftigen Temperaturveränderungen resultieren könnten oder auch nicht, die aus unbekannten zukünftigen CO2-Emissionsveränderungen resultieren könnten oder auch nicht, über die nächsten 100 Jahre.
Nun, warum ist das wichtig? Auch hier behandelt Revkin, dass:

„Der Streitpunkt entsteht, weil die sozialen Kosten von Kohlenstoff die Rechtfertigungen für die Politik untermauern, alles zu besteuern, von Kraftwerken zum Verbrauch der Autos bis hin zum Wirkungsgrad des Kühlschranks. Die Bewertung der Folgekosten von Kohlenstoff hat bereits dazu beigetragen, 79 Vorschriften zu formulieren.

Das stärkste Zeichen für eine bevorstehende Anzweifelung der sozialen Kostenrechnung ist die Berufung von Thomas Pyle, damals Präsident der industriefinanzierten American Energy Alliance und des Instituts für Energieforschung, in das Trump-Übergangsteam für die Abteilung Energie. In einer Notiz, sagt er das Ende der Nutzung der „sozialen Kosten von Kohlenstoff“ für gesetzgeberische Regularien voraus.“

Ich stimme mit Thomas Pyle völlig überein. Das SCC ist eine fatale fehlerhafte Maßnahme, die wenig Ähnlichkeit mit einer herkömmlichen Kosten-Nutzen-Analyse hat. Ich hoffe, seine Verwendung ist vollständig beendet. Es ist eine Chimäre, eine wissenschaftliche Fata Morgana.
Revkin weist darauf hin:

„Die vollständige Beseitigung einer solchen Berechnung ist nach Aussagen einer Reihe von Experten höchst unwahrscheinlich. Die Praxis der Schätzung von ökonomischen Kosten und Nutzen der meisten Regierungsverordnungen begann 1981 unter einer Anordnung von Präsident Ronald Reagan. Klimabezogene Regelungen sind nicht anders. Mehrere Gerichtsentscheidungen haben den Prozess bestätigt.“

Allerdings denke ich, dass es einfacher geworden ist, es wieder loszuwerden. Das Verfahren scheint einfach, und glücklicherweise hat Revkin gezeigt, wie es getan werden kann. Es ist aufgelebt durch einen Federstrich und durch ein Telefonat, es stirbt durch einen Federstrich und ein Telefonat, … es wurde durch eine Executive Order erstellt und könnte auf die gleiche Weise verschwinden.

[Eine Executive Order ist ein Dekret durch den Präsidenten der Vereinigten Staaten oder einen Gouverneur eines US-Bundesstaates. Präsidenten haben Executive Orders seit 1789 erlassen. Weder die Verfassung noch Bundesgesetze enthalten Bestimmungen zu Executive Orders., Quelle Wikipedia.org]

Revkin fährt fort:

„Aber das Ziel der Trump-Administration, die operative „Zahl“ zu senken, möglicherweise um eine Menge, ist fast sicher. Im Jahr 2013, sagte ein Wirtschaftswissenschaftler aus Pyle’s Energieinstitut in einer Senatsanhörung, dass bei einer richtigen Berechnung, die sozialen Kosten von Kohlenstoff „wahrscheinlich nahe Null oder sogar negativ sein würden.“

In der Tat, aus Gründen, die ich unten besprochen habe, könnte fast jede Zahl als die „wahren“ SCC gerechtfertigt werden, weil die Unsicherheiten enorm sind.
Revkin fährt fort:

„Ein tiefer Einschnitt wäre sowohl gefährlich als auch ungerechtfertigt, angesichts der Grundlagen der Klimaforschung und der Ökonomie, sagte Gernot Wagner, ein Harvard-Ökonom für Klimarisiko und Politik. In einem Telefoninterview am Dienstag sagte er, dass die Arbeitsgruppe, die vom Weißen Haus im Jahr 2009 initiiert wurde, um die Messung der sozialen Kosten auszuarbeiten, „eine verdammt beeindruckende Übung bei der Zusammenstellung von so viel Überzeugungskraft war und in einer Weise getan wurde, die etwa so unpolitisch war, wie Dinge in Washington gehen können.“

Ich liebe dieses Zitat. Eine Person, die denkt, das die SCC gebraucht werden und (zufälligerweise bin ich sicher) ihr Leben mit dem Studium des SCC verbracht hat, sagt, – joah – sicher brauchen wir die SCC, es ist verdammt beeindruckend….
Das bringt mich auf eine meiner Faustregeln:

Fragen Sie nie die Frösche, wenn Sie einen See trockenlegen wollen

Revkin fährt fort, eine neue Ausarbeitung der nationalen Akademie der Wissenschaften zu erörtern: Bewertung der Klimaänderungen: Aktualisierung der Schätzung der sozialen Kosten von Kohlendioxid (2017)
Wie Sie sich vorstellen können, ist es ein Plädoyer, die imaginären Kosten von Kohlenstoff so hoch zu halten wie möglich.
Also … was stimmt nicht mit den „Social Cost of Carbon“ (SCC)? Lassen Sie mich meine langjährigen Einwände gegen dieses unwissenschaftliche Konstrukt erneuern. Hier sind meine Gründe:

  • Wie der Titel „Social Cost of Carbon“ impliziert, wird davon ausgegangen, dass die Kosten den Nutzen übersteigen. Ich habe keine Beweise dafür gesehen, dass dieses bekannt ist oder sogar erkennbar. Als Beispiel für diese Mutmaßung, es erscheint der Begriff „Kosten“ etwa siebzig Mal in dem Dokument,… der Begriff „Nutzen“ nur sieben Mal. Das neigt die Waage wohin?
  • Sobald Sie nicht monetäre Kosten und Nutzen beginnen zu „monetarisieren“, gibt es keine eindeutige wissenschaftliche Orientierung darüber, was Sie berücksichtigen, wieviel Wert Sie darauf legen, wer als betrachtet wird, ob unterschiedliche Anspruchsberechtigte Präferenzen erhalten und eine Vielzahl anderer Entscheidungen. Dies bedeutet, jedes Ergebnis das Sie bekommen, hat sehr große Unsicherheiten.
  • Noch schlimmer ist es, wenn wir, wie in diesem Fall, eine Kosten-Nutzen-Analyse durchführen, die sowohl aktuelle als auch zukünftige Kosten und Nutzen vergleicht. Dies führt zu einer ganzen Reihe von Unsicherheiten – wie und wann und ob sich die Dinge auf der Eingangsseite ändern (Emissionen), wie und wann und sogar ob sich die Dinge auf der Ausgangsseite ändern (Temperaturen). Ob dieser Diskontsatz im Laufe der Zeit variiert und wie sich diese möglichen zukünftigen körperlichen Veränderungen sowohl auf die realen als auch auf die monetarisierten zukünftigen Kosten und Nutzen auswirken werden. An diesem Punkt sind unsere Unsicherheiten unermesslich, sie überschwemmen die Daten.
  • Es ist viel, viel schlimmer, wenn, wie in diesem Fall, die imaginären künftigen Veränderungen auf einem unbewiesenen wissenschaftlichen Theorem basieren, der bis heute nur eine unendliche Folge von fehlgeschlagenen Prognosen hervorgebracht hat. Wo sollen die Korallen-Atolle angeblich im Widerspruch zu Charles Darwin gesunken sein? Wo sind die 50 Millionen Klimaflüchtlinge bis 2010 geblieben? Wo ist die seit dreißig Jahren versprochene massive drohende Beschleunigung des Meeresspiegelanstiegs? Angesichts der Tatsache, wie falsch die Klimamodelle bis heute sind, werden sie bis 2050 total daneben sein. Dadurch werden die bisherigen SCC-Ungenauigkeiten bis zur Tropopause aufgestiegen sein. Das Signal-Rausch-Verhältnis ist lächerlich. Richard Tol befasste sich mit diesem Feld und fand Werte von negativ (Netto-Nutzen) durch Null bis $ 1500 / pro Tonne Kohlenstoff … auf meinem Planeten, das ist nicht Wissenschaft, das ist Streichhölzchen ziehen.
  • Bis heute können wir echte, beobachtbare, messbare VORTEILE der CO2-Steigerung zeigen. Zum Beispiel können wir klare Vorteile von CO2 durch satellitengestützte „Ökologisierung“ des Planeten sehen und messen. Darüber hinaus können wir zeigen, dass dies die atmosphärische Transpiration von Wasser durch Pflanzen reduziert hat, was die Ausbeute an Bewässerungswasser erhöht. (Und als Nebenfrage … wie viel ist das wert?) Sehen Sie das Problem mit “ Monetarisierung“?).

Aber auf der anderen Seite der Buchhaltung, haben wir keine wirklichen, beobachtbaren, messbaren KOSTEN mit zunehmendem CO2, auch wenn wir die unwahrscheinliche Annahme der dem CO2-beschworenen-Temperatur machen.
Wo liegen zum Beispiel die Klimakosten des ~ 2 ° C Anstiegs der Landtemperaturen (Berkeley Earth Data) in den letzten 200 Jahren? Wo sind die Klima-Tragödien? Wo ist der Ernteverlust durch diese Erwärmung? Wo sind die Todesfälle und die Klimakatastrophen? Zum Kuckuck, auch Richard Tol stellt diesen vergangenen Temperaturanstieg in die Netto-Nutzen Spalte. Als Ergebnis vergleichen wir reale, bekannte, gemessene gegenwärtige Vorteile mit imaginären, unbekannten zukünftigen Kosten, die auf einer unbewiesenen Theorie basieren.

  • Nirgendwo in irgendeiner dieser Aufstellungen finde ich eine der größten und wichtigsten Kosten. Wie viel es hat uns bisher gekostet, um CO2 zu bekämpfen? Unzählige Milliarden und Milliarden Dollar wurden für Solyndras verschwendet und all den Rest des Geldes und der menschlichen Ressourcen wurde nutzlos für Studien und „Social Cost of Carbon“ Zeitverschwendungen der Regierung verschwendet. Ich sage verschwendet, weil bis jetzt sehe ich keinen einzigen Vorteil von irgendetwas davon.

[Solyndra, ein start-up von 2005 für die Herstellung von Solarzellen, erhielt eine US-Darlehensgarantie von 535 Millionen US-Dollar, der erste Empfänger einer Darlehensgarantie unter dem Konjunkturprogramm von Präsident Barack Obama, dem amerikanischen Wiederaufbau- und Wiederanlagegesetz von 2009. [16] Bis 2014 hatte das Darlehensprogramm seine Verluste ausgelöscht, darunter einen Verlust von $ 528 Millionen von Solyndra, und arbeitete damit in „schwarzen Zahlen“. [17] Darüber hinaus erhielt Solyndra eine Steuerermäßigung von $ 25,1 Millionen von der kalifornischen Alternative Energy und Advanced Transportation Finanzierungsbehörde. [18]

Am 31. August 2011 gab Solyndra bekannt, dass es einen Insolvenzschutz nach §11 Insolvenzschutz beantragt, 1.100 Beschäftigte entlasse und sämtliche Operationen und die Fertigung beende. [22] Quelle Wiki..org]

Grüne Energie ist immer noch nicht konkurrenzfähig, es ist ein konstanter Geldabfluss. Keines der teuren Klimamodelle war in der Lage, besser als „Phil das Murmeltier“ [Kinofreunden unter „Täglich grüßt das Murmeltier“ bekannt] bei der Vorhersage der zukünftigen Entwicklung des Klimas zu sein. Wo sind die Kosten der endlosen IPCC-Quasselkonferenzen? Wo gehen diese Milliarden und Milliarden verschwendeter Dollar in diese irrwitzigen „Social Cost of Carbon“ ein? Bisher erzeugte die Bekämpfung der phantasierten Bosheiten von Kohlenstoff alle Kosten und keine messbaren Vorteile … können wir eine Abrechnung davon bekommen?

Aus all diesen Gründen und mehr, finde ich, dass dieses gesamte Unternehmen: „Soziale Kosten von Kohlenstoff“ eine völlig unwissenschaftliche Bemühung ist, so zu tun, als könnten wir die unbekannten Ergebnisse einer unbekannten nebelhaften Zukunft genau monetarisieren.
Ich bitte Andrew Revkin und alle, die an dieser wissenschaftlichen Monstrosität beteiligt sind, inständig, das zu stoppen und zu überlegen, was sie eigentlich tun. Die Unsicherheiten sind immens, wie erwähnt, sie reichen bis in die Tropopause [im Original eine Höhenangabe, für irrwitzig viel]. Der SCC ist eine sichtbare Rechtfertigung, nur um Steuerzahler noch mehr auszunehmen. Und unabhängig davon, welchen Wert die SCC für sie [~die] haben oder haben sollten, sie fügen das Prestige Ihres Namens und ihre Reputation in einem pseudowissenschaftlichen Versuch hinzu, um die Einführung neuer Gesetze, Einschränkungen, Subventionen, Handel-mit-Emissionsrechten, Kohlenstoff-Steuern, erneuerbare Mandate und andere Möglichkeiten, um die Energiekosten zu erhöhen.
Und die Erhöhung der Kosten der Energie, egal wie es getan wird, belastet die Armen mehr als jeder andere. Die Erhöhung der Energiekosten ist eine der regressivsten denkbaren Steuern und es gibt keinen optionalen Ausstieg an der unteren Stufe der wirtschaftlichen Leiter. Steigende Energiepreise schlagen die Ärmsten der Armen härter als jeder andere.
Vielleicht sind einige Leute bereit den „Social Cost of Carbon“ Beschiss zu unterstützen, als Teil der laufenden Bemühungen, arme Leute im Namen einer möglichen fernen imaginären idyllischen grünen Zukunft in fünfzig Jahren oder so zu schröpfen.
Ich… nicht so sehr …
Ich lade Sie ein, meine vorherigen Beiträge zu diesem Thema zu lesen. Der erste ist von vor drei Jahren

Monetizing the Effects of Carbon  2013-01-11

Monetarisieren der Auswirkungen von CO2

 The Bogus Cost Of Carbon 2016-12-15

Der Schwindel mit den Kosten von CO2

 Monetizing Apples And Oranges  2016-12-25

Monetarisieren von Äpfeln und Orangen

 
Kurz gesagt, die SCC sind keine Wissenschaft. Sie vergleicht imaginäre Zukunftswerte bis zu einem Jahrhundert auf der Grundlage einer unbestätigten Theorie auf der einen Seite mit gemessenen beobachteten tatsächlichen gegenwärtigen Vorteilen auf der anderen Seite. Das ist wissenschaftlicher und rechnerischer Quatsch.
Ich sage es, um es loszuwerden. Niemand hat jemals nur im Wert von einem Dollar nachweisen können, was tatsächliche messbare Schäden durch Erhöhungen des atmosphärischen CO2 entstanden sind. Angesichts der Tatsache, dass wir nicht auf aktuelle Schäden hinweisen können, sind wir Lichtjahre davon entfernt, aus dieser unbewiesenen Theorie eine realistische Zahl auf den möglichen zukünftigen Schaden zu setzen. Das ist ein fauler Witz.
==========
Mittlerweile haben wir hier an der nordkalifornischen Küste den “Pineapple Express”, über zehn Zoll (250 mm) Niederschlag in den letzten drei Tagen. Das ist der Regen, den wir nie wieder sehen sollten, weil „Klimawandel“.
[Der Pineapple Express, auch Kona-Sturm genannt, ist eine kräftige Höhenströmung (Jetstream), die auf ihrem Weg von Hawaii zur Küste Kaliforniens feucht-warme Luft mit sich führt. Dabei treten an der Küste meistens heftige Regengüsse in Verbindung mit bis zu 4,50 m hohen Wellen auf. Ursache dieser Extremereignisse ist ein so genanntes Polarfront-Splitting in der mittleren Troposphäre, was besonders gehäuft zwischen Oktober und April auftritt. Dabei strömen tropische Warmluftmassen aus Hawaii gegen polare bzw. arktische Luftmassen aus Kanada. Unter Umständen macht dies dann die Hälfte der jährlichen Niederschlagsmengen in der Region aus. – Quelle Wikipedia]
Ein großer Baum unten an der Straße, wo ich lebe, ist umgekippt und es brach der Strommast. Also läuft bei uns das Notstromaggregat und wir steigen über Bündel von Verlängerungskabeln. Hey, das Leben ist gut … wir sitzen nicht im Dunkeln und obwohl heute meine wunderschöne Ex-Verlobte eine Viertelmeile (einen halben Kilometer) zu Fuß nach Hause gehen musste, im Regen, weil der Baum immer noch die Straße blockiert, ist sie hier und wir sind glücklich.
Ihnen alles Gute
BITTE, wenn Sie mit etwas nicht einverstanden sind, beziehen Sie sich auf den genauen Wortlaut und die Wörter, die Ihnen nicht passen, damit wir alle verstehen können, was genau Sie meinen
Erschienen auf WUWT am 11.01.2017
Übersetzt durch Andreas Demmig
https://wattsupwiththat.com/2017/01/11/the-recursive-cost-of-carbon/