Temperaturmessung: Rekord unbrauchbar

Wurde sie gerade noch einmal abgewendet, diese schreckliche Klimakatastrophe? Zumindest in Lingen? Das war – zur Erinnerung – bei jener Hitzewelle vor kurzem bekanntlich Deutschlands heißester Ort. Eine Station des Deutschen Wetterdienstes registrierte am 25. Juli der Wert von 42,6 °C, der von Medien und Potsdamer Klimakatastrophisten als Vorstufe zur Wetterhölle erklärt wurde.

Doch jetzt hat der private Wetterdienst »Wetter online« diesen Wert zurückgezogen: Rekord unbrauchbar. »Bezüglich des Standorts gibt es aber so viel berechtigte Kritik, dass Wetter online diesen Rekordwert nicht anerkennt.«

Historisch sei die Hitze im letzten Julidrittel ohne Zweifel gewesen, bekundet Wetter online. In Geilenkirchen wurde der alte Rekord von 40,3° am 24. Juli mit 40,5° knapp überboten. Danach hatten verschiedene Stationen mehr als 40° gemeldet. »So etwas hat es in Deutschland seit Beginn der regelmäßigen Wetteraufzeichnungen nicht gegeben.«

In Duisburg und Tönisvorst zeigte das Thermometer 41,2° an. Lingen kam dann in die Schlagzeilen mit 42,6°. Doch diese Messstelle in Lingen erfüllt jetzt nicht mehr den Standard der Weltorganisation für Meteorologie WMO. Denn es ist nicht egal, wo und wie das Thermometer steht und die Umgebung beschaffen sein soll. Der Messfühler muss abgeschattet sein, so dass er nicht von der Sonnenstrahlung oder der Wärmeabstrahlung eines Mauerwerkes beeinflusst wird. Er muss zudem ausreichend belüftet werden.Doch gerade im Umfeld der Station in Lingen wuchsen die Büsche in den vergangenen Jahren so, dass rund um die Wetterstation eine Wärmeinsel entstand, in der Wärme gestaut wurde. Höhere Temperaturen sind also nicht weiter verwunderlich. Die Station in Lingen geriet schon in den vergangenen Jahren in die Kritik, weil der Unterschied der Messwerte zu den umliegenden Stationen von Jahr zu Jahr größer wurde. Wetterunternehmer Jörg Kachelmann kritisierte den Standort der Station schon seit längerem; er wusste um den Effekt der Wärmeinseln.

Auch der Deutsche Wetterdienst DWD plante seit einigen Jahren, die Station zu verlegen. Allerdings fürchtet der Dienst die politischen Folgen einer solchen Verlegung. Wetter online: »Erkennt man den Wert nicht an, rücken »Klimawandelleugner« auf den Plan und erklären, dass es nach dem Medienhype gar nicht so heiß gewesen sei. Wird er für ungültig erklärt, wären wohl schnell unangenehme Fragen zur Standardqualität im Allgemeinen aufgetaucht.«

 

Denn Temperaturmessungen sind nach einem alten Spruch von Meteorologen das größte Problem dieser Zunft. Wo wird gemessen? Jeder kennt das: Steht in einem Zimmer das Thermometer nah an einem Ofen, ist es wärmer als in der Ecke gegenüber. Wo also ist die wahre Zimmertemperatur?

Die Vorschriften für offizielle Temperaturmessungen sehen einen Standort der Wetterhäuschen zwei Meter über dem Boden auf einer freien Fläche vor. Der Messfühler muss abgeschattet sein, ein Ventilator die Luft durchwedeln. Das Thermometer soll nicht die eigene Wärme messen, sondern die der Luft.

Besonders delikat sind Vergleiche der Temperaturentwicklung über vergangenen Jahrzehnte oder gar Jahrhunderte hinweg. Messtechnik ändert sich, ebenso wandeln sich die Gegebenheiten rund um die Messstationen. Häuser werden gebaut oder Wände hochgezogen, die die Temperaturen in der Umgebung verändern. Häufig muss der Wetterdienst auch den Standort seiner Station verändern. Messstationen mussten umgestellt werden, weil die Ableser laut Protokoll des Wetterdienstes unfähig waren, regelmäßig die Werte abzulesen und weiterzugeben.So wurde die Station in Bad Dürkheim, in der Rheinebene nahe dem Pfälzer Wald gelegen, mehrfach verlegt. »Am 13.9.1977 wurden die Beobachtungen an der jetzigen Station wegen Unfähigkeit des Beobachters eingestellt.« Zwei Monate später wurde ein neuer Beobachter gefunden und die Station wieder entsprechend verlegt. Da auch dieser Beobachter ausschied, ruhte die Station vom vom 21.10.1987 bis 14.4.1988. Die Station meldete rückgängige Temperaturen. Es ist also ein sehr schwieriges Unterfangen, Temperaturmesswerte über viele Jahre zu vergleichen. Meteorologen versuchen daher, stark schwankende Daten durch statistische Verfahren zu »homogenisieren«, etwas böse ausgedrückt: passend zu machen.

Wie schwierig, ja unmöglich es ist, die Entwicklung von Temperaturen über die letzten 100, 200 Jahre sogar auf die Nachkommastelle genau anzugeben, zeigte einst die wichtige Arbeit von Michael Limburg, der als Ingenieur im Bereich der Messtechnik und Fehlerstatistik gearbeitet und die entsprechenden Erfahrungen gesammelt hat: »Analyse zur Bewertung und Fehlerabschätzung der globalen Daten für Temperatur und Meeresspiegel und deren Bestimmungsprobleme« lautete der etwas sperrige Titel.

Limburg ging in seiner Dissertation der Frage nach, ob die meteorologischen Daten der vergangenen 150 Jahre genau genug sind, um den Verlauf der »Globalen Mitteltemperatur« auf 1/10 Grad Celsius genau zu berechnen. Dieser Verlauf spielt in der aktuellen Klimadebatte eine wichtige Rolle; belegen die einen damit doch, dass es wärmer, die anderen, dass es kälter wird.

Doch die wichtige Frage ist: Lässt sich eine solche Aussage überhaupt treffen? Satelliten vermögen heute sehr genau alle möglichen Wetterdaten wie Temperaturen der verschiedenen Oberflächen zu messen. Sie gibt es allerdings erst seit etwa knapp 40 Jahren. Davor beruhen die Temperaturangaben auf Messungen unterschiedlicher Messstationen. Bei denen hängt es sehr davon ab, wo und wie die Thermometer angebracht sind. Über einer Wiesenfläche ergeben sich andere Temperaturen als über Asphaltflächen. Ziemlich schwierig, wenn man sehr unterschiedlich zustande gekommene Temperaturaufzeichnungen mit vielen dubiosen Angaben miteinander vergleichen und Trends herauslesen will.Das Ergebnis der Dissertation von Limburg:

»Dabei kam ich zu dem eindeutigen Ergebnis, dass die verwendeten historischen Wetter-Messdaten dies nicht erlauben. Ich fand heraus, dass die bei der Berechnung der globalen Mitteltemperatur unvermeidliche verbleibende Unsicherheit mindestens genau so groß ist wie die ganze offiziell angegebenen Änderung über 150 Jahre, wahrscheinlich aber sogar ein Vielfaches beträgt. Dies ergibt sich zwangsläufig bei Anwendung aller gängigen und vielfach erprobten Regeln der Messtechnik und der statistischen Fehlerrechnung.«

Dieses Ergebnis schreckte die prüfenden Professoren erheblich auf. Limburg weiter: »Die Arbeit stellte ja indirekt wesentliche Aussagen zur angeblichen ›menschengemachten Klimaerwärmung‹ und damit einen der Hauptgründe für die Förderung der sogenannten ›Erneuerbaren Energien‹ infrage. Für beide Themenkomplexe gibt es jedoch höchst umfangreiche Fördergelder. Vermutlich befürchteten die Verantwortlichen diesbezügliche Nachteile, falls sie einer Arbeit Platz und dem Autor einen akademischen Grad zugestanden, der dem bisherigem Dogma – und sei es auch nur indirekt – widersprach.«

Man kann sich vorstellen, wie der Blutdruck der Herren Prüfprofessoren hochschnellte. Die erste Kommission, die die Promotionsarbeit prüfen sollte, trat tatsächlich geschlossen zurück. Begründung: »Weitgehende politische Motivationder Arbeit«.

Um es kurz zu machen: Die Arbeit wurde nach einer hanebüchenen Odyssee schließlich abgelehnt. Es darf nicht belegbar sein, was nicht ins politische Konzept passt.

Nur die Entwicklung der Temperaturen über Jahrhunderte hinweg wird nach wie vor so genau angegeben, wie dies messtechnisch überhaupt nicht möglich ist. Doch ist sie ist Grundlage jener wilden These der Klimakatastrophe, auf der moderne Ablasshändler ihre Geschäfte aufbauen.

Der Beitrag erschien zuerst bei TE hier




KLEINE KLIMAKUNDE – Grüne Klimakiller (1)

Ja, das Wort ist Unfug. Klima kann man nicht killen, es ist und bleibt eine Wetterstatistik. Es klingt aber so schön reißerisch und vielleicht lockt es Leser an, die nur an Kohle, Öl und Gas denken, wenn jemand „Klimakiller“ sagt. Hier geht es aber um die Wirkung der gar nicht reinen Ökoenergien auf das Klima.

Die menschliche Nutzung der Wind- wie auch der Sonnenenergie ist ein Eingriff ins Ökosystem. Energie kann nicht erzeugt, nur gewandelt werden. Jede Naturenergie wird ohne menschlichen Eingriff zu 100 Prozent von der Natur genutzt, jeder Eingriff stört das ursprüngliche energetische Gleichgewicht.Solar- und Windenergie sind das Ergebnis der Sonneneinstrahlung, die wiederum einem kernphysikalischen Fusionsprozess der Sonne entspringt. Die Strahlung sorgt für direkte wie auch indirekte Energiezufuhr über Luftdruckunterschiede und Wasserkreisläufe. Sonnenenergie sorgt für die Erwärmung des Bodens, die Fotosynthese und die Verdunstung von Wasser, der Wind ebenfalls für Verdunstung und zusätzlichen Wärmeentzug.

Sobald der Mensch eingreift und Energie „abzweigt“, fehlt sie der Natur an anderer Stelle. „Jeder Eingriff in dieses bodennahe Ausgleichs- und Kühlsystem muss zu Änderungen im Wärmehaushalt der betroffenen Regionen führen“, schreiben die „Energiedetektive“ aus Graz in ihrer Studie 1). Die Entnahme von Sonnen- und Windenergie ändert natürliche Klimaprozesse. Windkraftanlagen beeinflussen die natürliche Ausgleichsströmung zwischen Zonen verschiedenen Luftdrucks, die Energie fehlt im bodennahen Kühlsystem und ändert damit auch die Wasserbilanzen. Sie greifen in das Lüftungssystem der Natur ein.

Wie das im Detail geschieht, durch welche sich überlagernden Prozesse, die sich kompensieren, aber auch verstärken können, ist noch nicht eindeutig geklärt. Es gibt eine dünne Quellenlage, die verschiedene Theorien zeigt.
Die „Energiedetektive“ gehen davon aus, dass die geminderte Energie des Windes nach der Windkraftanlage (WKA) den Boden weniger kühlt und weniger Feuchtigkeit verdunsten lässt. Weniger Verdunstung und weniger Wolkenbildung, weniger Regen in weiterer Entfernung wären die Folge. In Summe würde die Sonneneinstrahlung zunehmen, was die Erwärmung wiederum fördert.Andere gehen davon aus, dass durch die Drehung der Rotoren die laminare Schichtung der strömenden Luft aufgebrochen werde. Es erfolgt eine Umwandlung in Elektrizität mit einem Wirkungsgrad von etwas über 40 Prozent. Physikalisch bedingt unterliegt der maximale theoretische Wirkungsgrad der Windkraftanlagen der so genannten Betz-Grenze von 59 Prozent, hinzu kommen die praktischen Reibungs-, Wärmeverluste, Umwandlungs- und Leitungsverluste.

Die gegenseitige Windverschattung mehrerer Anlagen in Windindustrieparks mindert zusätzlich den rechnerischen möglichen Ertrag. Ein Teil der umgewandelten Energie wird sofort über die Verlustwärme von Generator und – sofern vorhanden – Getriebe und der Trafostation am Boden an die Umgebung abgegeben.

Der nicht umgewandelte Teil der Energie sorge für Verwirbelung. Es bilden sich so genannte Wirbelschleppen, die man sich als horizontale Tornados (geringer Intensität) vorstellen kann, die noch kilometerweit Bestand haben. Die vertikale Durchmischung der Luft bewirke einen Transport der feuchten Luft aus den bodennahen Schichten in höhere. Dabei kann es zur Auskondensation der Luftfeuchte in größerer Höhe durch den niedrigeren Druck kommen, was dann, wie auf dem Foto zu sehen, die Wirbelschleppen sichtbar macht.

Dazu komme der thermische Effekt. Durch den Luftabtransport aus bodennahen Schichten würde dem Boden Luftwärme entzogen, die feuchte Luft ziehe gleichzeitig Verdunstungswärme ab. Abkühlung und geringere Feuchtigkeit verschlechterten die Bedingungen für das Pflanzenwachstum. Die anthropogen verursachte Wolkenbildung sorge als atmosphärischer Wasserdampf für die Zunahme dieses stärksten und häufigsten Treibhausgases.

Eine weitere Theorie geht davon aus, dass die Verwirbelung der Luft zu deren Erwärmung führt und die Ablenkung nach oben sogar zu einer Verwirbelung und Zerstreuung von Wolkenfeldern führen kann.

Im Wald haben Windkraftanlagen unzweifelhaft besonders schädigenden Einfluss. Zunächst wird der Wald durch den Einschlag als CO2-Senke und Wasserspeicher dezimiert. Erosion und Auswaschung des ehemaligen Waldbodens sowie Versandung führen zu schnellerem Wasserabfluss, eine Versteppung der gerodeten Flächen droht.Hinzu kommt die unterirdische Bodenversiegelung durch die mehrere tausend Tonnen schweren Stahlbetonfundamente, die mehr als drei Meter mächtig sind. Der feuchte Boden darüber trocknet aus, das Wasser kann nicht versickern und an der Grundwasserbildung teilnehmen. Der gleiche Effekt tritt auf den verdichteten Zufahrtsstraßen und Montageplätzen auf, die in der Ausdehnung die Fundamentflächen der Anlagen weit übersteigen. Desweiteren führen die Erdkabel für die Stromableitung zu örtlicher Austrocknung des Bodens. Die klimaregulierende Wirkung des Waldes wird insgesamt reduziert, der natürliche Widerstand gegen Extremwetter verringert sich.

Der Dürremonitor des Helmholtz-Zentrums für Umweltforschung zeigt die verschiedenen Trocknungsgrade des Bodens in Deutschland im Oberboden und in etwa 1,8 Metern Tiefe an. Offensichtlich ist, dass das Gebiet der trockensten Böden etwa deckungsgleich mit der räumlichen Verteilung von Windkraftanlagen ist.
Korrelation ist nicht Kausalität, der Bezug scheint dennoch augenfällig. Deckungsgleichheit mit der Niederschlagsverteilung besteht hingegen, abgesehen vom Osten des Landes, nicht.

Die Erkenntnisse sind nicht neu. Die Wirkung von Windkraftanlagen auf die Bodenfeuchte wurde bereits vom Wissenschaftlichen Dienst des Bundestages (WD8-3000-057/13) beschrieben. Dass dies öffentlich kaum kommuniziert wird, ist Ergebnis von Lobbyarbeit und Energiewendeerfolgsjournalismus in unseren Medien.
Ebenso korrelieren der Ausbau der Windenergie und die Anzahl der Tornadomeldungen in Deutschland 1). Wachsen mehrere Windindustrieparks räumlich zusammen, wie zum Beispiel in der Uckermark, kann man davon ausgehen, dass die Beeinflussung des Mikroklimas zu einer Änderung des Regionalklimas führt.

Klima ist mehr als nur Temperatur

Die durchschnittlichen Windgeschwindigkeiten scheinen zu sinken. Ursache könnten die vielen Windkraftanlagen an der Nordseeküste und in der norddeutschen Tiefebene sein. Wurden in den 60er Jahren in Osnabrück noch im Jahresdurchschnitt 3,7 Meter pro Sekunde Wind gemessen, sind es heute nur noch 3,2 Meter pro Sekunde 2). Dies könnte die Verdunstung mindern, in heißen Sommern jedoch auch die Abkühlung und damit Extremtemperaturen begünstigen.Bei der Offshore-Windkraftnutzung beträgt die Luftfeuchte am Fuß der Anlage, also auf Wasserspiegelhöhe einhundert Prozent. Dementsprechend werden größere Mengen Feuchtigkeit in höhere Luftschichten befördert, was mehr als an Land die Wolkenbildung und damit die Bildung des Treibhausgases Wasserdampf fördert.

Die Frage, ob die Nutzung der Windenergie „gut“ ist fürs Klima, lässt sich nur mit „nein“ beantworten. Sie kann die Bildung von Treibhausgas (Wasserdampf) fördern, für Austrocknung des Bodens sorgen und damit für verringerte Fotosynthese als CO2-Senke. Bezüglich der quantitativen Auswirkungen gilt auch hier das Wort von Paracelsus: Die Dosis macht`s. Der bisherige massenhafte Ausbau und der geplante exzessive Zubau zu den schon vorhandenen fast 30.000 Anlagen im Land steigern die negativen Umwelt- und Klimawirkungen.

Jede Windkraftanlage muss durch ein fast 100-prozentiges konventionelles Backup im Netz abgesichert werden, das wiederum Klimawirkung hat. Der Lastfolgebetrieb konventioneller Anlagen in nicht optimalen Betriebsbereichen erhöht deren spezifische Emissionen pro Kilowattstunde. Der „Wasserbetteffekt“ über den europäischen Emissionshandel (Windstrom verdrängt Emissionszertifikate ins Ausland und hält deren Preis niedrig) kommt hinzu.

Verhinderte Forschung

Zur genaueren Bewertung der Folgen der Windenergienutzung bräuchte es Messnetze im Bodenbereich für Aufzeichnungen von Temperatur und Luftfeuchte und deren Betrieb und Auswertung über längere Zeiträume. Zunächst bräuchte es aber den politische Willen und das Geld dazu, dies untersuchen zu lassen. Auf eine Anfrage der FDP-Bundestagsfraktion zum massenhaften Insektensterben an den Rotorblättern der Windkraftanlagen antwortete Umweltministerin Schulze, dass sie keinen Handlungsbedarf sehe. Man möchte die Welt, wie sie gefällt. Oder um es mit Schopenhauer zu sagen: „Was dem Herzen widerstrebt, lässt der Kopf nicht ein.“Mit den grünen „Klimakillern“ verhält es sich genauso. Viel einfacher ist es für Politiker und Journalisten, fossile Verbrennungsprozesse allein für Klimawandel und das Elend dieser Welt verantwortlich zu machen.

Was bewirkt exzessive Windenergienutzung? Zugestellte Landschaften, ihrer Weite und ihrer Ruhe beraubt, Windindustriegebiete anstelle Natur. Der Blick darauf ist subjektiv. Manche verdienen an jeder Drehung des Rotors und sogar dann, wenn er steht, weil der Strom nicht abgenommen werden kann. Andere leiden unter Infraschall, haben Schlafprobleme, Bluthochdruck und den Wertverfall ihrer Immobilie. Auch hier wird die Gesellschaft gespalten.

Die Auswirkungen auf die Umwelt sind erheblich, auf Menschen, Flora und Fauna. Diese Themen sind an vielen Stellen schon beschrieben, zum Beispiel hier, hier und hier.

Windkraftanlagen beeinflussen das regionale Wetter und wirken sich langfristig auf das Klima aus. Dieses Feld der Forschung ist vor allem hinsichtlich seiner quantitativen Auswirkungen noch ausgesprochen unterbelichtet. Sollten Leser dazu weitergehende Erkenntnisse oder Quellen haben, nehmen wir diese gern entgegen.

In Teil 2 geht es um die Wirkungen der Photovoltaik auf den Treibhauseffekt.

1) Dieser Beitrag entstand unter maßgeblicher Verwendung einer ausführlichen Studie „Ermittlungsakte Energiewende – Nebenwirkungen auf Klima und Umwelt“
vom „Energiedetektiv“ aus Graz. Hier der Weg zur Studie.

2) donnerwetter.de, Pressemitteilung vom 29.5.2015

Der Beitrag erschien zuerst bei TE hier




Waldsterben 2.0!

Nach der drohenden Klimakatastrophe wird nun ein neues Fass von Klimaschützern aufgemacht. Das Waldsterben 2.0. Dazu einige Fakten.

Deutschland ist das waldreichste Land Mitteleuropas. Aktuell sind rund 11,4 Mio. Hektar mit Wald bedeckt. Das entspricht knapp einem Drittel der Gesamtfläche Deutschlands. Nach der Entwaldung im Mittelalter nimmt seit etwa 1850 die Waldfläche in Deutschland stetig zu.

Waldfläche-Deutschland

Dank einer nachhaltigen Bewirtschaftung hat die Waldfläche trotz einer intensiven wirtschaftlichen Nutzung seit dem 2. Weltkrieg stetig zugenommen. Auf dem Fundament des Bundeswaldgesetzes ist die Waldfläche in den letzten 50 Jahren um mehr als 1,5 Mio. ha gewachsen. Eine Fläche, die mehr als 2 Mio. Fußballfeldern entspricht.

Zwischen 1992 und 2008 ist die Waldfläche in Deutschland „pro Jahr durchschnittlich um 176 Quadratkilometer (17.600 ha) gewachsen“, meldet das Statistische Bundesamt in Wiesbaden. Das entspricht pro Jahr in etwa der Fläche der Stadt Karlsruhe. Oder aber der Fläche eines Quadrates mit 13 km mal 13 km Kantenlänge.

In den zehn Jahren von 2002 bis 2012 hat der deutsche Wald um mehr als 50.000 ha an Fläche zugelegt. Einer Fläche, die mehr als 70.000 Fußballfeldern entspricht. Das Volumen der Waldbäume hat zwischen 2002 und 2012 um 220 Mio. m3 zugenommen – und das bei einer deutlich intensivierten Nutzung.

Nicht nur die Waldfläche wächst, sondern auch das Waldvolumen. Heute wächst mehr Wald zu, als entnommen wird und abstirbt und damit steigt auch der Holzvorat in deutschen Wäldern an. Der Holzzuwachs im deutschen Wald beträgt gemäß Waldbericht der Bundesregierung von 2017 durchschnittlich 11,2 m³ je Hektar und Jahr.

 

Bzw. insgesamt 121,6 Mio. m³ pro Jahr. Seit 1970 wurden die Wälder deutlich voratsreicher. Die Gründe für den hohen Zuwachs sind vielfältig. Eine verlängerte Vegetationsperiode, vermehrte Stickstoffeinträge aus der Luft, eine erhöhte CO2-Konzentration in der Luft und die großen Vorräte tragen zu der enormen Wuchsleistung der Wälder bei. Nur etwa 2/3 des Zuwachses wird dabei wirtschaftlich genutzt.

So zeigen auch Satellitendaten, dass Deutschland in den letzten 3-4 Jahrzehnten grüner geworden ist.

Deutschland-Gruen

Im europäischen Vergleich ist Deutschland nicht nur eines der am waldreichsten Länder, es wächst auch am meisten Holz hinzu.

Waldzuwachs

Laut einer Uno-Studie von 2011 sind die Wälder in Europe in den vergangenen 20 Jahren deutlich gewachsen. Laut dem in Oslo vorgestellten Bericht „Zustand der europäischen Wälder 2011“ wuchsen in den vergangenen 20 Jahren die Waldflächen in allen Regionen zumindest etwas – mit Ausnahme von Russland. Insgesamt habe sich der Wald durch Aufforstung und natürliches Wachstum um rund 17 Millionen Hektar Wald ausgedehnt. Das der Wald auch in Deutschland an Fläche gewinnt, hatte damals auch die Bundesagrarministerin Ilse Aigner (CSU) bei der Präsentation des Waldschadensberichts betont: In den vergangenen 40 Jahren wuchs die Fläche um rund zehn Prozent oder eine Million Hektar.

Im deutschen Wald stehen jetzt ca. 90 Mrd. Bäume, das sind über 1.000 Bäume pro Einwohner.

Einen überdurchschnittlichen Waldanteil haben die Bundesländer Rheinland-Pfalz und Hessen, gefolgt vom Saarland, von Baden-Württemberg, Bayern, Brandenburg mit Berlin und Thüringen.

infografik_13293_waldflaeche_in_den_bundeslaendern_n

Auch in der Länderbetrachtung nimmt die Waldfläche nahezu überall weiter zu. Das zeigen die Auswertungen der Bundeswaldinventur. Der deutsche Wald im Ganzen wächst seit Jahrzehnten. Und das sowohl, was die Gesamtfläche betrifft, als auch was das Volumen der Bäume angeht. Das gesamte Volumen der Waldbäume erreicht inzwischen Rekordwerte: 3,66 Milliarden m3 – und das ist noch nicht einmal alles, denn es kommt noch das sehr dünne Holz der Äste dazu, das traditionell nicht mitgezählt wird. Selbst der Vorrat an abgestorbenen Bäumen nimmt zu, und zwar deutlich: auf jetzt über 200 Mio. m3.

So ist auch nicht weiter verwunderlich, wenn der Wald in der Fläche und im Volumen wächst, so gibt es darunter auch mehr abgestorbene Bäume und auch mehr Bäume die durch Stürme, oder Trockenheit und Schädlinge Schaden erleiden können. In Naturwäldern liegt aus diesem Grund auch viel Bruchholz und Totholz herum.

Besonders stark zugelegt haben die dicken Bäume. Das hängt auch damit zusammen, dass die Bäume in unseren Wäldern im Durchschnitt immer älter und kräftiger werden. Und das trotz „sauren Regen“ und „Klimawandel“.

In ganz Deutschland bedecken die über 100-jährigen Waldflächen inzwischen mehr als 2,6 Mio. ha – eine Zunahme um mehr als 17 % seit 2002! Zum Vergleich: Das ist eine Fläche, die wesentlich größer ist als das ganze Bundesland Hessen (mit einer Gesamtfläche von etwa 2,1 Mio. ha = 21.000 km2).

Besonders die Flächen der sehr alten Bäume (mit einem Alter von über 160 Jahren) nehmen seit Jahrzehnten stark zu. Die bundesweiten Walderhebungen zeigen zwischen 2002 und 2012 eine Zunahme dieser alten Baumriesen um über 45 % auf jetzt 350.000 ha.

Nach den Ergebnissen der dritten Bundeswaldinventur 2011/2012 sind dabei rund 36 % der Waldfläche als sehr naturnah (14,5 %) oder als naturnah (21,3 %) einzustufen.

Auch für Klimaschützer sollte es sehr erfreulich sein, dass mit dem Holzvolumen der Bäume auch die Kohlenstoff-Menge immer mehr zunimmt, die in unseren Wäldern gespeichert ist: Etwa 2 Milliarden Tonnen Kohlenstoff stecken im deutschen Wald, eine unglaubliche Menge! In Kohlendioxidmengen umgerechnet heißt das: Die heutigen Wälder haben der Atmosphäre im Laufe ihres Wachstums über 7 Milliarden Tonnen CO2 entzogen, und jedes Jahr schlucken sie weitere 50 Mio. Tonnen. Dazu kommen noch die Kohlenstoffvorräte im genutzten Holz. Aktuell werden der Atmosphäre jedes Jahr 150 Mio. Tonnen Kohlendioxid entzogen oder bleiben ihr erspart – dank Wald und Holznutzung in Deutschland.

Allen Unkenrufen zum Trotz stirbt der deutsche Wald also nicht. Ganz im Gegenteil. Nirgendwo in Europa geht es dem Wald so gut wie in Deutschland und nirgends in Europa bindet der Wald durch die hohen Zuwächse so viel CO2 wie in Deutschland. Allen voran die „Klimaschützer“ machen aber ein neues Fass Waldsterben 2.0 auf. Siehe z.B. den Kampf um den Hambacher Forst und die jetzige Debatte um das Waldsterben 2.0 infolge Klimawandel. Hier werden dann insbesondere Fichtenmonokulturen gezeigt, die anfällig für Sturmschäden und Trockenheit und Insektenbefall sind und dies wird dann dem Klimawandel in die Schuhe geschoben. Dabei handelt es sich hier um Fehler der Vergangenheit, welche die Holzwirtschaft gemacht hat. Nach dem 2. Weltkrieg wurde viel Holz gebraucht und vor allen Fichten wurden nach der Rodung neu angepflanzt. Nach dem 2. Weltkrieg ließen England und Frankreich in Deutschland Wälder als Reparationsleistung für eigene Schäden abholzen. Die deutsche Forstverwaltung forstete danach mit Hilfe von Frauen wieder auf, vor allen schnell wachsende Fichtenwälder. Die Folgen wirken bis heute nach. Mit dem Klimawandel hat das wenig zu tun. Was den Klimaschützern aber nicht zu vermitteln sein dürfte. Man glaubt auch hier, was die Medien berichten und sogenannte Fachleute und Experten erzählen.

Der Beitrag erschien zuerst bei ScienceSceptical hier




„Eine Lüge oft genug wiederholt wird zur Wahrheit“ – Vorsicht, wenn sich 97 Prozent aller Wissenschaftler einig sind …

Vorsicht ist geboten, wenn sich wieder mal alle einig sind. Das geht für diejenigen selten gut aus, die nicht bei der trauten Einigkeit dabei sind.

Bei Honecker seinerzeit waren sich 98,85 Prozent einig. Heute sollen sich 97, manchmal auch 98 Prozent aller Wissenschaftler einig darüber sein, dass die Sache mit dem menschengemachten Klimawandel wahr sein muss. »Wir«, also die Menschheit, stehen am Abgrund und müssen sofort »das Ruder rumwerfen«.
Das sei einhellige Meinung nahezu aller Wissenschaftler. Also nahezu aller, damit sie nicht gleich 100 Prozent sagen müssen. Das klingt denn doch zu undemokratisch.

Die Geschichte geht auf den Kognitionspsychologen John Cook zurück. Der wertete 2013 knapp 12.000 Studien zum Thema globale Erwärmung aus. Die ZEIT zitierte das Ergebnis folgendermaßen: »97 Prozent derjenigen, die sich zum Klimawandel positionierten, waren sich einig, dass der Klimawandel auch menschengemacht ist.« Und sie wusste: »Es sind Lobbygruppen der fossilen Industrie, die seit Jahrzehnten bewusst Zweifel an diesem wissenschaftlichen Konsens streuen.«

Cook und seine Kollegen hatten knapp 12.000 Beiträge aus den Jahren 1991 bis 2011 gesammelt. Die sollten in verschiedene Kategorien eingeteilt werden, welche »Haltung« sie zum Klimawandel einnehmen. Weil auch 12.000 Arbeiten eine Menge Leseaufwand bedeuten, haben das »Bürger« in einem »citizen science project« getan. Wer genau, wie und nach welchen Kriterien, ist nicht bekannt.

Dann werfen sie jene Beiträge in den Papierkorb, die keinen Einfluss des Menschen sehen. Das sind rund 66 Prozent jener 12.000 Beiträge. Die willkürlich übrig gebliebenen 4.014 Beiträge teilen sie dann in eine pro und contra Kategorie. Sie finden nur 118 Arbeiten in der contra-Kategorie. Macht jene berühmten 97,06 Prozent.

Der ehemalige US-Präsident Barack Obama jubelte per Twitter: »97 Prozent der Wissenschaftler stimmen überein: Klimawandel ist eine Tatsache, menschengemacht und gefährlich.« Er berief sich auf diese auf merkwürdige Weise zustande gekommene Studie. Das Problem ist allerdings: Der Konsens der Wissenschaftler ist ein anderer, als Obama suggeriert.

Der Spiegel hat das damals, in seinen glanzvolleren alten Tagen, so gesehen und erzählte selbst, wie diese Fake-News-Nummer aufkam:

»Die Studie belegt also lediglich eine Banalität: Wissenschaftler sind sich weitgehend einig, dass der Mensch zur Klimaerwärmung beiträgt. Selbst hartgesottene Kritiker der Klimaforschung zweifeln nicht an dem physikalischen Grundsatz, dass Treibhausgase aus Autos, Fabriken und Kraftwerken die Luft wärmen.

Zu den eigentlich entscheidenden Fragen jedoch mache die Cook-Studie keine Aussage: Wie groß ist der menschengemachte Anteil am Klimawandel? Und wie gefährlich ist der Klimawandel? Die bedeutendsten Fragen der Umweltforschung sind weitaus schwieriger zu beantworten – und hier gehen die Meinungen der Wissenschaftler weit auseinander.

Warum erwecken die 97 (%) Forscher mit ihrer Kampagne den gegenteiligen Eindruck? Die Öffentlichkeit, so begründen die Autoren die Idee zu ihrer Studie, zögere bei der Unterstützung des Klimaschutzes aus Unwissenheit über den Wissenschaftlerkonsens.«

In den USA würden viele bezweifeln, dass der Klimawandel vom Menschen gemacht ist. Das ist schlecht für die Spendenkassen der vielen Panik-NGOs, die fett daran verdienen. Die sind mittlerweile zu einer unüberschaubaren Masse herangewachsen und tönen alle dasselbe. Die 97-Prozent-Kampagne sollte entsprechenden Druck ausüben. Doch die Kritik daran bezieht sich darauf, dass solche vereinfachenden Kampagnen den »Argwohn« stärken würden.

Der Spiegel zitierte damals noch den Meteorologen Victor Venema von der Universität Bonn, der fünf Gründe auflistet, warum Forscher den Konsens über den Klimawandel nicht mögen. «Über die meisten Fragen der Klimaforschung herrsche keine Einigkeit … Die Kampagne schaffe zudem zwei Lager, die Hauptgruppe und die Sonderlinge. Solch ein Gegensatz widerspreche der Widerspruchskultur der Wissenschaft.«.

In der Wissenschaft werden Erkenntnisse eben nicht mit Mehrheitsabstimmungen verabschiedet. Im Gegensatz etwa zum Fußball, wo 97 Prozent aller Fans der Meinung sind, dass Jogi Löw kein guter Bundestrainer ist; leider interessiert das wenig. Ein ›Wir stimmen ab, ob sich die Sonne um die Erde dreht oder doch umgekehrt‘ gibt es nicht. Bisher jedenfalls nicht.

Der Beitrag erschien zuerst bei TICHYS Einblick hier

Weiterführende Literatur zur Erfindung von „Konsens“ in der Klimawissenschaft finden sie ua. auch hier:

Was stimmt nicht mit der Behaup­tung, „97% aller Klima­wissen­schaftler“ stimmen hinsicht­lich AGW überein?

 

 




Keine Lust auf die grüne Machtergreifung

Deutschland ist nur für gut zwei Prozent des jährlich ausgestoßenen Kohlenstoffdioxids CO2 verantwortlich – im Jahr 1992 lag dieser Wert noch bei über vier Prozent. Zwischen Berchtesgaden und Flensburg wird sich also definitiv nicht entscheiden, wie hoch der Ausstoß des angeblichen Treibhausgases CO2 in den kommenden Jahren und Jahrzehnten ausfallen wird. Dennoch ist ausgerechnet hierzulande eine regelrechte Hysterie um dieses Thema entbrannt, die sich in einer „masochistischen Lust an der Apokalypse“ äußert, wie Jürgen Elsässer im Vorwort zur neuesten Ausgabe der von ihm herausgegebenen Reihe COMPACT-Spezial äußert, die sich dem Thema „Öko-Diktatur – Die heimliche Agenda der Grünen“ widmet. Zurecht weist der COMPACT-Chefredakteur darauf hin, dass vor acht Jahren ein einziges Ereignis am anderen Ende der Welt – nämlich der Fukushima-Störfall – als „Katalysator“ genutzt wurde, „um von einen Tag auf den anderen aus einer bis dahin per Gesetz garantierten Energieform, der Atomkraft, auszusteigen.“

 

Krieg gegen das Auto – Krieg gegen die deutschen Arbeitnehmer

 

Heute müssten eigentlich auch Robert Habeck und Annalena Baerbock wenigstens hinter vorgehaltener Hand zugeben, dass der Atomausstieg gerade auch aus ihrer Sicht ein schwerer und geradezu unverzeihlicher Fehler war, denn die Nuklearenergie liefert eine sichere Stromversorgung bei annähernder CO2-Neutralität. Doch statt die Verantwortung für solch dramatisch falsche Weichenstellungen einmal anzuerkennen und innezuhalten, fordern die Grünen heute vehementer denn je den Rückbau der gesamten deutschen Industriegesellschaft. Sie wollen damit Deutschlands Weg in die industrielle Moderne zurücknehmen, der im 19. Jahrhundert begann, dem das Land Wohlstand und Fortschritt und die ganze Welt bahnbrechende Erfindungen und Fortschritte verdankt. Die Axt wird dabei ausgerechnet an der Wurzel der deutschen Schlüsselindustrie, nämlich der Automobilbranche, angelegt. Die möglichen Folgen könnten dramatisch sein, wie in dem Kapitel „Krieg gegen das Auto“ beleuchtet wird. Der von der Politik forcierte Ausstieg aus Verbrennungsmotoren zugunsten von Batterieautos ist ein ähnlich weitreichender und riskanter Schritt wie der gleichzeitige Ausstieg aus der Kohle- und Atomenergie. Hier – wie auch auf einigen anderen Politikfeldern – scheint Tübingens Oberbürgermeister Boris Palmer der einzige „Realo“ seiner Partei zu sein, wenn er anmerkt: „Wenn der Verbrennungsmotor morgen abgeschaltet wird, ist Baden-Württemberg ein Sanierungsfall wie das Ruhrgebiet nach dem Ende von Kohle und Stahl.“ Der Kahlschlag, der sich schon jetzt in den sich häufenden Meldungen von Massenentlassungen bei Automobilherstellern und ihren Zulieferern ankündigt – und der in dem Heft durch eine Graphik plastisch gemacht wird, die veranschaulicht, dass fast alle deutschen Bundesländer vor einer dramatischen Job-Krise stehen ‒, könnte sich auch auf umweltpolitischer Ebene als verhängnisvoll erweisen. Die Branche hat in den letzten Jahrzehnten nämlich schon äußerst emissions- und verbrauchsarme Modelle entwickelt, während die Herstellung eines E-Autos immer noch eine Öko-Sünde ersten Ranges ist, wenn man den Ressourcenverbrauch, die Freisetzung von Giften wie auch die Rahmenbedingungen bedenkt, unter denen es entsteht. Besonders verhängnisvoll ist dabei die „Verschwörung gegen den Diesel“, die Carl Reinhold in einem eigenen Beitrag behandelt. Eigentlich könnte der erhöhte Absatz von Autos mit Dieselmotoren ebenso wie der Betrieb von Atomkraftwerken ein Königsweg sein, um schnell CO2-Emissionen zu sparen – doch stattdessen werden die Autos mit Hilfe absurder Fahrverbotsdebatten von den Straßen gefegt. Reinhold beleuchtet in seinem erhellenden Beitrag insbesondere die Hintergründe des VW-Dieselgate-Skandals in den Vereinigten Staaten, der – wie sich auf dramatische Art und Weise immer stärker erweist – zum Genickbruch für eine ganze Branche werden sollte.

 

Mit Flatterstrom in den Blackout

 

Weitere Texte befassen sich mit den Defiziten von batterieelektrisch betriebenen Fahrzeugen und mit der Sklaven- und Kinderarbeit, unter der das zum Bau der Batterien notwendige Kobalt in Afrika gefördert wird. Der AfD-Bundestagsabgeordnete Dirk Spaniel, der selbst früher lange in führender Funktion als Entwickler beim Dainmler-Konzern arbeitete, richtet seinen Blick auf die immer weitere Verschärfung der Stickstoffdioxid- und Kohlenstoffdioxidgrenzwerte, mit denen dem Verbrennungsmotor der Garaus gemacht werden soll, und Martin Müller-Mertens nimmt die „Deutsche Umwelthilfe“ unter die Lupe. Eine in ihren Auswirkungen fatale „Revolution von oben“ stellt natürlich auch die sogenannte Energiewende dar. Das Politgroßprojekt, das an die planwirtschaftlichen Experimente der Länder des früheren Ostblocks erinnert, war von Anfang an völlig falsch angelegt – und droht deshalb nun zum Sargnagel nicht nur des Wirtschaftsstandorts Deutschland, sondern der Energiesicherheit des Landes schlechthin zu werden. Die politisch motivierte Unterscheidung zwischen dem „guten“ Ökostrom aus Solarenergie, Windenergie, Wasserkraft, Biomasse, Geothermie und Deponiegas und dem „bösen“ Kohle- und Atomstrom führte zu volkswirtschaftlichen Fehlkalkulationen in einem geradezu sowjetesken Ausmaß. Für ersteren wurde im am 1. April 2000 in Kraft getretenen „Gesetz zur Energieeinspeisung aus erneuerbaren Energien“ (EEG) eine feste und über 20 Jahre garantierte Vergütung sowie eine Priorität vor allen anderen Erzeugungsarten festgelegt, letzterer galt von nun an als Auslaufmodell. Da der Grünstrom aber aus zwingenden Gründen ‒ da die Sonne in der Nacht in Deutschland überall nicht scheint und auch die Windverhältnisse in Küstennähe häufig sehr ähnlich sind – nur sehr ungleichmäßig erzeugt werden kann, kommt Deutschland dem Blackout jedes Jahr ein Stückchen näher. Das Kapitel zur missratenen Energiewende beleuchtet alle relevanten Aspekte dieser Frage – von dem auf tönernen Füßen stehenden Windradboom bis hin zur Renaissance der Atomenergie in fast allen westlichen Industriestaaten und insbesondere in Osteuropa.

 

Woher kommt der Erfolg der Grünen?

 

Weitere Kapitel des Heftes widmen sich der Klimareligion, die sich rund um die Ikone Greta Thunberg rasant entwickelt, sowie den Grünen als der politischen Speerspitze der Befürworter einer Öko-Diktatur. Deren „Griff nach der Macht“, den Chefredakteur Jürgen Elsässer in einem langen Text ausführlich analysiert, ist durch ein Zusammenspiel vieler Faktoren – dem aus der Sicht vieler Wähler attraktiven Führungspersonal, der Krise der SPD sowie dem Oppositionsimage, von dem die Ökopaxe zehren – nun erstmals in der Geschichte der Bundesrepublik möglich geworden, und könnte tatsächlich mit dem Einzug eines Grünen ins Kanzleramt enden. Die neue Ausgabe von COMPACT-Spezial bietet nun in gewohnt komprimierter und überzeugender Form die Gegenargumente gegen eine solche Machtergreifung, die wohl fürchterliche Folgen nicht nur für die deutsche Wirtschaft, sondern die ganze Gesellschaft haben würde. Besonders hinzuweisen ist noch auf ein langes Interview mit dem Fachmediziner Dr. Hans Drexler sowie einen Beitrag der früheren „Tagesschau“-Moderatorin Eva Herman zum Krieg der Generationen.

 

COMPACT-Spezial 22: „Öko-Diktatur: Die heimliche Agenda der Grünen“, 84 Seiten, mit vielen Graphiken und Bildern, 8,80 Euro, zu bestellen unter www.compact-shop.de.