Windflauten lösen Unruhe bei Energiekonzernen aus*

Dagmar Jestrzemski (Red. PAZ)*

Immer mehr Windräder, aber weniger Wind –

Könnte eine hohe Konzentration an Windparks zu den in vielen Ländern verzeichneten „Winddürren“ führen?

====================================================

Nach mehreren Dürrejahren in Folge regnete es 2021 in großen Teilen Deutschlands wieder reichlich. Zumindest die oberen Bodenschichten waren gut durchfeuchtet. Zugleich wurde für Deutschland die geringste Sonnenscheindauer seit langer Zeit registriert.

In anderen Teilen Europas hat jedoch die Dürre im vierten Jahr in Folge drastische Ausmaße angenommen, so in Großbritannien und Irland. Ursache war ein außergewöhnlich langes statisches Hochdruckgebiet zwischen Island und Schottland von April bis Anfang Oktober. Die damit einhergehende Dürre und Flaute wurde als die schwächste Windphase seit 60 Jahren bezeichnet. Die Windenergie-Firmen RWE und Ørsted gaben eine Warnung heraus. Auch die Stromerzeugung durch Wasserkraft fiel laut SSE (Scottish and Southern Energy) um 32 Prozent niedriger aus als erwartet.

In mehreren Online-Magazinen wurde über mögliche Ursachen der in den vergangenen Jahren weltweit gehäuft aufgetretenen sogenannten Omega-Hochdruckgebiete spekuliert. Erörtert wurde die Interaktion zwischen dem dynamischen System von Atmosphäre und Ozean und dessen Auswirkung auf das Wettergeschehen.

Im aktuellen Fall war jedoch kein Zusammenhang mit einer derartigen Konstellation erkennbar. Jedenfalls würden die monatelangen „Winddürren“ veranschaulichen, dass die Erneuerbaren Energien auf Vermutungen basieren, „wie die Welt funktioniert“, befand das Online-Politikmagazin slate.com. Die Welt würde gerade aus ihrer Balance geworfen.

Eine Nachwuchsforscherin im Bereich der Klimarisikoforschung, Hannah Bloomfield von der Universität Bristol, präsentierte im Magazin Energypost.eu („Die besten Denker über Energie“) weitergehende Schlussfolgerungen als in der der Windindustrie zugeneigten Wissenschaftsgemeinschaft üblich. Mit ihrem Team habe sie aufgezeigt, dass die stagnierenden Hochdruckgebiete über Zen-traleuropa und monatelangen Schwachwindphasen zu einem Problem für die zukünftigen Energiesysteme werden könnten. Die letzte lange Windflaute sei eine Mahnung, wie veränderlich diese Art der Energieerzeugung sei und dass Windenergie nicht die einzige Investition für eine verlässliche zukünftige Energieversorgung sein könne.

Bloomfield gibt zu bedenken: Die beobachtete abnehmende Geschwindigkeit des oberflächennahen Windes könnte auf das Phänomen „Global Stilling“ (global abnehmende Windgeschwindigkeiten) zurückzuführen sein, das am auffälligsten in den mittleren nördlichen Breiten Europas und Nordamerikas sowie in Teilen Asiens in Erscheinung tritt. Die Ursachen sind bisher nicht eindeutig feststellbar. Jedoch scheint es in der Forschung eine Übereinkunft darüber zu geben, dass ein Zusammenhang mit dem Klimawandel besteht.

Auffällige Flauten in Windparknähe

Seit den 1970er Jahren hat die Windgeschwindigkeit weltweit pro Dekade im Durchschnitt um 0,5 Kilometer in der Stunde abgenommen. Noch weitaus gravierender dürfte dies in Europa der Fall sein. Der letzte Bericht des Weltklimarats (IPCC) sagt für Europa eine weitere Abnahme der Windgeschwindigkeit um acht bis zehn Prozent voraus. Nach Erkenntnissen einer von der EU in Auftrag gegebenen Großstudie würde eine langfristige Fortsetzung des „Stilling“ die Gesellschaften substanziell gefährden.

Bereits 2018 und 2019 war die Ursache für das ungewöhnlich langanhaltende Sommerwetter über Europa und andere Regionen der Nordhalbkugel eine Abfolge von stabilen, sich ständig erneuernden Hochdruckgebieten. Ein solches Blockadewetter mit einer langen Schwachwindphase herrschte auch in Nordamerika großräumig ab Mitte 2018 und etwas abgeschwächt bis Ende 2019.

Trotz eines massiven Zubaus der Windstromkapazität um zehn Prozent innerhalb dieses Zeitraums generierten die US-Windparks 2019 nur 4,3 Prozent mehr Strom als im Vorjahr. In der westlichen Hälfte und in den zentralen US-Bundesstaaten herrschte zuvor bereits von Juni 2013 bis Mitte 2015 und nochmals 2016 die schwerste und längste „Winddürre“ seit den 60er Jahren. Die meisten Meteorologen glaubten, das Extremwetter sei zumindest teilweise auf die Pazifische Dekaden-Oszillation zurückzuführen, eine abrupte Änderung der Oberflächentemperatur im nördlichen Pazifik.

Auffällig war jedoch, dass sich die Windflaute in Verbindung mit einer verheerenden Dürre am meisten in Staaten wie Texas, Oklahoma und Kansas auswirkte, wo die größten Windparks mit jeweils Tausenden von Windrädern konzentriert sind. Für die internationale Klimaforschung ergibt sich daraus die Notwendigkeit, dementsprechend endlich auch diesen Faktor in den Blick zu nehmen, was bislang nicht in Betracht kommt.

=================================================================

)*  Anmerkung der EIKE-Redaktion :

Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung;  28. Januar 2022, S.7; EIKE dankt der PAZ-Redaktion sowie der Autorin Dagmar Jestrzemski für die Gestattung der ungekürzten Übernahme, wie schon bei früheren Artikeln :   https://www.preussische-allgemeine.de/ ; Hervorhebungen im Text: EIKE-Redaktion.

=================================================================




Richard Feynman – Genie und Querdenker

Richard Feynman war ein amerikanischer Physiker und Nobelpreisträger. Er war dafür berühmt, komplizierte Dinge einfach zu machen, aber nicht zu einfach. Auf fachlichem Gebiet war er zwangsläufig ein Querdenker, so wie jeder große Forscher. Aber auch in politischen Fragen traute er der eigenen Urteilskraft mehr als dem Mainstream. Ein konkretes Ereignis machte ihn dann über Nacht in der breiten Öffentlichkeit berühmt.

von Hans Hoffmann-Reinecke

Ein freundliches Genie

Feynman lebte von 1918-1988. Er erhielt 1965 den Nobelpreis für die Formulierung der Quanten-Elektrodynamik – einem „Merger“ von Spezieller Relativitätstheorie und Quantenmechanik. In einer Umfrage des Physics World magazine nimmt er den 7. Platz unter den 130 bedeutendsten Physikern aller Zeiten ein – in enger Nachbarschaft zu Einstein, Newton, Maxwell und Galilei.

Auf gesellschaftlichem Parkett war er eher ein Maverick, was in den Titeln seiner Autobiographien anklingt: „Surely You’re Joking, Mr. Feynman!“ und „What Do You Care What Other People Think“. Er war aber stets ein freundlicher und humorvoller Außenseiter und gern gesehener Partygast.

Seine Popularität führte dazu, dass er in die „Rogers Commission“ zur Untersuchung der Ursachen des Space-Shuttle Absturzes vom 18. Januar 1986 berufen wurde. Präsident Reagan und die NASA hatten die unausgesprochene Erwartung, dass dieses Gremium zu einem versöhnlichen Urteil käme, etwa im Sinne: „Wenn die Menschheit an die Grenzen des Machbaren stößt, dann sind Opfer unter den Pionieren des Fortschritts unvermeidlich. Unsere Gedanken werden immer…“

Mit Richard Feynman hatte man dafür den falschen Mann an Bord.

Die Challenger Katastrophe

Ein Mann kam spät nach Hause, und seine Frau fragte ihn, wie es im Büro gewesen sei. „Nichts Besonderes“, antwortete der; „außer, dass wir morgen sieben Astronauten umbringen werden.“

Er arbeitete als Ingenieur bei der Firma Morton Thiokol, dem Lieferanten der Booster-Raketen für das US-Spaceshuttle. Die Entscheider von NASA und das Topmanagement seiner eigenen Firma hatten sich geeinigt, den Start der Raumfähre Challenger am nächsten Morgen wie geplant durchzuführen. Sie hatten so entschieden, obwohl der Ingenieur vehementen Widerspruch eingelegt hatte.

Er hatte davor gewarnt, dass der in der Nacht zu erwartende Frost ein inakzeptables Risiko für die Mission darstellte. Die Kälte würde dazu führen, dass die Dichtungen, welche die einzelnen Segmente der Rakete nahtlos miteinander verbinden sollen, ihre Elastizität verlieren und letztlich brechen werden. Als Folge davon würden Flammen durch die entstandenen Lecks schlagen und den in unmittelbarer Nähe angebrachten Treibstofftank des Shuttles zum Explodieren bringen.

Der Ingenieur hatte nur allzu recht. Am nächsten Morgen explodierte das Shuttle kurz nach dem Start. Alle Astronauten an Bord kamen ums Leben. Die Entscheider hatten die „strategische Sicht“, die politischen Zusammenhänge vor Augen gehabt. In diesem großen Bild war der Ingenieur mit seinen Dichtungsringen nur ein kleines Rädchen. Da gab es wichtigere PR-Bedenken: Was sagt die Bevölkerung, wenn wir den Start nochmals verschieben? Wird die Regierung das Budget kürzen, wenn wir niemals pünktlich sind? Die Bevölkerung wartet doch schon seit Wochen darauf, Christa McAuliffe, diese sympathische Lehrerin und Teil der Besatzung endlich im All zu sehen! Und Präsident Ronald Reagan hatte schon eine Rede zum Launch vorbereitet.

Angesichts dieser gewichtigen Argumente traten die Dichtungsringe in den Hintergrund, weil die Entscheider deren wirkliche Bedeutung nicht verstanden.

Eine Kommission der Stars

Die Wirklichkeit aber kümmerte sich nicht um die große Politik. Die Dichtungsringe brachen, die Rakete explodierte, und Ronald Reagan musste schließlich eine andere Rede halten als vorgesehen.

Das war also die Sachlage, mit der die Rogers Commission konfrontiert war. Sie sollte nicht nur das technische Problem finden, sondern auch die Ursachen für die tragische Fehlentscheidung durch das NASA-Management. Dafür hatte man eine Reihe von Celebrities an Bord geholt, unter ihnen Neil Armstrong, Sally Ride, die erste Amerikanerin im Weltraum und Chuck Yeager, der als erster Pilot die Schallmauer durchbrochen hatte – und eben Richard Feynman.

Beruflich in den abstraktesten Theorien zu Hause, ließ der es sich nicht nehmen, in den Montagehallen von NASA und Thiokol mit den Technikern über Schrauben und Dichtungen zu diskutieren, und vielleicht auch ein Teil so einer Dichtung der Feststoffrakete mitzunehmen. Dieses pragmatische Vorgehen machte ihn zum Außenseiter in dem noblen Gremium.

In einer Pressekonferenz desavouierte Feynman dann die Kommission in aller Öffentlichkeit. Man diskutierte heftig hin und her, ob die Temperaturen beim Start von Challenger denn tatsächlich weit genug unter null waren, um die Dichtungsringe so spröde zu machen, dass sie brechen und eine Explosion auslösen würden. Feynman hatte sich unterdessen ein Glas mit Eiswasser aus der Kantine bringen lassen, in das er ein Stück von so einem O-Ring tauchte. Im richtigen Moment nahm er dann recht auffällig das Teil aus dem Glas und zerbrach es vor aller Augen in seiner Hand. Die Temperatur konnte jetzt nicht unter null Grad liegen – sonst wäre das Wasser nicht flüssig gewesen – und das Material war offensichtlich zerbrochen. Für die Presse war das natürlich ein Leckerbissen, bei den übrigen Mitgliedern der Kommission, und insbesondere bei ihrem Leiter, dem Juristen und Karrierepolitiker William Rogers, gewann er damit keine Sympathien.

NASA – nicht mehr das was sie einmal war

Feynman merkte bald, dass es innerhalb NASA zwischen den Ansichten der Konstrukteure und der Entscheidungsträger ganz eklatante Diskrepanzen gab. Das zeigte sich deutlich bei der Einschätzung der Risiken eines Crashs. Feynman war auf Grund seiner Beobachtungen auf eine Wahrscheinlichkeit in der Gegend von 1:100 gekommen, während der Leiter des Shuttle Programms von einem Risiko 1:100.000 ausging. Anders ausgedrückt: seiner Meinung nach könnte man 250 Jahre lang täglich ein Shuttle starten und es würde wahrscheinlich nur einen einzigen Unfall geben.

Auf Feynmans Frage, wie er denn zu dieser Zahl gelangt sei, antwortete der NASA Top-Manager mit der Rhetorik eines Politikers: „Wenn es nicht so wäre, dann würden wir keine Menschen ins Shuttle setzen.“

Diese Antwort charakterisiert die Dekadenz der NASA seit ihrem phänomenalen Erfolg der ersten Mondlandung. Aus einem technologisch durchdrungenen Betrieb mit dem Motto „Failure is not an Option“ war eine Organisation geworden, in der Denken und Handeln zunehmend durch politischen Opportunismus bestimmt wurden.

Feynman gecancelt

Im Bericht, den die Rogers-Commission dann herausgab fehlte Feynmans Beitrag zunächst. Er wurde erst auf sein Drängen eingefügt, allerdings nur als „Anhang“ und nicht als Teil des Ergebnisses.

Seine Ausführungen schlossen mit diesem ernüchternden Statement:

„Damit eine Technologie Erfolg haben kann, muss die Wirklichkeit Priorität vor Public Relations haben, denn die Natur kann man nicht zum Narren halten.“ (For a successful technology, reality must take precedence over public relations, for Nature cannot be fooled.)

Statt Feynmans Text in den Anhang zu verbannen hätte man seine Risikoabschätzung von 1: 100 in fett auf die Titelseite des Berichts drucken müssen. Die großzügige Risiko-Einschätzung von 1:100.000 durch das NASA Management stellte sich abermals als Wunschdenken heraus. Keine hundert Flüge nach Challenger verunglückte erneut ein Shuttle: Im Februar 2003 zerbrach die Columbia beim Eintritt in die Erdatmosphäre und riss die siebenköpfige Besatzung in den Tod. Feynmans Statistik hatte sich auf tragische Weise bestätigt.

Es hat einen hohen Preis, wenn Querdenker gecancelt werden und wenn intelligente Logik von trägem Opportunismus überrollt wird – das ist heute so wie damals.

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazon erhältlich.

 




2021: Erwärmung wie üblich?

Dr. David Whitehouse, Science editor

Es ist schon lange her, dass jemand sagen konnte, das vergangene Jahr sei das wärmste aller Zeiten gewesen, was ausschließlich auf die globale Erwärmung zurückzuführen ist.

Letzte Woche veröffentlichte das britische Met Office seine Messungen der globalen Temperatur für 2021, ein Jahr, das vom Guardian als Klimakrise bezeichnet wurde.

Der afrikanische Kontinent erlebte den wärmsten Januar seit Beginn der Aufzeichnungen. In Malaysia gab es sintflutartige Regenfälle und die Türkei erlebte das zehnte Jahr der Dürre. Im Februar wurde Texas von bösartigem Winterwetter heimgesucht, was dazu führte, dass zehn Millionen Menschen ohne Strom waren. Im März wurde Australien von schweren Überschwemmungen heimgesucht, die in New South Wales Tausende zur Flucht zwangen. Im April kam es in China zu gewaltigen Sandstürmen, und ein Wirbelsturm bescherte einigen Teilen Westaustraliens Rekordregenmengen. Im Mai rief der Gouverneur von Kalifornien eine Dürre aus.

Der Juni war von einer bemerkenswerten Hitzewelle in Nordamerika geprägt, Europa und Asien verzeichneten den zweitwärmsten Juni aller Zeiten. Die Temperaturen in Neuseeland brachen alle Rekorde. Im darauffolgenden Monat wurden im Death Valley in Kalifornien 54,4 °C gemessen. Sintflutartige Regenfälle in Indien forderten über hundert Todesopfer. Im August brachen Waldbrände im Mittelmeerraum und in weiten Teilen Sibiriens aus. Japan, die Türkei und Südamerika wurden von Überschwemmungen heimgesucht. Im Dezember wurde Australien erneut von Überschwemmungen heimgesucht. Kentucky erlebte einen verheerenden Tornado.

Trotz alledem zeigten die Daten für 2021, dass es das siebtwärmste Jahr seit Beginn der Aufzeichnungen war. Bei der Bekanntgabe der globalen Temperatur betonte das Met Office, dass die globalen Temperaturen durch aufeinander folgende La-Niña-Ereignisse an beiden Enden des Jahres vorübergehend abgekühlt wurden.

Globale Temperaturveränderung im 21. Jahrhundert. Quelle: UK Met Office

Die Nachricht, dass das Jahr 2021 weit davon entfernt war, ein Rekordjahr zu sein, wurde etwas zurückhaltend verkündet. Die Erklärung dafür ist, dass 2021 zwar sehr warm war, aber auf einige Jahre folgte, in denen die Temperaturen durch ein Super-El-Nino-Ereignis in die Höhe getrieben wurden. 2021, so wird behauptet, setzt einen langfristigen Trend fort, ungeachtet des Super-El-Nino-Ereignisses.

Dr. Colin Morice vom Met Office sagte dazu: „Das Jahr 2021 ist eines der wärmsten Jahre in den Aufzeichnungen und setzt eine Reihe von Messungen fort, die zeigen, dass sich die Welt unter den Auswirkungen der Treibhausgasemissionen erwärmt. Damit setzt sich eine Reihe von besonders warmen Jahren von 2015 bis 2021 fort – die wärmsten sieben Jahre in über 170 Jahren Messgeschichte.“

Prof. Tim Osborn von der University of East Anglia betonte den langfristigen Trend und fügte hinzu: „Jedes Jahr liegt tendenziell etwas unter oder etwas über der zugrunde liegenden langfristigen globalen Erwärmung. Die globalen Temperaturdaten, die vom Met Office und der Klimaforschungseinheit der UEA analysiert wurden, zeigen, dass das Jahr 2021 ein wenig unter und das Jahr 2020 ein wenig über dem zugrunde liegenden Erwärmungstrend lag. Alle Jahre, einschließlich 2021, stimmen mit den langjährigen Vorhersagen der Erwärmung durch menschliche Aktivitäten überein.

WMO-Generalsekretär Prof. Petteri Taalas kommentierte: „Die aufeinanderfolgenden La-Niña-Ereignisse bedeuten, dass die Erwärmung im Jahr 2021 im Vergleich zu den letzten Jahren weniger ausgeprägt war. Dennoch war es immer noch wärmer als frühere, von La Niña beeinflusste Jahre. Insgesamt ist die langfristige Erwärmung aufgrund von Treibhausgasen nun viel größer als die jährlichen Schwankungen, die durch natürliche Klimatreiber verursacht werden.“

Bedenken Sie jedoch, dass in diesen klimabewussten Zeiten schon lange niemand mehr sagen konnte, dass das vergangene Jahr das wärmste aller Zeiten war, was ausschließlich auf die globale Erwärmung zurückzuführen ist. Neue Forschungsergebnisse einer Gruppe chinesischer Wissenschaftler des Ministeriums für natürliche Ressourcen, die im Journal of Climate veröffentlicht werden, legen zudem nahe, dass das Argument des Über- oder Unterschreitens der langfristigen Trendlinie zu einfach ist.

Durch die Untersuchung aller verfügbaren globalen Temperaturdatensätze und einer umfassenden Spanne von Zeiträumen sowie Anfangs- und Endzeiten kommen sie zu dem Ergebnis, dass die so genannte globale Erwärmungspause in den 2000er Jahren und darüber hinaus real war. Außerdem stellen sie fest, dass die rasche Erwärmung der späten 1900er Jahre und der Hiatus der 2000er Jahre statistisch nicht miteinander vereinbar sind.

Interessant ist auch das Ende des Hiatus. Er endete mit einem (Rekord-)El Nino, seit welchem die globalen Temperaturen nicht mehr gestiegen sind. Einige sehen dies als signifikant an, andere wiederum sehen eine Wiederaufnahme des langfristigen linearen Anstiegs, obwohl es, wie die chinesischen Wissenschaftler betonen, 30 Jahre lang einen nichtlinearen Anstieg der globalen Temperatur gegeben hat. Bedenken Sie, dass 30 Jahre häufig als Definition von Klima verwendet werden.

Daraus ziehe ich den Schluss, dass es manchmal sehr nützlich ist, eine gerade Linie durch verrauschte Daten zu ziehen, da sie oft die grundlegenden Faktoren eines Datensatzes zeigt. Manchmal ist es jedoch nicht das, was es zu sein scheint.

Link: https://www.netzerowatch.com/2021-warming-as-usual/

Übersetzt von Christian Freuer für das EIKE

 




Was ist überhaupt ein „widerstandsfähiger“ Wald?

Begutachtete Veröffentlichung der UNIVERSITY OF CALIFORNIA – DAVIS

Studie: Widerstandsfähige Wälder mit häufigen Bränden haben viel weniger Bäume.

Wie sieht ein „widerstandsfähiger“ Wald in der kalifornischen Sierra Nevada aus? Laut einer Studie der University of California, Davis, über Wälder, die häufig von Bränden heimgesucht werden, gibt es dort viel weniger Bäume, als wir es gewohnt sind.

Vor mehr als einem Jahrhundert konkurrierten die Wälder der Sierra Nevada kaum mit benachbarten Bäumen um die Ressourcen. Die Baumdichten der späten 1800er Jahre würden die meisten Kalifornier heute in Erstaunen versetzen. Aufgrund der Unterdrückung von Bränden leben in den heutigen Wäldern sechs- bis siebenmal so viele Bäume wie bei ihren Vorfahren – und konkurrieren unter trockeneren und heißeren Bedingungen um weniger Wasser.

Die Studie, die in der Fachzeitschrift Forest Ecology and Management veröffentlicht wurde, legt nahe, dass Bestände mit geringer Dichte, die den Wettbewerb zwischen den Bäumen weitgehend ausschalten, der Schlüssel zur Schaffung von Wäldern sind, die den vielfältigen Stressfaktoren wie schweren Waldbränden, Trockenheit, Borkenkäfern und dem Klimawandel standhalten.

[Hervorhebung vom Übersetzer]

Dieser Ansatz wäre eine deutliche Abkehr von den derzeitigen Bewirtschaftungsstrategien, bei denen die Waldentwicklung durch den Wettbewerb zwischen den Bäumen gesteuert wird.

Definition von „Widerstandsfähigkeit“

Doch zunächst stellt die Studie die Frage: Was genau bedeutet „Resilienz“ überhaupt? Der Begriff taucht immer häufiger in Managementplänen auf, ist aber vage und schwer zu quantifizieren. Die Autoren haben diese Arbeitsdefinition entwickelt: „Resilienz ist ein Maß für die Anpassungsfähigkeit des Waldes an eine Reihe von Stressfaktoren und spiegelt die funktionale Integrität des Ökosystems wider“.

Sie fanden auch heraus, dass ein gängiges forstwirtschaftliches Instrument – der Stand Density Index (SDI) – für die Bewertung der Widerstandsfähigkeit eines Waldes geeignet ist.

„Resiliente Wälder reagieren auf eine Reihe von Stressfaktoren, nicht nur auf einen“, sagte der Hauptautor Malcolm North, Professor für Waldökologie an der Abteilung für Pflanzenwissenschaften der UC Davis und Forschungsökologe bei der U.S. Forest Service, Pacific Southwest Research Station. „Resistenz‘ bedeutet, einen bestimmten Stress wie Feuer zu überleben – aber in diesen Wäldern geht es um viel mehr, insbesondere um die Belastung durch den Klimawandel.“

Wettbewerbsartige Natur

Für feuerangepasste Wälder in der Sierra ist eine drastische Verringerung der Baumdichte erforderlich – in manchen Fällen bis zu 80 % der Bäume.

„Behandlungen zur Wiederherstellung der Widerstandsfähigkeit heutiger Wälder müssen viel intensiver sein als die derzeitige Konzentration auf die Reduzierung von Brennstoffen“, sagte Scott Stephens von der UC Berkeley, einer der Mitautoren der Studie.

Die Studie verglich groß angelegte historische und aktuelle Datensätze und Waldbedingungen in der südlichen und zentralen Sierra Nevada, vom Sequoia National Forest bis zum Stanislaus National Forest. Dabei wurde festgestellt, dass die Baumdichte zwischen 1911 und 2011 um das Sechs- bis Siebenfache zugenommen hat, während die durchschnittliche Baumgröße um die Hälfte zurückgegangen ist.

Vor einem Jahrhundert waren sowohl die Bestandsdichte als auch der Wettbewerb gering. In mehr als drei Vierteln der Waldbestände gab es nur wenig oder gar keine Konkurrenz, die das Wachstum eines Baumes verlangsamt und seine Vitalität verringert hätte. Im Gegensatz dazu gelten fast alle – 82 % bis 95 % – der modernen Wälder mit häufigen Bränden als Wälder mit „voller Konkurrenz“.

Die Studie zeigt, dass Wälder mit einer sehr geringen Baumdichte widerstandsfähiger gegen die kombinierte Bedrohung durch Brände, Trockenheit und andere klimatische Stressfaktoren sind und gleichzeitig eine gesunde Wasserqualität, Lebensraum für Wildtiere und andere natürliche Vorteile bieten. Wälder, die durch schwere Brände verbrannt oder durch Dürre zerstört wurden, verlieren diese Leistungen des Ökosystems.

Weckruf

Die Autoren sagen, dass die Dürre 2012-2016, in der fast 150 Millionen Bäume durch trockenheitsbedingten Borkenkäferbefall starben, als Weckruf für die Forstwirtschaft diente, dass andere Ansätze erforderlich sind, um den Wäldern zu helfen, mehrere Bedrohungen zu bekämpfen, nicht nur schwere Waldbrände.

 Eine Abkehr von der Bewirtschaftung wettbewerbsfähiger Wälder und eine Hinwendung zur Beseitigung von Konkurrenz könnte es den wenigen Wäldern ermöglichen, zu gedeihen und widerstandsfähiger zu werden.

„Die Menschen haben sich an die hohe Dichte der Wälder gewöhnt, in denen wir leben“, sagte North. „Die meisten Menschen wären überrascht, wenn sie sähen, wie diese Wälder einst aussahen, als häufige Flächenbrände sie in sehr geringer Dichte hielten. Aber wenn man kleinere Bäume entfernt und Bäume übrig lässt, die Feuer und Trockenheit überstehen können, entsteht ein ziemlich beeindruckender Wald. Das bedeutet, dass sehr offene Bedingungen mit wenig Konkurrenz zwischen den Bäumen geschaffen werden. Aber es gibt eine Menge historischer Daten, die dies belegen.

Wir glauben, dass widerstandsfähige Wälder geschaffen werden können, aber dazu muss die Baumdichte drastisch reduziert werden, bis es wenig bis gar keine Konkurrenz mehr gibt“, sagte Brandon Collins von der UC Berkeley, ein weiterer Mitautor der Studie. „Auf diese Weise können sich diese Wälder an das künftige Klima anpassen“.

Weitere Co-Autoren sind Ryan Tompkins von der UC Cooperative Extension sowie Alexis Bernal und Robert York von der UC Berkeley.

Die Studie wurde vom National Park Service Pacific West Region, der U.S. Forest Service Pacific Southwest Research Station, dem U.S. Joint Fire Sciences Program und der UC Agriculture and Natural Resources Division finanziert.

JOURNAL: Forest Ecology and Management

DOI 10.1016/j.foreco.2021.120004 

METHOD OF RESEARCH: Imaging analysis

ARTICLE TITLE: Operational resilience in western US frequent-fire forests

ARTICLE PUBLICATION DATE: 18-Jan-2022

From EurekAlert!

Link: https://wattsupwiththat.com/2022/01/22/just-what-is-a-resilient-forest-anyway/

Übersetzt von Christian Freuer für das EIKE

 




Nicht nur die EU, sondern auch Berlin läßt Hunderte Leerflüge durchführen

von AR Göhring

Die Bundesluftwaffe leistet jährlich über 300 „Bereitstellungsflüge“ ohne Passagiere, um ihre Maschinen zwischen Berlin und Bonn hin- und herzufliegen. Warum?

Daß es bei der Klimapolitik nicht ums Klima geht, sondern um Umverteilung und Macht, wissen EIKE-Leser schon lange. Interessanterweise taten die Kabinette von Klimakanzlerin Merkel, und jetzt die Ampel, nicht viel, um die Widersprüche zu vermeiden. So wie die EU in Zeiten der Coronapolitik etliche Flieger ohne Passagiere aufsteigen läßt, damit die gebuchten Zeitfenster der Flughäfen nicht verfallen, schickt die Bundesregierung die leeren Maschinen zwischen der Hauptstadt und dem Restbestand in Bonn hin- und her.

Warum? Wohl, damit an jedem Ort immer genügend passende Flugzeuge für die Bedürfnisse der hohen Beamten und Politiker bereitstehen. Merkel zum Beispiel flog ja selber zwei mal für einen einzigen Tag in die USA, um sich Ehrendoktorhüte in Harvard und Baltimore abzuholen. Die vielen kleinen Merkels in der Bundespolitik tun es ihr gleich und wollen stets standesgemäß reisen. Begründet wird der Unfug mit dem Argument, daß die Luftwaffepiloten ihre vorgeschriebenen Trainingsstunden ableisten können. Das ist zweifelhaft – die über 300 Flüge p.a. dürften mehrfach ausreichen, um den Trainingsstand zu halten. Nebenbei: Die 300 Leerflüge sind sogar die Mehrheit – Passagierflüge gibt es viel weniger. Wahrscheinlich hat kaum jemand von den Großkopferten Lust, in die Provinz nach Bonn oder andersherum ins Babylon Berlin zu fliegen.

Ein Tipp vom Steuerzahler: Die Bundesstadt Bonn besitzt gemeinsam mit Köln einen großen Flughafen, und Berlin hat sogar einen ganz neuen, wo ganz viele zivile Linienmaschinen starten.