Waldbrände in Kalifornien und Südeuropa – eine Folge des Klimawandels?
Häufige Waldbrände sind typisch für das mediterrane Klima, das gekennzeichnet ist durch eine ausgeprägte, oft extreme Trockenheit im heißen Sommer und ein Niederschlagsmaximum im milden Winterhalbjahr. Es gibt auf der Welt nur vier Zonen, auf die die Definition des Mittelmeerklimas zutrifft: der relativ schmale Küstensaum rund um das Mittelmeer, die Kap-Region Südafrikas, die Südspitzen Australiens und nicht zuletzt Kalifornien. Für die Pflanzen bringt das Mittelmeerklima extreme Standortbedingungen mit sich, weshalb man dort eine Vielzahl endemischer, d.h. nur dort heimischer Baum- und Straucharten antrifft. Einjährige Gräser und Kräuter verlegen ihre Winterruhe in den Sommer und erblühen, wenn sich die Pflanzen der gemäßigten Klimazonen auf die Winterruhe vorbereiten. Die an die lange Sommertrockenheit angepassten Bäume und Sträucher nennt man Xerophyten. Diese schützen sich durch eine dicke Rinde, durch eine Wachs- oder Harzschicht, durch Dornen und Stacheln und/oder die Einlagerung von Öltröpfchen vor der Austrocknung.
Doch was gegen die Austrocknung hilft, vergrößert gleichzeitig die Brennbarkeit der Vegetation. Ökologisch gesehen, ist das nur auf den ersten Blick ein Widerspruch. Mehr oder weniger regelmäßige, meist durch Blitzeinschläge ausgelöste kleinere Brandherde sorgen für eine Verjüngung der Vegetation und für die Beschleunigung des Stoffkreislaufs. Etliche Baum- und Straucharten sind an häufige Feuer-Passagen optimal angepasst. Man nennt sie deshalb Pyrophyten. Deren Samen bedürfen eines Wald- oder Buschbrandes, um überhaupt auskeimen zu können. Das bekannteste Beispiel dafür ist die im Mittelmeergebiet beheimatete Kermes-Eiche (Quercus coccifera). Deren stachlige kleinen Blätter enthalten so viel Öl, dass sie sich bestens als Kamin-Anzünder und Brandbeschleuniger eignen. Infolge der häufigen Verjüngung entsteht der für mediterrane Zonen typische Vegetationstyp Chaparral (spanisch Matoral und französisch bzw. provenzalisch Garrigue genannt). Es handelt sich dabei um lichte Kiefern- und/oder immergrüne Eichenwälder mit Dornengestrüpp als Unterholz. Dieses wird normalerweise durch periodische Brände klein gehalten.
Gefahr ist im Verzug, wenn Menschen unbedacht in diesen Kreislauf eingreifen – etwa, indem sie den Chaparral durch Pflege-Maßnahmen in Hochwald umwandeln, um ihn für die Gewinnung von Bauholz nutzen zu können. Das zwischen den Bäumen aufwachsende Gestrüpp muss dann Schweiß treibend mechanisch oder durch kontrolliertes Abbrennen entfernt werden. Geschieht das nicht in regelmäßigen Abständen, sammelt sich am Waldbodden bald so viel brennbares Material an, dass es bei Blitzeinschlägen oder menschlicher Unachtsamkeit beim Umgang mit Feuer zu Flächenbränden kommt, die nur schwer zu löschen sind, wenn sie von starken Winden angefacht werden. In Kalifornien sind das die trocken-heißen Santa-Ana-Winde, die im Herbst vom Hochbecken der Sierra Nevada Richtung Südkalifornien wehen. In der Provence sind das vor allem die orkanartigen Böen des kühlen Mistral-Windes, die durch das Rhône-Tal zum Mittelmeer fegen.
Im Unterschied zu Kalifornien blieb die Provence übrigens in diesem Jahr von Waldbränden weitgehend verschont. Im Verglich zum Vorjahr sank die verbrannte Waldfläche in der gesamten Region Provence-Alpes-Côte-d’Azur von 8.475 auf ganze 152 Hektar, d.h. auf weniger als 2 Prozent. Zwar war die Hitzewelle, die in diesem Jahr Europa heimsuchte, auch in der Provence spürbar. Doch im Unterschied zu Mitteleuropa gingen hier den ganzen Sommer über von Zeit zu Zeit heftige Gewitterregen nieder. Im Spätsommer stand die Provence deshalb in sattem Grün da, während sich bei uns die Landschaft braun färbte und südlich von Berlin und in Niedersachsen Wald- bzw. Moorbrände ausbrachen. Die Niederschlagsmenge beeinflusst also deutlich das Waldbrand-Risiko. Noch wichtiger ist aber wohl die Häufigkeit starker Winde, denn in Südfrankreich wehte der Mistral in diesem Jahr auffällig selten. Das hing sehr wahrscheinlich mit dem über Mitteleuropa blockierten Hochdruckgebiet zusammen.
Mindestens ebenso wichtig wie der Einfluss des Wetters ist aber wohl der Pflege-Zustand der Wälder. Zwar ist auch das Wald- und Buschland der meisten Mittelmeerländer größtenteils ungepflegt, weil die hier dominierenden Aleppo-Kiefern (Pinus halepensis) wegen ihres krummen Wuchses und ihres hohen Harz-Gehaltes als Bau- und Brennholz kaum geeignet sind. Doch wurden gerade in Südfrankreich in den letzten Jahrzehnten große Anstrengungen unternommen, um die Waldbrandgefahr zu mindern. Das beginnt mit strengen Auflagen für Immobilienbesitzer in Gebieten mit erhöhtem Waldbrand-Risiko. Dazu gehört zum Beispiel die Verpflichtung, in einem Radius von 50 Metern um jedes frei stehende Haus weder Nadelhölzer noch Kermes-Eichen wachsen zu lassen. Wer sich nicht daran hält, bekommt bald ein Einschreiben mit Strafandrohung vom zuständigen Bürgermeisteramt. (Nur für Weihnachtstannen gibt es gelegentlich Ausnahmen.) Aus eigener Erfahrung weiß ich, welche Arbeit damit verbunden ist, denn die Aleppo-Kiefern sprießen wie Unkraut aus dem Boden. Als noch hartnäckiger erweisen sich die Kermes-Eichen, die sich mithilfe von Wurzelsprossen (Rhizomen) vermehren, solange ihnen kein Feuer die Gelegenheit gibt, sich auch sexuell fortzupflanzen. Eine andere wichtige Vorsorgemaßnahme ist die mechanische Entfernung des Unterwuchses entlang aller Straßen. Zusätzlich stellen die Berufsfeuerwehren (Soldats du feu) in der Garrigue Wassertanks auf, um auch in dünn besiedelten Gebieten ohne Wasserleitungen rasch eingreifen zu können. Nicht zuletzt verfügt Frankreich über eine Flotte stets einsatzbereiter Lösch-Flugzeuge vom Typ Canadair.
Im westlichen Mittelmeergebiet, wo es außer Korkeichen (Quercus suber) und Edelkastanien (Castanea sativa), die aber beide leider nicht auf den verbreiteten Kalk-Böden gedeihen, gibt es nur wenige wirtschaftlich nutzbare Baumarten. Dagegen gedeiht an höheren Lagen der gesamten nordamerikanischen Westküste von British Columbia bis nach Mexiko die Gelb-Kiefer (Pinus ponderosa), die wertvolles schweres Holz liefert. Ausgewachsene Gelb-Kiefern, die Höhen zwischen 40 und 70 Metern erreichen können, bilden in der Regel lichte, parkartige Bestände, in denen Douglasien (Pseudotsuga menziesi) den Unterwuchs bilden. Im Unterschied zu den ausgewachsenen Gelb-Kiefern, die durch ihre über fünf Zentimeter dicke Rinde vor leichtem bis mäßigem Feuer geschützt sind, fangen die Douglasien leicht Feuer.
Bei der Bewirtschaftung der Gelb-Kiefer-Bestände kommt es also darauf an, die Douglasien an der Ausbreitung zu hindern. Das fällt am leichtesten, wenn man leichten Feuern kontrolliert ihren Lauf lässt. Diese Form der Bewirtschaftung wurde den amerikanischen Waldbauern jedoch durch die Umwelt- und Naturschutzgesetzgebung der 1970er Jahre praktisch untersagt. Darauf hat im vergangenen Jahr bei einer Anhörung der republikanische, der Tea Party nahestehende US-Kongress-Abgeordnete Tom McClintock hingewiesen, der einen kalifornischen Wahlbezirk vertritt. Hinzu kam der Kampf grüner Lobby-Gruppen gegen das Bäumefällen allgemein, um den auf der Roten Liste stehenden Fleckenkauz (Strix occidentalis
Armut hat viele Facetten. Armut an Geld, Kleidung, Essen fällt einem wohl als erstes ein, wenn man das Wort hört. Man kann auch arm an Mitgefühl, Ideen oder Wortschatz sein. Mehr als eine Milliarde Menschen auf der Erde können keine Elektroenergie nutzen, weil es sie an ihrem Ort nicht gibt oder sie unbezahlbar ist. Ob sie sich dadurch arm fühlen, sei dahingestellt. Oft sind die Menschen in einfachsten und ärmlichen Verhältnissen lebensfroher als beispielsweise verwöhnte Europäer, die eifernd auf der Suche nach Klima- und Gendergerechtigkeit durch die Gegend miesepetern. Aber auch in hochentwickelten Ländern gibt es Armut, sichtbar im Straßenbild an einer zunehmenden Zahl Obdachloser, unsichtbar in den Haushalten, wo es am Nötigsten mangelt. Mit den europaweit höchsten Strompreisen greift in Deutschland auch Energiearmut um sich. Kostete den Haushaltskunden die Kilowattstunde Strom im Jahr 2000 noch 14 Cent, darf er heute etwa 30 Cent löhnen auf einer Rechnung, die inzwischen 10 Positionen umfasst. Auf diese fällt dann noch die Mehrwertsteuer an, auch auf die enthaltene Stromsteuer und die Zwangsumlagen. Die reine Strombeschaffung samt Vertrieb macht nur noch weniger als 20 Prozent des Rechnungsbetrages aus. Nur in diesen 20 Prozent spiegelt sich noch Marktgeschehen wider, dies als Hinweis an jene, die glauben, über ein Smartgrid und variable Strombezugspreise ließen sich Verbraucherpreise verhaltenswirksam senken. In Deutschland wurde 2017 etwa 344.000 Haushalten der Saft abgedreht, 14.000 mehr als 2016. Die meisten Abschaltungen gab es in NRW (98.000). Das ist keine Bosheit der Versorger. Es gibt mehrstufige Verfahren, die rechtssicher eingehalten werden müssen. Auf mehrere Mahnungen, auch mit dem Angebot der Ratenzahlung, folgt die Androhung der Abschaltung. Wenn dann der Blaumann vor der Tür steht, gibt es immer noch die Möglichkeit zur Zahlung. Letzten Endes bekommen nur sieben Prozent der Säumigen den Saft wirklich abgedreht. Das heißt auch, dass fast fünf Millionen Haushalte akut von Energiearmut bedroht sind. Somit lebt jeder achte Haushalt in Deutschland in gefährlicher Nähe des energetischen Bettelstabs. Übrigens haben die Blaumänner auch keinen angenehmen Job, sie nennen sich „Nach- und Sperrkassierer“. Niemand empfängt sie freundlich, oft müssen sie sich beschimpfen lassen von Leuten, die einfach ihr Geld nicht einteilen können, andere ertragen es stoisch, weil sie wirklich blank sind. Nein, auch Mitleid dürfen die Exekutanten der Versorgungsunternehmen nicht haben. Ein willkommenes Thema für Linkspopulisten, wieder „Freibier für alle“ zu fordern. Auf die Idee, die Profiteure der Energiewende zur Solidarität heranzuziehen, kommen sie nicht. Die latente und echte Energiearmut in einem angeblich so reichen Land wirft ein deutliches Licht auf die in der Öffentlichkeit und medial völlig unterbelichtete soziale Komponente unserer nationalstaatlichen Energiewende. Diese führt zu massiver Umverteilung von unten nach oben. Vereinfachend kann man sagen, dass der Hartz-IV-Empfänger im Marzahner Plattenbau dem Anwalt am Starnberger See hilft, eine solide Rendite mit seinem Solardach zu erzielen. Insgesamt kassierten die Ökoanlagen betreibenden Bayern 2016 zirka 5,34 Milliarden Euro an fester Einspeisevergütung und so genannter Marktprämie für regenerative Einspeisung. Aus föderaler Sicht mag man das sogar begrüßen, schließlich zahlte das Land mit 5,82 Milliarden Euro auch den Löwenanteil am Länderfinanzausgleich. Das Geld des Landes kommt von den Bürgern, fließt aber nur an einen auserwählten Kreis der ohnehin Besserverdienenden zurück. Tatsache ist, die Energiewende macht die Armen ärmer und die Reichen reicher. Natürlich führt die Energiewende nicht zwangsläufig in die Armut, sie führt aber zu asymmetrischen Belastungen bis in die Mittelschicht. Wenden wir uns Jens zu. Er ist Mitte 40, angesehener Chirurg an einer angesehenen Klinik in Berlin-Mitte, wohnt im Speckgürtel südlich der Stadt in einem schicken Eigenheim mit Solardach und Wärmepumpe, er fährt Tesla und sein Arbeitgeber lässt ihn als begehrte Spitzenkraft kostenlos tanken. Gedanken an einen Wechsel in eine andere Klinik sollen nicht erst aufkommen. Jens ärgern die Staus auf dem Arbeitsweg, so gesehen lassen ihn die Dieselfahrverbote auf Entspannung hoffen. Sein Solardach bekam er über ein kommunales Agenda-21-Programm gefördert und für das Wärmepumpenaggregat zahlte ihm das BAFA (Bundesamt für Wirtschaft und Ausfuhrkontrolle) 6.000 Euro Zuschuss. Sein Windkraftfonds läuft auch ganz gut. Dann ist da noch Kathrin. Sie ist die erste und beste OP-Schwester an Jens` Seite, sein „Goldstück“, wie er in echter Anerkennung sagt. Sie wohnt im selben Ort wie Jens, in einem Mehrfamilienhaus aus DDR-Zeiten. Der Vermieter ist einer von der sozialen Sorte, er hat die Miete bisher nur moderat erhöht. Den Gedanken an die Heizungsmodernisierung hat er vorerst aufgegeben, weil eigentlich eine komplette Reko des Hauses fällig wäre, die Mieter aber mehrheitlich die dann unumgängliche Mieterhöhung ablehnen. Kathrin muss flexibel sein, sie hilft auch beim Notdienst aus. Nicht nur deshalb fährt sie nicht mit den Öffentlichen in die Klinik. Eine Fahrgemeinschaft mit Jens geht nicht, selbst wenn sie Tagesdienst hat. Er fängt später an und arbeitet länger. Mit Bus, S- und U-Bahn wäre sie zu lange unterwegs und abends oder nachts käme das für sie ohnehin nicht in Frage. So muss der alte Astra Diesel noch eine Weile halten, er läuft noch gut, ist aber nur Euro 4. So einfach kann sie nicht wechseln, die Kinder sind noch in der Ausbildung, da bleibt wenig zum Zurücklegen. Sie fürchtet Fahrverbote in der Innenstadt, aber es wird schon irgendwie gehen. Wenn sie nicht mehr durch Kreuzberg darf, muss sie halt östlich über den Prenzlauer Berg fahren. Das ist zwar weiter und damit stauriskanter, aber was soll sie sonst machen? Jens ist aus dem Urlaub zurück, er war auf den Malediven schnorcheln. Er ist zufrieden mit sich und der Welt. Eine CO2-Steuer würde ihn nicht sorgen, er ist bezüglich Heizung und Mobilität gut elektrifiziert. Bei den nächsten Wahlen wird er wohl wieder die Grünen wählen. Kathrin ist auch aus dem Urlaub zurück, sie war am Schwielowsee, das sind nur ein paar Kilometer. Nun ist sie gut erholt und muss Montag wieder los mit ihrem Opel, den sie liebevoll „mein kleiner Stinker“ nennt. Eine CO2-Steuer würde sowohl die alte Gasheizung im Mehrfamilienhaus als auch ihr Auto treffen – also am Ende natürlich sie selbst. Bisher kam sie finanziell gut über die Runden, sie zweifelt, ob es so bleiben wird. Zu den nächsten Wahlen wird sie wohl wieder nicht gehen. Ändert sich ja doch nichts, die Weltrettung durch die Klimaschutzeinheitsparteien wird weitergehen. Natürlich sind Jens und Kathrin erfunden. Ähnlichkeiten zu echten Menschen sind möglich, sogar wahrscheinlich. Etwa acht Millionen Menschen in Deutschland sind Profiteure der Stromwende, 72 Millionen zahlen drauf. Wir haben auch Armut in der Regierung. Es mangelt an sozialer Verantwortung, sie wurde verdrängt durch die „Klimaverantwortung“. Kein Mangel besteht indes an Hinweisen, dass künftig mehr abgegeben und geteilt werden müsse. Die Ökoprofiteure sind damit nicht gemeint. Das Projekt mit der Bezeichnung Coastal Virginia Offshore Wind (CVOW) wird das erste Offshore-Windprojekt im Atlantik sein. Die Firma Energy and Orsted A/S aus Dänemark wird zwei 6-MW-Turbinen errichten, geliefert von Siemens Gamesa aus Spanien. Die geschätzten Projektkosten belaufen sich auf atemberaubende 300 Millionen Dollar, zu zahlen mittels der Stromrechnungen für Haushalte und Industrie in Virginia. Dem Wind Technologies Market Report zufolge lagen die Marktpreise für Windturbinen in den USA etwas unter 1000 Dollar pro Kilowatt oder um etwa 6 Millionen Dollar für eine 6-MW-Turbine. Virginia wird 25 mal höhere Preise als die Marktpreise in den USA für CVOW-Turbinen bezahlen. Der Großhandelspreis für Strom in Virginia liegt bei etwa 3 Cent pro Kilowattstunde (KWh). Dies ist der Preis für Strom erzeugt durch Kohle, Erdgas oder Kernkraft. Der Preis für Strom aus den beiden Offshore-Windturbinen wird bei 78 Cent pro KWh liegen, also schwindelerregend 26 mal so hoch sein wie der Einzelhandelspreis. Das SCC räumte ein, dass das Projekt nicht das Ergebnis einer Ausschreibung war und dass es nicht erforderlich ist, um die Zuverlässigkeit der Stromversorgung oder eine Kapazitäts-Reserve sicherzustellen. Auch wurde gefolgert: „…es scheint unwahrscheinlich, dass die Kosten der Offshore-Windanlage in absehbarer Zukunft wettbewerbsfähig werden im Vergleich zu Solar oder Onshore-Windprojekten“. Die Stromzahler in Virginia werden also auch für jedwede Kostensteigerungen des Projektes aufkommen müssen. Warum hat die SCC ein derartig teures Projekt genehmigt? Die SCC wies darauf hin, dass die Gesellschafterversammlung von Virginia bei sechs Gelegenheiten unabhängig voneinander erklärt hatte, dass Offshore-Wind „im öffentlichen Interesse“ liege. Gouverneur Ralph Northam sagte, dass das Projekt „die Windenergie-Ressource vor der Küste Virginias ausschöpfen und diese Industrie viele ökonomische Vorteile in unser Commonwealth bringen würde“. Wie bringt es grüne Energie fertig, dass Regierungsbeamte weit über dem Marktniveau liegende Preise zu bezahlen? Es ist zweifelhaft, dass der Gouverneur von Virginia Northam oder Mitglieder der Gesellschafterversammlung 25 mal den Marktpreis berappen würden für Nahrung, Kleidung oder Haushalt. Aber sie sind schnell dabei, ein Projekt zu genehmigen, welches die Stromzahler in Virginia teuer zu stehen kommen wird. Unabhängig von den Projektkosten sollten sich die Bürger von Virginia Sorgen machen, dass diese Windturbinen nicht ihre ganze projizierte Lebensdauer von 25 Jahren erreichen werden. Das CVOW-Projekt ist das südlichste Windprojekt vor der atlantischen Küste und Schauplatz periodischer Hurrikan-Aktivität. Der NOAA zufolge sind während der letzten 150 Jahre 34 Hurrikane innerhalb eines Radius‘ von ca.150 km um den Aufstellungsort verzeichnet worden. Fünf dieser Stürme waren der Kategorie 3 zuzuordnen, darunter die Hurrikane Bob 1991 und Emily 1993. Im Schnitt kommt es in der Region alle 5 Jahre zu einem Hurrikan. Den Projekt-Spezifikationen zufolge sollen die CVOW-Turbinen Windgeschwindigkeiten bis 180 km/h überstehen, ebenso wie sie darauf ausgelegt sein sollen, Wellen in einer Höhe von 15,6 Meter zu widerstehen. Aber es ist zweifelhaft, dass diese Turbinen sowohl Wind als auch Wellen in einem großen Sturm überstehen. Dem National Hurricane Center zufolge treten in Hurrikanen der Kategorie 3 Windgeschwindigkeiten von 180 bis 210 km/h auftreten können, was über dem gesetzten Limit liegt. Bereits in Hurrikanen der Kategorie 1 treten Wellenhöhen deutlich über 15 Meter auf. Der Hurrikan Florence brachte Windgeschwindigkeiten eines Sturmes der Kategorie 1 mit sich, als er am 14. September auf die Küste von North Carolina bei Wrightsville Beach traf. Aber schon zwei Tage zuvor wurden im nordöstlichen Sektor von Florence Wellenhöhen bis 25 Meter aufgezeichnet. Wer nimmt sich der Stromzahler von Virginia an? Mit Sicherheit nicht Gouverneur Northam, die Gesellschafterversammlung oder die Firma Dominion Energy. Noch lange nachdem die Regierungsbeamten von Virginia aus dem Amt sind, werden die Bürger von Virginia am Haken eines teuren Offshore-Windsystems zappeln, welches vermutlich das turbulente Wetter des Atlantischen Ozeans nicht überstehen wird. ————————— Originally published in The Western Journal., republished here at the request of the author. Steve Goreham is a speaker on the environment, business, and public policy and author of the book Outside the Green Box: Rethinking Sustainable Development. Link: https://wattsupwiththat.com/2018/11/19/the-frightful-cost-of-virginia-offshore-wind/ Übersetzt von Chris Frey EIKE Dieses 100%-Ziel klingt politisch so schön, dass es unwiderstehlich ist. Saubere Energie für jedermann. Unglücklicherweise ist die Konversion Amerikas zu 100% erneuerbarer Energie vollkommen unrealistisch, und das bedeutet, dass wir in große Schwierigkeiten geraten dürften. Sich dem Unmöglichen zu verpflichten ist wirklich ein sehr schlechtes Vorhaben. Das Problem sind die Batterien, von welchen wir niemals etwas hören, wenn diese großen Pläne verkündet werden. Batterien sind nicht berücksichtigt, obwohl sie in unmöglichen Mengen gebraucht werden würden. Hier folgen ein paar einfache Fakten, die sich niemand zu erwähnen traut. Während es bereits Batterie-Systeme im „Brauchbarkeits-Maßstab“ gibt, ist deren nationale Gesamtzahl praktisch Null im Vergleich zu dem, was notwendig wäre, um Stromerzeugung mittels 100% Erneuerbarer zu erreichen. Erneuerbare-Generatoren wie Wind und Solar erzeugen Strom in weniger als 50% der Zeit, manchmal erheblich weniger, manchmal überhaupt keinen. Dieses Problem nennt man Periodizität [intermittency*] [*Für diesen Terminus ist keine vernünftige Übersetzung zu finden. Allerdings dürfte jeder wissen, was gemeint ist. Daher wird dieser Begriff im Folgenden im Original beibehalten und als normales deutsches Substantiv verwendet. Anm. d. Übers.] Um dieses Problem zu lösen müssen wir viel mehr Strom erzeugen als benötigt wird, wenn die Erneuerbaren-Generatoren gerade einmal laufen und den Überschuss-Strom speichern für die Verwendung, wenn die Generatoren gerade nicht laufen, was die meiste Zeit der Fall ist. Für ein Haus kann das funktionieren, vor allem dann, wenn im Haus wenig Strom verbraucht wird. Aber es funktioniert nicht für eine ganze Nation mit hohem Pro-Kopf-Stromverbrauch, weit mehr als für ein Haus erforderlich. Der in Haushalten verbrauchte Strom macht tatsächlich nur einen geringen Anteil des Energieverbrauchs aus. Es gibt auch den kommerziellen Verbrauch, von Bürogebäuden über Einkaufszentren bis zu Dienstleistern. Es gibt den Verbrauch in Gemeinden, etwa für Straßenbeleuchtung, Wasserversorgung und Abwasser-Behandlung. Dann gibt es natürlich den massiven Verbrauch seitens der Industrie einschließlich Eisenhütten. Man beachte, dass viele der gleichen Menschen, die nach 100% erneuerbarer Energie rufen, auch die Konversion unseres Transportsystems zu Strom und die Verbannung interner Verbrennungsmaschinen fordern. Dieser zusätzliche Strombedarf würde den heutigen Bedarf in etwa verdoppeln. Stellen wir das aber mal einen Moment zurück, ohne es aus den Augen zu verlieren. Allein die Schaffung der Erzeugungs-Kapazität für Erneuerbare auf 100% ist ein Monster-Job, vor allem, wenn dies in nur 20 bis 25 Jahren bewerkstelligt werden soll. Die Erzeugungskapazität Amerikas liegt derzeit bei über einer Million Megawatt (MW). Die meiste Energie wird erzeugt mittels Kernkraft, Kohle oder Gas. Rund 100.000 MW werden durch Wind und vielleicht 50.000 MW durch Solar erzeugt. Um also auf eine Million MW durch Wind und Solar allein zu kommen, sind gigantische Anstrengungen erforderlich. Aber angesichts der Intermittency bringt uns die Einrichtung dieser gesamten Monster-Erneuerbaren-Erzeugung nur den halben Weg dorthin. Im Mittel müssen wir auch in der Lage sein, über die Hälfte des Outputs zu speichern. Noch schlimmer, wir müssen auch in der Lage sein, mit den Extremfällen [high end cases] umgehen zu können, wenn die Erneuerbaren-Generatoren nicht mehrere Tage hintereinander laufen. Zum Beispiel wird maximal Strom während Hitzewellen verbraucht, wobei es fast nie richtig windig ist. Diese Hitzewellen können gut und gern eine Woche andauern. Weil sie häufig mit großen stabilen Hochdruckgebieten verknüpft sind, können diese Hitzewellen ohne wesentlichen Wind über großen Teilen der USA herrschen, so dass es keinen Windstrom gibt. Solar betreffend ist es nicht ungewöhnlich, wenn viele Gebiete des Landes eine Woche lang bewölktes und regnerisches Wetter haben. Es gibt zwar schon einige wenige Batterie-Installationen in größerem Umfang in der Größenordnung von rund 1000 MW. Im Vergleich zu der einen Million MW oder so von benötigter Erneuerbaren-Erzeugungs-Kapazität (ohne E-Fahrzeuge) ist das aber praktisch nichts. Tatsächlich wird Batterie-Kapazität auf zwei bedeutende Arten gemessen. MW besagt, wie schnell man die Energie aus ihnen abrufen kann, während Megawatt-Stunden (MWh) besagt, wie viel Strom vorhanden ist. Beides ist bedeutsam, wenn es um Backup von Erneuerbare-Generatoren geht. Man nehme zum Beispiel an, dass wir einen 1000-MW-Windpark haben und 5 Tage lang kaum Wind weht. Wir brauchen ein Batteriesystem, das ausgelegt ist für 1000 MW und 120.000 MW (was schon sehr viel wäre). Um also auf 100% Erneuerbare landesweit zu kommen, könnten wir Batterien für 1 Million MW brauchen mit einer Erzeugungs-Kapazität von 120 Millionen MWh. (Die tatsächliche Berechnung ist deutlich komplizierter als dieser einfache Überschlag). Und falls wir all unsere Verbrennungsmotoren elektrifizieren, wäre noch viel mehr erforderlich, vielleicht sogar doppelt so viel. So also ist die Lage: Wir bräuchten eine überwältigend große Batterie-Speicherkapazität, um zu 100% Erzeugung durch Erneuerbare zu kommen – mit nichts. Wo findet dies Eingang in die Phantastereien der 100% Erneuerbaren? Warum sprechen die Politiker nicht über Batterien, obwohl diese doch ein viel größeres Problem sind als Wind und Solar? Woher sollen all diese Batterien kommen, und was soll mit ihnen geschehen? Vielleicht liegt es daran, dass Batterien üble chemische Bomben sind, die erhebliche Mengen giftiger Abfälle produzieren. Sie trüben das hehre Bild der „sauberen Energie“, obwohl sie für diese unerlässlich sind. Wir sollten anfangen, unsere Politiker über die Batterien zu befragen! Link: http://www.cfact.org/2018/11/17/batteries-not-included-in-renewable-fantasy-plans/ Übersetzt von Chris Frey EIKE Was ist üblicherweise mit Klima-Sensitivität gemeint? Um das zu erklären, muss ich einen kleinen Umweg machen. Erstens, einfallende Strahlung [Downwelling]. „Downwelling“ in der Klimawissenschaft bedeutet die auf die Oberfläche des Planeten treffende Strahlung. Einfallende Strahlung ist die Gesamtstrahlung in Richtung Erdoberfläche. Sie setzt sich zusammen aus Sonnenlicht (kurzwellig) plus thermischer Strahlung aus der Atmosphäre (langwellig). In der Klimawissenschaft nennt man diesen Parameter, also die gesamte einfallende Strahlung „Antrieb“ [Forcing F]. Das zentrale Paradigma der modernen Klimawissenschaft lautet, dass wenn sich die Stärke der einfallenden Strahlung (Forcing) ändert, sich auch die Temperatur an der Oberfläche notgedrungen ändert. Es wird behauptet, dass sich alles andere heraus mittelt, und falls das Forcing sich verstärkt, muss sich auch die Oberflächentemperatur ändern, um das globale Energie-Gleichgewicht zu erhalten. Sie muss sich ändern! Sie muss! Kurz gesagt lautet das zentrale Paradigma der modernen Klimawissenschaft: Langfristig ist die globale Temperaturänderung proportional zur Änderung der globalen Forcings. Die vermeintlich konstanten Proportion zwischen beiden Größen, also Temperatur-Änderung dividiert durch Forcing-Änderung, nennt man „Klima-Sensitivität“. Klima-Sensitivität wird oftmals ausgedrückt als die mutmaßliche Temperaturänderung bei einer Änderung der einfallenden Strahlung von 3,7 Watt pro Quadratmeter (W/m²). Die Berechnung dieser so genannten „Klima-Sensitivität“ ist eine zentrale Frage, die sich rund um das Paradigma erhebt, dass Temperaturänderung proportional zu Temperaturänderung ist. Und das bringt mich zu der höchst langweiligen Graphik unten. Sie zeigt die Änderungen der Schätzung des Wertes der Klima-Sensitivität über die Zeit: [Bildinschrift oben in der Graphik: UTTER STAGNATION – Dr. Shaviv schreibt: „Lassen Sie mich das in eine Perspektive bringen mit der langweiligsten Graphik, die ich je in meinem Leben geplottet habe. Die Graphik zeigt die wahrscheinliche Bandbreite der Klima-Sensitivität als Funktion der Zeit. Wie man sieht, hat sich die wahrscheinliche Bandbreite der Klima-Sensitivität seit dem Charney-Report aus dem Jahr 1979 nicht verändert, wenn man vom AR 4 mit einer etwas geringeren Bandbreite absieht. Mit anderen Worten: Nach vermutlich Milliarden Dollar, welche über mehr als drei Jahrzehnte in die Klimaforschung gepumpt worden waren, hat sich unsere Fähigkeit, die wichtigste Frage bzgl. Klima zu beantworten, nicht einmal ansatzweise verbessert!“] Es ist der Erwähnung wert, dass seit dem Jahr 1979 gesamte neue Wissenschaftsbereiche wie die DNA-Analyse erstmals aufkamen und inzwischen erstaunliche Niveaus der Entwicklung erreicht haben … und das über die gleiche Zeit, in der die von Dr. Shaviv als die „bedeutendste Frage bzgl. Klima“ bezeichnet keinerlei Entwicklung aufweist. Überhaupt keine. Seit 1979 ist die Rechenleistung der uns zur Verfügung stehenden Computer explodiert, sowohl individuell als auch bei großen Organisationen. Mein zuverlässiger PowerMac hat mehr Rechenleistung als den meisten Universitäten im Jahre 1979 zur Verfügung stand. Die Kosten sind ebenfalls gesunken, von 100.000 Dollar pro MIPS (Millionen Befehle pro Sekunde) auf weniger als 1 Dollar pro MIPS heute. Und die Geschwindigkeit der Rechenleistung hat alle Grenzen gesprengt, laufen doch über die Super-Computer Klimamodelle mit über einer Billion Rechen-Operationen in jeder Sekunde. Auch die Anzahl der sich mit der Erforschung des Wertes der Klima-Sensitivität befassenden Personen hat mit der Zeit zugenommen. Und Milliarden über Milliarden Dollar wurden aufgebracht, um die Frage zu beantworten. Fazit: Seit dem Charney-Report im Jahre 1979 bzgl. Klima-Sensitivität gab es eine ebenso horrende wie unsinnige Zunahme bei: ● Computerleistung bzgl. der Frage ● Stunden intensiver Forschung bzgl. der Frage ● Diskussionen, Debatten und Interesse bzgl. der Frage ● Aufgebrachtes Geld bzgl. der Frage Und trotz dieser ungeheuren Steigerung von Zeit, Arbeit, Diskussionen und Computerleistung hat sich die Untersuchung der Frage nach dem Wert der Klima-Sensitivität genau Null Millimeter bewegt. Keinerlei Fortschritt. Wie können wir diese wissenschaftliche Eigenartigkeit einordnen? Was steckt dahinter, dass all die aufgebrachte wertvolle Zeit, Geld und Mühen genau nichts erreicht hat? Ich meine Null. Gar nichts. Keinerlei Bewegung. Die langweiligste Graphik. Ich schlage mal als Grund vor, dass die Klimawissenschaft das Opfer von etwas ist, das ich das „Picasso-Problem“ nenne. Pablo Picasso sagte nämlich einmal etwas, das mir noch sehr lange im Kopf herumging: „Welchen Nutzen haben Computer? Sie können doch nur Antworten geben“. Ich selbst habe mein erstes Computerprogramm im Jahre 1963 geschrieben, also vor mehr als einem halben Jahrhundert. Damals war ich sechzehn Jahre alt. Ich ließ es auf einem Computer von der Größe eines kleinen Raumes laufen. Seitdem programmiere ich Computer. Ich habe Programme für alles geschrieben, von Stoffdesign für große Zelte [catenary tents ?] über die Berechnung der Gezeiten des nächsten Jahres aus den Gezeiten-Tabellen dieses Jahres bis hin zur Erstellung der Graphiken in diesem Beitrag. Und mit den Jahren habe ich auch ziemlich Kohle gemacht mit meiner Erfahrung bzgl. Computer. Wenn ich also lese, dass Picasso Computer mit jener Feststellung abschreibt, lautete meine spontane Antwort „Was?! Computer sind großartig! Worauf will dieser verrückte Künstler hinaus? Ich habe viel Geld verdient mit meinen Computern. Wie können sie unnütz sein?“ Aber nach gründlicherem Nachdenken erkannte ich, dass Picasso recht hatte. Er meinte Folgendes: „Selbst der allerbeste Computer kann keine richtige Antwort geben, wenn man ihm zuvor nicht die richtige Frage stellt“. Das war für mich eine grundlegende Erkenntnis, eine, die mich über viele meiner wissenschaftlichen Unternehmungen geleitet hat – man konzentriere sich nicht zu sehr auf die Antworten. Man muss auch die Fragen in den Mittelpunkt rücken. Betrachtet man nun also die Klimawissenschaft – welches ist die falsche Frage, welche die richtige? Auch hier möchte ich wieder ein wenig abschweifen. Mein Interesse an der Klimawissenschaft wurde um die Jahrtausendwende geweckt, und zwar wegen der inflationären Zunahme von Untergangsprophezeiungen eines drohenden ThermageddonTM. Also begann ich, mich mit den Grundlagen zu befassen und zu lernen, wie der schlecht bezeichnete „Treibhauseffekt“ die Erde weit wärmer hält als es auf dem Mond ist, der etwa die gleiche Entfernung von der Sonne hat. Allerdings habe ich im Zuge dieses Interesses gelesen, dass das Best Estimate der Erwärmung über das gesamte 20. Jahrhundert in der Größenordnung von 0,6°C aufgetreten war. Da kam mir spontan der Gedanke „Was – weniger als ein Grad?! All dieses Brimborium, und die Temperatur hat sich um weniger als 1 Grad geändert?“ Ich war überrascht wegen meiner Erfahrung mit der Reparatur von Maschinen mit einem Regler und aufgrund meiner Erfahrung mit Sonnenenergie. Ich betrachtete das Klima als eine gigantische, von der Sonne angetriebene Wärmemaschine, wobei die Sonnenenergie konvertiert wird zu der unablässigen Bewegung der Atmosphäre und der Ozeane gegen die bremsende Wirkung der Reibung und vielem mehr. Wenn man die Effizienz oder andere Charakteristika einer Wärmemaschine analysiert, oder wenn man Dinge wie die Stefan-Boltzmann-Gleichung verwendet, um Temperatur in das Äquivalent thermischer Strahlung zu konvertieren, muss man die Kelvin-Temperaturskala (K) heranziehen. Diese Skala beginnt am absoluten Nullpunkt. Temperatur ist eine Funktion der Bewegung von Molekülen oder Atomen, und am absoluten Nullpunkt hören diese Bewegungen vollständig auf. Man kann für derartige Berechnungen nicht die Celsius- oder die Fahrenheit-Skala heranziehen, weil beide willkürlich gewählte Nullpunkte haben. Nur mit der Kelvin-Skala funktionieren diese Berechnungen. Kelvin hat die gleichen Abstände der Einheiten wie Celsius und lediglich einen anderen Nullpunkt, nämlich minus 273,15°C. Nun beträgt die mittlere Temperatur an der Erdoberfläche größenordnungsmäßig 14°C – oder 287 Kelvin. Und mit dieser mittleren globalen Temperatur von 287 Kelvin macht die globale Temperatur-Variation von 0,6 K über das 20. Jahrhundert gerade mal ein Fünftel von einem Prozent aus. Dies war die Seltsamkeit, die mich bei meinen Untersuchungen bzgl. Klima begleitete … über einen Zeitraum von 100 Jahren hat die Temperatur nur mit etwa einem Fünftel eines Prozentes variiert. Das war für mich umwerfend. Ich hatte viel Erfahrung mit geregelten Systemen wegen meiner Arbeit mit elektrischen Generatoren. Diese müssen genau geregelt werden, damit ihre Geschwindigkeit konstant bleibt trotz der sich ändernden Last des Systems. Und bei dieser meiner Arbeit habe ich herausgefunden, dass es ziemlich schwierig ist, innerhalb eines Prozents regelnd in ein mechanisches System einzugreifen. Und jetzt: Trotz Dürren und Überschwemmungen, trotz großer Vulkanausbrüche, trotz sich konstant ändernder globaler Wolkenbedeckung, trotz aller Arten von Änderungen des Antriebs, trotz hemisphärischer Temperaturänderungen um ~13°C zweimal pro Jahr in jedem Jahr, trotz des Ausgleichs des Globus‘ bzgl. eines Treibhauseffektes, der den Planeten um rund ~50°C wärmer hält als den Mond … trotz all dieser Änderungen und Variationen variierte die mittlere Temperatur der Erde nicht stärker als ein Viertel Prozent im Laufe eines ganzen Jahrhunderts. Das ist eine erstaunlich enge Regelung. Hier folgt ein Beispiel aus der realen Welt, warum mich diese Stabilität überrascht hat. In meinem Auto gibt es einen Geschwindigkeits-Regler. Den kann man auf eine bestimmte Geschwindigkeit einstellen, die dann stur gehalten wird, egal ob das Auto beladen ist oder nicht. Bei starkem Gefälle ändert sich die Geschwindigkeit geringfügig um plus/minus 1 km/h. Das heißt, diese vom Computer gesteuerte Regelung hält die Bandbreite der Geschwindigkeit innerhalb 2% … aber die Temperatur der Erde ist sogar noch viel besser reguliert. Sie schwankt innerhalb von plus/minus einem Zehntel Prozent. Zu jener Zeit war diese thermische Stabilität für mich ein untrügliches Anzeichen für die Existenz irgendeines unbekannten natürlichen thermostatischen Prozesses, der auf sehr effiziente Art und Weise die Temperatur innerhalb dieser geringen Bandbreite hält. Also sah ich es als meine Aufgabe im Bereich Klimawissenschaft, das Phänomen zu finden, welches diese enge Bündelung der planetarischen Temperatur über Jahrhunderte hinweg bewirkt. Was ich in eine eigentümliche Lage brachte. Alle etablierten Klimawissenschaftler versuchten und versuchen immer noch herauszufinden, warum sich die Temperatur so stark ändert. Sie verbrachten Zeit damit, auf Graphiken wie die Folgende zu starren, welche die Variationen der Temperatur auf der Erde zeigt: Andererseits wollte ich als jemand mit Interesse für Wärmemaschinen und Regler versuchen herauszufinden, warum sich die Temperatur so wenig geändert hat. Dabei zog ich genau die gleichen Daten heran wie in Abbildung 2, habe sie aber anders dargestellt: Und das bringt mich nach dem Beackern dieses entfernt liegenden Bereiches zurück zu der Frage nach der Klima-Sensitivität und der weitsichtigen Frage von Picasso: „Wozu sind Computer nütze? Sie können doch nur Antworten geben!“ Meine Aussage: Der Grund dafür, warum wir Jahrzehnte lang überhaupt keine Fortschritte gemacht haben, die Klima-Sensitivität zu berechnen oder zu messen ist, dass wir unsere unermessliche Computerleistung bemühen, um die Antwort auf die Frage zu finden, warum sich die globale Temperatur so stark ändert. Für mich ist das die völlig falsche Frage. Stattdessen sollten wir viel eher die folgende Frage stellen: Warum ändert sich die globale Temperatur nur so geringfügig? Nach vielem Nachdenken und noch mehr Forschung erkenne ich, dass der Grund für die nur so geringe Änderung der globalen mittleren Temperatur NICHT die Proportionalität derselben zu irgendwelchen Antrieben ist, wie allgemein angenommen wird. Als Ergebnis ist die so genannte „Klima-Sensitivität“ keine Konstante, wie vermutet wird … und weil das so ist, ist der Versuch, den exakten Wert zu berechnen, vergebliche Mühe, weil es keinen festen Wert gibt. Darum auch können wir auch nicht den geringsten Fortschritt erzielen, sie zu messen … weil es eine Chimäre ist auf der Grundlage eines falschen Verständnisses dessen, was vor sich geht. Stattdessen lautet meine Hypothese, dass die Temperatur durch eine Vielfalt von Phänomenen innerhalb dieser geringen Bandbreite gehalten wird. Sie kühlen die Erde, wenn es zu warm wird, und erwärmen sie, falls es zu kalt wird. Ich habe eine große Vielfalt von beobachteten Beweisen gefunden, dass dies tatsächlich der Fall ist. Siehe dazu auch die Links zu vielen Beiträgen, die ich zu diesem Thema bereits geschrieben habe*. [*Siehe unten] Aber das ist jetzt nur meine Antwort. Und ich bekenne sofort, dass diese durchaus falsch sein kann … aber zumindest ist es eine Antwort auf die richtige Frage. Das wirkliche Mysterium des Klimas ist dessen erstaunliche thermische Stabilität. Und schließlich, wie kommt es, dass ein ganzer Wissenschaftsbereich sich abmüht zu versuchen, die falsche Frage zu beantworten? Ich sage, dass dies die Folge der Erschaffung des IPCC seitens der UN ist. Im Jahre 1988 war der Bereich Klimawissenschaft ein ganz neuer Bereich. Trotzdem jedoch waren die UN bereits davon überzeugt, dass man genau wusste, um welches Problem es sich handelt. Typische bürokratische Arroganz. Als Folge davon heißt es in der Resolution 43/53 der Vollversammlung aus dem Jahre 1988 (die das IPCC hervorbrachte): Die Vollversammlung ist besorgt hinsichtlich menschlicher Aktivitäten, welche das globale Klima verändern können, wodurch gegenwärtige und zukünftige Generationen von ernsten ökonomischen und sozialen Konsequenzen bedroht sind. Man nimmt besorgt zur Kenntnis, dass Beweise zunehmend darauf hindeuten, dass die fortgesetzte Zunahme der Konzentration von „Treibhaus“-Gasen eine globale Erwärmung hervorrufen könnte mit einem eventuellen Anstieg des Meeresspiegels, deren Auswirkungen katastrophal für die Menschheit sein können, wenn nicht rechtzeitig in allen Bereichen Gegenmaßnahmen getroffen werden. Und als Erwiderung sprang man sofort zu der Frage, ob sie wissenschaftlich korrekt war oder nicht; und man ging direkt dazu über, Maßnahmen gegen etwas zu ergreifen, von dem die Vollversammlung nicht die geringste Ahnung hatte. Die Resolution sagte, dass … …die Vollversammlung rechtzeitig notwendige Maßnahmen ergreifen sollte, um das Problem Klimawandel innerhalb eines globalen Rahmens anzugehen. Rufe nach Maßnahmen machen Bürokraten immer glücklich. Also wurde das IPCC, eine ausgesprochen politische „zwischenstaatliche“ Organisation, de facto zur Führungskraft einer gesamten Wissenschaftsdisziplin … was sich als ein gewaltiger Fehler herausstellte. Bis zu jener Zeit und auch danach bis jetzt gab es in allen anderen Bereichen der Wissenschaft erstaunliche Fortschritte hinsichtlich des Verständnisses ohne irgendein globales „zwischenstaatliches“ Gremium zur Anleitung ihrer Bemühungen. Es gab begeisternde Erfolge mit der gewöhnlichen wissenschaftlichen Methodik, wobei viele Wissenschaftler involviert sind, die ziemlich unabhängig auf der ganzen Welt irgendwelchen wissenschaftlichen Fragen nachgehen, manchmal in Kooperation, manchmal im Wettbewerb, ohne dass sie irgendjemanden brauchen oder haben wollen, der „die Wissenschaft zusammenfasst“, wie es das IPCC zu tun behauptet. Und angesichts des Fehlens jedweden Fortschrittes, wie in der „langweiligsten Graphik jemals“ oben in diesem Beitrag sage ich, dass die Welt niemals wieder eine Haufen von UN-Bürokraten [pluted bloatocrats] einsetzen sollte für irgendetwas, das mit Wissenschaft zu tun hat. Hätten wir ein „zwischenstaatliches Gremium zur DNA-Analyse“ [Intergovernmental Panel on DNA-Analysis] eingerichtet, als der Bereich noch neu war, dann kann man sicher sein, dass dieser Bereich unweigerlich blind und taub unsinnigen Behauptungen hinterhergelaufen wäre wie „97% aller DNA-Wissenschaftler stimmen darin überein…“ Auf dem exzellenten Blog von Judith Curry fragte mich einmal jemand, was genau ich gegen das IPCC hätte. Ich erwiderte: Hier sind einige Hauptgründe. Ich habe weitere. 1) Es wird ein Grad wissenschaftlicher Übereinstimmung vorausgesetzt, der einfach nicht vorhanden ist. Die meisten Menschen in dem Bereich einschließlich der Skeptiker glauben, dass sich die Welt erwärmt und dass Menschen sehr gut dazu beitragen könnten. Aber hier endet die Übereinstimmung schon. Wie groß der menschliche Beitrag ist, wie er aussieht und wie lange – zu diesen und ähnlichen Fragen gibt es keinerlei Übereinstimmung. 2) Das Gremium ist korrupt, wie unter Anderem das Jesus Paper zeigt. 3) Es ignoriert generell alles, was von der festgelegten Weisheit der Klimawissenschaft abweichen könnte. 4) Es wird von der Politik gesteuert, nicht von Wissenschaft. Bestimmte Paragraphen und Schlussfolgerungen sind verändert oder entfernt worden aufgrund politischer Einsprüche. 5) Bei dem Versuch, Entwicklungsländer mit ins Boot zu holen, wurde eine Anzahl sehr schlechter Wissenschaftler eingestellt. 6) Jedwede Organisation, die einen Leiter wie Rajendra Pachauri bekommt, ist sehr, sehr schlecht. 7) Man hat wirkliche Unsicherheiten ignoriert und diese ersetzt durch vollkommen subjektive Schätzungen der Unsicherheit. 8) Man hat Dinge wie die Hockeyschläger-Studie und die zahlreichen „Stick-alikes” veröffentlicht, obwohl es sich dabei um eklatant schlechte Wissenschaft handelt [laughably bad science] 9) Man erstellt „Projektionen“, die wenig oder gar nichts zu tun haben mit der realen Welt, wie etwa den Representative Concentration Pathway 8.5 (RCP 8.5). 10) Skeptiker aller Arten werden generell ausgeschlossen, entweder direkt oder weil die Skeptiker Besseres zu tun haben als sich einer solchen Organisation anzudienen. 11) Jeder, der „Projektionen“ erstellt, die über das Jahr 2010 hinausgehen, bläst Schall und Rauch in die Luft [der Autor drückt es drastischer aus. Anm. d. Übers.] 12) Man macht sich viel, viel zu stark abhängig von ungeprüften, nicht verifizierten und nicht validierten Klimamodellen. 13) Das IPCC denkt generell ohne nachzudenken, dass Erwärmung schlecht, schlecht, schlecht ist … was das Gegenteil der wirklichen Auswirkungen der Erwärmung seit der Kleinen Eiszeit ist. 14) Dem IPCC wurde die falsche Aufgabe bei seiner Gründung übertragen. Anstatt es zu beauftragen herauszufinden, was nun wirklich das Klima kontrolliert, übertrug man ihm die Aufgabe herauszufinden, wie viel CO2 wir emittieren dürfen, bevor es gefährlich wird. Diese Aufgabenstellung setzte eine Vielfalt von Dingen voraus, die niemals begründet worden waren. 15) … ach was, das reicht jetzt! Wen es interessiert – ich kann noch viele weitere Gründe benennen. Das also ist das Klima-Picasso-Problem. Der Bereich Klimawissenschaft versucht, mittels Computern Antworten auf die falsche Frage zu finden, und als Folge davon führt der Bereich ins Nirgendwo. Link: https://wattsupwiththat.com/2018/11/17/the-picasso-problem/ Übersetzt von Chris Frey EIKE [Im Original folgen jetzt die o. g. Angesprochenen Links zu den Beiträgen von Willis Eschenbach zu diesem Thema. Aus Zeitgründen und weil sie nicht direkt zum Thema dieses Beitrags passen, werden diese hier aber nicht mit übersetzt. Anm. d. Übers.]Die Energiearmut
Die Armen sind unter uns
Die horrenden Kosten eines Windparks vor der Küste Virginias
Erneuerbare-Luftschlösser: Batterien sind nicht enthalten
Das Picasso-Problem