Umweltaktivismus als eine Religion

Crichton schreibt:

Es gibt kein Eden. Das gab es nie. Was war jenes Eden der wundervollen mythischen Vergangenheit? Ist das die Zeit, in der die Kindersterblichkeit bei 80% lag, als vier von fünf Kindern vor ihrem fünften Lebensjahr an Krankheiten starben? Als eine von sechs Frauen im Kindbett starb? Als die mittlere Lebensspanne 40 Jahre betragen hatte, wie es in Amerika noch vor einem Jahrhundert der Fall war? Als Plagen den Planeten überzogen, wobei Millionen in einem Zug starben? Ist es das, was Eden war?

Und was ist mit den eingeborenen Völkern, die in einem Zustand der Harmonie in einer Eden-artigen Umwelt leben? Nun, das haben sie nie. Auf diesem Kontinent sorgten Neuankömmlinge fast augenblicklich dafür, dass Hunderte Spezies großer Tiere ausgelöscht wurden – und sie taten dies viele tausend Jahre bevor der weiße Mann die Bühne betrat … Und wie waren die Lebensbedingungen? Liebenswert, friedlich, harmonisch? Wohl kaum! Die frühen Völker der Neuen Welt lebten in einem konstanten Kriegszustand … Die Kiegerbanden dieses Kontinents sind berühmt: die Comanche, Sioux, Apachen, Mohawks, Azteken, Tolteken, Inkas. Einige davon praktizierten Kindstötungen und Menschenopfer. Und jene Völker, die nicht so kriegerisch veranlagt waren, wurden gnadenlos ausgelöscht…

Umweltaktivisten sind schrecklich in ihren Prophezeiungen. Uns ist nicht das Öl ausgegangen, es sind keine Millionen verhungert wegen Überbevölkerung, die Hälfte aller Spezies ist nicht ausgestorben, Temperaturen sind seit 18 Jahren nicht mehr gestiegen, die Gesamt-Eismenge um die Antarktis und in der Arktis nimmt zu – und so weiter und so fort. Aber es ist eine Religion – Fakten spielen keine Rolle. Der bärtige Idiot auf der Straße legt sein „Das Ende der Welt ist nahe!“ nicht beiseite, nur weil das Datum, bis zu dem wir alle ausgestorben sein sollten, verstrichen ist. Er verlegt einfach das Datum weiter in die Zukunft und macht immer weiter.

Wie Dr. Crichton erklärt, ist DDT kein Krebserreger (hier), es hat keine Vögel getötet, und die Menschen, die diesen Stoff verboten haben (hier), wussten das genau. Aber sie haben es trotzdem geächtet, und als Folge davon starben Millionen armer Menschen, zumeist Kinder. Dies war die Folge von Religion, nicht Wissenschaft.

Die „Kirche der Globalen Erwärmung“ ist vermutlich die schlimmste Sekte. Während der letzten 135 Jahre ist es auf der Welt um 0,8 K wärmer geworden, von 288 K auf 288,8 K – und überhaupt nicht wärmer geworden ist es seit dem Jahr 2002, jedenfalls den UAH-Satellitendaten zufolge. Dies ist die unbedeutende und ganz normale Variabilität. Die Welt ist grüner, die Ernteerträge besser und größer denn je, weniger Menschen leiden Hunger oder leben in Armut, die Lebenserwartung ist länger denn je, und wir haben mehr urbares Land. Es gibt keinerlei Beweise dafür, dass die globale Erwärmung vom Menschen verursacht oder gefährlich ist, und es gibt keinerlei Beweise dafür, dass Kohlendioxid der einzige Grund der minimalen Erwärmung ist, die es gegeben hat, oder auch nur der dominante Grund. Wir können zeigen, dass es ein Treibhausgas ist wie Wasserdampf, aber das ist alles.

Wir müssen die Religion aus dem Umweltaktivismus entfernen. Wir müssen diesen wieder auf eine wissenschaftliche Grundlage stellen. Zu viele Organisationen lügen einfach, schlicht und ergreifend. Es begann mit DDT und ist seitdem immer schlimmer geworden. Wissenschaft, besonders Umweltwissenschaft, wird mehr und mehr politisiert, und dies kann katastrophale Konsequenzen nach sich ziehen.

Link: https://wattsupwiththat.com/2016/09/14/environmentalism-as-a-religion/

Übersetzt von Chris Frey EIKE




Der moralische Aspekt fossiler Treibstoffe

Epstein legt hier eine sehr gut geschriebene Diskussion der Debatte um den Klimawandel vor. Er zerschlägt den 97%-Mythos, erklärt, dass der CO2-Treibhauseffekt logarithmisch mit der Konzentration abnimmt und zeigt, dass die Klima-Computermodelle, die den menschlichen Einfluss auf das Klima berechnen sollen, noch nie überhaupt etwas erfolgreich vorhergesagt haben. Er zeigt auch, dass Extremwetter jedweder Art im Zuge der globalen Erwärmung nicht zugenommen hat und dass die Gefahren von Extremwetter heutzutage geringer sind als zu jeder anderen Zeit der menschlichen Geschichte – im Wesentlichen fossilen Treibstoffen geschuldet. Er bespricht die Pionier-Forschungen von Craig Idso, die beweisen, dass ein zunehmender CO2-Gehalt als starker Dünger für viele Pflanzen agiert. Aber die Leser dieser Rezension kennen diese Fakten. Darum werden wir uns auf seine Diskussion der Verdienste fossiler Treibstoffe konzentrieren. Er kann gut schreiben und hat Superman-Power, ein überzeugendes logisches Argument darzulegen. Er hätte Daniel Webster und Clarence Darrow in den Schatten gestellt. Ich empfehle das Buch dringend zur Lektüre.

Dem Bericht 2016 von ExxonMobil zufolge erzeugten im Jahre 2014 fossile Treibstoffe 82% der Energie in der Welt. Fossile Treibstoffe haben über 80% der in den USA verbrauchten Energie in über 100 Jahren erzeugt. Das schreibt jedenfalls die EIA. Sie prophezeit, dass im Jahre 2040 fossile Treibstoffe immer noch 78% der Weltenergie erzeugen werden. Der Ölverbrauch wird mit einer jährlichen Rate von 0,7%, Erdgas mit einer solchen von 1,6% zunehmen. Der Kohleverbrauch wird allmählich abnehmen. Und trotzdem glauben Viele in der Gesellschaft immer noch, dass fossile Treibstoffe schlecht sind für uns und für die Welt.

Abbildung 1: Energiebedarf der Jahre 2014 bzw. 2040

Das Buch stellt diesen Gedanken, dass fossile Treibstoffe eine negative Auswirkung auf die Gesellschaft haben, zur Disposition. Es handelt sich um eine faszinierende, mit Fakten angefüllte und gut begründete Diskussion über den Einfluss, den fossile Treibstoffe auf unsere Welt gehabt hatten, seit sie im großen Maßstab vor über 120 Jahren zum Zuge kamen. Heute leben 7 Milliarden Menschen auf der Erde, und wir sind besser ernährt, leben besser und länger als fast jeder der 900 Millionen Menschen, die im Jahre 1800 lebten. Es ist der Erinnerung wert, dass die mittlere Lebenserwartung im Jahre 1800 in UK 39 Jahre betragen hatte (hier). Epstein begründet das so:

Wir übernehmen nicht eine sichere Umgebung und machen sie gefährlich; wir übernehmen eine gefährliche Umgebung und machen sie wesentlich sicherer“.

Was ist also mit all jenen, die gegen fossile Treibstoffe argumentieren? Fossile Treibstoffe sind zum größten Teil für die Lebensqualität verantwortlich, an der wir uns heute erfreuen, sowie für die Nahrung, die wir konsumieren, die rapide fallende Armut, unsere längere Lebenserwartung, geringere Kindersterblichkeit und viel andere humanitäre Vorteile. Wie kann sich jemand hinstellen und verlangen, fossile Treibstoffe zu verbannen, falls er das menschliche Leben achtet? Es scheint, als ob man „reine Natur“ über menschliches Leben stellt. Abbildung 2 zeigt das erwartete Ergebnis:

Abbildung 2

Im Buch von McKibben The End of Nature argumentiert der Autor, dass wir eine „bescheidenere [humbler] Welt“ brauchen und dass „das Glück des Menschen zweitrangig sein (sollte)“. In einer Rezension aus dem Jahr 1989 seitens der Los Angeles Times wird der Mensch als Krebsgeschwür und Plage für die Erde bezeichnet. Der Autor David Graber fährt fort:

McKibben ist Biozentriker [biocentrist ?], und ich auch. Wir sind nicht am Nutzen einer bestimmten Spezies interessiert oder an einem frei fließenden Fluss oder einem Ökosystem für die Menschheit. Sie haben inhärent Wert, mehr Wert – für mich – als eine andere Person oder eine Milliarde Personen. Menschliches Glück, und mit Sicherheit die menschliche Fruchtbarkeit sind weniger wichtig als ein ursprünglicher und gesunder Planet“.

Mann! Wir könnten gezwungen sein, ihn dem Verfassungsschutz zu melden. Dies ist das genaue Gegenteil der Prämisse von Epstein, der zufolge die Menschlichkeit an erster Stelle zu stehen hat. Folglich ist es für eine effektive Debatte um den Verbrauch fossiler Treibstoffe wichtig, dass die Debattierenden ihre Prioritäten benennen. Kommt die Menschheit an erster Stelle? Oder kommt an erster Stelle die Verringerung des menschlichen Einflusses auf die Umwelt? Es zeigt sich, dass diese Auswahl einen gewaltigen Unterschied ausmacht.

Das Buch führt aus, dass selbst wenn fossile Treibstoffe keinen Abfall hinterlassen würden und auch kein CO2, und selbst wenn sie sogar billiger wären und ewig verfügbar sein würden, würde die „grüne“ Bewegung immer noch gegen sie kämpfen. Die grüne Bewegung tritt nicht einfach für eine vom Menschen unberührte Umgebung ein, sie ist gegen jeden menschlichen Fortschritt. In den achtziger Jahren dachte man, dass die kontrollierte Fusion von Wasserstoff zu Helium schon um die Ecke schaute. Das war verschmutzungsfreie Energie. Was hatten die Umweltführer dazu zu sagen?

Jeremy Rifkin: „Es wäre das Schlimmste, was unserem Planeten widerfahren könnte“. Unerschöpfliche Energie verleiht dem Menschen eine unbegrenzte Fähigkeit, die Ressourcen des Planeten auszubeuten und ihn aus seinem zerbrechlichen Gleichgewicht zu bringen.

Paul Ehrlich: Die Entwicklung der Kernfusion für Menschen wäre so, „als ob man einem verrückten Kind ein Maschinengewehr in die Hand drücken würde“.

Amory Lovins: „Es wäre kaum weniger als katastrophal für uns, eine Quelle sauberer, billiger und reichlich verfügbarer Energie zu entdecken wegen dem, was wir damit anrichten könnten“.

Dieses „verrückte Kind“ wäre eine unerschöpfliche, saubere Energiequelle. Es scheint oft so, als ob radikale Umweltaktivisten denken, dass jeder andere ein „verrücktes Kind“ ist. Prinz Philipp, ehemals Chef des World Wildlife Fund, wollte als ein tödlicher Virus wiedergeboren werden (hier), um der Überbevölkerung Einhalt zu gebieten.

Luft, Wasser und Land so sauber wie möglich zu halten ist vorteilhaft für Mensch und Umwelt. Aber fossile Treibstoffe können unsere Umwelt sauber halten und tun das auch. Man frage irgendjemanden in London (oder auch New York) im Jahre 1894, als man durch die Ausscheidungen von Menschen und Pferden in den Straßen zu jener Zeit waten musste. Durch fossile Treibstoffe angetriebene Autos wurden als gewaltiger Vorteil für die Umwelt angesehen. Bis zum Jahr 1912 hatten sie die Pferde weitgehend ersetzt, und London wurde zu einer viel saubereren Stadt. Automobile und Kohlekraftwerke emittieren in der Tat Toxine und verursachen Luftverschmutzung, aber infolge moderner Technologie ist die Luft in den USA jetzt viel sauberer (hier) als im Jahre 1970, jedenfalls der EPA zufolge. Und dies trotz der Tatsache, dass wir heute viel mehr Kohle und Benzin verbrennen als damals. Die Eliminierung fossiler Treibstoffe würde unzählige Todesopfer, Hunger und Krankheit mit sich bringen. Ihre Eliminierung wird der Umwelt nicht helfen. Als Menschen müssen wir unsere Umwelt modifizieren, um gesund, länger und mit guter Qualität zu leben. Wir müssen sicherstellen, dabei sehr sorgfältig vorzugehen, aber das bedeutet in keiner Weise, dass wir den Verbrauch minimieren müssen. Epstein schreibt dazu:

Die Beziehung zwischen Energie und Umwelt wird normalerweise in negativer Weise betrachtet; wie können wir die Energie verbrauchen, die „die Umwelt am wenigsten beeinflusst“? Aber wir müssen vorsichtig sein; falls wir uns auf den menschlichen Wertestandard berufen, müssen wir einen Einfluss auf unsere Umwelt haben. Mit der Transformation der Umwelt überleben wir … falls wir uns auf humane Standards berufen, sollten wir nur über Auswirkungen des Energieverbrauchs nachdenken, die unserer Umwelt aus menschlicher Perspektive schaden …“

Er fährt fort:

Aber wir sollten auch im Auge behalten, dass Energie uns größere Fähigkeiten verleiht, unsere Umwelt zu verbessern, sie gesünder und sicherer für die Menschen zu machen … die natürliche Umgebung ist nicht von Natur aus eine gesunde, sichere Sache; weshalb die Menschen in der Historie auch nur eine Lebenserwartung von etwa 30 Jahren hatten“.

Und schließlich:

Werden wir gezwungen, uns auf Solar, Wind und Biotreibstoffe zu verlassen, wäre dies ein Horror schlimmer als wir uns vorstellen können, fußt doch eine Zivilisation auf billiger, reichlicher und zuverlässiger Energie. Ohne diese würden Maschinen ausfallen, die Produktivität zerstört und die Ressourcen verschwinden“.

Man überlege, wie es Mr. Epstein tut, dass ein normaler Mensch mindestens 1800 Kilokalorien Energie pro Tag verbrennt. Die Bandbreite reicht von etwa 1800 bis zu 8000 Kilokalorien, je nach Art der Aktivität (sehr intensive Aktivitäten können bis zu 12.000 Kilokalorien an einem Tag verbrennen). Wenn wir von „Kalorien“ von Nahrung sprechen, reden wir in Wirklichkeit von Kilokalorien Energie. Eine 100-Watt-Glühlampe verbraucht 2000 Kilokalorien Energie, falls man sie 32 Stunden lang brennen lässt. Im Jahre 2011 betrug der jährliche Energieverbrauch eines normalen Menschen (der EIA zufolge) 216.095 Kilokalorien (dies kommt der von Epstein genannten Zahl von 186.000 Kilokalorien ziemlich nahe). Darin enthalten sind Benzin, Strom und andere externe Energiequellen. Dieser Energiewert entspricht 27 bis 120 Menschen. Folglich vertritt Epstein diesen Standpunkt:

In der Vergangenheit, vor Erfindungen moderner Energietechnologie, bestand der Hauptweg zur Lösung des Problems der menschlichen Schwäche darin, andere zu Dienern oder Sklaven zu machen – was bedeutete, dass nur einige im Wohlstand leben konnten auf große Kosten anderer. Aber mit Maschinen-Energie und Maschinen als Diener muss niemand mehr leiden …“.

Wir alle stammen von Sklaven ab, die Römer, Engländer, Wikinger, Griechen, Chinesen, Inder, Indianer – jede Kultur in der Vergangenheit beschäftigte Sklaven. Tatsächlich verschwand die Sklaverei erst, nachdem der Mensch gelernt hatte, Maschinen zu bauen, die fossile Treibstoffe verbrauchen. Eines von Epsteins Schlagworten lautet „Energie ist Fähigkeit“.

Milton Freeman, der berühmte Ökonom, schrieb einmal:

Industrieller Fortschritt, mechanische Verbesserungen, alle die großen Wunder der modernen Ära haben für die Wohlhabenden wenig gebracht. Die Reichen im antiken Griechenland hätte kaum wenn überhaupt von moderner Klempnerei profitiert – rennende Sklaven ersetzten fließendes Wasser. Fernsehen und Radio – die Patrizier Roms konnten sich an führenden Musikern und Schauspielern in ihren Häusern erfreuen; konnten führende Künstler als heimisches Faktotum beschäftigen. Sofort tragbare Kleidung, Supermärkte – all diese und viele andere moderne Entwicklungen hätten kaum etwas zur Verbesserung des Lebens dieser Herrschaften beigetragen. Sie hätten die Verbesserungen bzgl. Transportwesen und Medizin begrüßt, aber für alle anderen haben die großen Errungenschaften des westlichen Kapitalismus‘ primär zum Vorteil normaler Menschen geführt. Diese Errungenschaften haben den Massen Bequemlichkeiten und Annehmlichkeiten gebracht, die zuvor exklusiv den Reichen und Mächtigen vorbehalten waren“.

Folglich profitieren die Armen und die Mittelklasse am meisten von fossilen Treibstoffen. Ist es da ein Wunder, dass die Hauptakteure, fossile Treibstoffe zu eliminieren, die Reichen sind wie Al Gore (2 Herrschaftshäuser, 200 Millionen Dollar), John Kerry (5 Herrschaftshäuser) und Leonardo DiCaprio (ebenfalls 5 Herrschaftshäuser)?

Es gibt heute 7 Milliarden Menschen auf der Welt. 1,3 Milliarden davon haben keinen Strom, drei Milliarden weitere keinen ausreichenden Zugang zu Strom. Hätte jedermann Zugang zu Strom, wie es heute für jeden Amerikaner selbstverständlich ist, müsste man viermal so viel Strom erzeugen wie heute. Wenn man bedenkt, dass 82% unserer Energie von fossilen Treibstoffen stammen – wie in aller Welt kann man dann die Versorgung der Welt mit Strom vervierfachen nur mit schwankenden Wind und Solar?

Egal ob der Klimawandel nun vom Menschen verursacht ist oder nicht, er kann gefährlich sein. Schon immer haben Dürre, extreme Temperaturen, Waldbrände und Stürme viele Todesopfer gefordert. Aber während der letzten acht Jahre sind Todesfälle mit Bezug auf das Klima weltweit um 98% zurückgegangen. Außerdem zeigen die Daten, dass es eine dramatische Differenz gibt zwischen den Verbrauchern schwerer und leichter fossiler Treibstoffe [between the heavy fossil fuel users and the light fossil fuels users] Man ist in einem industrialisierten Land viel sicherer als in einem Entwicklungsland. Zum Beispiel gab es der EM-DAT International Disaster Database zufolge im vorigen Jahrzehnt in den USA Null Todesfälle durch Dürre.

Historisch gesehen steht Dürre an erster Stelle der Ursachen für Todesfälle bzgl. Wetter. Weltweit sind diese um 99.98% während der letzten 80 Jahre zurückgegangen, aus vielen, mit Energie zusammen hängenden Gründen. Maßnahmen zur Bekämpfung von Dürrefolgen, mehr Nahrungsmittel infolge moderner, fossil betriebener Landwirtschaft, bessere Erschließung von Wasser und Werken zur Wasserbehandlung, alle betrieben mit fossilen Treibstoffen, machten Dürren zu einer geringeren Bedrohung. Epstein drückt es in Kapitel 5 so aus:

Die öffentliche Klimadiskussion ist rückwärts gerichtet. Sie betrachtet den Menschen als eine destruktive Kraft für das Klima; als etwas, das das Klima gefährlich macht, weil wir fossile Treibstoffe verbrauchen. Tatsächlich ist das genau Gegenteil die Wahrheit: wir übernehmen kein sicheres Klima und machen es gefährlich, sondern wir übernehmen ein gefährliches Klima und machen es sicher. Hochenergie-Zivilisation, nicht das Klima, ist der Treiber der Lebensfähigkeit. Egal wie oder was – Klima wird immer auf natürliche Weise gefährlich sein – und die Schlüsselfrage wird immer lauten, ob wir die Anpassungsfähigkeit haben, damit umzugehen …“.

Epstein argumentiert, dass der Gedanke, wir würden in einem idealen und empfindlichen Klima leben, das wir im Begriff sind durcheinanderzubringen, dumm ist:

Die erhabene Version des Gedankens, das unser Klima von Natur aus sicher oder ideal ist sagt, dass weil der Mensch in der gegenwärtigen Klimaperiode aufgeblüht ist, also in der 10.000 Jahre langen nacheiszeitlichen Periode, bekannt unter der Bezeichnung Holozän, dies das einzige globale Klima ist, in dem wir leben können, und falls es ein Risiko gibt, dass fossile Treibstoffe die „natürlichen“ Temperatur-Höhepunkte jener letzten 10.000 Jahre brechen würden, müssten wir sie eliminieren. ,Genau wie wir‘, sagt Bill McKibben, ,sind unsere Ernten angepasst an das Holozän, die 11.000 Jahre stabilen Klimas, die wir jetzt verlassen … in den Staub‘. Dieses Argument reflektiert nicht die Realität. Erstens, das Holozän ist eine Abstraktion und nicht ein „Klima“, in dem irgendjemand lebt; es ist die Zusammenfassung eines Klimasystems, das eine unglaubliche Vielfalt von Klimaten enthält, in dem Individuen leben und gelebt haben. Und in der Praxis können wir ziemlich gut in jedem dieser Klimate leben, falls wir industrialisiert sind, und in so ziemlich keinem davon, falls wir es nicht sind. Das offene Geheimnis unserer Beziehung zu Klima ist, wie gut wir in verschiedenen Klimaten leben, dank Technologie“.

Wetter- und Klimaänderungen sind für uns von Bedeutung, aber viel weniger als vor dem Zeitalter fossiler Treibstoffe. Zu heiß – man gehe in ein Haus mit Air Condition. Zu kalt – man gehe in ein mit Erdgas beheiztes Haus. Fossile Treibstoffe fehlen – dann viel Glück. Mutter Natur ist keine wirkliche Mutter, wir sind ihr völlig egal. Um ein gutes Leben zu haben, müssen wir unsere Umwelt verändern, und dafür brauchen wir Energie.

Ich möchte schließen mit einem Zitat aus Atlas Shrugged von Ayn Rand, welches Epstein in seinem Buch erwähnt. Mitten in einem schweren Gewitter unterhält sich Hank Reardon mit dem Industriellen Francisco d’Anconia in der Sicherheit von d’Anconias Haus. Sie schauen durch das Fenster dem Gewitter zu:

Man stand hier und schaute dem Gewitter zu mit dem größten Stolz, den man nur empfinden kann – weil man in der Lage ist, Sommerblumen und halbnackte Frauen im Haus zu haben in einer Nacht wie dieser – in einer Demonstration unseres Sieges über den Sturm. Und wären wir nicht hier, wären wir hilflos der Gnade des Gewitters ausgeliefert“.

Wollen Sie zurück zur Natur? Ist es das Ziel, Ihren Einfluss auf die Umwelt zu minimieren, oder ist es Ihr Ziel, die Umwelt zu verbessern? Epstein zeigt, dass wir nicht die Minimierung unseres Einflusses mit der Verbesserung der Umwelt verschmelzen sollten. Der Mensch ist nicht so total verderbt und böse (hier), wie es uns die Umweltaktivisten und Calvinisten glauben machen wollen; wir können die Umwelt verbessern und gute Arbeit leisten. Der Grundsatz lautet: falls wir menschliches Leben wertschätzen, werden wir fossile Treibstoffe wertschätzen und das, was sie uns zu tun in die Lage versetzt haben.

Falls man das Buch erwerben will – es ist verfügbar bei Amazon. (siehe Bild oben rechts!)

Link: https://wattsupwiththat.com/2016/08/12/the-moral-case-for-fossil-fuels/

Übersetzt von Chris Frey EIKE




Klima: Fakten versus Hypothesen

Klimawandel und Schwerkraft halten uns an der Erdoberfläche fest, und Spezies entwickeln sich. Schwerkraft und Evolution sind allgemein akzeptierte Theorien hinsichtlich ihrer Funktionsweise. Einstein entwickelte unsere derzeit gültige Theorie zu Gravitation. Newton lieferte uns seine anschaulichen Gravitationsgesetze. Newtons Gesetz erklärt, was die Schwerkraft macht, und das ist ja auch sehr nützlich, aber es erklärt nichts darüber, wie sie funktioniert. Dafür brauchen wir die Relativitätstheorie. Theorien und Gesetze wurzeln nicht notwendigerweise in der Wissenschaft. Ein Gesetz beschreibt, was geschieht, ohne zu erklären, warum es so und nicht anders geschieht. Eine wissenschaftliche Theorie versucht zu erklären, warum eine Beziehung besteht.

In der Wissenschaft gilt sowohl für ein Gesetz als auch für eine Theorie: ein einziges Experiment oder eine einzige Beobachtung, die mit der Theorie im Widerspruch steht, macht diese ungültig. Einstein drückte es so aus:

Keine noch so große Zahl von Experimenten kann beweisen, dass ich recht habe; aber ein einziges Gesetz kann beweisen, dass ich unrecht habe.

Untersuchen wir also unsere Themen in dieser Hinsicht. Newtons beschreibendes Gravitationsgesetz auf der Grundlage von Masse und Entfernung – gibt es irgendwelche Ausnahmen? Nicht dass ich wüsste, außer vielleicht in galaktischer Größenordnung, bei Schwarzen Löchern und möglicherweise im winzigen subatomaren Bereich. Im normalen Leben funktioniert Newtons Gesetz richtig gut. Wie ist es mit der Einstein’schen Relativitätstheorie, gibt es da irgendwelche Ausnahmen? Nicht dass ich wüsste – in keinem Größenmaßstab.

Was ist mit der Evolution? Spezies entwickeln sich, das können wir über geologische Zeitperioden beobachten. Folglich könnten wir Evolution als Tatsache bezeichnen. Sie geschieht, aber ohne zusätzliche Arbeit können wir nicht beschreiben, wie sie vonstatten geht. Unter den ersten Theorien im Prozess der Evolution waren die theory of natural selection von Darwin sowie Lamarcks theory bzgl. der Anpassung von Spezies an externe Einflüsse. Mittels der epigenetischen Forschung wissen wir, dass sowohl Darwin als auch Lamarck recht hatten und dass beide Prozesse bei der Evolution eine Rolle spielen. Eine Zusammenfassung der epigenetischen Komponente der Evolution aus jüngerer Zeit findet sich in diesem Beitrag des Oxford Journal. Folglich ändern sich etablierte Tatsachen und wissenschaftliche Gesetze nur sehr selten, aber Theorien entwickeln sich. Ich könnte noch hinzufügen, dass während sich Fakten und Gesetze kaum ändern, diese sofort ungültig werden, wenn dazu im Widerspruch stehende Daten entdeckt werden. Die moderne Evolutionstheorie ist ein gutes Beispiel dafür, dass miteinander im Wettbewerb stehende Theorien zu einer Theorie verschmelzen können.

Die meisten wissenschaftlichen Theorien beginnen als Hypothese. Eine Hypothese wird am besten so beschrieben: Sie ist eine Idee, was die Ursache sein könnte für ein bestimmtes auftretendes Ereignis. Eine ordentliche wissenschaftliche Hypothese muss wie eine Theorie falsifizierbar sein. Das heißt, wir müssen in der Lage sein, ein Experiment durchzuführen oder eine Beobachtung/Messung zu erhalten, welche die Hypothese als falsch darstellt. „Klimawandel“ ist nicht falsifizierbar, er ist keine wissenschaftliche Hypothese oder Theorie. „Der vom Menschen verursachte Klimawandel“ ist eine wissenschaftliche Hypothese, da sie falsifizierbar ist. Hypothesen und Theorien sind sich entwickelnde Dinge, neue Fakten und Beobachtungen führen zu deren Änderung. Auf diese Weise errichten wir das Gebäude der Wissenschaft. Wissenschaft ist zumeist Skeptizismus. Wir suchen nach den Dingen, die nicht passen; wir bohren nach bei etablierten Fakten und Gesetzen, bei Theorien und Hypothesen. Wir suchen und finden Schwächen, wir checken die Zahlen. Noch schlimmer, ordentlich durchgeführte Wissenschaft bedeutet, dass wir mehr Zeit damit verbringen, uns selbst als unrecht habend zu beweisen als zu beweisen, dass wir recht haben. Das Leben ist manchmal hart.

Wie passt dies alles nun zu der großen Klimawandel-Debatte? Ich habe eine Tabelle mit Phrasen erstellt und jede einzelne Phrase eingeordnet als Faktum, Theorie, Gesetz, Hypothese oder einfach nur einen Gedanken. Dabei ist Folgendes herausgekommen, worüber mit Sicherheit diskutiert werden kann:*

Tabelle 1

[*Ich vertraue auf die Englischkenntnisse der meisten Leser. Die gleiche Tabelle mit deutscher Übersetzung neu zu schreiben, wäre sehr zeitaufwändig. Anm. d. Übers.]

In der Tabelle erkennt man, dass der Vergleich zwischen anthropogenem Klimawandel sowie der Möglichkeit einer vom Menschen verursachten Klimakatastrophe einerseits und den Theorien bzgl. Gravitation und Evolution andererseits nicht wirklich möglich ist. Der vom Menschen verursachte Klimawandel ist mehr als ein Gedanke, er beruht auf einigen Beobachtungen. Außerdem wurden geeignete Modelle bzgl. dieses Prozesses entwickelt, die getestet werden können. Dabei zeigte sich jedoch, dass kein einziges der Modelle irgendwelche Klimaereignisse richtig vorhergesagt hat (hier). Folglich befinden sie sich immer noch in der Entwicklungsphase und sind als Beweis für eine wissenschaftliche Theorie unhaltbar.

Der Gedanke eines Vergleichs des vom Menschen verursachte Klimawandels mit der Folge einer Katastrophe einerseits und dem islamischen Terrorismus andererseits ist reine Spekulation. Die für die Untersuchung des menschlichen Einflusses verwendeten Modelle passen zu keiner einzigen Beobachtung. Dies geht klar aus Abbildung 1 hervor, einer Graphik von Dr. John Christy, in der Computermodell-Prophezeiungen mit realen Messungen durch Satelliten und Wetterballone verglichen werden. Ich sollte noch erwähnen, dass Messungen mit Ballonen und Satelliten sowohl untereinander als auch von den verschiedenen Bodendatensätzen wie HadCRUT und GHCN-M völlig unabhängig sind. Alle Graphen in der Abbildung wurden mit Fünf-Jahre-Mitteln geglättet.

Abbildung 1

Die violette, durch die Beobachtungen führende Linie stammt von dem russischen Modell „INM-CM4“. Es ist das einzige Modell, dass dicht bei der Realität liegt. Über längere Zeiträume macht sich INM-CM4 sehr gut bei der ,Nachhersage‘ der gemessenen Temperaturen. Dieses Modell verwendet einen CO2-Antrieb, der um 37% unter dem der anderen Modelle liegt sowie eine viel größere ozeanische Wärmekapazität (Trägheit des Klimasystems), und es passt genau zu dem Wassergehalt der unteren Troposphäre; es ist lediglich zu geringfügig darüber liegenden Werten verzerrt. Die anderen Modelle zeigen einen sehr hohen Bias. Das Modell nimmt zukünftige Erwärmungen mit einer Rate von etwa 1 K pro Jahrhundert an, was alles andere als alarmierend und außerdem viel niedriger als die anderen Modelle ist.

Man kann jedes Modell als ein digitales Experiment betrachten. Es ist klar, dass die Bandbreite von Werten aus diesen digitalen Experimenten über die prophezeite Erwärmung hinausgeht. Dies verleiht uns nicht gerade viel Vertrauen in die Genauigkeit der Modelle. Und doch verwendet das IPCC die Differenz zwischen den mittleren Modell-Temperaturanomalien und den gemessenen Temperaturen seit 1950, um den Einfluss des Menschen auf das Klima zu berechnen. In Abbildung 2 erkennt man die Modellläufe in hellblau und gelb und die Modellmittelwerte in blau und rot. Überlagert sind die Temperaturmessungen in schwarz. In Graphik (a) verwenden die Modelle ein Szenario, von dem das IPCC glaubt, dass es sowohl natürliche als auch anthropogene Antriebe repräsentiert. In Graphik (b) verwendet man ein Szenario, von dem man glaubt, dass es nur natürliche Antriebe repräsentiert.

Abbildung 2. Der Klick auf die Abbildung führt zu Kapitel 10 des jüngsten IPCC-Berichtes „Erkennung und Zuordnung von Klimawandel. Die Graphen befinden sich auf Seite 879).

Die Graphen sind ziemlich klein und überdecken über 150 Jahre, aber selbst dabei zeigen sich signifikante Abweichungen der gemessenen Temperaturen vom Modellmittel, und zwar am offensichtlichsten in den Jahren 1910, 1940 und während der letzten Jahre. Außerdem ist die Bandbreite der Modellergebnisse unerfreulich groß, was es schwierig macht, den Mittelwert aller Läufe als eine Berechnung des menschlichen Einflusses zu akzeptieren. Aber in jedem Fall zeigt Abbildung 2(b) einen flachen Klimatrend, und die gesamte gemessene Erwärmung von 1950 bis heute wird allein dem Menschen zugeordnet. Das Ergebnis hat viel Kritik hervorgerufen, und zwar von Soon, Connolly and Connolly, Prof. Judith Curry und anderen. Vor allem Soon, Connolly and Connolly (SCC15) nehmen an, dass das IPCC ein völlig ungeeignetes Modell der Variation des solaren Outputs TSI gewählt hat. Es gibt viele Modelle bzgl. der solaren Variation in der begutachteten Literatur, und es ist ein Thema heißer Debatten. Acht Modelle aus jüngerer Zeit werden in Abbildung 8 von SCC15 gezeigt (hier Abbildung 3). Nur Modelle mit geringer solarer Variabilität (also diejenigen rechts in der Abbildung 3) werden vom IPCC verwendet, um den menschlichen Einfluss auf das Klima zu berechnen, obwohl es viel mehr und stärkere Beweise gibt für die Modelle mit höherer Variabilität links. Die Skalen in den Graphiken sind alle gleich, aber die Maximum- und Minimum-Werte variieren. Beim Minimum hätte das IPCC zwei Fälle laufen lassen sollen, einen für hohe und einen für geringe Variabilität. SCC15 zeigen eindeutig, dass es je nach verwendetem Modell erhebliche Unterschiede gibt.

Abbildung 3

Wyatt und Curry (WC13) glauben, dass die natürliche Temperaturvariation aufgrund langzeitlicher natürlichen Zyklen in Abbildung 2(b) nicht korrekt dargestellt wird. Ihr „Stadium Wave” zeigt, dass es in den achtziger und neunziger Jahren zu einer merklichen natürlichen Erwärmung gekommen war. Falls man die von WC13 beschriebenen langzeitliche Zyklen (vielleicht 30 Jahre) in Abbildung 2(b) eingibt, wäre die dem Menschen zugeordnete Erwärmung erheblich geringer. Wyatt betrachtet die Variation der solaren Einstrahlung als einen möglichen Grund dafür.

Jedwedes Computer-Erde-Modell muss eine Prüfung der Verhältnisse in der Vergangenheit durchlaufen, bevor es für Berechnungen herangezogen wird. Die Erde ist einfach zu komplex, und natürliche Klimazyklen (hier) sind zu wenig verstanden. Falls natürliche Zyklen nicht vorhergesagt werden können, können sie auch nicht von den Beobachtungen subtrahiert werden, um den menschlichen Einfluss auf das Klima zu zeigen. In der Debatte geht es nicht darum, ob der Mensch das Klima beeinflusst, sondern darum, wie groß der Beitrag des Menschen dazu ist oder ob die zusätzliche Erwärmung gefährlich ist. Dieser Beobachter, vertraut mit der Wissenschaft, würde sagen, dass das Urteil der Jury immer noch aussteht. Mit Sicherheit liegt noch kein Fall einer bevorstehenden Katastrophe vor, werden dafür doch zwei spekulative Sprünge gebraucht. Erstens müssen wir annehmen, dass der Mensch der dominante Klimatreiber ist, und zweites müssen wir annehmen, dass dies zu einer Katastrophe führt. Man kann eine mögliche Katastrophe prophezeien, falls die extremsten Klimamodelle recht haben, aber die Aufzeichnungen zeigen, dass genau dies nicht der Fall ist. Nur das INM-CM4-Modell passt ganz gut zu den Beobachtungen, und dieses Modell prophezeit alles andere als den Weg in eine Katastrophe.

Bei der Erforschung des Prozesses der Evolution ist es das Gleiche. Einige glauben, dass der dominante Prozess die natürliche Selektion ist und epigenetische Änderungen minimal sind. Andere glauben das Gegenteil. Jeder glaubt, dass beides eine Rolle spielt. Genau wie in der Klimawissenschaft ist es sehr schwierig herauszufinden, welcher Prozess der dominante Prozess ist.

Die jüngste Klimahistorie (der „Stillstand“ der Erwärmung) zeigt, dass wir noch sehr viel Zeit haben, dieses Problem in den Griff zu bekommen, bevor wir irgendetwas Drastisches tun wie z. B. die Zerschlagung der Industrie fossiler Treibstoffe und die Verurteilung von Milliarden Menschen zu einem Leben in Armut (hier) infolge mangelnden Zugangs zu bezahlbarer Energie. Wir haben derzeit sehr viele billige fossile Treibstoffe zur Verfügung. Wie Matt Ridley in seinem Buch „The Rational Optimist” berechnet, kostete eine Kilowattstunde Strom im Jahre 1900 eine Arbeitsstunde und nur fünf Minuten heute. Der mittlere Haushalt in den USA verbraucht 911 Kwh Strom pro Monat [in Europa dürfte der Wert noch etwas niedriger liegen. Anm. d. Übers.]. Dies hätte im Jahre 1900 unmögliche 114 Acht-Stunden-Tage Arbeit erfordert, während es heute neun Tage erfordert. Falls die Projektionen in WC13 korrekt sind, kann der „Stillstand“ noch eine ganze Weile weitergehen, was uns noch mehr Zeit verleiht. Wir müssen heute nicht über eine ökonomische Klippe springen.

Andy May has been a petrophysicist since 1974. He has worked on oil, gas and CO2 fields in the USA, Argentina, Brazil, Indonesia, Thailand, China, UK North Sea, Canada, Mexico, Venezuela and Russia. He specializes in fractured reservoirs, wireline and core image interpretation and capillary pressure analysis, besides conventional log analysis. He is proficient in Terrastation, Geolog and Powerlog software. His full resume can be found on linkedin or here:AndyMay

Link: https://wattsupwiththat.com/2016/07/26/climate-facts-versus-climate-theories/

Übersetzt von Chris Frey EIKE




Eine kurze Zusammenfassung der Studie von Soon, Conolly und Conolly 2015: …

Es geht um folgende Aussagen:
Im AR 5 des IPCC aus dem Jahr 2013 heißt es:
Gleichgewichts-Klimasensitivität (ECS) liegt wahrscheinlich im Bereich 1,5°C bis 4,5°C (hohes Vertrauen). Extrem unwahrscheinlich ist ein Wert kleiner als 1°C (hohes Vertrauen), und sehr unwahrscheinlich ein Wert über 6°C (mittleres Vertrauen).
Auf Seite 17 liest man:
Es ist extrem wahrscheinlich, dass über die Hälfte der beobachteten Zunahme der globalen mittleren Temperatur von 1951 bis 2010 der anthropogenen Zunahme von Treibhausgas-Konzentrationen und anderen anthropogenen Faktoren zusammen geschuldet ist.
Soon, Conolly und Conolly („SCC15“) können sehr gut begründet zeigen, dass die ECS bei einer Verdoppelung von CO2 weniger als 0,44°C beträgt. Außerdem ist deren Schätzung der Klimasensitivität in Bezug auf Variationen der solaren Gesamt-Einstrahlung (TSI) größer als die Schätzung des IPCC. Folglich sind die anthropogenen Treibhausgase ihrer Schätzung zufolge kein dominanter Treiber des Klimas. Begleitende Informationen der drei Autoren einschließlich der von ihnen verwendeten Daten können hier heruntergeladen werden.
Aus allen Satellitendaten geht hervor, dass der Output der Sonne mit der Sonnenflecken-Aktivität variiert. Ein Sonnenflecken-Zyklus dauert im Mittel 11 Jahre, variiert jedoch von 8 bis 14 Jahren. Nimmt die Zahl der Sonnenflecken zu, steigt auch der solare Output, und umgekehrt. Satellitenmessungen stimmen darin überein, dass die Variation vom Spitzen- zum Minimumwert etwa 2 W/m² beträgt. Die Satellitenmessungen stimmen nicht überein hinsichtlich der Menge der solaren Gesamtstrahlung bei 1 AU [AU = Astronomical Unit = der mittlere Abstand der Erde von der Sonne], zeigen sie doch eine Differenz von 14 W/m², und der Grund für diese Diskrepanz ist unbekannt, aber jeder Satellit zeigt den gleichen Trend über einen Sonnenfleckenzyklus (siehe folgende Abbildung:)

Vor dem Jahr 1979 standen uns lediglich am Boden geschätzte Werte der TSI zur Verfügung, die alle nur auf indirekten Messungen oder „Proxys“ beruhten. Darunter waren Sonnenbeobachtungen, vor allem Art, Größe, Form und Anzahl von Sonnenflecken, die Länge von Solarzyklen, die Aufzeichnung kosmogener Isotope in Eisbohrkernen, Baumring-Analysen mit der C14-Methode und andere. In der Literatur gibt es viele TSI-Rekonstruktionen aus Proxys, von denen einige in der folgenden Abbildung gezeigt sind (aus SCC15 Abbildung 8):

Jene, die höhere Sonnenaktivität anzeigen, sind links zu sehen. Sie wurden vom IPCC bei der Berechnung des menschlichen Einflusses auf das Klima außen vor gelassen. Mit der Auswahl der geringe TSI anzeigenden Aufzeichnungen rechts war man in der Lage zu sagen, dass die Sonne kaum Einfluss hat und die jüngste Erwärmung hauptsächlich den Menschen zur Ursache hatte. Der AR 5 des IPCC zeigte in seiner Abbildung SPM.5 (unten), dass der gesamte anthropogene Strahlungsantrieb (relativ zum Jahr 1750) 2,29 W/m² betrug, derjenige der Sonne aber nur 0,05 W/m².

Folglich geht das IPCC davon aus, dass der Strahlungsantrieb der Sonne seit 1750 relativ konstant ist. Dies ist konsistent mit den Rekonstruktionen der geringen Sonnenaktivität in der rechten Hälfte der Abbildung 8 in SCC15, nicht jedoch mit den Rekonstruktionen auf der linken Seite.
Die Autoren des Kapitels „The Physical Science Basis“ im AR 5 des IPCC mögen wirklich glauben, dass die TSI-Variabilität seit 1750 gering ist. Aber dies spricht sie nicht frei davon, andere gut belegte und begutachtete TSI-Rekonstruktionen zu betrachten, die eine viel größere Variabilität zeigen. Insbesondere hätte man die Rekonstruktion nach Hoyt and Schatten, 1993 berücksichtigen sollen. Diese Rekonstruktion, modifiziert von Scafetta und Willson 2014 (Summary hier) hat den Test mit der Zeit sehr gut bestanden.
Temperatur an der Erdoberfläche
Der Hauptdatensatz zum Studium der Temperaturen an der Erdoberfläche weltweit ist der monatliche Datensatz des Global Historical Climatology Network (GHCN). Es wird verwaltet von der National Oceanic and Atmospheric Administration (NOAA) National Climatic Data Center (NCDC). Gegenwärtig sind die Daten hier einsehbar. Es gibt viele Probleme bei den Messungen der Temperatur über lange Zeiträume. Ländliche Stationen werden städtisch, Ausstattung oder Aufstellungsorte können verändert bzw. verlagert werden.
Longhurst 2015 schreibt auf Seite 77:
…eine grundlegende Übersicht (hier) des Grades, bis zu dem diese Messungen in den USA von Wetterstationen korrekt platziert und betrieben wurden, stammt von einer Gruppe von 600 Mitarbeitern des Blogs Climate Audit: ,…an den in bester Lage aufgestellten Stationen weist die tägliche Temperaturspanne keinen Trend im Jahrhundert-Zeitmaßstab auf‘ … die relativ kleine Anzahl korrekt aufgestellter Stationen zeigte eine geringere langfristige Erwärmung als das Mittel aller US-Stationen. …das Mittel aller Stationen in den obersten beiden Kategorien wies fast gar keinen langzeitlichen Trend auf (0,032°C pro Jahrzehnt während des 20.Jahrhunderts). Fall, et al., 2011).
Die GHCN-Daten sind vom NCDC in Rohformat und „homogenisiert“ verfügbar. Das NCDC glaubt, dass der homogenisierte Datensatz einen Stations-Bias korrigiert hätte einschließlich des Wärmeinsel-Effektes, und zwar mittels statistischer Verfahren. Zwei der Autoren von SCC15, Dr. Ronan Connolly und Dr. Michael Connolly, haben die Temperaturaufzeichnungen von NOAA/NCDC USA und global näher untersucht. Sie haben einen maximalen möglichen Temperatureffekt berechnet infolge Verstädterung; im NOAA-Datensatz, adjustiert um einen Bias der Beobachtungszeit. Dieser Temperatureffekt ergab sich zu 0.5°C pro Jahrhundert (voll städtisch – voll ländliche Stationen). Ihre Analyse zeigt also, dass die NOAA-Adjustierungen der Aufzeichnungen immer noch einen städtischen Bias hinterlassen relativ zu vollständig ländlichen Stationen. Der US-Datensatz enthält 272 von 1218 voll ländliche Stationen (23,2%). Bei Verwendung des US-Datensatzes kann der Bias also abgeschätzt werden.
Der globale Datensatz ist problematischer. Im globalen Datensatz gibt es 173 Stationen mit Daten aus 95 der letzten 100 Jahre, aber nur acht davon sind voll ländlich, und nur eine davon befindet sich auf der Südhemisphäre. Man kombiniere dies mit Problemen sich ändernder Instrumentierung, anderem Personal, Verlagerungen der Instrumente, anderen Wetterhütten – und die Genauigkeit der gesamten globalen Temperaturaufzeichnung ist fraglich. Wenn wir berücksichtigen, dass die Schätzung der globalen Erwärmung im AR 5 von 1880 bis 2012 0,85°C ± 0,2°C beträgt, kann man leicht sehen, warum es Zweifel darüber gibt, wie viel Erwärmung es tatsächlich gegeben hat.
Außerdem: Während die GHCN-Oberflächentemperaturen und die mittels Satellit gemessenen Temperaturen der unteren Troposphäre hinsichtlich ihrer absoluten Werte mehr oder weniger übereinstimmen, zeigen sie unterschiedliche Trends. Dies gilt vor allem für die Studie von Karl, et al. 2015 (die den Stillstand „zerschlagen“ hat) und in diesem Jahr von der NOAA übernommen worden ist. Der NOAA NCEI-Datensatz von Januar 2001 zeigt einen Trend von +0,09°C pro Dekade, und die Satelliten-Datensätze der unteren Troposphäre (sowohl RSS als auch UAH) einen solchen von minus 0,02°C bis minus 0,04°C pro Dekade (hier). Beide Trends liegen innerhalb der Fehlerbandbreite und sind daher statistisch gesehen Null-Trends. Aber ist der Trend unterschiedlich wegen der zahlreichen „Korrekturen“ wie in SCC15 sowie Connolly and Connolly 2014 beschrieben? Der Trend ist so gering, dass es unmöglich ist, sich diesbezüglich sicher zu sein, aber die umfangreichen und zahlreichen Korrekturen seitens der NOAA sind verdächtig. Ich persönlich vertraue den Satellitenmessungen viel mehr als den Temperaturmessungen an der Oberfläche. Aber jene sind kürzer und reichen lediglich bis 1979 zurück.
Die IPCC-Berechnung des menschlichen Einflusses auf das Klima
Bindoff et al. 2013 haben zahlreiche Klimamodelle mit vier Komponenten entwickelt, zwei natürlichen und zwei anthropogenen. Die beiden natürlichen Komponenten waren vulkanische Abkühlung und solare Variabilität. Die beiden anthropogenen Komponenten waren Erwärmung durch Treibhausgase, hauptsächlich anthropogenes CO2 und Methan, sowie anthropogene Aerosole, die die Atmosphäre kühlen. Sie haben mit diesen Modellen die globalen Temperaturen von 1860 bis 2012 ,nachhergesagt‘. Ergebnis: alle vier Komponenten zeigten gute Übereinstimmung mit den Messungen, aber wenn man sie ohne die beiden anthropogenen Komponenten laufen lässt wie im CMIP5-Multimodell funktionierte die Nachhersage nur von 1860 bis 1950. Auf der Grundlage dieses Vergleichs kam der AR 5 zu der Schlussfolgerung:
Über die Hälfte der beobachteten Temperaturzunahme von 1950 bis 2010 ist sehr wahrscheinlich der beobachteten Zunahme anthropogener Treibhausgas-Konzentrationen geschuldet.

Der vom IPCC herangezogene Beweis für diese Schlussfolgerung wird in ihrer Abbildung 10.1 illustriert, auszugsweise oben gezeigt. Die obere Graphik (a) zeigt die GHCN-Temperaturaufzeichnung in schwarz und das Ensemble-Mittel von CMIP5 in rot. Dieser Lauf enthielt anthropogene und natürliche „Antriebe“. Die untere Graphik (b) enthält nur natürliche „Antriebe“. Von 1961 oder so bis heute passt das nicht sehr gut. Falls wir davon ausgehen, dass ihre Modelle alle oder fast alle Auswirkungen auf das Klima enthalten, natürliche und anthropogene, ist ihre Schlussfolgerung angebracht.
Während das einfache Vier-Komponenten-Modell des IPCC gut zur gesamten GHCN-Aufzeichnung passen mag (die rote Linie in obigen Graphiken) für alle Stationen, sieht es nicht so gut aus, wenn man nur ländliche Stationen heranzieht:

Wieder ist das CMIP5-Modell in rot gezeigt. Graphik (a) ist das gesamte Modell mit natürlichen und anthropogenen „Antrieben“, (b) enthält nur die natürlichen und (c) nur die Treibhausgas-Antriebe. Keiner dieser Modellläufe passt zu ländlichen Stationen, welche die geringste Wahrscheinlichkeit aufweisen, von städtischen Einflüssen betroffen zu sein. Der Leser wird sich erinnern, dass Bindoff et al. die Rekonstruktionen mit geringer TSI ausgewählt haben, gezeigt in der rechten Hälfte der SCC15-Abbildung 8. Für eine vollständigere Kritik von Bindoff et al. siehe hier (vor allem Abschnitt 3).
Die TSI von Soon et al. im Vergleich zu meist ländlicher Temperatur-Rekonstruktion
Wie also sieht es aus, wenn eine der hoch variablen TSI-Rekonstruktionen, im Besonderen die von Hoyt and Schatten 1993, aktualisiert von Scafetta and Willson 2014, verglichen wird mit den Temperaturaufzeichnungen ländlicher Stationen aus SCC15?

Dies ist Abbildung 27 aus SCC15. Darin werden sämtliche ländlichen Aufzeichnungen (aus China, den USA, Irland und einem Komposit der Nordhemisphäre) verglichen mit der TSI, wie sie von Scafetta und Wilson berechnet worden ist. Der Vergleich ist für alle sehr gut für das 20. Jahrhundert. Die ländlichen Temperaturaufzeichnungen sollten die bestmögliche Aufzeichnungen für diesen Zweck sein: falls die TSI sehr gut zu ihnen passt, muss der Einfluss anthropogenen CO2′ und Methans logischerweise gering sein. Die Erwärmung der Arktis nach dem Jahr 2000 scheint ein wenig verstärkt; dies könnte einem Phänomen mit der Bezeichnung „Polar Amplification“ geschuldet sein.
Diskussion des neuen Modells und der Berechnung des ECS
Eine Korrelation kleinster Quadrate zwischen der TSI in Abbildung 27 und der ländlichen Temperaturaufzeichnung zeigt, dass eine Änderung von 1 W/m² eine Änderung der Lufttemperatur auf der Nordhemisphäre um 0,211°C führen sollte (die Neigung der Linie). Vielleicht erreichen wir nicht ganz zufällig einen Wert von 0,209°C unter der Voraussetzung, dass die Sonne die dominante Wärmequelle ist. Das heißt, falls die mittlere Temperatur der Erde 288 K beträgt und ohne die Sonne bei 4 K liegen würde, beträgt der Unterschied infolge der Sonne 284 K. Kombiniert man dies mit einer mittleren TSI von 1361 W/m², bedeutet dies, dass 1/1361 0,0735% sind und dass diese 0,0735% von 284 sich zu 0,209°C pro W/m² ergibt. Ziemlich cool, aber dies beweist nicht, dass die TSI das Klima dominiert. Es zeigt vielmehr, dass Bindoff et al. 2013 die falsche TSI-Rekonstruktion und vielleicht die falsche Temperaturaufzeichnung verwendet haben könnten. Mir persönlich erscheinen die TSI-Rekonstruktion in SCC15 und die ländlichen Temperaturaufzeichnungen genauso gültig wie jene von Bindoff et al. 2013. Dies bedeutet, dass die von Bindoff und dem IPCC geäußerte Annahme, dass anthropogene Treibhausgase über die Hälfte der Erwärmung von 1951 bis 2010 verursacht habe, fragwürdig ist. Die fundierte Alternative im SCC15 ist genauso plausibel.
Das SCC15-Modell scheint zu funktionieren, zumindest mit den verfügbaren Daten. Also sollten wir in der Lage sein, eine Schätzung der AGW-Komponente zu berechnen. Falls wir die oben beschriebene ländliche Temperatur-Rekonstruktion vom Modell subtrahieren und die Residuen evaluieren (unter der Annahme, dass diese der anthropogene Beitrag zur Erwärmung sind), kommen wir auf eine maximale anthropogene Auswirkung (ECS) von 0,44°C bei einer Verdoppelung des CO2-Gehaltes. Das ist substantiell geringer als die vom IPCC vorhergesagten 1,5°C bis 4,5°C. Bindoff et al. 2013 behaupten ebenfalls, dass ein Wert unter 1°C extrem unwahrscheinlich ist (Hervorhebung von ihnen). Ich denke, dass zumindest der Passus „extrem unwahrscheinlich“ in jener Studie problematisch ist. Die Schätzung von SCC15 mit 0,44°C ist ähnlich der von Idso 1998 abgeleiteten Schätzung von 0,4°C. Es gibt zahlreiche Studien aus jüngerer Zeit, die ECS-Werte berechnen am äußerten unteren Ende der IPCC-Bandbreite und sogar noch niedriger. 14 dieser Studien sind hier aufgelistet. Darunter ist auch die Eckpfeiler-Studie von Lewis and Curry und natürlich die klassische Studie von Lindzen and Choi 2011.
Ist CO2 dominant oder die TSI?
Danach führen SCC15 ein interessantes Gedankenexperiment durch. Was ist, falls CO2 der dominante Treiber der Erwärmung ist? Nehmen wir das mal einen Moment an und berechnen die ECS. Dabei extrahieren sie einen ECS-Wert von 2,52°C, welcher in der unteren Hälfte der vom IPCC gegebenen Bandbreite zwischen 1,5°C und 4,5°C liegt. Allerdings führt dieses Verfahren zu Residuen unter den Modelldaten, die immer noch sehr viel „Struktur“ oder Information enthalten. Mit anderen Worten, dieses Modell erklärt die Daten nicht. Man vergleiche die beiden Plots der Residuen hier:

Der obere Plot zeigt die Residuen des Modells, das annimmt, dass anthropogenes CO2 der dominante Faktor bei einer Temperaturänderung ist. Der untere Plot zeigt Residuen aus dem Vergleich der TSI (und nichts sonst) mit einer Temperaturänderung. Eine beachtliche Anzahl von „Struktur“ oder Information verbleibt im oberen Plot. Dies zeigt, dass das Modell nur sehr wenig der Variabilität erklärt hat. Im zweiten Plot bleibt nur wenig Struktur übrig, und einiges davon kann dem CO2, geschuldet sein, aber der Effekt ist sehr gering. Dies ist ein überzeugender qualitativer Beweis, dass die TSI die Temperatur dominant beeinflusst und CO2 nur einen geringen Einfluss hat.
Die AGW-Befürworter sind sehr emsig dabei, die Beweislast der Gemeinschaft der Skeptiker aufzubürden. Die Hypothese, dass der Mensch die meiste Erwärmung von 1951 bis 2010 verursacht hat, ist die zu beweisende Position. Die traditionelle und etablierte Hypothese lautet, dass Klimaänderungen natürlichen Ursprungs sind. Diese Hypothesen sind hier geplottet:

Dies ist Abbildung 31 aus SCC15. Der obere Plot (a) zeigt die Temperaturrekonstruktion der Nordhemisphäre (blau) von SCC15 im Vergleich zur atmosphärischen CO2-Konzentration (rot). Beides passt kaum zusammen. Der zweite Plot (b) passt die CO2-Konzentration an die Temperaturaufzeichnung an und dann die Residuen an die TSI – auch das passt kaum zusammen. Der dritte Plot (c) vergleicht die Temperatur allein mit der TSI, und das passt viel besser. Der vierte Plot schließlich (d) passt die TSI an die Temperaturaufzeichnung an und die Residuen an CO2, und hier passt alles am besten zusammen.
Es folgt die Diskussion dieser Plots aus SCC15:
Dies zeigt, dass zumindest seit 1881 die Temperaturtrends der Nordhemisphäre primär beeinflusst worden sind durch Änderungen der Gesamt-Sonneneinstrahlung TSI und nicht durch atmosphärische CO2-Konzentrationen. Man beachte aber, dass dieses Ergebnis nicht einen sekundären Beitrag durch atmosphärisches CO2 ausschließt. Tatsächlich ist der Korrelations-Koeffizient für Modell 4 (d) etwas besser als für Modell 3 (c), (also ~0,50 zu ~0,48). Wie oben angesprochen zeigt Modell 4 (d) jedoch, dass Änderungen des atmosphärischen CO2′ verantwortlich sind für höchstens ~0,12°C (von insgesamt 0,85°C) im Zeitraum 1880 bis 2012. Das heißt, CO2 hat bislang nur einen sehr mäßigen Einfluss auf nordhemisphärische Temperaturtrends.

Der letzte Absatz aus SCC15 lautet:

Als wir unser neues (Temperatur-)Komposit mit einer der Rekonstruktionen hoher solarer Variabilität der TSI verglichen, was von den Nachhersagen des CMIP5 nicht berücksichtigt worden war, fanden wir eine bemerkenswert gute Übereinstimmung. Falls die Rekonstruktion von Hoyt & Schatten und unsere neue Schätzung des nordhemisphärischen Temperaturtrends akkurat ist, scheint es, als ob man den größten Teil der Temperaturtrends seit mindestens 1881 mit der solaren Variabilität erklären kann, wobei die atmosphärischen Treibhausgas-Konzentrationen höchstens einen geringen Beitrag leisten. Dies widerspricht der jüngsten Behauptung des IPCC, dass das meiste der Temperaturtrends seit den fünfziger Jahren Änderungen der atmosphärischen Treibhausgas-Konzentrationen geschuldet ist (Bindoff et al. 2013).
Schlussfolgerungen
SCC15 zufolge ergibt sich also ein maximales ECS bei einer Verdoppelung von CO2 von 0,44°C. Die Studie zeigt auch, dass von der Erwärmung um 0,85°C seit Ende des 19. Jahrhunderts nur etwa 0,12°C anthropogenen Effekten geschuldet sind, zumindest auf der Nordhemisphäre, von wo die besten Daten vorliegen. Dies ist ebenfalls ein maximaler anthropogener Effekt, wenn wir viele andere Faktoren wie eine variierende Albedo (Wolken, Eis usw.) sowie Wärmetransport-Zyklen in Ozeanen ignorieren.
Während die Korrelation zwischen der neuen Temperatur-Rekonstruktion von SCC15 und der TSI-Rekonstruktion von Hoyt und Schatten sehr gut ist, bleibt der genaue Mechanismus, wie TSI-Variationen das Erdklima beeinflussen unbekannt. In SCC15 werden zwei Optionen angesprochen, nämlich einmal die Zirkulation von Wärme in den Ozeanen und zum anderen der Wärmetransport zwischen Troposphäre und Stratosphäre. Möglicherweise spielen beide Mechanismen eine Rolle in unserem sich ständig ändernden Klima.
Die TSI-Rekonstruktion nach Hoyt und Schatten wurde vor über 20 Jahren entwickelt und scheint immer noch zu gelten. Dies kann man von keinem einzigen der IPCC-Klimamodelle behaupten.
Die Konstruktion einer Temperaturaufzeichnung an der Erdoberfläche ist sehr schwierig, weil sich genau hier Atmosphäre, Festland und Ozeane berühren. Gewöhnlich gibt es hier die höchsten Temperaturgradienten im gesamten System, zum Beispiel den „skin” effect [?]. Misst man die „Oberflächen“-Temperatur am Boden? Einen Meter über Grund? Ein Inch [ca. 2,5 cm] über dem Wasser der Ozeane? Oder ein Inch unter der Ozean-Oberfläche in der warmen Schicht? All diese Temperaturen werden in dem Maßstab, über den wir hier sprechen, immer erhebliche Unterschiede aufweisen, wenige Zehntelgrad Celsius. Die Oberfläche der Erde befindet sich niemals im Temperatur-Gleichgewicht.
Aus Essex et al. 2007:
Während die globale mittlere Temperatur an der Erdoberfläche nichts weiter ist als ein Mittel über Temperaturen, wird es als Temperatur betrachtet, als ob eine Mitteltemperatur tatsächlich die Temperatur selbst ist und als ob ein sich außer Gleichgewicht befindendem Klimasystem nur eine Temperatur aufweist. Aber eine Mitteltemperatur, zusammengestellt aus einem nicht im Gleichgewicht befindlichen Feld ist keine Temperatur. Außerdem muss kaum erwähnt werden, dass die Erde eben nicht nur einfach eine Temperatur hat. Sie befindet sich nicht im thermodynamischen Gleichgewicht – weder in sich selbst noch mit seiner Umgebung“.
Aus Longhurst 2015:
Eine fundamentale Täuschung bei der Verwendung dieser Zahl ist die Vermutung, dass kleine Änderungen der Lufttemperatur an der Erdoberfläche eine Akkumulation oder einen Verlust von Wärme auf dem Planeten bedeuten infolge der Existenz von Treibhausgasen in der Atmosphäre; und mit einigen Einschränkungen ist dies auf dem Festland eine vernünftige Vermutung. Aber über den Ozeanen und damit über 70% der Erdoberfläche bewirkt eine Änderung der Lufttemperatur wenige Meter über der Wasseroberfläche allenfalls eine sich ändernde Vertikalbewegung im Ozean als Reaktion sich ändernde Windverhältnisse an der Oberfläche. Daraus folgt, dass Änderungen der Wassertemperatur (und solchen der Lufttemperatur weniger Meter darüber) nicht notwendigerweise signifikante Änderungen des globalen Wärmegehaltes repräsentieren, obwohl genau diese Vermutung immer wieder geäußert wird.
Allerdings reichen Satellitenbeobachtungen nur bis zum Jahr 1979 zurück und Messungen der globalen Lufttemperatur bis zum Jahr 1880 oder sogar noch weiter. Der Zeitraum von 1979 bis heute ist zu kurz, um irgendwelche bedeutsamen Schlussfolgerungen zu ziehen angesichts der Länge sowohl solarer Zyklen als auch Wärmeverteilungs-Zyklen in den Ozeanen. Selbst der Zeitraum von 1880 bis heute ist noch ziemlich kurz. Wir haben nicht die benötigten Daten, um zu irgendwelchen gesicherten Ergebnissen zu kommen. Die Wissenschaft ist definitiv nicht settled.
Link: http://wattsupwiththat.com/2015/10/08/a-short-summary-of-soon-connolly-and-connolly-2015-re-evaluating-the-role-of-solar-variability-on-northern-hemisphere-temperature-trends-since-the-19th-century/
Übersetzt von Chris Frey EIKE