Warum spekulieren?

Es gibt zwei Anlässe im Leben eines Menschen, bei denen er nicht spekulieren sollte: Wenn er es sich nicht leisten kann, und wenn er es sich leisten kann“ – Mark Twain

Mein Thema heute ist die Vorherrschaft von Spekulation in den Medien. Was bedeutet das? Warum ist das so allgegenwärtig? Sollten wir etwas dagegen tun? Falls ja, was – und warum? Sollten wir uns überhaupt darum kümmern? Ist Spekulation überhaupt validierbar? Und so weiter.

Ich möchte diesem Spekulationstrend beitreten und darüber spekulieren, warum es so viel Spekulation gibt. Im Zuge, diesem Trend zu folgen, möchte ich meine Standpunkte ohne jedwede faktische Stützung darlegen, einfach indem ich eine Reihe von schlichten Behauptungen aufstelle.

Bevor wir anfangen, möchte ich eine Definition klären. Mit Medien meine ich Filme, Fernsehen, Internet, Bücher, Zeitungen und Zeitschriften. Um dem allgemeinen Trend der Spekulation zu folgen, wollen wir nicht zu viele Kleinstunterscheidungen treffen.

Anfangen können wir damit, uns zu fragen, bis zu welchem Grad sich die Medien der reinen Spekulation verschrieben haben. Jemand könnte hierzu eine Studie durchführen und Fakten präsentieren, aber bislang hat das niemand getan. Ich würde es mit Sicherheit nicht tun. Es gibt keinen Grund, sich damit zu behelligen. Die Erfordernis, eine Faktenbasis für eine Behauptung zu demonstrieren, ist schon vor langer Zeit entfallen. Sie wurde ausgesondert mit dem universellen Lob für das Buch Backlash von Susan Faludis, welches im Jahre 1991 den National Book Critics Circle Award für Allgemeine Sachbücher verliehen bekam, und welches hunderte Seiten quasi-statistischer Behauptungen auf der Grundlage einer Prämisse enthält, welche niemals belegt wurde und die fast mit Sicherheit falsch war.

Aber das ist ein alter Hut, und ich erwähne es hier nur, um Standards zu setzen.

Heute weiß natürlich jedermann, dass „Hardball“, „Rivera Live“ und ähnliche Shows nichts weiter sind als ein stetiger Strom von Vermutungen über die Zukunft. Die Talkshows am Sonntag Morgen sind reine Spekulation. Jeder weiß, dass es sonntags keine Nachrichten gibt.

Aber Fernsehen ist Unterhaltung. Betrachten wir die so genannten seriösen Medien. Zum Beispiel die New York Times [ein Ober-Alarmisten-Blatt! Anm. d. Übers.] vom 6. März, also von dem Tag, als Dick Farson mir gesagt hat, dass ich diese Gedanken von mir gebe. In der Kolumne an erster Stelle jenes Tages geht es um die Zölle von Bush auf importierten Stahl. Jetzt lesen wir: Die Maßnahme von Mr. Bush „wird wahrscheinlich den Preis von Stahl scharf in die Höhe treiben, vielleicht um bis zu zehn Prozent…“. Amerikanische Verbraucher „werden ultimativ höhere Preise zahlen müssen“. Amerikas Verbündete „würden fast mit Sicherheit die Entscheidung anfechten“. Ihr legales Anliegen „könnte Jahre dauern, um in Genf einen Prozess anzustrengen“ um Dieses und Jenes.

Man beachte auch die vage und versteckte Spekulation. Die Anfechtung seitens der Alliierten würde „die Bühne bereiten für einen großen Handelskrieg mit vielen der gleichen Länder, die Bush zusammenhalten möchte in der zerbrechlichen Koalition gegen den Terror“. Mit anderen Worten, in der Story wird spekuliert, dass Zölle den Kampf gegen den Terrorismus beeinträchtigen können.

Inzwischen bin ich unter dem Faludi-Standard zu dem festen Standpunkt gekommen, dass Medien hoffnungslos von Spekulation durchsetzt sind, und wir können darangehen, die Auswirkungen dieses Umstandes zu betrachten.

Nun könnte man diese Story über Zölle lesen und sich fragen „na und?“. Es ist keine schlechte Geschichte. Ist es nicht vernünftig, über Auswirkungen gegenwärtiger Ereignisse auf diese Weise zu reden? Ich antworte, absolut nicht! Derartige Spekulationen sind komplette Zeitverschwendung.Sie sind sinnlos. Es ist Mist auf der Frontseite der Times.

Der Grund dafür, dass es sinnlos ist, ist natürlich der Umstand, dass niemand weiß, was die Zukunft bereit hält.

Stimmen wir alle darin überein, dass niemand weiß, was die Zukunft bereit hält? Oder muss ich Ihnen das erst beweisen? Ich stelle diese Frage, weil es einige sehr gut untersuchte Auswirkungen der medialen Berichterstattung gibt, was passiert, wenn man das Fernsehgerät verkehrt herum aufstellt: die Kinder werden sagen, dass das Popcorn aus der Tüte herausfällt. Dieses Ergebnis wäre erheiternd, falls es auf Kinder beschränkt bleibt. Aber die Studien zeigen, dass niemand davon ausgenommen ist. Alle Menschen unterliegen diesem medialen Effekt, einschließlich all jener unter uns, die glauben, dass wir ich-bewusst und hip und gut unterrichtet sind.

Medien bringen eine Glaubwürdigkeit mit, die total unverdient ist. Wir alle haben schon das erlebt, was ich den Murray Gell-Mann Amnesie-Effekt nenne. (Ich beziehe mich auf diesen Namen, weil ich über dieses Thema einmal mit Murray Gell-Mann diskutiert habe, und mit der Einführung eines berühmten Namens impliziere ich größere Bedeutung für mich selbst und den Effekt, welche er anderenfalls nicht hätte).

Kurz beschrieben lautet der Gell-Mann-Amnäsie-Effekt so: Man schlägt die Zeitung auf und stößt auf einen Artikel über etwas, über das man gut Bescheid weiß. In Murrays Fall war das Physik. In meinem Fall war es Show-Business. Man liest den Artikel und stellt fest, dass der Journalist absolut keine Ahnung hat, weder hinsichtlich der Fakten noch der Thematik. Oftmals ist der Artikel so falsch, dass er tatsächlich die Story von hinten aufzäumt – indem Ursache und Wirkung vertauscht werden. Ich nenne dies die „wet streets cause rain“-Storys [was man etwa übersetzen könnte mit „weil die Straßen nass sind, regnet es“]. Zeitungen sind voll davon.

In jedem Falle liest man mit Verbitterung oder auch amüsiert die multiplen Fehler in einer Story und blättert dann um zur Seite mit den nationalen oder internationalen Angelegenheiten. Diese liest man dann so, als ob sie irgendwie genauer sind über Palästina als der Unsinn, den man eben gelesen hat. Man blättert um und vergisst, was man weiß.

Das ist der Gell-Mann-Amnäsie-Effekt. Ich möchte betonen, dass er in anderen Arenen des Lebens nicht aktiv ist. Im normalen Leben ist es so: falls jemand einen permanent anlügt, wird man bald alles, was jener sagt, verwerfen. Vor Gericht gibt es eine gesetzliche Doktrin von falsus in uno, falsus in omnibus, was bedeutet Unwahrheit in einem Teil – Unwahrheit in Allem. Aber wenn es um Medien geht, glauben wir gegen alle Beweise, dass es uns unsere Zeit wahrscheinlich wert ist, andere Teile der Zeitung zu lesen. Und das, wenn das fast mit Sicherheit nicht der Fall ist. Die einzig mögliche Erklärung für unser Verhalten ist Amnäsie.

[Und ich dachte, nur die Deutschen wären so zeitungsgläubig, wie sie nun mal sind! Anm. d. Übers.]

Ein Problem mit der Spekulation besteht also darin, dass man den Gell-Mann-Effekt unberechtigter Glaubwürdigkeit huckepack mit sich herumträgt, was die Spekulation als brauchbarer aussehen lässt als sie ist.

Ein weiteres Thema ist die schiere Masse von Spekulation. Die schiere Masse impliziert einen Wert, der fadenscheinig ist. Ich nenne dies den There-Must-Be-A-Pony-Effekt, abgeleitet aus dem alten Witz, dass ein Kind am Weihnachtsmorgen die Treppe herabkommt, den Raum voller Pferdemist vorfindet und vor Freude in die Hände klatscht. Seine erstaunten Eltern fragen: Warum bist du so glücklich? Es antwortet, bei so viel Pferdemist muss ein Pony da gewesen sein.

Weil wir in jeder Hinsicht mit Spekulation konfrontiert werden, in gedruckter Form, in Videos, im Internet, bei der Konversation können wir möglicherweise zu dem Schluss kommen, dass sie von Wert sein muss. Das ist sie aber nicht. Und zwar weil – egal wie viele Menschen spekulieren, egal wie bekannt deren Gesichter, wie gut ihr Makeup ist und wie gut sie daherkommen; egal wie lange sie vor uns persönlich oder in Kolumnen in Erscheinung treten – es wahr bleibt, dass keines dieser Individuen weiß, was die Zukunft bringt.

Einige Menschen glauben insgeheim, dass die Zukunft bekannt gemacht werden kann. Sie stellen sich zwei Gruppen vor, die über die Zukunft Bescheid wissen und auf die man deswegen hören sollte. Die erste Gruppe sind die Experten [pundits]. Da sie sich die ganze Zeit über die Zukunft auslassen, müssen sie doch wissen, wovon sie reden. Ist das so? „Brill’s Content“ [hier steht, was damit gemeint ist; Anm. d. Übers.] geht üblicherweise den Vermutungen der Experten nach, und während der eine oder andere auch mal einen Treffer erzielt, sind diese Vermutungen über die Zeit nicht besser als Zufall. Dies würde man auch erwarten. Weil niemand die Zukunft kennt.

Ich möchte im Vorübergehen noch erwähnen, dass Expertentum mit den Jahren eine subtile Veränderung durchlaufen hat. In den alten Zeiten haben Kommentatoren wie Eric Sevareid die meiste Zeit damit zugebracht, Ereignisse in einen Zusammenhang zu stellen und einen Standpunkt zu beschrieben über das, was bereits geschehen ist. Darüber sprechen, was sie dachten, war wichtig oder irrelevant hinsichtlich der Ereignisse, die bereits stattgefunden hatten. Dies ist natürlich eine legitime Funktion der Expertise in jedem Bereich menschlichen Wissens.

Aber mit den Jahren hat sich das vertrauen in Expertentum von der Diskussion über Geschehenes weg verschoben hin zu Diskussionen über das, was geschehen könnte. Und hier haben die Experten keinerlei Vorteil aus ihrer Expertise. Schlimmer noch, sie könnten versuchen, wie die Sonntagspolitiker die eine oder andere Agenda durchzupauken mittels der Prophezeiung von deren unmittelbar bevorstehenden Kommen oder Niedergang. Das ist politischer Aktionismus, keine Prophezeiung*.

[*Unübersetzbares Wortspiel: ,This is politicking, not predicting‚].

Die zweite Gruppe, von denen manche Menschen die Vorstellung haben, dass sie über die Zukunft Bescheid wissen, sind Spezialisten unterschiedlicher Art. Die wissen das aber auch nicht. Als Grenzfall möchte ich daran erinnern, dass es einen neuen Bereich gibt, der Spezialisten gebiert – ich weigere mich, es eine Disziplin oder einen Studienbereich zu nennen – Futurismus genannt. Das Narrativ hier lautet, dass einen Weg gibt, Trends zu studieren und zu wissen, was die Zukunft bringt. Das wäre tatsächlich wertvoll, falls es möglich wäre. Aber es ist nicht möglich. Futuristen wissen nicht mehr über die Zukunft als Sie und ich. Man lese deren Zeitschriften von vor ein paar Jahren, und man wird eine endlose Kette der Irrtümer finden.

Expertise ist kein Schutzschild gegen grandiose Fehleinschätzungen. Darum war es Thomas Watson, der Chef von IBM, der prophezeite, dass die Welt höchstens 4 oder 5 Computer brauchen würde. Das ist so falsch wie etwas nur sein kann – prophezeit von einem Mann, der in jeder Hinsicht informiert war darüber, wovon er sprach.

Nicht nur, dass er einen Trend falsch bewertete oder eine Technologie, sondern auch, dass er die Myriaden Verwendungszwecke nicht verstand, für die man eine Maschine allgemein rüsten kann. Genauso lag auch Paul Ehrlich, ein brillanter Akademiker, der sein gesamtes Leben ökologischen Themen widmete, mit fast allen seinen großen Prophezeiungen falsch.

Er lag falsch hinsichtlich schwindender Ressourcen, hinsichtlich der Bevölkerungsexplosion, und er lag falsch mit seiner Prophezeiung, dass bis zum Jahr 2000 50% aller Spezies ausgestorben sein würden. Er widmete sein Leben intensiv empfundenen Bereichen – und lag doch spektakulär falsch.

Nun gut, könnte man sagen, wir akzeptieren, dass man die Zukunft nicht kennen kann in der Art und Weise, wie ich es hier beschreibe. Aber was ist mit dringlicheren Dingen wie etwa die Auswirkungen unerledigter Gesetzgebung? Sicher ist es wichtig, darüber zu reden, was passieren kann, falls bestimmte Gesetze eingeführt werden. Nun – nein, ist es nicht. Niemand weiß, was passieren wird, wenn das Gesetz eingeführt wird. Hierfür möchte ich zwei Beispiele nennen, eines von den Linken und eines von den Rechten.

Das erste Beispiel ist die Clinton’sche Wohlstandsreform, welche hart kritisiert wurde seitens seines eigenen linken Flügels, weil er Anleihen in einer Agenda der Republikaner machte [Clinton war natürlich von den Demokraten. Anm. d. Übers.]. Den Prophezeiungen der Linken zufolge sollten sich daraus menschliches Leiden, bittere Kälte, Kindesmissbrauch, und schreckliche Folgen ergeben. Und was geschah? Nichts dergleichen! Kindesmissbrauch nahm ab. Tatsächlich war die Reform, wie es bei Reformen der Regierung manchmal ist, ein Erfolg; aber Mother Jones [eine Zeitschrift; mehr hier bei Wikipedia] prophezeit immer noch düsterste Effekte, die unmittelbar bevorstehen.

Dieses Scheitern bei der Prophezeiung von Auswirkungen eines Programms spiegelte sich in hysterischem Geschrei von den Rechten bei den Republikanern über steigenden Mindestlohn. Chaos und düstere Zeiten würden sicher folgen, wenn Firmen ihre Türen schließen und das Land in eine überflüssige Rezession gestürzt würde. Aber was waren die wirkliche Auswirkungen? Im Grunde gar keine. Wer diskutiert jetzt noch darüber? Niemand! Was wird geschehen, falls es einen neuen Versuch geben würde, den Mindestlohn anzuheben? Die gleichen düsteren Prophezeiungen noch einmal. Haben wir irgendetwas gelernt? Nein!

Aber mein Punkt ist – bei bevorstehender Gesetzgebung ebenso wie mit allem Anderen – niemand kennt die Zukunft.

Gleiches ist auch wahr hinsichtlich der Auswirkungen von Wahlen und Verabredungen. Welche Auswirkungen hat die Wahl eines bestimmten Präsidenten oder eines Obersten Gerichtshofes? Niemand weiß es. Einige von Ihnen sind alt genug, sich an die berühmte Kolumne von Art Buchwald während der Tage der Johnson-Regierung zu erinnern. Buchwald schrieb einen Beitrag mit dem Titel „Thank God we don’t have Barry Goldwater“ [seinerzeit der Gegenkandidat zu Johnson. Anm. d. Übers.]. Darin erinnerte er daran, wie jedermann befürchtete, dass Goldwater uns in einen großen Krieg ziehen würde. Also wählten wir Johnson, der nichts Eiligeres zu tun hatte als 200.000 Soldaten nach Vietnam zu schicken. Das ist es, was passiert, wenn man einen sich friedlich gerierenden Kandidaten wählt [a dove-ish candidate]. Man bekommt einen Krieg. Oder man wählt den intellektuell brillanten Jimmy Carter, und wird Zeuge, wie er persönlich damit endet zu bestimmen, wer auf den Tennisplätzen des Weißen Hauses spielen darf. Oder man wählt Richard Nixon, der den Stecker aus der Vietnam-Sache herausziehen kann und der dann den Kampf noch Jahre fortsetzt. Und dann China öffnet*.

[*Damit ist hier natürlich nicht China gemeint, sondern das ,China Syndrome‘. Mancher wird mit dem Begriff noch etwas anfangen können. Wer nicht – hier bei Wikipedia steht mehr. Anm. d. Übers.]

Genauso ist die Historie von Entscheidungen des Obersten Gerichtshofes eine endlose Folge von Fehlern hinsichtlich Prophezeiungen von Rechtsprechung, wenn man erst einmal vor Gericht landet. Nicht alle sind überraschend, aber sehr viele schon.

Können wir also hinsichtlich unmittelbar bevorstehender Ereignisse überhaupt irgendetwas vorhersagen? Nein! Dazu reicht es schon sich anzuschauen, was vor dem Fall der Mauer in Berlin gesagt worden ist. Schon dabei sieht man, dass niemand auch nur ein paar Stunden im Voraus etwas prophezeien kann. Menschen sagten alle Arten von Dummheiten bzgl. des Kommunistischen Weltreiches – nur Stunden vor dessen Zusammenbruch. Ich kann hier keine Beispiele zitieren, weil ich dazu erst Faktensuche betreiben müsste, was ich versprochen habe, nicht zu tun. Aber glauben Sie mir, man findet idiotische Statements noch von 24 Stunden zuvor.

Niemand kennt die Zukunft!

Nun ist das keine neue Information.Es war Mark Twain, der gesagt hat: „Ich habe einen Haufen Schwierigkeiten in meinem Leben vorhergesehen, und die meisten davon sind niemals passiert“.

Und Vieles von dem, was die Politiker sagen, ist nicht so sehr eine Prophezeiung, sondern ein Versuch, es wahr werden zu lassen. Es ist Argumentation maskiert als Analyse. Aber es überredet nicht wirklich irgendjemanden. Weil die meisten Menschen es durchschauen.

Falls Spekulation also nutzlos ist, warum gibt es dann so viel davon? Liegt es daran, dass die Menschen sie haben wollen? Das glaube ich nicht. Ich selbst spekuliere, dass sich die Medien der Spekulation zugewandt haben aus den Medien eigenen Gründen. Schauen wir also mal auf die Vorteile der Spekulation von einem Standpunkt der Medien aus:

1. Sie ist unglaublich billig. Schwatzen ist billig. Und Spekulations-Shows sind das Billigste, was man im Fernsehen bieten kann. Sie sind fast genauso billig wie das Senden eines Testbildes. Spekulation erfordert keine Forschung, keinen großen Stab an Mitarbeitern. Minimalen Aufwand. Lediglich den Moderator, Buchung der Teilnehmer – an denen es keinen Mangel gibt – und fertig! Einfach Show! Keine Reporter in verschiedenen Städten auf der ganzen Welt, keine Film-Crew am Drehort. Keine Ultimaten, kein Filmmaterial, welches bearbeitet werden müsste, keine Editoren … nichts! Einfach nur Gerede. Billig.

2. Man kann nicht verlieren. Obwohl die Spekulation nur zufällig auch mal stimmt, was bedeutet, dass man in jedem Falle zu 50% falsch liegt, erinnert sich niemand daran, weshalb sich auch niemand darum schert. Man ist niemals haftbar. Die Zuhörerschaft erinnert sich nicht an gestern, geschweige denn an die vorige Woche oder den vorigen Monat. Medien existieren nur im ewigen Jetzt, in dieser Minute, in dieser Krise, bei diesem Fernsehansager, in dieser Kolumne, bei dieser Spekulation.

Einer der klarsten Beweise hierfür ist die Kontroverse um die Currents of Death [= elektromagnetische Strahlung unter Strom-Überlandleitungen. Anm. d. Übers.]. Sie hatte ihren Ursprung im Journal The New Yorker, welches seit fünfzig Jahren eine sprudelnde Quelle falscher wissenschaftlicher Spekulation ist. Aber mein Punkt ist Folgender: Viele der Menschen, die vor zehn Jahren wild darauf waren, in ihren Häusern gefährliche elektromagnetische Strahlung zu messen, geben jetzt Tausende Dollar aus für den Kauf von Magneten, die sie um ihre Arme und Fersen wickeln wegen der vermeintlich die Gesundheit fördernden Effekte von Magnetfeldern. Diese Menschen erinnern sich nicht daran, dass es sich dabei um genau die gleichen magnetischen Felder handelt, die sie früher zu vermeiden trachteten. Und weil sie sich nicht erinnern, kann das Journal genau wie der Medien-Spekulant nicht verlieren.

Diesen Gedanken, dass man dabei nicht verlieren kann, möchte ich noch etwas weiter ausführen. Das ist nicht auf die Medien beschränkt. In den meisten Bereichen des intellektuellen Lebens hat man die Werte der Spekulation entdeckt und wild für sich vereinnahmt. In der Akademia wird Spekulation normalerweise als Theorie gewürdigt. Es ist faszinierend: sogar obwohl die intellektuelle Haltung der postmodernen deconstructionist era gegen die Theorie ist, besonders gegen allumfassende Theorien, ist das was jeder Akademiker zum Ausdruck bringen möchte, eine Theorie.

Dies ist teilweise übergeschnappte Wissenschaft, aber es ist auch ein Flucht-Türchen. Eine genaue Lektüre der Texte von Jane Austen kann man gut als falsch empfinden, und ein kenntnisreicherer Antagonist kann auch zeigen, dass sie falsch sind. Aber die Theorie der radikalen Feminisierung und autoritären Revolte in den Arbeiten von Jane Austen sind auch unberührbar. Unsere Standpunkte hinsichtlich der Ursprünge der Ersten Weltkrieges können durch andere Institutionen wesentlich genauer erklärt werden als von uns. Aber ein Beitrag eines New Historicist, in welchem durchaus unsere eigene Phantasie enthalten sein kann, welche das sein könnten, würden so sein wie als ob man während des ersten Krieges Soldat war … nun, das ist nicht debattierbar.

Ein hervorragender Bereich für spekulative akademische Arbeiten ist das Unbekannte. Dieser Tage sind religiöse Gegenstände in Ungnade, aber es gibt immer noch viele gute Themenbereiche. Die Natur des Gewissens, die Arbeit des Gehirns, der Ursprung von Aggression, der Ursprung der Sprache, der Ursprung des Lebens auf der Erde, SETI und Leben auf anderen Welten … all das ist großartiges Zeug. Wunderbares Zeug. Man kann endlos darüber debattieren. Aber dem kann nicht widersprochen werden, weil niemand die Antwort auf irgendeines dieser Themen kennt – was wahrscheinlich auch niemals der Fall sein wird.

Aber das ist nicht die einzige Strategie, die man heranziehen kann. Weil die medien-indoktrinierte Öffentlichkeit Behauptungen aus der Vergangenheit ignoriert und vergisst, kommen heutzutage selbst Autoren ungeschoren davon, wenn sie harte Daten präsentieren, die sich dann erwiesenermaßen als falsch herausstellen.

[Woher ,wusste‘ Crichton im Jahre 2002, als er dies schrieb, von den jetzt offenbar gewordenen Manipulationen der NOAA? Anm. d. Übers.]

Eine der am konsistentesten falsch liegenden Denker der letzten Jahre, Carol Gilligan von Harvard, einst ,Wissenschaftlerin des Jahres‘ des MS-Magazins, musste vieles von dem, was sie je geschrieben hatte, zurückziehen oder modifizieren. Und doch hat ihr Ruf als profunde Denkerin und bedeutende Untersucherin keinerlei Schaden genommen. Man muss nicht recht haben, nicht mehr. Niemand erinnert sich.

[Gibt’s da nicht auch einen Mojib Latif von gleichem Kaliber? Anm. d. Übers.]

Dann gibt es da die spekulativen Arbeiten von Anthropologen wie Helen Fisher, die behaupten, uns etwas über die Ursprünge der Liebe oder der Untreue mittels Verweisen auf andere Gesellschaften, auf das Verhalten von Tieren und fossilen Aufzeichnungen zu vermitteln. Wie kann sie falsch liegen? Es ist unüberprüfbar, unbeweisbar, einfach so Stories.

Und damit nicht jemand sich vorstellt, dass Dinge in der Hard Science anders sind, denke man an die String-Theorie, seit fast zwanzig Jahren die dominante physikalische Theorie. Mehr als eine Generation von Physikern hat an der String-Theorie gearbeitet. Aber – falls ich sie richtig verstehe, was vielleicht nicht der Fall ist – die String-Theorie kann nicht getestet oder bewiesen oder widerlegt werden. Obwohl einige Physiker bei dem Argument, dass eine unüberprüfbare Theorie nichtsdestotrotz wissenschaftlich ist, die Augen verdrehen, wer leistet wirklich Widerstand? Man erkenne: Eine unüberprüfbare Theorie ist ideal! Die Karriere ist gesichert!

Kurz gesagt, so lange man spekuliert, kann man nicht verlieren. Diese Erkenntnis ist weit verbreitet. Und sie ist perfekt für das Informations-Zeitalter, welches ein Füllhorn von Wissen verspricht, aber nur ein Füllhorn voll Quacksalberprodukten liefert.

Und nirgendwo steht geschrieben, dass die Medien akkurat oder nützlich sein müssen. Das waren sie nicht während der allermeisten Zeit der Historie. Also spekulieren sie jetzt … na und? Was ist daran falsch?

1. Die Tendenz zum Exzess. Die Tatsache, dass es sich nur um Gerede handelt, macht Dramatik und Spektakel unwahrscheinlich – es sei denn, das Gerede wird hitzig und exzessiv. Also wird es exzessiv. Nicht in jeder Show tritt der Kampf um Stoff nach Art eines Kreuzverhörs zutage, aber es ist eine Tendenz in allen Shows.

2. Die „Verkritisierung“ von allem und jedem ist möglich. Die meiste Spekulation ist nicht fesselnd, weil die meisten Ereignisse nicht fesselnd sind – Mensch, ich frage mich was mit der Deutschen Mark passieren wird! Werden sie ihre Arbeits-Probleme unter Kontrolle bekommen? Dies dient dem wohlbekannten Bedarf der Medien nach einer Krise. Krise bei der Deutschen Mark! Oh je! Passt auf! Krisen einigen das Land, ziehen Zuschauer in großer Zahl an und liefern etwas, über das sich treffend spekulieren lässt. Ohne Krise wird das Gerede bald zu einer Debatte darüber degenerieren, ob die Schiedsrichter eines Footballspiels das letzte Footballspiel hätten noch einmal begutachten sollen. Es gibt also eine Tendenz zu Dringlichkeit und Bedeutung zu hypen und ein Geh-Hin-Gefühl zu vermitteln, wenn das nicht wirklich angemessen ist. Man betrachte die ellenlange Schriftrolle unten im Bildschirm bei der Beerdigung der Königin-Mutter. Wie auch immer die Story um die Königin-Mutter geartet ist, es ist keine Krise. Ich habe sogar ein paar Tage lang die Berichterstattung über meine eigene Scheidung auf CNN verfolgt. Es ist irgendwie schmeichelhaft, obwohl die Darstellung falsch war. Aber meine Scheidung ist mit Sicherheit keine ultimative Brandnachricht.

3. Oberflächlichkeit als Norm. Es muss schnell gehen. Man muss sofort zu den Höhepunkten kommen. Spekulation ist der Oberflächlichkeit förderlich. Das ist es, oder?

4. Endlose Präsentation von Unsicherheit und Konflikten kann Lösungen von Dingen in die Quere kommen. Es gibt einige Beweise, dass die Verteilungskämpfe im Fernsehen nicht nur nicht die Meinungen der meisten Menschen repräsentieren – die nicht so polarisiert sind – sondern dass sie dazu tendieren, die Lösungen aktueller Streitfälle in der realen Welt schwieriger zu machen. Zu allermindest verschleiern diese Verteilungskämpfe die Erkenntnis, dass Streitfälle jeden Tag gelöst werden. Kompromisse bei relativ zentralen Positionen sind viel einfacher als bei extremen oder feindlichen Positionen, die miteinander im Konflikt stehen: Greenpeace gegen die Holzindustrie.

5. Die unendliche Kette von Spekulationen pflastert den Weg zum Streit über Brustimplantate, Hysterie über das Jahr-2000-Problem oder globale Erwärmung, Artikel im The New Yorker über Todesströmungen [currents of death] und eine Vielzahl anderer Resultate, deren Eintreffen keine guten Dinge wären. Es kommt irgendwann zu der Vorstellung – was für die Medien sehr bequem ist – dass am Ende nichts sicher ist. Wenn das tatsächlich nicht wahr ist.

Ich möchte auf eine vorzeigbare schlimme Auswirkung der Hypothese hinweisen, dass nichts wirklich erfahrbar ist. Das Whole Word Reading [ein neues System zum Erlernen von Wörtern in der Grundschule, Anm. d. Übers.] wurde eingeführt durch die Bildungsschulen im ganzen Land, meines Wissens ohne irgendein Test der Effizienz der neuen Methode. Sie war auf einmal da. Generationen von Lehrern wurden mit diesen Methoden indoktriniert. Als Folge davon weisen die USA eine der höchsten Analphabetenrate in der industrialisierten Welt auf. Die Hypothese, dass man nichts mit Sicherheit weiß, hat schreckliche Konsequenzen.

GK Chesterton sagte (in einem anderen Zusammenhang): „Falls man an nichts glaubt, glaubt man an alles“. Genau das erleben wir heute. Die Menschen glauben alles.

Aber einfach ausgedrückt als allgemeine emotionale Haltung des Lebens glaube ich oft, dass Menschen nervös und überspannt sind in diesem medialen Klima von Was ist, wenn… vielleicht…, könnte sein, dass… obwohl es einfach keinen Grund gibt, nervös zu sein. Genau wie ein bärtiger Kuttenträger auf einem Bürgersteig, der unentwegt das kurz bevorstehende Ende der Welt verkündet, machen die Medien genau das, was sich gut anfühlt, und berichten nicht über harte Fakten. Wir müssen anfangen, die Medien als den bärtigen Ultra auf dem Bürgersteig zu sehen, der falsche Befürchtungen hinaus brüllt. Es ist nicht vernünftig, darauf zu hören.

Wir müssen anfangen, uns daran zu erinnern, dass jeder, der seinerzeit sagte, das Jahr-2000-Problem sei kein wirkliches Problem, entweder niedergebrüllt oder von der Öffentlichkeit fern gehalten worden ist. Gleiches gilt für Bereiche wie das Aussterben von Spezies und globale Erwärmung. Man hört niemals jemanden, der sagt, das ist keine Krise. Das möchte ich nicht weiter vertiefen, weil es uns zur Heranziehung von Fakten bringen könnte, aber ich möchte zwei Berichte erwähnen, von denen ich spekuliere, dass Sie von diesen noch nie gehört haben. Der erste Bericht findet sich im Magazin Science vom 18. Januar 2001 (Oha! Eine Tatsache!), dass im Gegensatz zu früheren Studien die Antarktische Eismasse zu- und nicht abnimmt, und dass diese Zunahme bedeutet, dass wir endlich ein Ende des Schrumpfens der Eismasse sehen, welche bereits seit Tausenden von Jahren im Gange ist, seit Beginn des Holozäns. Ich weiß nicht, was überraschender ist – das Statement, dass das Eis zunimmt, oder das Statement, dass die Schrumpfung Tausende Jahre der globalen Erwärmung vorausgegangen ist.

Die zweite Studie ist ein Bericht der National Academy of Sciences über die ökonomischen Auswirkungen des jüngsten El Nino-Ereignisses von 1997 [zur Erinnerung, dieser Beitrag stammt aus dem Jahr 2002, Anm. d. Übers.]. Jene Erwärmung erbrachte einen Gesamt-Profit von 15 Milliarden Dollar für die Wirtschaft. Darin enthalten sind die Verluste von 1,5 Milliarden in Kalifornien durch Regen, welche jedoch ausgeglichen wurden durch billigere Treibstoffrechnungen infolge eines milderen Winters und einer längeren Wachstumssaison. Gesamtergebnis 15 Milliarden an gestiegener Produktivität.

Das Andere, was ich erwähnen möchte ist, dass während der letzten 100 Jahre, während die mittlere Temperatur um lediglich 0,3°C gestiegen ist, das Magnetfeld der Erde um 10% abgenommen hat. Dies hat viel stärkere Auswirkungen als globale Erwärmung und ist potentiell für das Leben auf diesem Planeten weitaus ernster.

Unser Magnetfeld ist das, was die Atmosphäre bereit hält. Sie schirmt uns ab vor tödlicher Strahlung aus dem Weltall. Eine Abnahme des Erdmagnetfeldes um 10% ist extrem besorglich. Aber wer ist besorgt? Niemand! Wer ruft nach Gegenmaßnahmen? Niemand! Warum nicht? Weil man nichts dagegen tun kann. Wie das in Relation zur globalen Erwärmung zu setzen ist, möchte ich Ihrer eigenen Spekulation überlassen.

Persönlich denke ich, dass wir uns von den Medien abwenden sollten, und die Daten zeigen, dass wir das bereits tun, zumindest was die Fernsehnachrichten betrifft. Ich finde, dass wann immer es mir fehlt, den Medien ausgesetzt zu sein, ich viel glücklicher bin, und mein Leben fühlt sich besser an.

Abschließend möchte ich daran erinnern: Während es so Manches gibt, das wir nicht sicher wissen können, gibt es viele Dinge, die herausgefunden werden können und tatsächlich auch herausgefunden werden. Jedoch nicht durch Spekulation. Sondern durch sorgfältige Untersuchung und rigorose statistische Analyse. Da wir in diesem vorübergehenden Ozean von Spekulation schwimmen, vergessen wir, dass man Dinge mit Sicherheit wissen kann, und dass wir nicht in einer angstvollen Welt unendlicher, nicht gestützter Meinungen leben. Aber der Graben, der harte Fakten von Spekulation trennt, ist inzwischen so unbekannt, dass die meisten Menschen ihn nicht fassen können. Vielleicht kann ich ihn mit folgender Geschichte verdeutlichen:

Auf einem Flug nach Europa platzierte man mich neben einem Mann, der sehr unglücklich ist. Es stellt sich heraus, dass er ein Arzt ist, den man für eine zweijährige Doppelblind-Studie für die FDA [= die amerikanische Gesundheitsbehörde, Anm. d. Übers.] engagiert hatte bzgl. der Wirksamkeit von Medikamenten, und es könnte zum Fenster hinaus geworfen sein. Nun bedeutet eine Doppelblind-Studie, dass es vier separate Forscherteams gibt, die untereinander keinen Kontakt haben – vorzugsweise arbeiten sie an unterschiedlichen Universitäten in verschiedenen Teilen des Landes. Das erste Team definiert die Studie und legt die Behandlungsweisen fest, die wirklichen Arzneien und die Kontrollen. Das zweite Team erklärt die Einnahme den Patienten. Das dritte Team sammelt die Daten und schätzt unabhängig die Wirkung der Arznei auf jeden Patienten. Das vierte Team sammelt die Daten und führt eine statistische Analyse durch. Die Kosten dieser Art von Studien betragen, wie man sich vorstellen kann, Millionen Dollar. Und die Teams dürfen sich niemals treffen.

Mein Nachbar ist unglücklich, weil Monate nach Ende der Studie er in einem Wartesaal am Flughafen Frankfurt ins Gespräch mit einem anderen Mann dort gekommen war, und sie entdecken – zu ihrem Schrecken – dass sie beide in der Studie involviert waren. Mein Nachbar war in dem Team, welches die Arzneien verabreichte. Der andere Mann war in dem Team mit den Statistiken. Es gibt keinen Grund, warum einer den anderen zu diesem späten Zeitpunkt beeinflussen sollte, aber nichtsdestotrotz verlangt das Protokoll, dass sich die Teammitglieder niemals treffen. Und so wartet mein Nachbar jetzt darauf, von der FDA zu hören, ob diese die Studie insgesamt einstampfen wollte wegen dieses zufälligen Zusammentreffens in Frankfurt.

Das sind jene Strapazen, durch die man hindurch muss, falls man sicher sein will, dass seine Information korrekt ist. Aber wenn ich den Menschen diese Story erzähle, starren sie mich nur verständnislos an. Sie finden das absurd. Sie glauben nicht, dass es notwendig ist, all das zu tun. Sie glauben, es ist Overkill. Sie leben in der Welt von MSNBC und der New York Times. Und sie haben vergessen, was reale, zuverlässige Informationen sind sowie die Mühen, diese zu erhalten. Das ist so viel schwerer als einfach nur zu spekulieren.

Herzlichen Dank!

International Leadership Forum, La Jolla (26 April 2002)

Quelle: http://larvatus.com/michael-crichton-why-speculate/

Übersetzt von Chris Frey EIKE




Winter 2016/17 in Deutschland mit Hochdruck und eiskalten Über­raschungen- gute Aussichten für Frühjahr und Sommer?

 

Nur etwas überschätzt: Ein halbes bis ein Kelvin zu mild war der Winter diesmal in Mitteleuropa nicht, sondern fast temperaturnormal. Das ergab immerhin „Note 4“. Quelle: NOAA, Eingabezeitraum 21. bis 30.11.2016.

Hier zunächst die Daten für den abgelaufenen Winter 2016/17 (offizielles DWD- Deutschlandmittel):

Dezember 2016 +2,2°C Januar2017 -2,2°C Februar 2017 +2,9°C, Winter +1,0°C

Mittel 1981 bis 2010 Dez. +1,2°C Jan. +0,4°C, Feb. +0,9°C Winter 1980/81 bis 2009/10 +0,9°C

Abweichung Dez. +1 K, Jan. -2,6 K, Feb. +2,0 K, Winter +0,1 K

Zuerst wird im Folgenden nochmals die ursprüngliche Prognose gezeigt; direkt unter jeder Prognose erfolgt die Bewertung; generell auf die CLINO- Periode 1981 bis 2010 bezogen. Eine Bewertung mit objektiven Maßzahlen wie etwa dem Root Mean Square Error (rmse) oder der Reduktion der Varianz (RV) war leider bei keiner Prognose möglich; da man hierfür eine genaue Prognosezahl benötigt. Bei Intervallangaben wurde ein „Treffer“ daher mit Note 2 bewertet, wenn er dieses vorhergesagte Intervall traf; verfehlte er dieses um eine Stufe (statt etwa +0,5 bis +1,0 K vorhergesagt lag die Wintertemperatur in Deutschland diesmal im Intervall -0,5 bis +0,5 K), so ergab das Note 4, bei zwei Stufen Abweichung Note 5; bei noch mehr Abweichung Note 6. Bei Prognosen mit mehreren Teilprognosen (etwa für den gesamten Winter und die 3 Einzelmonate) wurden diese einzeln gewertet und dann die Gesamtnote gemittelt. Wo Bezugswerte und/oder konkrete Zahlenprognosen fehlten, so wurde eine Note abgewertet. Reine Wahrscheinlichkeitsaussagen konnten, sofern sie in etwa zutrafen, bestenfalls die Note 4 erhalten, weil ihr Aussagewert einfach zu gering ist.

UKMO (Großbritannien): Stand 14.11.2016 Winter (D, J, F) mit undeutlicher Wahrscheinlichkeit nur in Norddeutschland zu mild (folgende Karte):

Anmerkung: Hier wird nur die erste UKMO- Karte gezeigt. Es gibt zwei weitere, eine mit der Probability (Wahrscheinlichkeit) für einen normalen Winter und eine für einen zu kalten; beide weisen diesmal ebenfalls keine eindeutigen Wahrscheinlichkeiten auf. Die aktuellen Karten jederzeit unter http://www.metoffice.gov.uk/research/climate/seasonal-to-decadal/gpc-outlooks/glob-seas-prob

Bewertung: Fast zutreffend, besonders im Dez/Jan. war es an den Küsten zu mild, aber sehr unkonkret, Note 4

Meteo Schweiz Stand Nov. 2016: Leicht erhöhte Wahrscheinlichkeit für einen zu kalten Winter. Zu milder Winter fast so wahrscheinlich wie der Zufall (33,3%); normaler etwas weniger wahrscheinlich. Die „doppelten T“ sind die Fehlerbalken:

Bewertung: In der Nordostschweiz waren der Dezember etwas und der Januar deutlich sowie der Winter insgesamt etwas zu kalt, daher fast zutreffend, aber sehr unkonkret, Note 4

LARS THIEME (langfristwetter.com) Vorhersage vom 04.12.2016: Dezember und Februar normal; Januar deutlich zu mild; Winter insgesamt etwas zu mild und niederschlagsreich.

Bewertung: Winter insgesamt fast getroffen, aber Dezember und Februar deutlich und Januar völlig verfehlt, Note 5

Kaltwetter.com Prognose vom 28.11.2016: Winter insgesamt normal, wobei Dezember und Februar etwas zu mild werden sollen, der Januar aber deutlich zu kalt ausfällt.

Bewertung: Winter insgesamt und Dez/Jan. gut getroffen, Feb. leicht unterschätzt; Bezugswerte und konkret prüfbare Zahlen fehlen aber leider, daher Note 3

IRI (folgende Abbildung), Vorhersage vom Nov. 2016: Mit leicht erhöhter Wahrscheinlichkeit zu mild.

Bewertung: Fast zutreffend, aber sehr unkonkret, Note 4

DWD (Offenbach): Leicht erhöhte Wahrscheinlichkeit für einen kalten oder normalen Winter (Stand Nov. 2016):

Bewertung: Nur bedingt zutreffend, eine höhere Wahrscheinlichkeit für „mittel“ wäre richtiger gewesen, dazu sehr unkonkret, Note 5

NASA (US- Weltraumbehörde) Karte vom November 2016: Winter in Mitteleuropa etwa 1,5 bis 2,5 K zu mild. Bei dieser Karte liegt Mitteleuropa am linken Kartenrand, weit oben:

Bewertung: Winter deutlich um mehr als 2 Intervalle verfehlt, da bei weitem nicht so mild, Note 6. Die später veröffentlichten Prognosen, speziell die Vorhersage eines zu kalten Januars, waren dann deutlich zutreffender.

CFSv2- Modell des NOAA (Wetterdienst der USA, folgende 2 Abbildungen, Eingabezeitraum 15. bis 24.11.2016): Dezember (links) nur im Alpenraum und Januar (rechts) in den meisten Gebieten etwas zu mild; Februar (unten) überall viel zu mild. Winter insgesamt eher mild. Die vorhergesagten Temperaturabweichungen beziehen sich auf die Mittelwerte der Periode 1981 bis 2010. Die fast täglich aktualisierten, aber leider oft falschen Prognosen unter http://www.cpc.ncep.noaa.gov/products/people/wwang/cfsv2fcst/ (Europe T2m, ganz unten in der Menütabelle; E3 ist der aktuellste Eingabezeitraum):

Bewertung: Winter insgesamt fast getroffen und von den Einzelmonaten Dezember etwas zu kalt und Januar viel zu mild vorhergesagt; Februar gut getroffen, Note 4

Stefan Kämpfe (hier bei EIKE am 03.12.2016 veröffentlicht):

Die Prognosesignale sowie die Vorhersagen der Wetterdienste und Institute sind nicht eindeutig und sehr widersprüchlich. Es kündigen sich aber zumindest einige kältere Phasen im Frühwinter an; auch Perioden mit häufigen Frösten im Flachland sind im Dezember deutlich wahrscheinlicher, als in den Vorjahren. Insgesamt fällt der Winter nach momentanem Stand aber erneut zu mild aus, wenngleich vermutlich weniger deutlich, als in den Vorjahren, und wird im Deutschland- Mittel auf +1,0 bis +3,0°C geschätzt (LJM 1981 bis 2010 +0,9°C); bei den sehr widersprüchlichen Prognosesignalen muss die weitere Entwicklung aber noch abgewartet werden. In den Mittelgebirgen bestehen zumindest zeit- und stellenweise Wintersportmöglichkeiten, und Schneekanonen können gut eingesetzt werden. Geschätzte Dezember- Monatsmitteltemperatur für Erfurt- Bindersleben (Mittel 1981- 2010 +0,5°C) -1,5 bis +1,5°C (zu kalt bis etwas zu mild). Für Jan/Feb. 2017lässt sich noch kein Temperaturbereich schätzen! Das Schneeaufkommen ist kaum vorhersehbar (langfristige Niederschlagsprognosen sind besonders unsicher). Zur Winterlänge fehlen bisher ebenfalls noch Hinweise. Die Hochwinterwitterung (Jan/Feb.) kann erst anhand des Witterungstrends zum Jahreswechsel etwas genauer abgeschätzt werden; momentan muss noch ein Übergang zu sehr milder Witterung ernsthaft mit hoher Wahrscheinlichkeit in Betracht gezogen werden. Dank der bisherigen Zirkulationsverhältnisse (viele Trog- und Meridionallagen) bleiben aber winterliche Phasen oder wenigstens einen einzelner, kalter bis sehr kalter Wintermonat noch möglich. Sollte allerdings der Dezember tatsächlich zu mild ausfallen oder ein Umschwung zu milder Witterung mit Westwetter nach Mitte Dezember erfolgen, so erhöht das die Wahrscheinlichkeit für einen milden Hochwinter 2017 noch weiter.

Dieses Fazit wurde aus 30% der Tendenz der 2- K- September- Regel, 10% Sonnenaktivität, 20% Zirkulationsverhältnisse, 10% Mittelfrist- Modelle, 10% NAO, AMO,QBO, Polarwirbel, 10% Analogfälle und 10% der vorwiegenden Tendenz der Langfristprognosen gewichtet. Aktualisierung voraussichtlich Ende Dezember.

Bewertung: Aussage mit konkret nachprüfbaren Intervallen. Das Dezembermittel für Erfurt betrug 1,3°C und lag im vorhergesagten Intervall; das Wintermittel für Deutschland erreichte nach DWD 1,0°C und wurde gerade noch getroffen. Ein kalter Wintermonat wurde aber nur vage vermutet, dass es der Januar war, wurde nicht vorhergesagt. Die Charakteristik der Dezember- Temperaturverhältnisse traf insgesamt sehr gut zu; die Einschätzung des Hochwinters war teilweise ungenügend, der Übergang zu sehr mild erfolgte aber doch noch, wenngleich sehr spät (erst Mitte Feb.), wegen teilweiser Unkonkretheit Note 3

Ein lehrbuchreifes Beispiel für Inkonsistenz- die Schwierigkeiten einer Langfristprognose: Der Februar- Schlingerkurs des CFSv2- Modells (NOAA)

Wie schwer sich Modellrechnungen schon mit der Temperaturprognose des Folgemonats tun, zeigt das folgende Beispiel. Der Eingabezeitraum vom 21. bis zum 31. Januar 2017 ergab überall in Europa einen viel zu milden Februar. Gemessen am ohnehin schon hohen CLINO- Wert 1981- 2010 sollte es in Süd- und Mitteldeutschland um 3 bis 4 Kelvin (graubrauner Farbton) und in Norddeutschland um 1 bis 3 Kelvin (roter bis dunkelroter Farbton, Quelle: NOAA) zu warm sein:

Nur 9 Tage später, als die Kaltluft eines Skandinavien- Hochs längst in Nord- und Mitteldeutschland angekommen war, sah die Februarprognose ganz anders aus:

Nun sollte es in Norddeutschland um 0,5 bis 2 Kelvin zu kalt und nur in Südbayern um 0,5 bis 2 Kelvin zu warm werden. Letztendlich traf keine der beiden Prognosen zu; immerhin wurde das Temperaturgefälle zwischen Süd- und Norddeutschland in der ersten Prognose vage und in der zweiten relativ gut wiedergegeben.

Versagte diesmal die „2 K- Septemberregel“?

Auf den ersten Blick traf die Regel, wonach einem sehr milden September mit sehr hoher Wahrscheinlichkeit ein milder Winter folgen soll, diesmal nicht zu. Aber derart milde September sind im aktuellen Bezugszeitraum (1981 bis 2010) nur 3mal (1982, 1999 und 2006) aufgetreten- nach den Gesetzen der Statistik viel zu selten, um daraus brauchbare Prognosen abzuleiten. Zwar waren diese 3 Folgewinter teils extrem mild, aber der Februar 1983 fiel zu kalt aus; im Januar 2000 gab es kältere Abschnitte; nur der Winter 2006/07 war, abgesehen von einer kalten Woche im Januar, durchgängig zu mild. Bei Betrachtung des gesamten, seit 1761 verfügbaren Zeitraumes zeigte sich, dass die Regel auch diesmal für den gesamten Winter zutreffend war; einzelne, kalte Wintermonate schließt sie ja nicht aus:

Der Winter 2016/17 war, gemessen am Langfrist- Mittel seit 1761/62, also etwas zu mild.

Fazit: Obwohl die Langfristprognosen diesmal ein etwas besseres Ergebnis als in der Vorsaison lieferten, sind sie keine sicheren Vorhersagen und bleiben mit vielen Mängeln behaftet. Der chaotische Charakter der Abläufe in der Atmosphäre lässt trotz modernster Computer und fortschreitender Erkenntnisse in Meteorologie und Klimatologie keine sicheren Langfristprognosen zu. Vor diesem Hintergrund erscheint die politische Agenda des „Klimaschutzes“, welche sich ja auf noch viel langfristigere Vorhersagezeiträume von Jahrzehnten bis zu 100 Jahren bezieht, als ein aussichtsloses Vorhaben.

Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 02.03. 2017




Auch der Februar wird in Deutschland seit 30 Jahren kälter

Pollenallergiker waren ab dem 15. Februar durch die Haselpollen geplagt. In den Städten und entlang der sehr milden Rheintals teilweise auch schon ab Ende Januar. natürlich etwas früher. Der Deutsche Wetterdienst (DWD) gibt den Monat am 26.2. mit einem Schnitt von 3 C für Deutschland an. In Weimar wurde der Beginn der Haselblüte diesmal am 2. Februar beobachtet:

Grafik 1: Der Eintritt der Haselblüte (Vorfrühlingsbeginn) variierte in Weimar seit 1990 zwischen Anfang Dezember und Ende März. Wegen dieser enormen Streuung ist der Verfrühungstrend nicht signifikant.

Im Folgenden wollen wir uns wieder fragen, wo ist diese Februartemperatur von 3 C einzuordnen: a) innerhalb der letzten 100 Jahre und b) wie verhielten sich die letzten 30 Februarmonate?

Wie jedermann weiß, werden beim Klima den Deutschen die schönsten Märchen aufgetischt. Es sollte immer wärmer geworden sein aufgrund der Zunahme der Treibhausgase, insbesondere von Kohlendioxid, und in den letzten beiden Jahrzehnten sollte der Erwärmungstrend besonders stark sein. Und vor allem die Wintermonate sollten die ersten Opfer der Erwärmung sein.

Im Folgenden wollen wir diese Orakel der gut verdienenden Computer-Erwärmungswissenschaft einer Prüfung unterziehen. Beginnen wir mit 100 Jahren Februartemperaturen anhand der Originaldaten des Deutschen Wetterdienstes:

Grafik 2: Der Monat Februar zeigt das gewohnte Bild aller deutschen Monate. Der Temperaturverlauf ähnelt einer Schwingung mit zwei Wellenbergen und einem leichten Tal. Zunächst wurde der Monat kälter bis über die Jahrhundertmitte hinaus. Vor der Jahrtausendwende wurde der Monat wieder wärmer und erreichte ein neues Plateau

Das derzeitige Plateau liegt nach dieser DWD-Grafik etwas höher als das vor über 100 Jahren. Es erfolgte jedoch nicht kontinuierlich wie die Trendlinie vorgibt, sondern hauptsächlich durch einen Temperatursprung in den Jahren zwischen 1986 bis 1989. Außerdem sind die Werte des Deutschen Wetterdienstes nicht wärmeinselbereinigt, die Zusatz-Temperaturen der immer wärmer werdenden Städte, Siedlungen und Industriezonen messen die Thermometer der Wetterstationen mit. Wo vor 100 Jahren noch freie Fläche war stehen heute wärmende Flughäfen, Häuser oder Industrie- und Gewerbezonen. Wärmeinselbereinigt wären beide Plateaus gleich hoch, bzw. der Februar wäre derzeit leicht kälter wie vor 100 Jahren.

Leider gibt es keine einzige deutsche Wetterstation, deren Umgebung unverändert geblieben ist und noch so dasteht wie vor 100 Jahren. Unbeheizte Klöster oder Forsthäuser am Waldrand mit Wetterstationen gibt es nicht mehr. Wir wollen als Beispiel aber doch die Zugspitze betrachten, deren Besucherströme und der damit verbundene wärmende Ausbau erst nach der Einheit so richtig zugenommen haben und derzeit verstärkt anhält und Deutschlands höchster Berg mit 2962 m Höhe noch bis vor der Wende mit weniger Touristen und mit weniger Zusatzwärme beeinflusst war.

Grafik 3: Die Zugspitze, Deutschlands höchster Berg zeigt einen ähnlichen Temperaturverlauf wie die Deutschlandtemperaturen. Allerdings ist das momentane Temperaturplateau nicht so ausgeprägt wie beim DWD-Februarverlauf der letzten 100 Jahre.

Ergebnis: Die Zugspitze als weniger mit Zusatzwärme aus den Wärmeinseln beeinflusste Wetterstation zeigt über die letzten 100 Jahre gar keine Erwärmung. Trotz eines mit – 7,8C relativ warmen Februars 2017 im Vergleich zu den Vorjahren.

Die beiden Grafiken zeigen erneut, dass die behauptete CO2 induzierte Erwärmung im Monat Februar wirkungslos ist, falls es sie überhaupt geben sollte. Der Leser muss wissen: CO2 als erwärmendes Treibhausgas konnte bislang noch durch keinen einzigen wissenschaftlichen Versuch bestätigt werden, selbst Svante Arrhenius hatte am Ende seines Lebens entnervt aufgegeben. Deshalb bleibt die Treibhauserwärmung seit über 100 Jahren eine Hypothese. Die Temperaturen werden von anderen Faktoren bestimmt.

Die letzten 30 Jahre des Monates Februar in Deutschland

30 Jahre sind eine Klimaeinheit, deshalb ist es notwendig, diesen Zeitraum anhand der Daten des DWD näher zu untersuchen. Die einzelnen deutschen Stationsleiter erheben ihre Daten gewissenhaft und auch die wissenschaftlich ausgebildeten Mitarbeiter in der 2.ten Reihe des DWD werten die Einzelergebnisse sorgfältig aus. Nur eben, dass die einzelnen Jahreswerte nicht wärmeinselbereinigt sind. Das Ergebnis ist überraschend, weil es den ständigen Medienerwärmungsmeldungen, die auf uns Deutsche hereinprasseln, widerspricht. Diese nun folgenden Grafiken werden natürlich in den Medien nicht abgebildet, sondern immer nur behauptet, dass es wärmer würde und dann orakelt, dass die Apfelbäume bald zu Jahresanfang blühen würden.

Grafik 4: Der Monat Februar wurde in den letzten 30 Jahren kälter in Deutschland, das zeigen die vom Deutschen Wetterdienst bzw. von den einzelnen Stationsleitern sorgfältigst erhobenen Temperaturdaten. Allerdings sind die Daten nicht wärmeinselbereinigt, sonst wäre die Trendlinie noch fallender.

Wärmeinselarme Stationen:

Nun gibt es in Deutschland auch Wetterstationen, deren Umgebung sich in den letzten 30 Jahren weniger durch menschliche Zusatzwärme verändert hat. Wie oben erwähnt, scheidet die Zugspitze wegen der umfangreichen Baumaßnahmen, die derzeit verstärkt anhalten, als wärmeinselarme Station für die letzten 30 Jahre und erst recht für die letzten 20 Jahre aus. In einem früheren Artikel sind wir bereits ausführlich darauf eingegangen. http://www.eike-klima-energie.eu/news-cache/warum-die-zugspitze-und-andere-bergstationen-fuer-temperaturvergleiche-wenig-brauchbar-sind/

Eine WI-arme Wetterstation ist hingegen Neugersdorf (sprich Neu-Gersdorf) in der Oberlausitz. Der kleine Ort befindet sich am Nordhang des Hutungsberges, Landkreis Görlitz im Quellgebiet der Spree an der deutsch-tschechischen Grenze im Lausitzer Bergland, nahe dem kleinsten Mittelgebirge Deutschlands, dem Zittauer Gebirge; daran schließen sich nach Osten das Iser- und Riesengebirge an. Wie im Erzgebirge lebt man auch hier vom Einfluss des böhmischen Windes, aber Neugersdorf hat klimatisch und geografisch wenig mit dem Erzgebirge zu tun.

Grafik 5: In der Oberlausitz sind die Februar-Temperaturen viel stärker gefallen als bei den DWD-Stationen. Neugersdorf ist ein Beispiel für eine ländliche Station, deren Umgebung keine größeren Änderungen in den letzten 30 Jahren erfahren hat.

Im Folgenden zeigen wir mit Amtsberg die Februartemperaturen einer weiteren wärmeinselarmen Station im Vergleich zu den DWD-Deutschlanddaten.

Grafik 6: Die ländliche und wärmeinselarme Station Amtsberg/Dittersdorf zeigt zweierlei: Einmal ist sie kälter als die DWD-Daten, auch vor 30 Jahren, weil bei den DWD-Daten natürlich auch ausgeprägte wärmeinselbehaftete Stationen in den Städten und Flughäfen mitgezählt werden. Zum anderen geht die Trendlinienschere immer mehr auseinander. Die freie Fläche in Deutschland – das sind 85%- kühlt viel stärker in den letzten 30 Jahren ab als der Gesamtschnitt.

Ergebnis: Bei der wärmeinselarmen, ländlichen Station Amtsberg-Dittersdorf im Erzgebirge ist die Februarabkühlung wie erwartet stärker. Somit zeigt auf dem Lande der Monat Februar genauso wie der Monat Januar eine enorme Abkühlung. Dabei haben die CO2-Konzentrationen, die erwärmend wirken sollten, besonders in den letzten 30 Jahren weltweit und damit auch in Amtsberg und Neugersdorf zugenommen.

Februar in der Gegenwart: Gegenwart = letzte 20 Jahre.

Als Gegenwart definieren wir die letzten 20 Jahre. Gerade in diesem Zeitraum wurden wir Deutsche besonders geängstigt über die Gefahr einer zunehmenden Klimaerwärmung. Angeblich wären wir mittendrin und besonders die Wintermonate und die Gegenwart sollte abrupt wärmer werden, so die Prognosen der gläubigen Erwärmungswissenschaft.

Die Realität der deutschen DWD- Wetterstationen zeigt das genaue Gegenteil:

Grafik 7: In der Gegenwart, also in den letzten 20 Jahren ist die Trendlinie des Monates Februar viel stärker negativ als über 30 Jahre. Der Hauptteil der Abkühlung des Monates Februar passierte also in den letzten 20 Jahren. Anmerkung: Die Zugspitze hat wegen der oben geschilderten starken Zunahme des Wärmeinseleffektes in den letzten 20 Jahren eine ebene Trendlinie mit y = + 0,003 x

Ergebnis: Besonders in den letzten 20 Jahren wurden wir Deutsche durch falsche Medienberichte gequält: Eine katastrophale Erwärmung wurde uns prophezeit und die drei Wintermonate sollten doch die Vorreiter der Erwärmung sein. Insbesondere die behördlich anerkannten und ideologisierten deutschen Umweltverbände wie BUND, NABU, WWF und Greenpeace malten ihren Mitgliedern wahre Katastrophenszenarien in ihren Mitgliederzeitschriften der letzten Jahre vor. Die wirkliche Klimaänderung des Monates Februar in Deutschland heißt Klimaabkühlung. Wie es weitergeht weiß niemand, denn das Klima der nächsten 30 Jahre ist nicht vorhersagbar.

Ein Blick weit nach Osten: Keine Februar- Erwärmung seit 50 Jahren!

Grafik 8: Am kältesten, dauerhaft bewohnten Ort der Erde (Oimjakon, etwa 700 Einwohner, gelegen in einem Hochtal des ostsibirischen Berglandes) gibt es schon seit 50 Jahren keine Februar-Erwärmung. Der Februar blieb hier unter minus 42 °C kalt. Für 2017 liegen noch keine Werte vor.

Eines ist aber sicher: Der angebliche wärmende CO2-Treibhauseffekt hatte keine erwärmende Wirkung beim Februar in den letzten 100 Jahren in Deutschland. Hätte sich Deutschland in den letzten 100 Jahren nicht verändert, dann wären die Februartemperaturen der Gegenwart sogar etwas unter dem Temperatur-Wellenberg vor 100 Jahren. Einzig in den Städten und in den anderen Wärmeinseln wurde der Februar in den letzten 100 Jahren wärmer.

Und die letzten 30 Jahre? Es bleibt fraglich, ob es überhaupt eine deutsche Wetterstation gibt, in welcher der Monat Februar in den letzten 30 Jahren wärmer wurde.

Wieder – wie schon beim Monat Januar – sind die Leser aufgerufen, bei ihrer Heimatwetterstation nach den Temperaturdaten der letzten 30 Jahre zu forschen und deren Trendlinienverlauf bei den Kommentaren uns zu melden. Genauso sind die Leser aufgerufen, ihre Tageszeitungen auf das Kälter werden des Monates Februar hinzuweisen. Wir bitten die Leser, sich die Falschmeldungen der Medien nicht weiter gefallen zu lassen. Weil es im Januar und Februar kälter wurde müssen logischerweise auch alle zeitigen Frühjahrsblüher verspätet sein. Das werden wir in einem unserer nächsten Artikel zeigen. Schließlich blüht das Märzenveilchen immer noch oder wieder im März wie zu Mozarts Zeiten.

Josef Kowatsch, täglicher Naturbeobachter und unabhängiger, weil unbezahlter Klimawissenschaftler.

Stefan Kämpfe, unabhängiger Natur- und Klimaforscher




Wem wir erlauben, langfristig seinen eigenen Körper zu schädigen, dem sollten wir auch zutrauen, über die Zukunft unserer Gesellschaft mitzuent­scheiden

Anmerkung: Durch die erheblichen Auslassungen soll die staatsdirigistische Tendenz aufgezeigt werden, welche die CDU-Führungsspitze inzwischen vertritt, und wie man sieht, immer aggressiver verkündet. Auf die „Belegführungen“ wird diesmal nicht eingegangen, da dazu in letzter Zeit aufgrund vieler Anlässe in mehreren EIKE-Veröffentlichungen von unterschiedlichen Autoren bereits umfangreiche Gegendarstellungen gebracht wurden [2][3][4].
Die Rede zeigt, dass (nicht erst) seit Verabschiedung des Klimavertrages eine politisch gesteuerte, mediale Kampagne begann, welche genau die Mittel der Fake-Information benutzt, welche unser Justizminister dem Volk verbieten möchte. Allerdings stellte Heiko Maas dies unter den Titel „Wer News fälscht, soll in den Knast!“. Was die Elite wie Herr Köhler macht, die einfach alte, falsche Nachrichten wiederholt und ausschmückt, wird deshalb von dem geplanten Verbot nicht berührt.

Zudem würde man sich nicht wundern, falls CDU und GRÜNE demnächst nicht nur eine Koalition bilden (inzwischen sind sie ja Wunschpartner von Herrn Kauder), sondern bei so viel ideologischer Überlappung einmal gar fusionieren würden.
Man versteht auch nach dem Durchlesen, warum eine Frau Hendricks in Berlin mit ihrer ungebremsten Klimahysterie absolute Narrenfreiheit genießt.
Hinweis: Die Rede beinhaltete in größerem Umfang weitere Themenbereiche. Wer diese erfahren will, lese bitte das Original.

Auszüge der Rede zum 25-jährigen Bestehen der Deutschen Bundesstiftung Umwelt Berlin

Auf der ganzen Welt leugnet wer Rechts ist, den Klimawandel

[1] … Aber es macht mich zornig zu sehen, wie die Scharlatane mit ihren politischen Mogelpackungen dieses Unbehagen ausnutzen, wie sie falsche Hoffnung verkaufen und damit die Lösung jener Fragen, die die Menschen umtreiben, nur noch schwerer machen…. Es ist doch zum Beispiel kein Zufall, dass die neuen Rechten in der ganzen Welt den menschengemachten Klimawandel leugnen, übrigens auch die AfD.
… Lassen Sie mich beginnen mit einer Schilderung dessen, was ich als Ausgangslage für die große Transformation verstehe.
Die weltweite Verbrennung fossiler Energieträger hat die Treibhausgase in der Atmosphäre auf ein beispielloses Niveau getrieben. 15 der 16 heißesten Jahre seit dem Beginn der Klimaaufzeichnungen liegen im 21. Jahrhundert.

Das Flüchtlingsproblem kann man nur über das Zwei-Grad-Ziel lösen

[1] … Und während wir bei jeder Schneeflocke im November Witze darüber machen, dass das mit dem Klimawandel ja so ernst nicht sein kann, bedroht die globale Erwärmung schon heute diejenigen am meisten, die am wenigsten dazu beigetragen haben:
seien es die Nomaden der Sahelzone, die Bewohner der Pazifikinseln oder die Bauern in den Anden.
Wir werden die Folgen spätestens dann direkt zu spüren bekommen, wenn sich diese Menschen als Klimaflüchtlinge auf den Weg machen. Die Vereinten Nationen schätzen ihre Zahl in den nächsten 30 Jahren auf bis zu 200 Millionen, sollte das Zwei-Grad-Ziel nicht erreicht werden.
Und während man einen Flüchtling auch wieder zurückschicken kann (fragt sich nur wohin, wenn seine Heimat dann unter dem Meeresspiegel liegt), sind die meisten
ökologischen Folgen der Erderwärmung irreversibel. Unser Ökosystem ist eben nicht wie die Zimmerpflanze im Wohnzimmer, von der man sich einfach eine neue kaufen kann, wenn sie eingeht.

In vielen Bereichen nähern wir uns gefährlichen Kipp-Punkten

[1] Wir nähern uns in vielen Bereichen gefährlichen Kipp-Punkten, die, einmal überschritten, zu abrupten und unumkehrbaren Veränderungen im Erdsystem führen können. Sei es das Abschmelzen des Grönlandeises, der Hitzekollaps tropischer Korallenriffe oder die Destabilisierung des indischen Monsuns – die Folgen für den Menschen wären schwer vorhersehbar und kaum zu kontrollieren.
Das macht die Herausforderung der Bekämpfung des Klimawandels so einzigartig: dass sie konkrete zeitliche Anforderungen an die Klimapolitik stellt und damit eine ganz neue Qualität von Politik erfordert, die sich an
Terminen messen lassen muss. Mit dem Klima kann man um keinen Aufschub verhandeln. Die in der Politik so beliebte Methode des Zeit-Kaufens stößt hier an ihre Grenzen. Ich komme später noch einmal darauf zurück.

Nur die Große Transformation unseres Gesellschaftssystems kann uns retten

[1]… Und darauf will ich hinaus: Wenn wir die extreme Armut beenden wollen, und wenn wir dabei den Planeten nicht zerstören wollen, dann ist eine neue große Transformation in Wirtschaft und Gesellschaft unvermeidlich. Und diese Transformation muss zuallererst bei uns in den Industrieländern stattfinden. Das ist keine kleine Verantwortung.
.. aber letztes Jahr gab es zwei solcher Hoffnungsfeuer und wir sollten verdammt nochmal schauen, dass sie weiter brennen.
Ich spreche von der Agenda 2030 für Nachhaltige Entwicklung der Vereinten Nationen und dem Pariser Klimavertrag. Das Zustandekommen beider Abkommen ist selbst schon ein kleines Wunder … eine Übereinkunft der Staatengemeinschaft, dass wir die erste Generation sein wollen, die die extreme Armut beendet, und die letzte Generation, die vom Klimawandel bedroht ist.
… Es geht darum, die Transformation an den Maßstäben zu messen, welche die Realität des Klimawandels selbst uns stellt.

Wem wir erlauben, langfristig seinen eigenen Körper zu schädigen, dem sollten wir auch zutrauen, über die Zukunft unserer Gesellschaft mitzuentscheiden

[1] Und da darf man sich schon fragen: Ist das notwendige Ausmaß und das notwendige Tempo des Wandels schon erkannt?
Wenn ich darüber nachdenke, wie wir dieses Prinzip in unserer Demokratie noch systematischer stärken können, wie wir die politische Ökonomie zugunsten der Transformation verändern können, dann fällt mir vor allem die junge Generation ein. Ich glaube, wir sollten Fragen von Nachhaltigkeit, aber auch von politischer Beteiligung noch viel stärkere Aufmerksamkeit in den Bildungsprozessen widmen. Und ich finde, dass unserem Land ein allgemeines Wahlalter ab 16 Jahren gut tun würde.
Wer rauchen darf, soll auch wählen dürfen – wem wir erlauben, langfristig seinen eigenen Körper zu schädigen, dem sollten wir auch zutrauen, über die Zukunft unserer Gesellschaft mitzuentscheiden.

In Produktpreis gehören die (simulierten) Zukunfts-Folgekosten eingerechnet

[1] … Und die Realität heißt, dass die Dekarbonisierung der Wirtschaft kommen wird.
… Zu diesen Bedingungen gehören der freie Wettbewerb und Preise, die die Wahrheit sagen, also die tatsächlichen Kosten eines Produktes widerspiegeln… Denn wir leben ja in einer globalen Externalisierungsökonomie, die die wahren sozialen und ökologischen Kosten von Produktion auf andere Erdteile und zukünftige Generationen auslagert. Mit freiem Wettbewerb hat das wenig zu tun, weil jene, die aus Eigenverantwortung versuchen, die echten Kosten einzupreisen, im Wettbewerb viel schwerer mithalten können und quasi auf nachhaltigkeitsbewusste Konsumenten angewiesen sind.
Deshalb ist die globale Erwärmung das größte Marktversagen in der Geschichte der Menschheit. Weil der Ausstoß von Kohlendioxyd noch immer weitgehend gratis ist, geht die CO
2-Party in absoluten Zahlen unvermindert weiter, schließlich werden die Folgekosten des Klimawandels von der Allgemeinheit übernommen. … Wir brauchen deshalb jetzt endlich einen wirksamen Preis auf CO2, und zwar entweder durch eine Steuer oder einen Emissionshandel, der funktioniert.

Die globale DDR 2.0 wird eine Hoffnungsgeschichte

… Das ist mein letzter Punkt für heute: Ich glaube, wir dürfen die große Transformation [5] nicht als Gruselgeschichte erzählen, sondern als Hoffnungsgeschichte.

Fazit

Die Überschrift des EIKE-Artikels: DDR 2.0 – oder wie ich lernte die Energiewende als Erfolgsgeschichte zu sehen
trifft die ideologische Ausrichtung der heutigen CDU (auch wenn der Artikel sich auf ein SPD-geführtes Ministerium bezieht).
Während man bei den „kleinen Leuten“ und ihren Aussagen zum Klimawandel irgendwie noch Mitleid verspüren kann:
EIKE: Der Klimawandel lebt nur noch von Wiederholungen
wandelt sich dies bei den Aussagen dieser „Intelligenz“ [1][3][4][5] eher in Entsetzen, wenn man an den Einfluss dieser Personen denkt.

Quellen

[1] Bundespräsident a.D. Horst Köhler: Rede zum 25-jährigen Bestehen der Deutschen Bundesstiftung Umwelt Berlin, 8. Dezember 2016

[2] EIKE 11.02.2017: Selbsternannte Klimaapostel sägen an Deutschlands Klimaeichen

[3] EIKE 24.01.2017: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels

[4] EIKE 01.01.2016: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor

[5] EIKE: Bürger hört die Signale! Das Gutachten des Umweltrates. Die „Große Transformation“ – ein Ökologistisches Manifest




Über 20 neue Studien belegen eine Verbindung zwischen derzeitigen Klimatrends und Solarantrieb

Die immer mehr auftauchenden Auswirkungen der Sonnenaktivität (SS) auf die globalen Temperaturen (GT), besonders während der letzten Jahrzehnte, sind überwältigend bewiesen“ — Huang et al., 2017

Immer mehr stellen Wissenschaftler eine robuste Verbindung zwischen Sonne und Klima fest

(1)  Yndestad und Solheim, 2017

Perioden mit wenigen Sonnenflecken gehen einher mit niedriger Sonnenaktivität und kalten Klimaperioden. Zeiten mit vielen Sonnenflecken sind verbunden mit hoher Sonnenaktivität und warmen Klimaperioden. … Studien, die cosmogenic [?] Isotopendaten und Sonnenflecken untersuchen zeigen, dass wir gegenwärtig ein Großes Aktivitäts-Maximum durchlaufen haben, welches etwa im Jahre 1940 begann und jetzt abklingt (Usoskin et al., 2003; Solanki et al., 2004; Abreu et al., 2008). Weil Große Maxima und Minima im Zeitmaßstab von Jahrhunderten und Jahrtausenden auftreten, können sie nur mittels Proxy-Daten untersucht werden, das heißt, die Sonnenaktivität muss rekonstruiert werden mittels zeitangepasster Be10 und C14-Daten. Die Schlussfolgerung lautet, dass das Aktivitätsniveau des Modernen Maximums (1940 bis 2000) ein relativ seltenes Ereignis ist, wurde doch ein ähnlich hohes Niveau der Sonnenaktivität erst vor 4 bis 8 Jahrtausenden wieder angetroffen (Usoskin et al., 2003). Neunzehn Große Maxima wurden von Usokin et al. 2007 in einem 11.000-Jahre-Zyklus identifiziert.

Hier sind die Trends der gesamt-solaren Einstrahlung [Total Solar Irradiance] von 1700 bis 2013 dargestellt, und zwar aus der oben erwähnten Studie von Yndestad und Solheim 2017. Sie zeigen, dass die TSI eng korreliert mit den Temperaturtrends auf der Nordhemisphäre (NH), abgeleitet aus „dem Mittel von 22 regionalen Rekonstruktionen der instrumentellen Temperaturen von Juni bis August“, wie in Stoffel et al., 2015 gezeigt:

(2) Rydval et al., 2017

„Die jüngste sommerliche Erwärmung in Schottland ist wahrscheinlich nicht einmalig, wenn man sie mit multidekadischen Warmperioden vergleicht, welche im 14., 16. und Mitte des 18. Jahrhunderts beobachtet worden waren. Alle sechs Reihen (auf der Nordhemisphäre) zeigen ein wärmeres Intervall im Zeitraum, der bis zu den fünfziger Jahren des vorigen Jahrhunderts reicht, obwohl dieser in der CEU-Rekonstruktion weniger ausgeprägt ist. Extrem kalte (und warme) Jahre, wie sie im NCAIRN beobachtet worden sind, erscheinen eher als Relation zum internen Antrieb der sommerlichen NAO … Es besteht im Allgemeinen gute Übereinstimmung zwischen den Aufzeichnungen hinsichtlich zeitlich ausgedehnter Kaltzeiten, zu denen es während der Kleinen Eiszeit und besonders um das solare Maunder-Minimum gekommen war, welche in der zweiten Hälfte des 17. Jahrhunderts seinen Höhepunkt erreicht hatten und bis zu einem bestimmten Grad auch zum Ende des 15. Jahrhunderts, was zusammenfällt mit dem Spörer-Minimum (Usoskin et al. 2007)

 

 

 

 

(3) Huang et al., 2017 (full paper)

„Verschiedene wissenschaftliche Studien haben die kausale Verbindung zwischen Sonnenaktivität (SS) und der Temperatur der Erde (GT) untersucht. Die korrespondierenden Ergebnisse zeigen eine zunehmende Bedeutung kausaler Effekte der SS auf die GT seit 1880 bis heute. Dies sind solide Beweise für die Erklärung der steigenden globalen Tendenz der Erwärmung während der letzten Jahrzehnte … die Verbindung zwischen Sonnenaktivität und globaler Erwärmung ist in der wissenschaftlichen Literatur gut belegt. Unter dieser stellt sich heraus, dass die SSA (Singular Spectrum Analysis) zur Trenderkennung die zuverlässigste Methode der Datenbearbeitung ist, während CCM (Convergent Cross Mapping) herausragende Ergebnisse bei allen Kausalitäts-Tests liefert. Die sich daraus ergebenden kausalen Effekte zwischen SS und GT sind besonders für die letzten Jahrzehnte überwältigend gut belegt. Dies reflektiert ein besseres Verständnis der Tendenz der globalen Erwärmung“.

(4) Tejedor et al., 2017

Rekonstruierte langfristige Temperaturvariationen passen gut zu Änderungen der solaren Einstrahlung, korrespondieren doch warme und kalte Phasen jeweils mit hoher und geringer Sonnenaktivität. Der Haupt-Treiber des großräumigen Charakters von Warm- und Kalt-Episoden können Änderungen der Sonnenaktivität sein. Der Beginn der Rekonstruktion liegt am Ende des Spörer-Minimums. Das Maunder-Minimum von 1645 bis 1715 (Luterbacher et al. 2001) erscheint konsistent mit einer Kaltperiode von 1645 bis 1706. Außerdem erkennt man für den Zeitraum 1810 bis 1838 das Dalton-Minimum von 1796 bis 1830. Allerdings geht eine ausgeprägte Kaltphase von 1778 bis 1798 nicht einher mit einer Abnahme der Sonnenaktivität. Vier warme Perioden – 1626 bis 1637, 1800 bis 1809, 1845 bis 1859 sowie 1986 bis 2012 haben sich als gut korrespondierend mit erhöhter Sonnenaktivität herausgestellt.

(5) Nan et al., 2017

Die SST-Variationen zeigen eine Jahrtausend-Periode von etwa 1500 Jahren sowie Jahrhundert-Perioden von 131 und 113 Jahren. Der 1500-Jahre-Zyklus dominierte im Zeitraum 8900 bis 5500 Jahre vor heute, was eine Tele-Verbindung zeigt zwischen der Wassertemperatur im Gelben Meer und globalen Klimaänderungen, bewirkt durch den Kuro-Shio-Strom. Jahrhundert-Perioden dominierten fast alle der Kaltzeiten, die im Bohrkern BY14 auftauchen, was den Stempel von Zyklen der Solarstrahlung impliziert mit einem im Mittel verstärkten East Asia Winter Monsoon (EAWM).

(6) Deng et al., 2017

Die Ergebnisse zeigen, dass das Klima während der Mittelalterlichen Warmzeit (MCA von 900 bis 1300) ähnlich war dem Klima der gegenwärtigen Warmzeit (CWP von 1850 bis zur Gegenwart). Dies widerspricht früheren Studien. … Was die Kleine Eiszeit (LIA von 1550 bis 1850) betrifft, zeigen die Ergebnisse dieser Studie zusammen mit früheren Daten der Makassar-Straße eine kalte und nasse Periode im westlichen Pazifik, verglichen mit CWP und MCA. Die kalte Periode der LIA fällt zeitlich zusammen mit dem Maunder-Minimum der Sonnenflecken und wird daher mit geringer Sonnenaktivität in Zusammenhang gebracht.

(7) Koutsodendris et al., 2017

Die Aufzeichnung repräsentiert das südlichste jährlich geschichtete Archiv von der Balkan-Halbinsel. Es reicht über die Kleine Eiszeit und gestattet Einblicke in kritische Zeitabschnitte von Klima-Instabilität wie etwa während der solaren Maunder- und Dalton-Minima. … Nasse Bedingungen im Winter waren vorherrschend im Zeitraum 1740 bis 1930, während die Zeiträume von 1790 bis 1830 (Dalton-Minimum) sowie 1830 bis 1930 durch trockene Winter gekennzeichnet waren, wobei in Letzterer sporadisch auch einige nasse Winter aufgetreten waren. … Die Kleine Eiszeit, welche eine der stärksten Instabilitäten des globalen Klimas repräsentiert, ist gekennzeichnet durch eine viele Jahrhunderte lange Abkühlung (vom 14. bis zum 19. Jahrhundert), welche der jüngsten ,globalen Erwärmung‘ des 20. Jahrhunderts vorangegangen war. Die Abkühlung wurde zumeist einer reduzierten Sonnenaktivität zugeordnet und war besonders ausgeprägt während der solaren Minima von 1645 bis 1715 bzw. 1790 bis 1830, welche jeweils bekannt sind unter den Bezeichnungen Maunder- bzw. Dalton-Minima.

(8) Li et al., 2017

Wir zeigen, dass die Sonnenaktivität eine Schlüsselrolle spielen kann bei den klimatischen Fluktuationen in Nordchina (NC) während der letzten 22 Jahrhunderte. Eine Quasi-Periodizität von ~100, 50, 23 oder 22 Jahren trat klar in unseren klimatischen Rekonstruktionen hervor. … Sowohl Klima-Modellierungen als auch Beobachtungen haben immer wieder gezeigt, dass die Sonnenaktivität eine Schlüsselrolle spielt als Auslöser für Klimafluktuationen im jüngeren Holozän. Sie trieb globale Temperatur-Fluktuationen und die atmosphärische dynamische Zirkulation (e.g., Haigh, 1996; Shindell et al., 1999; Bond et al., 2001; Fleitmann et al., 2003; Dykoski et al., 2005). … Die Perioden von 100, 57 und 23 Jahren des jährlichen Niederschlags zusammen mit den Perioden von 100, 50, 23 und 22 Jahren der mittleren Temperatur korrelieren sehr gut mit den Zyklen der Sonnenaktivität von 100, 50, 23 und 22 Jahren. Diese wurden bei vielen solaren Parametern beobachtet (z. B. Wilson et al., 1996; Li et al., 1996; Chowdhury et al., 2009; Zhang et al., 2014) und implizieren daher eine phasengleiche Relation zwischen der klimatischen Oszillation in Nordchina und der Sonnenaktivität.

(Rekonstruierte Temperaturen in Nordchina zeigen alles in allem keinen Erwärmungstrend seit Mitte des 20. Jahrhunderts.)

(9) Zawiska et al., 2017

Die Temperatur-Rekonstruktion mittels Chironomiden [irgendwelche Mücken, siehe hier und hier] aus dem Atnsjøen-See im östlichen Norwegen mit einer mittleren Auflösung von 30 Jahren beweist, dass großräumige Prozesse wie Fluktuationen der NAO und Sonnenaktivität lokales Klima modifizierten, was in der Folge auch die Abläufe in Seen beeinflusste. Die drei kleineren Abkühlungsperioden wurden in der ersten Hälfte des Jahrtausends rekonstruiert: 1050–1150, 1270–1370, 1440–1470. Sie fallen jeweils zusammen mit Minima der Sonnenaktivität, welche bekannt sind als jeweils Oort-, Wulf- und Spörer-Minima. Außerdem wurde eine Abkühlungsperiode mit zwei Spitzen in der zweiten Hälfte des Jahrtausends identifiziert, welches mit der Kleinen Eiszeit zusammenfiel. Diese Änderungen erfolgten alle mit dem vorherrschenden negativen NAO-Index.

Der Beginn der Abkühlungsperiode von 1270 bis 1370 fällt zusammen mit dem solaren Wulf-Aktivitätsminimum, was zeigt, dass das Klima auf die Sonnenaktivität reagiert. Die Klimaabkühlung synchron mit diesem solaren Minimum war global ausgeprägt und wurde in Europa, der Arktis, Nordamerika und der Antarktis nachgewiesen. (Osborn and Briffa, 2006; PAGES 2k Consortium, 2013) aber wieder nicht in Grönland (Osborn and Briffa, 2006). … Der Beginn der Kaltphase von 1440 bis 1470 ist synchron mit einer ausgeprägten negativen NAO-Phase (Trouet et al. 2009). … Das solare Maunder-Minimum verursachte eine sehr stark negative Phase des NAO-Index‘ (shindell et al. 2001), welches in der Folge zu einem markanten Rückgang der rekonstruierten Temperatur führte“.

Die Temperatur-Rekonstruktion des Atnsjøen-Sees zeigt, dass die jüngste und noch nicht beendete Klimaerwärmung bereits um das Jahr 1800 nach der Kleinen Eiszeit begonnen hatte. Die Temperaturen stiegen sehr schnell, von 8,5°C au 12,8°C während der ersten 75 Jahre (1800 bis 1875), doch war die Erwärmung im 20. Jahrhundert wieder schwächer ausgeprägt. … Die Erwärmung zu Beginn des 19. Jahrhunderts im Gebiet des Atnsjøen-Sees fällt zusammen mit einer Rekonstruktion aus dem südlichen Finnland (Luoto, 2013) sowie einer Aufzeichnung aus Nordschweden (Osborn und Briffa, 2006). Dessen Beginn korreliert mit dem positiven NAO-Index und gesteigerter Sonnenaktivität“.

(10) Park, 2017

Klimawandel im späten Holozän in den Küstengebieten von Ostasien ist wahrscheinlich einer ENSO-Variation geschuldet. Unser Pollen-Index der Wärme (TPIW) zeigt bedeutende Kalt-Ereignisse im späten Holozän, die im Zusammenhang stehen mit Perioden geringer Sonnenfleckenzahlen wie etwa während der Oort-, Wolf-, Spörer- und Maunder-Minima. Vergleiche mit Nordostchina, vor der Küste von Nordjapan, mit den südlichen Philippinen sowie Peru zeigen allesamt deutliche Beziehungen zueinander (zwischen Sonnenaktivität und Klima). Dies zeigt, dass die Sonnenaktivität die Variationen des Holozäns sowohl beim Ostasien-Monsun als auch der ENSO getrieben hat. Im Einzelnen scheint Letzteres vorherrschend das Klima in Ostasien kontrolliert zu haben, bis zu einem Ausmaß, dass der Einfluss Präzession fast gedämpft war während des späten Holozäns.

(11) Matveev et al., 2017

Eine Zunahme der atmosphärischen Feuchtigkeit der warmen Jahreszeit (Mai bis September) seit Ende des 19. Jahrhunderts sowie mittlere jährliche Temperaturen seit den fünfziger Jahren des vorigen Jahrhunderts wurden identifiziert. Während des gleichen Zeitraumes (1890 bis 2014) erfolgte eine markante Zunahme der Amplitude der jährlichen Variationen von Temperatur und NiederschlagDiese Fluktuationen sind konsistent mit den solaren Zyklen Schwabe-Wolf (10 bis 12 Jahre), Hale (22 Jahre) und Bruckner (32 bis 36 Jahre). Eine zusätzliche Relation zeigte sich zwischen kurzzeitigen Klimafluktuationen (etwa über 3 Jahre) sowie Fluktuationen über 70 bis 90 Jahre des Feuchte-Regimes im untersuchten Gebiet, was mit längeren Zyklen korrespondiert. … In dieser Arbeit wurden Sonnenflecken-Daten als Indiz der Sonnenaktivität herangezogen und mit der Wolf-Zahl bezeichnet (W). Es gibt viele solare Zyklen, welche untersucht worden sind, darunter der Schwabe-Wolf (11 Jahre), Hale (22 bis 24 Jahre), Bruckner (33 Jahre) und Gleissberg (70 bis 90 Jahre). … Diese Arbeit zeigte, dass eine Korrelation bestand zwischen Klimavariablen und solaren Aktivitätsmaxima und -minima (W). Der hydrothermische Koeffizient (HTC) besitzt eine Phasen-Relation mit W, und dann both of these variables with the radial increment relative index maxima and minima in Pinus sylvestris L. (I) during the last 100–140 years.

[Kursiv von mir! Hier musste ich mit der Übersetzung einfach passen! Anm. d. Übers.]

(12) Cosentino et al., 2017

Eine Sichtung der Literatur zeigt, dass das Klima während des Holozäns erheblich weniger stabil war als bislang gedacht, war doch dessen Erwärmungstrend charakterisiert durch relevante kurzzeitige Abkühlungs-Ereignisse, die im Zeitmaßstab von Jahrzehnten und Jahrhunderten aufgetreten waren (Dansgaard et al., 1993; Bond et al., 1999; Mayewski et al., 2004). Die jüngste Kaltphase war die Kleine Eiszeit, welche zu einem Gletschervorstoß in den Alpen bis in tiefer gelegene Gebiete führte. Viele Autoren haben diese kälteren Klimabedingungen mit einer Periode geringer Sonnenaktivität in Verbindung gebracht (Mauquoy et al. 2002), was zu einer Abnahme der sommerlichen Einstrahlung führte (Wanner et al. 2011). … Das unter der Bezeichnung Kleine Eiszeit bekannte Abkühlungsereignis dauerte mehr oder weniger ausgeprägt vom 13. bis zum 19. Jahrhundert (Perry und Hsu, 2000). … Außerdem können die Fluktuationen in der Häufigkeits-Kurve von H. Balthica [?] in Beziehung gestellt werden zu vielen kurzzeitigen Abkühlungsereignissen, welche die Kleine Eiszeit charakterisieren, nämlich Wolf, Sporer, Maunder und Dalton (Lamb, 1984; Mauquoy et al., 2002).

(13) Schwander et al., 2017

Der Einfluss der solaren Variabilität auf das Auftreten bestimmter Witterung* in Mitteleuropa von 1763 bis 2009 … Witterungsarten und Reanalysen zeigen, dass der 11-jährige solare Zyklus die atmosphärische Zirkulation im Spätwinter in Mitteleuropa beeinflusst dergestalt, dass kältere (wärmere) Bedingungen bei geringer (hoher) Sonnenaktivität herrschen. Zum Vergleich herangezogene Modellsimulationen reproduzieren nicht den Abdruck des 11-jährigen solaren Zyklus‘, der sich in den reanalysierten Daten zeigte. … Die atmosphärische Zirkulation in Europa ist stark korreliert mit der NAO, und folglich dürfte die Sonnenaktivität Einfluss auf die Wetterbedingungen in Europa während des Winters nehmen. Studien zeigen eine Vorherrschaft kalter Winter in Europa, die assoziiert sind mit Minima des 11-jährigen solaren Zyklus‘ (z. B. Lockwood et al., 2010; Sirocko et al., 2012). Die 247 Jahre lange Analyse (1763 bis 2009) des 11-jährigen Zyklus‘ auf die Witterung in Europa während des Spätwinters zeigt eine Reduktion von Westwetterlagen in Verbindung mit einem geringeren zonalen Grundstrom bei geringer Sonnenaktivität. Aus diesen Beobachtungen folgern wir, dass kalte Bedingungen im Winter in Europa bei geringer Sonnenaktivität vermehrt auftreten als bei hoher Sonnenaktivität. Ähnlich kalte Bedingungen können auch während längerer Perioden mit reduzierter Gesamt-Sonneneinstrahlung auftreten. … Die Sonnenaktivität kann Auswirkungen auf die atmosphärische Zirkulation auf drei verschiedene Weisen haben. Diese Auswirkungen können sich ergeben aus direkten Änderungen der Sonneneinstrahlung TSI, aus Änderungen der solaren UV-Strahlung oder aus Änderungen des stratosphärischen Ozons, induziert durch energetische Partikel, deren Fluss durch die Sonnenaktivität moduliert wird. Die Variation um ~1 W/m² der TSI über einen 11-jährigen Sonnenfleckenzyklus korrespondiert mit einer Änderung des Strahlungsantriebs um etwa 0,17 W/m².

[*Original: ,weather types‘. Das habe ich mit dem Begriff ,Witterung‘ übersetzt, für welchen es im Englischen kein Pendant gibt. – Außerdem: Wenn das so ist, dürfte die Zeit der milden Winter bei uns wohl endgültig vorbei sein. Da schauen wir doch mal, wie es im nächsten Winter aussieht! Anm. d. Übers.]

(14) Zielhofer et al., 2017

Aufzeichnungen abrupter hydroklimatischer Änderungen im westlichen Mittelmeer im Holozän … Auswirkungen nordatlantischer Schmelzwasser-Austritte, NAO und Solarantrieb … Minima von Winterregen zu Beginn des Holozäns stehen in Phase mit Abkühlungsereignissen und Schmelzwasser-Ausflüssen im subpolaren Nordatlantik im Zeitmaßstab von Jahrtausenden … Eine bedeutende hydroklimatische Verschiebung zum Ende der Afrikanischen Feuchtperiode (vor etwa 5000 Jahren) zeigt eine Änderung der Funktionsweise des Klima-Antriebs. Die Klimavariabilität im späten Holozän im Atlas-Gebirge zeigt eine Verteilung vom NAO-Typus im Zeitmaßstab von Jahrhunderten, wobei Abkühlung im Atlantik und Maxima von winterlichem Niederschlag im westlichen Mittelmeer allgemein assoziiert sind mit solaren Minima.

 

(15) Sun et al., 2017

Mindestens sechs Jahrhundert-Dürren ereigneten sich vor etwa 7300, 6300, 5500, 3400, 2500 und 500 Jahren. Unsere Ergebnisse sind allgemein konsistent mit anderen Aufzeichnungen aus Gebieten des Indischen Sommermonsuns ISM. Sie zeigen, dass die Intensität des Monsuns primär kontrolliert wird durch die solare Einstrahlung im Zeitmaßstab von Jahrhunderten. Dieser externe Antrieb kann verstärkt worden sein durch Abkühlungsereignisse im Nordatlantik und durch die ENO-Aktivität im östlichen tropischen Pazifik, wodurch die Innertropische Konvergenz ITC weiter nach Süden auswich. Die Inkonsistenz zwischen der lokalen Regenmenge im südöstlichen QTP [?] und die ISM-Intensität kann auch die Folge der Auswirkungen der Sonnenaktivität auf den lokalen hydrologischen Zyklus an der Peripherie des Plateaus sein.

(16) Zhai, 2017

Die ENSO ist negativ/positiv korreliert mit der Sonnenfleckenzahl SSN, wenn die SSN groß/klein ist … Die Sonnenaktivität kann die ENSO beeinflussen, und ein solcher Einfluss sollte einem Akkumulations-Prozess unterliegen (Phasen-Verzögerung). XWT [?] zeigt auch, dass diese Auswirkung tatsächlich besteht. Es zeigt sich, dass der Index negativ korreliert ist mit der SSN, wenn die SSN während eines bestimmten langzeitlichen Intervalls groß ist, und positiv korreliert bei geringer SSN. Während der folgenden Jahrzehnte kann daraus das Auftreten starker El Nino-Ereignisse abgeleitet werden.

(17) Zhu et al., 2017

Abrupte Verstärkungen des Flusses pedogenischer Magnetite [?] in Stalagmiten stimmen gut überein mit dem Timing bekannter regionaler Paläo-Überschwemmungen und mit äquatorialen ENSO-Abläufen, was das Auftreten von Stürmen mit Bezug zur ENSO im Holozän dokumentiert. Spektralanalysen zeigen, dass die Stürme während eines signifikanten 500-Jahre-Zyklus‘ auftreten, koinzident mit periodischer Sonnenaktivität und ENSO-Varianz. Dies zeigt, dass verstärkte (schwächere) Stürme in Zentralchina mit reduzierter (verstärkter) Sonnenaktivität korrespondieren sowie mit einer verstärkten (gedämpften) ENSO. Folglich konservieren die magnetischen Minerale in Höhlen die Abfolge zyklischer Stürme, die kontrolliert werden durch die gekoppelte Atmosphäre-Ozean-Zirkulation, getrieben von der Sonnenaktivität.

(18) Zhai, 2017

Die Zeitreihen der Sonnenfleckenzahl und des Niederschlags in Nord- und Mittelchina während der letzten 500 Jahre (1470 bis 2002) wurden untersucht mittels Peridiozitäts-Analyse, cross wavelet transform [?] und ensemble empirical mode decomposition analysis. Es zeigen sich folgende Ergebnisse: Die Perioden der Sonnenaktivität werden reflektiert in der Niederschlags-Zeitreihe mit schwacher statistischer Signifikanz, finden sich aber in zerlegten Komponenten der Reihe mit statistischer Signifikanz. Die Quasi-Zweijährige Oszillation QBO tritt signifikant hervor in der Zeitreihe, und deren Auswirkungen auf Niederschlag sind entgegengesetzt der Sonnenaktivität. Die Sonne wirkt sich auf zweierlei Weise auf den Niederschlag aus, wobei die eine Weise der anderen um die halbe Phase der Sonnenaktivität hinterher läuft.

(19) Malik et al., 2017

Wir untersuchen die Auswirkung der internen Klima-Variabilität sowie externe Klima-Antriebe auf die ISMR im Zeitmaßstab von Dekaden bis Multi-Dekaden während der letzten 400 Jahre. Die Ergebnisse zeigen, dass AMO, PDO und TSI eine deutliche Rolle spielen hinsichtlich des Auftretens der trockenen und nassen Jahrzehnte des ISMR (Regenmenge des Sommermonsuns in Indien). Ähnliche Beobachtungsergebnisse zeigen, dass die meisten der trockenen Jahrzehnte der ISMR während einer negativen AMO-Phase auftreten sowie einer simultanen positiven PDO-Phase.

(20) Huo and Xiao, 2017

In dieser Studie untersuchen die Autoren ein bestimmtes Phänomen, nämlich die Anomalie des ozeanischen Wärmegehaltes während verschiedener Phasen der Sonneneinstrahlungs-Zyklen. Die Ergebnisse zeigen, dass fast entgegen gesetzte räumliche Verteilungen im tropischen Pazifik auftreten während der zunehmenden und abnehmenden Phase des TSI-Zyklus‘. Weitere Analysen zeigen die Existenz eines quasi-dekadischen (~11 Jahre) solaren Signals bei der Wassertemperatur SST und beim ozeanischen Wärmegehalt OHC sowie beim Anomalie-Feld des Zonalwindes im tropischen Pazifik mit einem hohen Niveau statistischer Sicherheit (>95%). … Ensemble-Simulationen aus einer AOGCM [?] in einer Studie von Misios und Schmidt (2012) zeigten, dass die tropische SST nahezu in Phase oszilliert mit dem 11-jähringen Sonnenzyklus. White und Liu (2008) fanden außerdem, dass die Fluktuation der Erwärmung der oberen Ozeanschichten in Phase mit der TSI im Zeitmaßstab von Jahrzehnten ist, regiert von einer resonant excitation of the tropical delay action oscillator and solar forcing, wobei die Erwärmungsphase dem Jahr mit der Spitzen-Sonnenaktivität um 1 bis 3 Jahre folgt. … Verteilungen der OHC und potentieller Temperaturanomalien im tropischen Pazifik sind räumlich ziemlich symmetrisch während der aufsteigenden und abnehmenden Phase, und es sieht nach einer Phasen-Parallelität mit dem TSI-Zyklus aus. Die bedeutendsten Regionen der OHC-Anomalie liegen gerade in den Gebieten mit hoher Korrelation (über dem 95%-Niveau), welches ,solar-sensitive‘ Regionen sind mit einer deutlichen quasi-11-Jahre-Periode.

Gesteigerte solare Einstrahlung an der Erdoberfläche (mittels geringerer Wolkenbedeckung) erklärt die Erwärmung nach den 1980ger Jahren

(21) Sanchez-Lorenzo et al., 2017

Zunächst werden Trends der auf die Erdoberfläche treffenden Solarstrahlung (SSR) gezeigt, abgeleitet aus Satellitendaten über Europa (1983 bis 2010). Die Ergebnisse zeigen eine verbreitete (d. h. nicht lokal begrenzte) Zunahme im größten Teil von Europa, vor allem Mitte der neunziger Jahre in den mittleren und nördlichen Gebieten und während des Frühjahrs. Es zeigt sich eine mittlere Zunahme der SSR von mindestens 2 W/m² pro Jahrzehnt von 1983 bis 2010 über ganz Europa, was zum größten Teil mit der Berücksichtigung der fehlenden Aerosol-Variationen in den aus Satellitenbeobachtungen abgeleiteten Produkten zumeist verbunden werden kann mit einer Abnahme der Wolkenbedeckung über Europa. … Die SSR ist ein kritischer Bestandteil der Globalen Energiebilanz und des Klimasystems … Eine verbreitete Abnahme der SSR von den fünfziger bis zu den achtziger Jahren (mit globaler Abkühlung) wurde beobachtet (Liepert, 2002; Stanhill and Cohen, 2001; Wild, 2009). Ihr folgte eine Zunahme der SSR seit Mitte der achtziger Jahre (zusammenfallend mit globaler Erwärmung. Pinker et al. 2005 verwendeten ein anderes Produkt (Auflösung 2,5°) und fanden, dass die abgeleitete globale mittlere SSR-Reihe eine signifikante Zunahme von 1,6 W/m² pro Jahrzehnt durchlief, und zwar von 1983 bis 2001. … Andererseits leiteten Hatzianastassiou et al. 2005 ein SSR-Produkt ab von 1984 bis 2000 (Auflösung 2,5°) und berichteten von einer signifikanten Zunahme von 2,4 W/m² pro Jahrzehnt in der globalen mittleren Reihe, was deutlich höher ist als die Ergebnisse von Pinker et al. 2005 sowie Hinkelmann et al. 2009.

(22) Urban et al., 2017

Von den fünfziger bis zu den achtziger Jahren wurde eine Abnahme der Intensität der Solarstrahlung beobachtet (Stanhill and Cohen 2001; Liepert 2002). Dieses Phänomen wurde als „Global Dimming“ bezeichnet. Spätere Forschungen zeigten, dass seit Mitte der achtziger Jahre eine Zunahme der Solarstrahlung folgte, was mit „Global Brightening“ bezeichnet wurde (Wild et al. 2005; Pinker et al. 2005). Die Gründe für die Änderung der Strahlungstrends sind noch nicht vollständig geklärt; sie können resultieren aus Änderungen der atmosphärischen Transparenz infolge der Variationen der Wolkenbedeckung oder aus Änderungen der Konzentration anthropogener Aerosole (Wild 2009). … Eine bedeutende Arbeit, die von Raichijk 2012 veröffentlicht worden ist, überdeckt 237 Stationen in den fünf betreffenden klimatischen Regionen. Darin wurden Trends der Sonnenscheindauer von 1961 bis 2004 in sechs Ländern Südamerikas untersucht. Die Ergebnisse dieser Studie bestätigen abwärts gerichtete Trends der Sonnenscheindauer von den fünfziger Jahren bis zu den achtziger Jahren sowie einen aufwärts gerichteten Trend seit Anfang der neunziger Jahre. Dies wurde auch in anderen Gebieten der Welt beobachtet. Satellitendaten der kurzwelligen Strahlung im Zeitraum 1984 bis 2005 bestätigen die Ergebnisse der Messungen der Sonnenscheindauer am Boden in allen fünf Klimaregionen von Südamerika. Aufwärts gerichtete Trends der Sonnenscheindauer sind assoziiert mit einer Zunahme der Intensität der Solarstrahlung und einer Abnahme der Wolkenbedeckung (Raichijk 2012). Es muss betont werden, dass sowohl Einstrahlung als auch Wolkenbedeckung primär verbunden sind mit der atmosphärischen Zirkulation und durch Wärmegleichgewicht [heat balance] und lokale Bedingungen beeinflusst werden (Dubicka and Limanówka 1994).

Mehr: http://notrickszone.com/#sthash.8STk5EEh.aGxlSVOD.dpuf

Link: http://notrickszone.com/2017/02/20/20-new-scientific-papers-link-modern-climate-trends-to-solar-forcing/#sthash.RC6cDfSD.dpbs

Übersetzt von Chris Frey EIKE