Sonne macht Klima: Neues aus Europa

Die Wissenschaftler fanden charakteristische Zyklizitäten, darunter die bekannten solaren Eddy- (1000 Jahre), Suess-de Vries- (200 Jahre) und Gleissberg- (90 Jahre) Zyklen:
Auswirkungen des solaren Antriebs und der Nordatlantischen Oszillation auf das Klima im kontinentalen Skandinavien während des Holozäns
Sedimentablagerungen aus den Nautajärvi and Korttajärvi-Seen in Finnland, die die letzten 10.000 Jahre abdecken, zeigen Beweise für Klima- und Umweltoszillationen im Zeitbereich von vielen Jahrzehnten bis zu Jahrtausenden. Wir haben zwei unabhängige Verfahren angewendet, um periodische Erscheinungen aus diesen Zeitreihen zu extrahieren und ihre statistische Zuverlässigkeit abzuschätzen. Analysen zeigten, dass jahreszeitliche Sedimentflüsse mit Umweltveränderungen korrespondieren sowie mit statistisch signifikanten Periodizitäten von 1500 bis 1800, 1000, 600 bis 800, fast 300, fast 200, 150 bis 170, fast 90 und 47 Jahren. Sie zeigen eine variable Kohärenz mit verschiedenen klimatreibenden Faktoren und anderen Paläo-Proxyaufzeichnungen auf der Nordhemisphäre. Die Ergebnisse zeigen, dass das Winterklima im Holozän im kontinentalen Skandinavien durch eine Kombination vieler Faktoren getrieben worden ist, zumindest durch die Sonnenaktivität und von atmosphärischen Zirkulationsmustern im Bereich Nordatlantik-Europa, wobei die Einflüsse mit der Zeit variieren.
Insbesondere der 1000-Jahres-Zyklus tritt hervor. In der Discussion schreiben die Autoren:
Die Identifizierung des 1000-Jahre-Zyklus‘ zeigt, dass der solare Antrieb möglicherweise klimatische und umweltliche Fluktuationen im kontinentalen Skandinavien während des Holozäns ausgelöst hat.
Auch im Bereich der Nordsee gibt es neue Hinweise auf eine solare Klimabeeinflussung. Im Juli 2014 veröffentlichte eine Forschergruppe der Universität Mainz bestehend aus Hilmar Holland, Bernd Schöne, Constanze Lipowsky und Jan Esper im Fachblatt The Holocene eine Klimastudie auf Basis von Anwachsstreifen in Muschelschalen. Dabei deckten die Wissenschaftler die vergangenen 1000 Jahre ab. Holland und Kollegen fanden, dass das Klima immer dann besonders stark schwankte, wenn die Sonnenaktivität auf Minimalwerte absank. Dies gilt insbesondere für die solaren Maunder- und Spörer-Minima während der Kleinen Eiszeit. Hier die Kurzfassung der Arbeit:
Dekadische Klimavariabilität der Nordsee während des letzten Jahrtausends, rekonstruiert mittels bestimmter Muschelschalen auf arktischen Inseln (von der Gemeinen Islandmuschel)
Ununterbrochene und jährlich aufgelöste Aufzeichnungen des Paläoklimas sind von grundlegender Bedeutung, um die gegenwärtigen globalen Änderungen in einen Zusammenhang zu stellen. Derartige Informationen sind besonders relevant für den europäischen Bereich, wo Wetter- und Klimaprojektion immer noch eine große Herausforderung darstellen, wenn sie nicht sogar unmöglich sind. Diese Studie präsentiert die ersten genau datierten, jährlich aufgelösten und multiregionalen Chronologien aus den Schalen der Gemeinen Islandmuschel aus der Nordsee. Sie überdecken den Zeitraum 1040 bis 2010 und enthalten wichtige Informationen über supra-regionale Klimabedingungen (Wassertemperatur, ozeanische Produktivität, Wind). Das Wachstum der Muscheln variierte periodisch in Zeiträumen von 3 bis 8, 12 bis 16, 28 bis 36, 50 bis 80 und 120 bis 140 Jahren. Möglicherweise zeigt dies eine enge Verbindung mit der Nordatlantischen Oszillation, ozean-internen Zyklen im Nordatlantik, kontrolliert durch Ozean-Atmosphäre-Kopplungen sowie der Atlantischen Multidekadischen Oszillation. Zunehmende Klima-Instabilität, das heißt eine stärkere quasi-dekadische Variabilität, scheint verbunden mit dem Vorherrschen atmosphärischer Antriebe und signifikant geringeren Einstrahlungs-Phasen (d. h. Spörer- und Maunder-Minima). Eine gesteigerte klimatische Variabilität über kürzere Zeiträume wurde ebenfalls beobachtet, und zwar während besonders warmer Phasen oder Verschiebungen (z. B. während der ,Mittelalterlichen Klimaanomalie‘ [?] und seit etwa 1970). Stabilere Klimabedingungen, das heißt verlängerte Warm- oder Kaltphasen (Mittelalterliche Klimaanomalie, Kleine Eiszeit) fielen jedoch zusammen mit einem Vorherrschen multidekadischer ozeanischer Zyklen. Ob die Anzahl von Sonnenflecken und eine höhere Klimavariabilität ursächlich zusammenhängen und welche Prozesse und Abläufe dem zugrunde liegen, ist nicht Gegenstand dieser Studie.
Gehen wir nun einige hundert Kilometer nach Osten, nach Polen. Ein Team um Ivan Hernández-Almeida nahm sich im Nordosten des Landes ebenfalls die Klimageschichte des letzten Jahrtausends vor. In einem Artikel, der Mitte August 2015 in den Quaternary Science Reviews erschien, berichteten die Wissenschaftler von starken natürlichen Klimaschwankungen und einer deutlichen solaren Beeinflussung. Hernández-Almeida fanden eine klare Gliederung in Mittelalterliche Wärmeperiode, Kleine Eiszeit und Moderne Wärmeperiode. Dabei fielen die Winter vor 1000 Jahren während der Mittelalterlichen Wärmeperiode sogar milder aus als heute (Abbildung 1). In den letzten 50 Jahren ist im Datensatz zudem eine Verschärfung der polnischen Winter zu erkennen. Im Folgenden die Kurzfassung der Arbeit:
Eine auf den Goldbraunen Algen basierende quantitative Rekonstruktion der Strenge von Wintern aus Tonsedimenten in Seen in Nordostpolen während des letzten Jahrtausends sowie deren Beziehung zur natürlichen Klimavariabilität
Zellen von Algen werden als starke Proxys zur Bestimmung der Temperatur in der kalten Jahreszeit angesehen. In dieser Studie betrachten wir die Beziehung zwischen Algen-Ansammlungen und der Anzahl von Tagen mit einer Temperatur unter 4°C (DB4°C) im Epilimnion* eines Sees in Nordpolen, um eine Transfer-Funktion zu entwickeln und die Strenge der Winter in Polen für das letzte Jahrtausend zu rekonstruieren. DB4°C ist eine Klimavariable abhängig von der Länge des Winters. Bestimmte Verfahren [Multivariate ordination techniques]wurden angewendet, um die Verteilung von Algen in Sedimenten von 37 Flachlandseen zu studieren, verteilt entlang einer Vielzahl umweltlicher und klimatischer Gradienten in Nordpolen. Von allen gemessenen Umweltvariablen, stufenweiser Auswahl der Variablen und individuellen Freisetzungs-Analysen (RDA) ergab die Variable DB4°C als die wichtigste Variable für Algen … . Eine quantitative Transferfunktion wurde erzeugt, um DB4°C aus Sedimentablagerungen zu schätzen mittels der partiellen Regression kleinster Quadrate. Das Zwei-Komponenten-Modell (PLS-2)enthielt einen Koeffizienten der Bestimmung von Rcross = 0,58 mit der Wurzel aus dem mittleren quadratischen Fehler der Vorhersage (RMSEP) von 3,41 Tagen (auf der Grundlage von ,einen auslassen‘). [?] Die sich daraus ergebende Transfer-Funktion wurde angewendet auf einen jährlich unterteilten Sediment-Bohrkern aus dem Lake Żabińskie. Er erlaubte eine neue, sub-dekadische Rekonstruktion von DB4°C mit hoher chronologischer Genauigkeit für den Zeitraum vom Jahr 1000 bis 2010. Während des Mittelalters (Jahre 1180 bis 1440) waren die Winter allgemein kürzer (wärmer) außer während einer Dekade mit sehr langen und kalten Wintern um das Jahrzehnt von 1260 bis 1270 (im Anschluss an den Vulkanausbruch im Jahre 1258). Im 16. und 17 Jahrhundert sowie zu Beginn des 19. Jahrhunderts war es zu sehr langen und strengen Wintern gekommen. Der Vergleich mit anderen Rekonstruktionen der kalten Jahreszeit in Europa sowie atmosphärische Indizes hier zeigen, dass ein großer Teil der Winter-Variabilität (rekonstruierte DB4°C) dem Wechselspiel geschuldet ist zwischen den Oszillationen der zonalen Strömungen, die von der North Atlantic Oscillation (NAO) gesteuert werden, sowie dem Einfluss kontinentaler Antizyklonen (Sibirisches Hoch, Bedingungen Ostatlantik/Westrussland). Unterschiede zu anderen europäischen Aufzeichnungen werden geographischen klimatologischen Unterschieden zugeordnet zwischen Polen und Westeuropa (tief liegende Länder; Alpen). Der erstaunliche Gleichlauf zwischen der Kombination vulkanischer und solarer Antriebe sowie die DB4°C-Rekonstruktion vor dem 20. Jahrhundert zeigen, dass das Winterklima in Polen hauptsächlich auf eine natürlich angetriebene Variabilität reagiert (vulkanisch und solar). Der Einfluss von Variabilität ohne Antrieb ist gering.
[*Das Wort habe ich noch nie gehört. Bei WIKIPEDIA steht erläutert, was das ist: Das Epilimnion (Epilimnial) nennt man in der physikalischen Limnologie die obere erwärmte und stark bewegte Wasserschicht in einem geschichteten stehenden Gewässer. Das Epilimnion ist durch die Sprungschicht, das Metalimnion, von der unteren Wasserschicht, dem Hypolimnion getrennt. Quelle und Weiteres. Anm. d. Übers.]

Abbildung 1: Schwankungen in der Härte der polnischen Winter während der letzten 1000 Jahre. Aufgetragen ist die Anzahl der Tage mit Temperaturen unter 4°C. Ausschlag nach unten zeigte strenge Winter, Ausschlag nach oben milde Winter an. Aus: Hernández-Almeida et al. 2015.
Auf unserem europäischen Streifzug durch die aktuelle Literatur zur Klimawirkung der Sonne geht es jetzt an den Südwestzipfel des Kontinents. In Portugal untersuchte eine Forschergruppe um Santos et al. die Temperaturgeschichte der letzten 400 Jahre. Zum Wissenschaftlerteam gehört unter anderem auch Eduardo Zorita vom Helmholtz-Zentrum in Geesthacht. Im Fachblatt Climate of the Past berichten Santos und Kollegen über klare klimatische Auswirkungen der solaren Maunder und Dalton Minima auf das Temperaturgeschehen:
Neue Erkenntnisse aus der rekonstruierten Temperatur in Portugal während der letzten 400 Jahre
Die Konsistenz einer bestehenden rekonstruierten jährlichen Temperaturreihe (Dezember bis November) für das Gebiet um Lissabon ab dem Jahr 1600 basiert auf einer europaweiten Rekonstruktion, erzeugt aus: 1) fünf lokalen Tiefenprofilen der Temperatur aus Bohrlöchern, 2) synthetische Temperatur-Tiefenprofile, erzeugt sowohl aus rekonstruierten Temperaturen als auch zwei regionalen Paläoklima-Simulationen in Portugal, 3) instrumentellen Datenquellen im 20. Jahrhundert und 4) Temperaturindizes aus dokumentarischen Quellen zum Ende des Maunder-Minimums (1675 bis 1715). Die geringe Variabilität der rekonstruierten Temperatur in Portugal ist nicht ganz konsistent mit lokalen Tiefen-Temperaturprofilen aus Bohrlöchern und mit der simulierten Reaktion der Temperatur in zwei regionalen Paläoklima-Rekonstruktionen, getrieben durch Rekonstruktionen verschiedener Klimatreiber. … Weitere Kalibrierungen zeigen die klaren Fußabdrücke des Maunder- und des Dalton-Minimums, die allgemein mit Änderungen der Sonnenaktivität in Verbindung gebracht werden sowie mit explosiven Vulkanausbrüchen. …
Schließlich sei noch auf einen Artikel aus Österreich von Auer und Kollegen hingewiesen, der im Februar 2015 in Climate of the Past erschien. Die Forscher untersuchten eine 17 Millionen Jahre alte Sedimentabfolge in den Alpen. Dabei stießen sie im Rahmen einer hochauflösenden paläoklimatischen Untersuchung auf eine stark ausgeprägte natürliche Klimavariabilität und charakteristische solare Zyklen des Gleissberg und Suess-de Vries Typs. Auer und Kollegen schlussfolgern, dass das Klima des Miozäns maßgeblich durch solare Aktivitätsschwankungen gesteuert wurde. Im Folgenden die Kurzfassung der Studie:
Zwei ausgeprägte dekadische und jahrhundertliche Zyklizitäten trieben die Intensität maritimer Auftriebe von Tiefenwasser sowie den Niederschlag zum Ende des Frühen Miozäns in Mitteleuropa.
Innerhalb einer 5,5 Meter dicken Aufeinanderfolge von Sedimenten aus den Karpaten im nordalpinen Voralpenland (NAFB; Österreich), datiert zur CNP-Zone NN4, wurde kontinuierlich ein hoch aufgelöster Bereich aufgezeichnet. Einhundert Testmengen wurden mit einer Auflösung von etwa 10 mm (= etwa 17 Jahre) pro Schicht gezogen und analysiert mittels eines integrierten Multiproxy-Verfahrens. Frühere Analysen der Geochemie und Kalkablagerungen deuten auf kleinräumige, kurzzeitige Variationen der Umweltbedingungen in Paläo-Zeiten wie etwa Schichtenbildung in Wassersäulen, primäre Produktivität, Flüsse organischen Materials, Sauerstoffanreicherung tieferer Wasserschichten, Süßwasser-Zufluss und Änderungen des relativen Meeresspiegels. Die Ergebnisse zeigen eine hochdynamische dünne maritime Schicht, die Gegenstand häufiger Umweltänderungen im Zeitmaßstab von Jahrzehnten und Jahrhunderten war. Zeitreihen-Analysen von neun verschiedenen Proxy-Datensätzen wurden einer REDFIT-Analyse unterzogen, um eine möglicherweise zyklische Natur dieser Variationen zu erkennen. Die Analysen zeigten, dass unterschiedliche Proxys für Niederschlag, Intensität von Tiefenwasser-Aufwallung und Gesamt-Produktivität wahrscheinlich von unterschiedlichen Zyklizitäten getrieben werden. Eine Best-Fit-Adjustierung der wahrscheinlichen Sedimentations-Raten innerhalb des hoch aufgelösten Bereiches führte zu Periodizitäten, die gut zum niedrigeren (ca. 65 Jahre) und höheren (ca. 113 Jahre) Gleissberg-Zyklus ebenso wie zum Suess/deVries-Zyklus (ca. 211 Jahre) passen. Der Abschnitt überdeckt einen Zeitraum von etwa 1190 Jahren auf der Grundlage der Korrelation mit solaren Zyklen, was zu einer geschätzten Sedimentationsrate von 575 mm pro 1000 Jahre führte. Zum ersten Mal sind kurzfristige Klima-Variabilitäten im dekadischen bis jahrhundertlichen Zeitmaßstab aufgelöst in dünnen maritimen Sedimenten. Die Ergebnisse deuten auf eine enge Relation zwischen Klima-Variabilität und solarem Antrieb während der Zeit des Late Burdigalian. Außerdem, wenn man akzeptiert, dass diese Zyklizitäten wirklich solaren Ursprungs sind, würde dies zeigen, dass der Niederschlag von den beiden Gleissberg-Zyklen getrieben wurde, während das Aufwallen vom Suess-Zyklus getrieben wurde. Außerdem wurden Proxys der primären Produktivität durch beide Zyklen beeinflusst.
Beitrag zuerst erschienen bei der „Kalten Sonne“ hier. Übersetzung der englischen Passagen von Chris Frey EIKE
Anmerkung EIKE Redaktion: Die kalte Sonne hatte bereits am 20.August 2015 (hier) die EIKE-News vom 12.August 2015 (hier) über eine Publikation von Lüdecke, Weiss, Hempelmann abgedruckt. Diese Arbeit erschien in der Fachzeitschrift "Climate of the Past Discussion" der Europäischen Geophysikalischen Union (egu) (hier). In ihr wurde der Klimaeinfluss des De Vries /Suess Sonnenzyklus untersucht. Diese Arbeit ist in der obigen Zusammenfassung der neuesten Publikationen zum Klimaeinfluss der Sonne leider nicht mit aufgeführt.




Wenn der Staat es will- (VW) Manipulationssoftware auch am Bau

Dank unserer „Qualitätsmedien“ sind in den Augen der Öffentlichkeit nicht verrückte und ehrgeizige Politiker schuld, sondern die kriminellen Ingenieure. „Haltet den Dieb!“ rufen die Medien und berichten von „Geständnissen“. Geht’s noch?
Welcher Ingenieur hat nicht bereits mit Manipulationssoftware gearbeitet? Im Bauwesen beispielweise alle! Seit vielen Jahren werden Wärmeschutznachweise mit einer Software erstellt, deren Rechenkern im Auftrag der Bundesregierung vom Fraunhofer-Institut für Bauphysik erstellt wurde. In diesem Rechenmodel  werden Sonnenstrahlen, welche auf  Fenster treffen, rechnerisch als Energiegewinn berücksichtigt. Solche welche auf Außenwände fallen unlogischerweise und inkonsequenterweise nicht. Wandflächen sind viel größer, als Fensterflächen und Wände haben außerdem Wärmespeichervermögen. Selbst wenn man im tiefsten Winter an einem Sonnentag eine Südwand anfaßt, spürt man die gespeicherte Wärme.  Jeder Ingenieur mit physikalischem Grundwissen weiß, daß mit dem Rechenprogramm manipuliert und betrogen wird. Aber alle machen mit. Denn die Anwendung dieses Manipulationsprogramms wird mit staatlichem Zwang durchgedrückt.
Bestandsgebäude werden mit diesem Trick der Nichtberücksichtigung der Wände energetisch minderwertig gemacht. Eine zu hohe Heizlast der Altbauten wird berechnet, weil die Sonne als Energiequelle vernachlässigt wird. Die Zufuhr von Sonnenenergie und Globalstrahlung durch die Wände wird halt „vergessen“. Für das mit Dämmplatten „sanierte“ Haus wird die physikalisch richtige Heizlast gerechnet. Da aber wie bereits erwähnt das Bestandsgebäude schlechtgerechnet wird, wird der Effekt der „Sanierung“ zu positiv dargestellt. Jeder Hausbesitzer wundert sich, daß nach erfolgter Wärmedämmung die Heizkostenersparnis regelmäßig sehr deutlich unter der rechnerischen Prognose liegt.  Ursache ist eben, daß von der Bundesregierung Manipulationssoftware in Umlauf gebracht wurde. Und die ist auch noch verbindlich anzuwenden.
Im ganzen „grünen“ Bereich häufen sich die Übergriffe des Staates auf die Vernunft. Viele Berechnungen sind getürkt, um politisch gewollte, aber naturwissenschaftlich unsinnige Aussagen zu unterfüttern oder um unerfüllbare staatliche Anforderungen zu unterlaufen. Dieselgate und die Energienachweise für Gebäude sind nur zwei Beispiele.
Die Kriminellen sind die Politiker und Journalisten, nicht die Ingenieure. Es  wird Zeit, daß Ingenieure und Fachleute gegen die manipulierenden Medien- und Parlamentsaffen den Aufstand wagen. Es wird Zeit, daß die deutsche Industrie, die deutsche Landwirtschaft und das deutsche Handwerk sich gegen staatliche Willkür wehren. Wer das nicht rechtzeitig tut, endet wie VW-Vorstand Winterkorn am öffentlichen Pranger.  Lieber im offenen Kampf für die Wahrheit sterben, als von hinten von Lügnern heimtückisch erschlagen werden!
Übernommen von Prabelsblog hier




Hat James Hansen unabsichtlich die AGW-Null-Hypothese bewiesen?

Bild rechts: © Alan Caruba †
Hintergrund
Der erste IPCC-Bericht war im Jahre 1990 erschienen, aber einen mehr konzertierten Schub der AGW-Hypothese gab es erst im Bericht 1995. Vier Jahre später wurde die Auswertung eines Eisbohrkerns aus der Antarktis von Petit et al. in Nature veröffentlicht. Der Artikel enthielt auch eine Graphik, in der Temperatur, CO2, Methan und Einstrahlung miteinander verglichen werden (Abbildung 1)

Abbildung 1
Die Graphik scheint die AGW-Hypothese zu stützen. Es sieht so aus, als ob eine Temperaturzunahme einer CO2-Zunahme vorausgegangen war [It looked like temperature increase preceded CO2 increase. Das passt nicht zum Satz davor. Hat der Autor hier vielleicht etwas verwechselt? Anm. d. Übers.] Ich kontaktierte einen der Autoren, Jean Jouzel, und warnte ihn davor, in einem Interview zu einer Beurteilung zu kommen. Er merkte an, dass 420.000 Jahre in einer 10 cm langen Graphik geplottet waren, kompliziert durch ein über 70 Jahre geglättetes Mittel, das viele Details maskiert hatte. Er war vorausschauend. AGW-Befürworter ignorierten die Warnung und nutzten die Graphik als Unterstützung für ihre Hypothese. Im Endeffekt wurde sie zum Vorläufer des ,Hockeyschlägers‘, der so viel Aufmerksamkeit in den Medien und der Öffentlichkeit erregt hatte.
Allerdings hat schon Hubertus Fischer von der Scripps Institution of Oceanography in guter wissenschaftlicher Tradition die Beziehung zwischen Ursache und Wirkung in einer Studie aus dem Jahr 1999 in Frage gestellt. Im Jahre 2001 hat Manfred Mudelsee im Quaternary Science Review eine andere Studie veröffentlicht, in welcher er diese Beziehung ebenfalls in Frage stellt.
Lowell Stott wartete im Jahre 2007 mit einer Studie auf, veröffentlicht in Science, mit dem Titel Southern Hemisphere and Deep-Sea Warming Led Deglacial Atmospheric CO2 Rise and Tropical Warming [etwa: Erwärmung auf der Südhalbkugel und in der Tiefsee führte zu einem CO2-Anstieg und einer Erwärmung in den Tropen]. Sherwood und Craig Idso betreiben die beste Website hinsichtlich aller mit CO2 zusammenhängenden Themen. Dort findet sich auch eine Liste mit Studien und weiteren Beweisen, dass die Beziehung umgekehrt zur IPCC-Hypothese ist. Keine einzige dieser Studien hat jemals die Aufmerksamkeit der Mainstream-Medien erregt.
Gescheiterte Prognosen, welche schon im IPCC-Bericht 1990 aufgetaucht waren, waren eines der ersten Anzeichen des Problems. Anstatt die Hypothese zu überdenken und die Wissenschaft hinter ihr zu überprüfen, vollführte es die erste politische Adjustierung mit der Erzeugung von Projektionen anstatt Prophezeiungen. Dabei ließen sie es bewusst zu, dass Medien und Öffentlichkeit glaubte, es handele sich um Vorhersagen. Hansen et al. erzeugten einen Vorläufer der Projektions-Szenarien im Jahre 1988, also im gleichen Jahr, in dem er vor dem Komitee des US-Senats den gesamten AGW-Betrug losgetreten hatte. Abbildung 2 zeigt die Originalgraphik aus jenem Artikel.

Abbildung 2
In einem prägnanten Beitrag über Hansens Modell erstellte Anthony Watts* eine modifizierte Version der Abbildung 2 und fügte aktuelle Temperaturen hinzu (Abbildung 3)
[*Das ist etwas vereinfacht. Watts bezieht sich darin ausdrücklich auf Arbeiten von Sebastian Lüning und Fritz Vahrenholt vom Blog „Die Kalte Sonne“ sowie auf einen Beitrag von Pierre Gosselin auf seinem Blog NoTricksZone. Nur der Vollständigkeit halber. Anm. d. Übers.]

Abbildung 3
Hansen et al.postulierten drei Szenarien:
A: Zunahme der CO2- Emissionen um 1,5% pro Jahr
B: konstante Zunahme der CO2-Emissionen nach dem Jahr 2000
C: Keine Zunahme der CO2-Emissionen nach dem Jahr 2000
Natürlich haben sich die Mainstream-Medien sofort auf die Temperaturprojektionen von Szenario A gestürzt. Einige von uns wussten, dass die Szenarien A und B unrealistisch waren, und wir wussten, wie falsch sie lagen. Ich hatte in den neunziger Jahren viele Diskussionen mit dem kanadischen Experten für Eisbohrkerne Fritz Koerner über seine Bohrkerne von den Arktischen Inseln. Er sagte mir, dass die Bohrkerne eine Temperaturzunahme vor einer CO2-Zunahme zeigten. Im Rückblick ist Szenario C interessanter und aussagekräftiger.
Hansen präsentiert es als das ideale Szenario. Er sagt Politikern und Medien, was geschehen würde, falls die Menschen aufhören, CO2 in die Atmosphäre freizusetzen. Heissa! Die Temperaturen werden aufhören zu steigen. Ironischerweise ist dies äquivalent zu Modellläufen, als ob CO2 keine Erwärmung verursacht. Damit wird im Endeffekt die Null-Hypothese der AGW-Hypothese präsentiert. Es zeigt, was geschehen würde, falls CO2 nicht die Ursache der Erwärmung wäre. Es nähert sich der Realität an.
Abbildung 4 zeigt ähnliche Szenario-Projektionen aus dem AR 4 des IPCC im Jahre 2007, überlagert mit der tatsächlichen CO2-Zunahme. Der Unterschied zu Hansen liegt im niedrigen Szenario. Im AR 4 des IPCC heißt es:
Modellexperimente zeigen, dass selbst wenn wir alle Strahlungsantriebe konstant auf dem Niveau des Jahres 2000 halten würden, ein weiterer Erwärmungstrend während der nächsten beiden Jahrzehnte auftreten würde von etwa 0,1°C pro Dekade, hauptsächlich infolge der Trägheit der Ozeane.

Abbildung 4
Abbildung 4 scheint zu zeigen, dass die Projektionen für „Best“ und „Hoch“ primär eine Funktion der Zunahme des atmosphärischen CO2-Niveaus sind. Selbst die Projektion „Niedrig“ weicht vom tatsächlichen Temperaturtrend ab, wie die Aufzeichnungen am Boden (HadCRUT) und vom Satelliten (UAH) belegen. Außer dass sie die Null-Hypothese bestätigen zeigen die Ergebnisse auch, dass die IPCC-Behauptung des fortgesetzten Anstiegs infolge der Trägheit der Ozeane ebenfalls falsch ist.
Hansen begrenzte seine Forschung und seine Klimamodelle auf menschliche Ursachen des Klimawandels. Er erzeugte zwei Projektionen mit der Grundlage, dass CO2 weiterhin zunehmen werde. Damit hat er das Ergebnis im Voraus festgelegt. Er bestätigte seine Hypothese, der zufolge eine fortgesetzte menschliche Erzeugung eine globale Erwärmung verursachen werde, aber nur in den Modellen. Allerdings musste er, offensichtlich getrieben von seiner politischen Agenda, Politiker davon überzeugen, dass eine Reduktion der CO2-Emissionen das Problem lösen werde. Um dies zu unterstreichen, ließ er sein Modell ohne CO2-Zunahme laufen, um zu sehen, was dann passieren würde. Es erzeugte eine Kurve, die zum tatsächlichen Temperaturtrend der inzwischen vergangenen 27 Jahre passt. Dieses Ergebnis würde man erwarten, falls man die Null-Hypothese akzeptiert, dass CO2 aus jedweder Quelle keine globale Erwärmung verursacht. Danke, Jim, genießen Sie ihren Ruhestand.
Link: http://wattsupwiththat.com/2015/10/03/did-james-hansen-unwittingly-prove-the-null-hypothesis-of-agw/
Übersetzt von Chris Frey EIKE




Windparks sogar noch teurer und sinnloser als gedacht


Falls man dieser Graphik der US Energy Information Administration (EIA) glaubt, wäre Onshore-Wind eine der billigsten Energieformen – wettbewerbsfähiger als Kernkraft, Kohle- oder Wasserkraft – und noch mehr als Solar.
Aber wenn man die wirklichen Kosten der Windenergie mit einbezieht, ist diese rund 48% teurer als die offiziellen Schätzungen der Industrie. Dies zeigen neuere Forschungen an der Utah State University.
„In dieser Studie beziehen wir uns auf die ,wahren Kosten‘ von Wind, wie sie Verbraucher und die Gesellschaft als Ganzes zahlen, sowohl um den winderzeugten Strom zu kaufen als auch um die Industrie der Windenergie durch Steuern und Schulden der Regierung zu subventionieren“, sagte Ryan Yonk, Ph.D., einer der Autoren des Berichtes und Mitbegründer von Strata Policy. „Nach der Betrachtung all dieser Kostenfaktoren und einer sorgfältigen Begutachtung der bestehenden Kostenschätzungen konnten wir viel besser verstehen, wie viel höher die Kosten für die Amerikaner sind“.
Der begutachtete Bericht betrachtete die folgenden Faktoren:
Die Production Tax Credit (PTC) der US-Bundesregierung, eine unabdingbare Subvention für Windkrafterzeuger, hat den Energiemarkt durch die künstliche Verringerung der Kosten teurer Technologien und Umleitung von Steuergeldern zur Windindustrie verzerrt.
Die US-Staaten haben Renewable Portfolio Standards (RPS) eingeführt, welche Unternehmen verpflichten, Strom aus erneuerbaren Quellen zu verbrauchen, was die Stromkosten für Verbraucher weiter in die Höhe treibt.
Weil Windressourcen oftmals weit entfernt von bestehenden Überlandleitungen liegen, ist die Erweiterung des Netzes teuer, und die Kosten werden an die Steuerzahler und Verbraucher durchgereicht.
Konventionelle Generatoren müssen am Laufen gehalten werden als Backup zur Deckung der Nachfrage, wenn der Wind dies nicht vermag, was die Stromkosten der Verbraucher in die Höhe treibt.
„Innovation ist etwas Wunderbares, und erneuerbare Energie ist da keine Ausnahme. Die Windenergie hat seit den neunziger Jahren ein gewaltiges Wachstum durchlaufen, aber dies war zum allergrößten Teil eine Folge großzügiger Subventionen der Regierung“, stellte Yonk fest.
Unter den Faktoren, die Befürworter von Windenergie geflissentlich verschweigen, sind – wie der Bericht zeigt – die „Gelegenheits-Kosten“ der massiven Subventionen, die zur Verfügung zu stellen die Steuerzahler gezwungen werden, um Erzeuger zu überreden, sich in dieser anderenfalls grotesk ineffizienten und großenteils sinnlosen Form der Energieerzeugung zu engagieren.
In den USA führt dies zu Kosten von 5 Milliarden Dollar pro Jahr an Production Tax Credits (PTC). Dieses Geld könnte man auch für Bildung, Gesundheit, Verteidigung ausgeben – oder man hätte es auch in den Taschen der Steuerzahler belassen können, um es nach eigenem Belieben auszugeben.
Stattdessen wurde es verschwendet für kapitalhungrige Spießgesellen-Kapitalisten, um die Landschaft mit Fledermäuse und Vögel zerschreddernden Öko-Kruzifixen zuzupflastern, um Energie zu erzeugen, die so flatterhaft ist, dass sie oftmals nicht zur Verfügung steht, wenn sie am meisten gebraucht wird (an sehr heißen oder kalten Tagen, wenn die Nachfrage wegen Air Condition bzw. Heizung hoch ist) und nur zu viel verfügbar sind bei anderen Gelegenheiten, wenn eine Windstrom-Flutwelle bedeutet, dass die Windkraft-Erzeuger tatsächlich den Unternehmen Geld zahlen müssen, damit diese ihre unerwünschte Energie abnehmen. Dieser Effekt, bekannt als „negative Preise“, ist für die Windkraft-Erzeuger sehr lukrativ, weil sie ihre Subventionen nur bekommen, wenn sie Energie erzeugen (egal ob diese gerade gebraucht wird oder nicht). Aber es ist eindeutig nicht lukrativ für die Menschen, die letztendlich alles bezahlen müssen: also die Steuerzahler.
Dabei wird all dies offen zugegeben, wenn der serienmäßige Windkraft-„Investor“ Warren Buffet sagt: „Wir bekommen Steuervorteile, wenn wir viele Windparks errichten. Das ist der einzige Grund, diese zu errichten. Sie machen keinerlei Sinn ohne diese Steuervorteile“.
Aber auch dieser Bericht könnte die wirklichen Kosten von Windenergie noch unterschätzen. Berücksichtigt ist nämlich nicht der Schaden für die Gesundheit der Menschen, die das Pech haben, in der Nähe von Windturbinen zu wohnen. Dies wird zum ersten Mal offiziell eingeräumt in diesem Bericht, der für die Regierung von Australien erstellt worden ist.
Auch wird die Verschandelung der Landschaft nicht berücksichtigt – die einem Bericht von Christopher Booker zufolge weit größer ist als das von den Grünen erzeugte schwarze Untier des Fracking.
Als Prof. David MacKay im vorigen Jahr als leitender wissenschaftlicher Berater des US-Energie- und Klimawandel-Ministeriums zurücktrat, ließ er noch einen Bericht erstellen, in der die umweltlichen Auswirkungen einer Fracking-Bohrstelle mit denen von Windparks verglichen werden. Im Verlauf von 25 Jahren, berechnete er, würde eine einzige Fracking-Bohrstelle, die fünf Acres [ca. 2 Hektar] Land verbraucht und mit einem Bohrturm mit einer Höhe von 85 Fuß [ca. 25 Meter], (der nur weniger als ein Jahr lang gebraucht werden würde) genauso viel Energie erzeugen wie 87 riesige Windturbinen, die 5,6 Quadratmeilen [ca. 5 km²] Land verbrauchen und noch in einer Entfernung von 20 Meilen [ca. 32 km] zu sehen wären. Und doch, für die grünen Kindergärtler ist Ersteres ein Gräuel, obwohl es Energie erzeugen kann, soviel wie gebraucht wird und ohne einen einzigen Penny an Subventionen, während Letzteres, das nur sehr unzuverlässig Energie erzeugen kann im Gegenzug zu Millionen Pfund an Subventionen, sie zu Jubelstürmen hinreißt.
Außerdem wird mit keinem Wort die epische Zerstörung der Vogelfauna dieser vermeintlich ach so umweltfreundlichen Apparate erwähnt. Der Ökologe Clive Hambler von der Oxford University schreibt:
Forschungen der Umweltgruppe SEO/Birdlife zufolge werden jedes Jahr in Spanien allein zwischen 6 und 18 Millionen Vögel und Fledermäuse durch Windparks getötet. Dabei werden grob geschätzt doppelt so viele Fledermäuse wie Vögel getötet. Dies bedeutet statistisch etwa 110 bis 130 tote Vögel pro Jahr und Windturbine sowie 200 bis 670 Fledermäuse pro Jahr. Und diese Zahlen könnten noch geschönt sein, falls man sie mit Statistiken vergleicht, die im Dezember 2002 von der California Energy Commission veröffentlicht worden sind: ,In einer Übersicht der Auswirkungen von Windturbinen auf Vögel von Benner et al. (1993) lag die Todesrate pro Turbine und Jahr bei Vögeln bis zu 309 in Deutschland und 895 in Schweden‘.
Weil man Windparks bevorzugt in freiem Gelände oder auf Hügeln errichtet, wo die Thermik gut ist, töten sie eine unverhältnismäßig große Zahl von Greifvögeln. In Australien ist der Keilschwanzadler durch Windparks vom globalen Aussterben bedroht. In Nordamerika töten Windparks zehntausende Greifvögel einschließlich Steinadler sowie das Wappentier der USA, den Weißkopfadler. In Spanien sind der Schmutzgeier und der Gänsegeier bedroht – von denen 400 allein in einem Jahr in Navarra allein getötet wurden. Norwegische Windparks töten über zehn Seeadler pro Jahr, und die Population von Smøla wurde massiv betroffen, nachdem man Windparks gegen die heftigen Proteste von Ornithologen errichtet hatte.
Auch viele andere Vogelspezies sind gefährdet. In Nordamerika zum Beispiel würden geplante Windparks in den Großen Seen große Mengen Zugvögel töten. Im Atlantik sind Seevögel wie der Schwarzschnabelsturmtaucher bedroht. Offshore-Windparks sind genauso schlimm wie solche an Land, stellen sie doch eine zunehmende Bedrohung für See- und Zugvögel dar. Außerdem reduzieren sie die Größe von Habitaten für Wasservögel (wie z. B. Trauer- und Eiderenten).
In UK hat Schatzkanzler George Osborne das Problem mit Verspätung eingeräumt – welches die „grünste Regierung jemals“ des Premierministers geholfen hat zu erzeugen – und hat daher die Subventionen grüner Energie zurückgefahren.
Die Kosten der Subventionierung neuer Windparks geraten außer Kontrolle, wie Quellen der Regierung jüngst gewarnt haben.
Funktionäre räumen ein , dass die so genannten „Grüne-Energie-Programme“ bis zum Jahr 2020 die atemberaubende Summe von 9 Milliarden Pfund pro Jahr an Subventionen verschlingen werden – gezahlt von den Verbrauchern. Das sind 1,5 Milliarden Pfund mehr als die maximale Obergrenze, die die Koalition ursprünglich geplant hatte.
Die explodierenden Kosten werden bedeuten, dass jeder Haushalt in UK gezwungen ist, geschätzt etwa 170 Pfund pro Jahr bis zum Ende dieser Dekade zu zahlen, um ein Programm voranzubringen, das von der Koalition vorangetrieben wurde.
Aber angesichts der Schäden, die der britischen Landschaft bereits durch Windturbinen zugefügt worden sind, könnte es sehr leicht zu einem Fall werden, bei dem das Kind bereits in den Brunnen gefallen ist – und man den Brunnen danach verschließt. Besonders wenn man sich vor Augen führt, dass dieser Mann bereits einen Nutzen von 100 Millionen Pfund aus diesem Schwindel gezogen hat und dass es keinerlei Möglichkeiten gibt, auch nur einen Penny des von ihm verschwendeten Geldes zurückzubekommen.
Link: http://stopthesethings.com/2015/07/16/wind-farms-even-more-expensive-and-pointless-than-you-thought/
Übersetzt von Chris Frey EIKE




Menschliche Fehler bei Temperaturmessungen

66Die täglichen, vom NCDC zusammengestellten USHCN-Temperaturaufzeichnungen enthalten die täglichen Maximum- und Minimum-Temperaturen für jede Station in dem Netzwerk ftp://ftp.ncdc.noaa.gov/pub/data/ghcn/daily/hcn/. In einigen Fällen werden Messungen für einen bestimmten Tag nicht aufgezeichnet und als -9999 bei Tmax und/oder Tmin für jenen Tag angegeben. In anderen Fällen wurde eine Messung aufgezeichnet, fiel aber bei einer Reihe von Qualitätskontrollen durch.
Qualitätskontrollen
Ich war neugierig zu erfahren, wie oft verschiedene Qualitätskontrollen gescheitert sind. Darum schrieb ich ein Programm, um mich durch die täglichen Files zu wühlen, um mehr zu erfahren. Zufälligerweise verfügte ich bereits über eine sehr geringe Anzahl täglicher USHCN-Aufzeichnungen, die ich schon für andere Zwecke heruntergeladen hatte. Diese nutzte ich jetzt, um die Software auszutesten.
Ich merkte rasch, dass mein Algorithmus eine größere Anzahl von gescheiterten Konsistenz-Checks der täglichen Aufzeichnungen für Muleshoe in Texas berechnete als bei der mit einem „I“ markierten korrespondierenden Station in der monatlichen Aufzeichnung des USHCN. Die tägliche Aufzeichnung beispielsweise markierte den Minimum-Wert am 6. und 7. Februar 1929 und den höchsten Wert am 7. und 8. Februar. Mein Verfahre berechnete das als drei Tage mit falschen Daten, aber bei den monatlichen Rohdaten waren nur zwei derartige Tage für Muleshoe angezeigt.
Unabhängig davon, wie viele Fehler gezählt worden sein sollten, ging aus der täglichen Aufzeichnung klar hervor, warum diese indiziert waren. Die Minimum-Temperatur vom 6. Februar lag höher als die Maximum-Temperatur am 7. Februar, was eine Unmöglichkeit ist. Gleiches galt für den 7. Februar relativ zum 8. Februar.
Ich bemerkte, dass es eine ganze Reihe von Fehlern wie diesem in den täglichen Aufzeichnungen von Muleshoe gab, die sich über viele Jahre erstreckten. Ich fragte mich, wie den Beobachtern wiederholt solche Fehler unterlaufen konnten. Es war an der Zeit, sich wieder dem Beobachtungsformular B-91 zuzuwenden, um zu sehen, ob dieses ein wenig Licht in die Angelegenheit bringen konnte.
Übertragungsfehler
Das B-91-Formular stammt von dieser NOAA-Website und ist unten verlinkt. Nach der Umrechnung der Temperaturen in Grad Celsius wurde das Problem offensichtlich. Die erste Temperatur (43) scheint durchgestrichen. Die letzte Temperatur in jener Spalte (39) weist einen blassen Pfeil auf, der aus einer Zeile weiter unten mit der Kennzeichnung „1*“ auf diesen Wert zeigt. Das „1*“ ist eine Bemerkung des Inhalts „Maximum-Temperatur eingeben für den ersten Tag des Folgemonats“.
February 1929 B-91 for Muleshoe, TX
Folgendes stellte sich heraus: Wer auch immer die händische Aufzeichnung in elektronische Form gebracht hat, hatte gedacht, dass der Beobachter beabsichtigte, die erste Temperatur auszustreichen und sie zu ersetzen durch eine von weiter unten, womit er folglich die Maximalwerte für den gesamten Monat um einen Tag nach oben verschob.
Um die Absicht des Beobachters herauszufinden, wurde das B-91-Formular für März 1929 untersucht um zu sehen, ob die erste Maximum-Temperatur 39 war, wie es mit „1*“ im Februar-Formular gekennzeichnet worden war. 39 war nicht nur die erste Maximum-Temperatur, es scheint, als ob sie mit der gleichen Markierung durchgestrichen worden ist. Obwohl die Ausstreichung im März-Formular erschien, war jene Aufzeichnung korrekt übertragen worden. Ein rascher Blick auf B-91 für Januar 1929 zeigte die gleichen Strichmarken über der ersten Temperatur.
March 1929 B-91 for Muleshoe, TX
January 1929 B-91 for Muleshoe, TX
Die Strichmarken tauchen auch in anderen Formularen auf. Der Oktober 1941 sah interessant aus, weil beide gescheiterten Qualitäts-Checks aus einem offensichtlichen Grund nicht anwendbar waren. Die gekennzeichneten Temperaturen waren für die Jahreszeit nicht ungewöhnlich und auch nicht ungewöhnlich relativ zu dem Tag davor bzw. danach. Mit dem Öffnen von B-91 war das gleiche „Ausstreichungs“-Artefakt sichtbar über dem ersten Eintrag der Maximum-Temperatur! Natürlich sind die Maximum-Temperaturen in der gleichen Weise verschoben worden wie im Februar 1929. Als Folge davon waren zwei kältere Tage aus der Berechnung der mittleren Temperatur ausgesondert worden.
October 1941 B-91 for Muleshoe, TX
Weil die Markierungen gleich waren, scheint es, als ob sie in viele Formulare übertragen worden waren, wenn diese in einem Speicher gesammelt wurden, möglicherweise weil die Formulare Blaupausen waren. Dies wäre wahrscheinlich geschehen nach der Übermittlung, weil im Formular für 1941 der Beobachter Temperaturen ausgestrichen hat und klar war, wo die Ersatzwerte geschrieben worden sind.
Fehlerauswirkung
Zusätzlich zu einer falschen Maximum-Temperatur wurden alle drei Tage, die als nicht dem Qualitäts-Check genügend gekennzeichnet waren, nicht zur Berechnung des monatlichen Mittels verwendet. Das in der elektronischen Aufzeichnung reflektierte nicht adjustierte Mittel betrug 0,8°C, während es in der Aufzeichnung auf Papier 0,24°C betrug, also über ein halbes Grad kälter. Die Schätzung des Zeitpunktes der Beobachtung betrug 1,41°C. Das Homogenisierungsmodell kam zu dem Ergebnis, dass ein monatlicher Wert nicht aus täglichen Daten berechnet werden konnte und sonderte ihn aus. Stattdessen füllte es die Lücke mit dem Monat und ersetzte den Wert mit einer Schätzung von 0,21°C, berechnet aus Werten der umliegenden Stationen. Während dies keine schlechte Schätzung war, bleibt aber die Frage im Raum, ob der Wert bei 0,12°C geblieben wäre, wenn die Übertragung korrekt erfolgt wäre. Außerdem hat das GHCN den Monatswert nicht übernommen, weil er eingetragen worden ist.
Im Falle des Januar 1941 reflektierte die elektronische Aufzeichnung einen nicht adjustierten Mittelwert von 2,56°C, während in der Papierform 2,44°C eingetragen war. Das Modell der Beobachtungszeit schätze das Mittel zu 3,05°C. Die Homogenisierung schätzte die Temperatur zu 2,65°C. Dies fand sich auch im GHCN.
Diskussion
Erst seit Kurzem haben wir die Fähigkeit, Klimadaten automatisch zu sammeln und anzuzeigen, ohne die Einmischung von Menschen. Viele der Temperaturaufzeichnungen, die wir haben, waren manuell gesammelt und angezeigt worden. Wenn Menschen involviert sind, können Fehler auftreten und treten auch auf. Tatsächlich war ich beeindruckt von den Muleshoe-Aufzeichnungen, weil die Beobachter Fehler korrigiert und Beobachtungszeiten angegeben hatten, die außerhalb der Norm an der Station lagen. Mein Eindruck war, dass die Beobachter an jener Station versucht hatten, so genau wie möglich zu sein. Ich habe mir die B-91-Tabellen anderer Stationen angeschaut, bei denen keine solchen Korrekturen oder Eintragungen vorgenommen worden waren. Einige dieser Stationen lagen bei Wohnhäusern. Ist es vernünftig zu glauben, dass die Beobachter niemals eine Beobachtung um 7 Uhr morgens aus irgendwelchen Gründen verpassten, wie z. B. während einer Urlaubsreise, über endlose Jahre hinweg? Dass sie immer ihre Beobachtung gleich beim ersten Mal korrekt niedergeschrieben hatten?
Die Beobachter sind lediglich eine menschliche Komponente. Hinsichtlich Muleshoe haben die Personen, die die Aufzeichnung in elektronische Form gebracht hatten, eindeutig fehlinterpretiert, was geschrieben worden ist, und das aus gutem Grund. Für sich genommen schienen die Tabellen Korrekturen aufzuweisen. Die mit der Datenübertragung befassten Personen haben dies wahrscheinlich vor vielen Jahren getan ohne jede Erfahrung, welche allgemeinen Fehler in der Aufzeichnung oder im Übertragungsprozess auftreten konnten.
Aber die Transskriptoren machten Fehler. In anderen Tabellen habe ich ausgetauschte Werte gesehen. Während ein Austausch von 27 mit 72 wahrscheinlich bei einem Qualitäts-Check aufgefallen wäre, wäre dies bei einem Übergang von 23 zu 32 wahrscheinlich nicht der Fall gewesen. Die falsche Eingabe von 20 anstatt korrekt -20 kann einen ganzen Monat mit brauchbaren Daten von automatischen Checks aussondern lassen. Diese Daten könnten nur gerettet werden durch eine sorgfältige Neu-Untersuchung der Papieraufzeichnung.
Jetzt dehne man all dies auf die übrige Welt aus. Ich denke, dass wir unseren Job so gut wie möglich gemacht haben, wie es in diesem Land zu erwarten ist, aber es ist nicht perfekt. Können wir Gleiches von der übrigen Welt sagen? Ich habe eine Vielfalt von Rechtfertigungen gesehen für die Adjustierungen der US-Daten, aber keine Erklärung dafür, warum in der übrigen Welt nicht einmal halb so viele Adjustierungen vorgenommen worden waren.
Link: http://wattsupwiththat.com/2015/09/28/human-error-in-the-surface-temperature-record/
Übersetzt von Chris Frey EIKE