Hatte das IPCC schon immer Recht?

Es drängt sich die Frage auf, warum im Jahre 2015 eine Begründung für die Richtigkeit von Klimamodellen aus den 90er Jahren des vergangenen Jahrhunderts veröffentlicht werden muss und man nicht einfach weiterentwickelte Klimamodelle vorstellt, die stattdessen die jüngere Vergangenheit zutreffend abbilden und einen verbesserten Blick in die Zukunft erlauben.
o Weil das IPCC schon immer Recht hatte?
o Geht es hier um die klimapolitisch existenzielle Frage nach der Unfehlbarkeit?
o Kann das IPCC tatsächlich ein Primat über das globale Klimageschehen beanspruchen?
Die Geschichte hat gezeigt, dass die Entwicklung der Wissenschaften niemals abschließend für beendet erklärt werden kann. Auch die mittelalterliche Kirche konnte die historische Entwicklung der Wissenschaften und damit die Abspaltung eines wissenschaftlichen Weltbildes von ihrer in sich geschlossenen Lehrmeinung schließlich nicht verhindern. Am Ende dieser Entwicklung stehen heute zwei völlig unvereinbare Weltsichten, zwischen denen ein Austausch von Erkenntnissen gar nicht mehr stattfinden kann.
Die modernen Wissenschaften konnten sich nur auf ihren aktuellen Stand entwickeln, weil der fortlaufende wissenschaftliche Erkenntnisprozess immer einen Nettogewinn an Wissen erzielt hat. Die Wissenschaft ist dynamisch, auf eine permanente Weiterentwicklung ausgelegt und kann niemals fertiggestellt werden. Die Gesellschaft finanziert die Wissenschaft und garantiert ihr die Freiheit von Forschung und Lehre. Es liegt dafür in der Verantwortung der Wissenschaft, der Gesellschaft aufrichtige und ungefilterte wissenschaftliche Erkenntnisse zurückzugeben. Das Paradoxon der institutionalisierten Klimaforschung ist daher heute die implizite oder explizite Forderung nach einem „Ende der Diskussion“, die den iterativen wissenschaftlichen Erkenntnisprozess negiert und jede weitere Entwicklung in der Klimaforschung kategorisch ausschließen will. Das läuft im Ergebnis aber auf die Verkündung eines statischen Glaubens an die Klimakatastrophe hinaus. Ein Galileo Galilei würde darin vermutlich deutliche Parallelen zur Inquisition seiner mittelalterlichen Kirche erkennen, und tatsächlich finden sich hier denn auch sämtliche Elemente, die eine religiös geprägte Weltanschauung ausmachen:
o Die Heilslehre von einer dekarbonisierten Weltgemeinschaft,
o die Bedrohung durch ein klimatisches Höllenfeuer
o und ein CO2-Ablass, mit dem sich der Gläubige von seiner persönlicher Emissionsschuld frei kaufen kann.
Die eigentliche Frage lautet also, wie sich die politisch korrekte Klimaforschung überhaupt in ein geschossenes Glaubensgebäude zurückziehen konnte. Gehen wir einmal ganz an den Anfang zurück. Wenn der Mensch unvermittelt einer Gefahr gegenübersteht, hier also der Anstieg des CO2-Gehaltes der Luft und ein befürchteter Anstieg der globalen Durchschnittstemperatur, dann ist es, evolutionär gesehen, sicherlich erfolgreicher, diese Gefahr zunächst einmal zu überschätzen. Alle, die sich in der Menschheitsgeschichte anders verhalten haben, dürften damit auch ihre statistische Überlebenschance verringert haben. Es setzt sich dann ein Erkenntniszyklus in Gang, um diese unbekannte Gefahr zu überwinden:
o Übersicht gewinnen: Einfache Plausibilitäten bestimmen und Gesetzmäßigkeiten ableiten.
o Maßnahmen ergreifen: Einen Maßnahmenkatalog und eine Prioritätsliste erstellen und abar-beiten.
o Prüfung und Anpassung der Maßnahmen: Stimmen die Gesetzmäßigkeiten und greifen die Maßnahmen?
Ein solcher iterativer Zyklus wiederholt sich dann, bis als Ergebnis dieses Warnprozesses eine Problemlösung erzielt wird oder eine Entwarnung stattfindet. Zunächst tritt also die Überhöhung einer unbekannten Gefahr ein, die sich dann für gewöhnlich im Verlauf zunehmender Erkenntnisse auf eine realistische Einschätzung reduziert. Und am Ende gibt es für ein Warnsystem nur zwei alternative Endstadien, den Übergang in ein Lösungssystem (=Konvergenz) oder einen Niedergang (=Divergenz), der dann gewisse innere Widerstände mit sich bringen mag. In der Klimadiskussion gilt heute offenbar, dass alarmistische Erkenntnisse, beispielsweise die ominöse Hockeystick-Temperaturkurve, trotz ihrer Widerlegung irgendwie in der Argumentationskette verbleiben und entwarnende Erkenntnisse, beispielsweise der Svensmark-Effekt, vom Klima-Mainstream grundsätzlich ignoriert, marginalisiert oder gar bekämpft werden.
Wie kommt es zu diesem eigenartigen Beharrungsvermögen des Klima-Mainstreams? Schauen wir uns einmal die Beteiligten an, um zu verstehen, wo sich hier Trägheitsmomente gegen eine Divergenz des Warnsystems aufgebaut haben könnten:
·       Die Protagonisten einer Klimakatastrophe haben gut bezahlte und sichere Arbeitsplätze in Behörden und Forschungseinrichtungen, ungeahnte Forschungsbudgets, modernste Hochleistungscomputer und höchste Aufmerksamkeit in Politik und Öffentlichkeit gefunden.
·       Politik, Industrie, Medien, NGOs und Einzelpersonen mit unterschiedlichsten Motivationen sehen durch planwirtschaftliche Maßnahmen gegen eine Klimakatastrophe ihre eigenen säkularen Ziele befördert.
·       Eine „schweigende Mehrheit“, die wirtschaftlich für alle Forschungsbudgets und Klimaschutzmaßnahmen aufkommt, sich aber keine unabhängige Meinung über das Problem bilden kann und in die staatlichen und wissenschaftlichen Institutionen vertrauen muss.
Die vorstehend Erst- und Zweitgenannten profitieren also ganz erheblich von diesem Warnsystem, und offensichtlich hat sich daraus inzwischen ganz zwanglos eine „Große Koalition zur Rettung der Welt“ formiert. Eine klare Trennung von primären und säkularen Zielsetzungen scheint hier nämlich schon deshalb nicht mehr möglich zu sein, weil durch personelle Überschneidungen zwischen wissenschaftlicher Forschung, politischer Beratung und NGOs eine globale Klima-Lobby entstanden ist, die mit ihrem monokausalen CO2-Klimatismus gleichzeitig das Problem und seine Lösung propagiert. Die Zielgruppe „schweigende Mehrheit“ kann deshalb auch gar nicht mehr erkennen, in welcher Funktion ihr einzelne Vertreter dieser Lobby tatsächlich gegenübertreten. Bei einer derart unklaren Beratungslage und den exorbitanten Kosten für die angestrebte Energiewende würde Otto Normalverbraucher im täglichen Privatleben jedenfalls sofort einen unabhängigen Sachverständigen hinzuziehen…
Das Klima-Warnsystem hat sich durch seine Verflechtungen mit Säkularinteressen inzwischen zu einer statischen Weltanschauung entwickelt, in der wesentliche gesellschaftliche und wissenschaftliche Kontrollfunktionen gar nicht mehr wahrgenommen werden können. Im Gegenteil, der Klima-Mainstream bedient sich in seiner ideologischen Auseinandersetzung mit entwarnenden Einzelerkenntnissen zunehmend einer abwehrenden medialen Inquisition gegen deren Erkenntnisträger, anstatt aktiv eine wissenschaftliche Überprüfung und gegebenenfalls Einbeziehung solcher Erkenntnisse in sein Paradigma zu betreiben. Üblicherweise spielen sich wissenschaftliche Auseinandersetzungen nämlich nicht auf der Ebene von beweis- oder widerlegbaren Einzelerkenntnissen ab, sondern auf einer Metaebene der Lösungssysteme oder Paradigmen. Je geringer die Summe der gesi-cherten Erkenntnisse ist, umso größer ist die Anzahl der möglichen Paradigmen. In einem normalen wissenschaftlichen Erkenntnisprozess steigt die Summe der Einzelerkenntnisse kontinuierlich an und damit wird gleichzeitig auch die Zahl der plausiblen Paradigmen reduziert. Am Ende eines solchen wissenschaftlichen Erkenntnisprozesses bleibt schließlich ganz zwanglos ein einziges Paradigma übrig, das sich dann als gesicherte Lehrmeinung bezeichnen darf.
Um nun seinen verfrühten Lösungsansatz zu verteidigen, fordert der weltanschaulich geprägte Klima-Mainstream in einem fundamentalistischen Alleinvertretungsanspruch eben diese Lehrmeinung für seinen von neueren Erkenntnissen bedrohten CO2-Klimatismus ein, während er die jüngere Klimaentwicklung seit 1850 einfach von den natürlichen Klimaschwankungen der paläoklimatischen Vergangenheit abkoppelt. Die gesellschaftlich verantwortliche Aufgabe der Klimawissenschaft wäre es aber gewesen, den iterativen Erkenntnisprozess über unsere Klimagenese weiter voranzutreiben und damit die Anzahl der plausiblen Paradigmen auf das Gesamtbild einer wirklichen Lehrmeinung hin zu reduzieren.
Der iterative wissenschaftliche Erkenntnisprozess über die Ursachen der vorhergesagten Klimakatastrophe wurde also offenbar von einer ganz zwanglos entstandenen globalen Klima-Koalition vorzeitig außer Kraft gesetzt, und zwar zugunsten der überstürzten Einführung eines monokausalen CO2-Klimatismus. Nutznießer sind in erster Linie weltanschauliche und wirtschaftliche Säkularinteressen, die jetzt in den westlichen Industrienationen auf Kosten der Allgemeinheit und unserer Marktwirtschaft umgesetzt werden. Während sich die Schwellenländer gegen eine solche Entwicklung heftig zur Wehr setzen, um den eigenen Lebensstandard weiter steigern zu können, spielen dabei die Interessen der Dritten Welt, subsummiert unter dem Stichwort E10, überhaupt keine Rolle mehr.
Am Ende dieser Betrachtung könnte man schließlich dem Eindruck erliegen, bei der prophezeiten Klimakatastrophe handele es sich um eine moderne Weltuntergangsideologie mit kaufkraftgetriebenen Betroffenheiten.
—————————
Uli Weber ist Geophysiker und Autor des Buches ”Klimahysterie ist keine Lösung”, das bei BOD für € 18,50 erhältlich ist.
Zuerst erschienen bei Die kalte Sonne
  




Ich komme, um Standards Erneuerbarer Treibstoffe (RFS) zu begraben

Bild rechts: Quelle: CFACT
Das RFS war ein Fehler seit seiner Einführung vor zehn Jahren. Seitdem ist das Programm trotz verzweifelter Versuche, es zu beschneiden, immer mehr erweitert worden und hat mehr Leben als Freddy Krueger [= Ich glaube, irgendeine Figur aus einem Horrorfilm. Anm. d. Übers.] Vielleicht sind die beiden SenatorInnen dabei, ein Wort von William Shakespeare und Marc Anthony umzuformulieren: „Ich komme, um das RFS-Äthanol zu begraben, nicht es anzupreisen“.
Befürworter von Erneuerbaren schlagen zurück, was vorhersehbar war. Sie sagen, dass Äthanol für Arbeitsplätze und Einkommen im landwirtschaftlichen Bereich unabdingbar ist. „Angebaute heimische Rohstoffe“ diversifizieren unseren Energiemix und reduzieren Importe von außerhalb, und Biotreibstoffe helfen „den gefährlichen, vom Menschen verursachten Klimawandel“ zu verhindern. Diese Behauptungen halten genauerem Hinsehen nicht stand.
Äthanol hat bereits den „Ereignishorizont“ [the blend wall] überschritten, sagen die beiden. Selbst die gegenwärtige Äthanolerzeugung bringt viel mehr Äthanol als je sicher als Beimischung zu Benzin verwendet werden kann. Dies und weniger gefahrene Meilen in letzter Zeit bedeuten, dass die Grenze bereits erreicht worden ist mit einer Beimischung von 10% von E10 zu Benzin. Eine noch größere Beimischung würde Motoren schädigen und Garantien wertlos machen. All dies führt zu einem Überschuss von Äthanol, zunehmenden Forderungen von Maisbauern nach E15, schlechteren Marktbedingungen und schädlichen ökologischen Effekten.
Und immer noch schreiben staatliche Gesetz vor, dass der Äthanolanteil weiter steigen muss: von 9 Milliarden Gallonen Äthanol im Jahre 2008 auf 14 Milliarden derzeit und 36 Milliarden Gallonen bis zum Jahr 2022. Dies würde all diese Probleme potenzieren.
In Amerika wird schon jetzt eine Fläche größer als der US-Bundestaat Iowa umgepflügt, nur um Mais für die Äthanolgewinnung anzubauen, wobei fast 40% des gesamten Mais‘ in Äthanol umgewandelt wird. Das garantierte Einkommen ist ein starker Anreiz für Farmer, ihre Ländereien nicht mehr zum Anbau von Weizen und Roggen zu nutzen, Erhaltungsmaßnahmen abzuschwächen und Naturschutzgebiete einzubeziehen – und stattdessen Mais anzubauen. Konvertiert man diese riesigen Maisfelder zu Äthanol, erfordert dies enorme Wassermengen zur Bewässerung, Düngemittel, Pestizide und Benzin oder Diesel, um diesen Mais wachsen zu lassen, zu ernten und zu verschiffen – und noch mehr Benzin, Diesel oder Erdgas, um das Äthanol zu erzeugen und zu vertreiben.
Die Maisbauern verdienen sich eine goldene Nase, da sie von Verträgen über die jährlich zu liefernde Menge Äthanol geschützt werden, die ihnen eine Nachfrage garantieren, ebenso wie Märkte und hohe Preise für ihr Erzeugnis. Aber es gibt keinen vergleichbaren „erneuerbaren Protein-Standard“, um einen Markt zu garantieren für gesetzlich festgelegte Mengen von Geflügel, Rind- und Schweinefleisch, Eiern und Fisch.
Folglich schossen die Preise für Mais in den USA in die Höhe, und zwar von 1,96 Dollar pro mittlerem Buschel* Mais im Jahre 2005 bis zu 7,50 Dollar im Herbst 2012 und 6,68 Dollar im Juni 2013. Im Jahre 2014 fiel der Preis etwas infolge von Rekordernten und geringerer Nachfrage nach Mais und Äthanol. Seit der Einführung von RFS sind die Futterkosten für Hühner-, Puten-, Eier- und Schweinehalter um etwa 100 Milliarden Dollar höher als sie es bei Fehlen von RFS wären, schätzt der Präsident des National Chicken Council Mike Brown.
[*Ein US-Buschel sind etwa 35,2 Liter. Anm. d. Übers.]
Diese Proteinfarmer wurden überzeugt, Maisbauern mit fast 1,35 Dollar pro Gallone Äthanol zu subventionieren; Rindfleisch- und Milchbauern wurden zu ähnlichen Subventionen gezwungen. Alle diese Kosten wurden an amerikanische Familien durchgereicht. Seit 2007 haben hohe und volatile Kosten für Nahrungsmittel viele Fleisch- und Geflügelproduzenten dazu gezwungen, ihre Produktion zu drosseln, sich für Bankrott zu erklären oder ihre Unternehmen an größere Unternehmen zu verkaufen. Biotreibstoff-Verpflichtungen bedeuten auch, dass internationale Hilfsagenturen mehr für Mais und Weizen zahlen müssen. Folge: Mehr Menschen bleiben länger unterernährt.
Energie aus einem Acre [ca. 0,4 ha] Mais ist minimal verglichen mit der aus Öl- und Gasbohrungen stammenden Energie, ebenso wie aus konventioneller Energieerzeugung und solcher aus hydraulischem Brechen (Fracking). Darüber hinaus erfordert Berechnungen des US Department of Energy zufolge Äthanol auf der Grundlage von Mais 2500 bis 29.000 Gallonen Frischwasser pro Million Btu* Energie. Biodiesel aus Sojabohnen erfordert wenig nachhaltig 14.000 bis 75.000 Gallonen Wasser pro Million Btu. Zum Vergleich, Fracking erfordert lediglich 0,6 bis 6,0 Gallonen Frisch- oder Brackwasser pro Million Btu erzeugter Energie.
[*Btu = British Thermal Unit {= 1.055,06 J}]
Neue seismische Bohrungen in tiefen Gewässern, hydraulisches Brechen und andere Technologien haben zur Entdeckung enormer neuer Reserven von Öl und Erdgas geführt – und es Unternehmen ermöglicht, viel mehr Petroleum aus Reservoiren zu extrahieren als jemals zuvor gedacht. Alle diese reichlich verfügbaren Öl- und Gasvorräte können ganz einfach Äthanol und andere Biotreibstoffe ersetzen und Ölimporte der USA sogar noch weiter zurückgehen lassen.
Dieses Wiederaufleben von Kohlenwasserstoffen hat die „Peak Oil“-Vorhersagen des Club of Rome völlig obsolet gemacht, denen zufolge uns das Welt-Petroleum rapide ausgehen wird. Es machte Umweltaktivisten von Big Green rasend wütend und verursachte bei den Ressourcen-Erschöpfungs-Alarmisten eine 180-Grad-Wende hin zu Erdgas. Gerade mal vier Jahre ist es her, dass der Sierra Club 75 Millionen Dollar von Aubrey McClendon und Michael Bloomberg zur Finanzierung einer Anti-Kohle-Kampagne verwendet hat, die darauf abzielte, Kohle- durch Erdgas-Kraftwerke zu ersetzen.
Inzwischen verachten die Sierraner Erdgas und wollen die Technologie total abschaffen, die uns die neue vielfältige Verfügbarkeit von Gas erst ermöglicht hat: hydraulisches Brechen. Sie missachten die Vorteile niedrigerer Gaspreise für Familien und Fabriken, sie missachten die Notwendigkeit für Kohle- und Erdgas-Energie als Backup für Energieerzeugung aus Wind und Solar, und sie denken sich alle möglichen Formen abstruser „Gefahren“ durch Fracking aus.
Mittlerweile hat die prominente Umwelt-Denkfabrik, das World Resources Institute, einen neuen Bericht herausgegeben, der zu dem Ergebnis kam: Wenn man Pflanzenmaterial in flüssige Treibstoffe konvertiert oder zur Energieerzeugung nutzt, ist das so ineffizient, dass es unwahrscheinlich ist, dass diese Art Treibstoff jemals einen substantiellen Anteil an der Weltenergienachfrage haben wird. Vielleicht noch schlimmer, die Verschwendung zahlloser weiterer Milliarden für diese fehlgeleitete Strategie wird dazu führen, dass noch weitere Millionen wertvoller, fruchtbarer Acres als „Energielieferanten“ missbraucht werden, anstatt zu helfen, mangelernährte und hungernde Menschen zu ernähren.
Zusätzlich zu den Gründen, warum RFS ein F* auf seinen Zeugnissen verdient, bringt Äthanol um 30% geringere Reichweiten als Benzin, so dass Autofahrer das Gleiche oder mehr für eine Tankfüllung zahlen müssen, aber weniger weit fahren können. Es verbraucht Wasser, korrodiert Motorteile und bringt Rasenmäher und andere kleine Maschinen zum Stillstand.
[*Unübersetzbares Wortspiel. Zeugnisnoten in den USA gibt es nur in Gestalt von Buchstaben von A bis F. Dabei bedeutet F ,flunk‘, also durchgefallen, entsprechend der deutschen Zeugnisnote 6. Anm. d. Übers.]
Die Äthanolerzeugung tötet auch maritimes Leben (hier). Vieles des Stickstoffdüngers, der gebraucht wird, um den ganzen Mais wachsen zu lassen, wird vom Land in Wasserstraßen geschwemmt, die in den Golf von Mexiko entwässern. Dort verursachen sie im Sommer eine gewaltige Algenblüte. Wenn die Algen absterben, verbraucht deren Verrottung Sauerstoff im Wasser – was zu großen Regionen mit geringem oder gar keinem Sauerstoffgehalt führt, in denen maritimes Leben erstickt, weil es nicht wegschwimmen kann.
Hinsichtlich von Arbeitsplätzen: Das Bureau of Labor Statistics BLS definiert „grüne Arbeitsplätze“ als solche, die ein Unternehmen „umweltfreundlicher“ machen. Darunter versteht das BLS sogar Personen, die versuchsweise mit Erdgas, Bio- oder Hybridtreibstoffen betriebene Busse fahren. Die Solar Energy Society erfasst darunter auch Buchhalter, Rechtsanwälte und Landschaftsgärtner, die etwas Zeit damit zubringen, Solarpaneele herzustellen oder zu installieren. Man könnte den Verdacht hegen, dass selbst Schnellrestaurants als grüne Arbeitsplätze erhaltend qualifiziert werden, nur weil sie zufällig Lastwagenfahrern etwas zu essen verkaufen, die Mais zu einer Äthanol-Fabrik transportieren.
Das bringt uns zum „Klima-Chaos“ als der allerletzten Rationale für teure RFS. Allerdings zeigen Klimagate und andere IPCC-Skandale eindeutig, dass die „Wissenschaft“ hinter den Behauptungen zur Klimakatastrophe auf Vermutungen beruhen, manipuliert oder sogar betrügerisch sind. Und tatsächliche Beobachtungen von Temperaturen, Stürmen, Dürren, dem Meeresspiegel und des arktischen Eises haben es strikt abgelehnt, mit Computermodellen und dem Hansen-Gore-EPA-IPCC-Katastrophenhype und -szenarien (hier) zu kooperieren. Dem Katechismus des Klima-Kataklysmus‘ – welchen der Blogger Jim Guirard den Ableger des Karbon-Kultes bezeichnet – darf nicht länger erlaubt werden, fehlgeleitete Standards und Subventionen zu rechtfertigen.
Das Einzige, was bei Äthanol-RFS „grün“ ist, sind die Millionen Dollar von Steuerzahlern und Verbrauchern* – die an Politiker fließen, die das Geld an willige Unternehmer verteilen, die darauf einen Teil davon für Kampagnen ausgeben, damit Politiker wiedergewählt werden und das Absahnen am Laufen zu halten.
[*Anspielung auf Dollarnoten, die alle ziemlich gleich grün aussehen {der „Greenback“}. Anm. d. Übers.]
Es ist an der Zeit, den RFS zu beerdigen – und damit aufzuhören, Autofahrer zu zwingen, Benzin zu kaufen, das ins Benzin zu mischen die Refiner gezwungen werden. Von kapitalistischen Arrangements eines Unternehmer-Klüngels profitieren zu wenige auf Kosten zu Vieler.
Paul Driessen (read full bio)
Link: http://news.heartland.org/editorial/2015/02/03/i-come-bury-renewable-fuel-standards
Übersetzt von Chris Frey EIKE




Offshore-Windkraft: Eine Grafik killt die Märchenstunde

Leider fragte offenbar keiner der Medienvertreter, ob denn diese neuen Offshore-Anlagen auch tatsächlich Strom abliefern.  Für den Netzanschluß der Nordseeanlagen ist der Netzbetreiber TenneT verantwortlich. Daher ist es relativ einfach, sich einen Überblick über die Nordseeanlagen zu verschaffen (Die Windenergie Offshore wird sowohl in der Nordsee, als auch in der Ostsee betrieben, die Anlagen in der Ostsee werden hier nicht betrachtet).
Ich lade in monatlichen Abständen das Anlagenregister aktuell herunter. Hieraus kann man die Offshoreanlagen herausfiltern und eine Zeitreihe mit der kumulierten Nennleistung bilden. Dies wird in der grünen Fläche dargestellt. Ab dem veröffentlichten Datum der Inbetriebnahme haben die Betreiber, nach meinem Stand der Erkenntnis nach einen Anspruch auf Vergütung, auch wenn die Energie nicht in das Netz eingespeist werden kann. Aus welchem Topf dies geschieht, ( Offshore-Haftung oder EEG-Konto) kann ich nicht beurteilen. Die Einspeiseleistung der Windenergie Offshore werden von mir Dunkelblau dargestellt.
Diese beiden Zeitreihen, optisch übereinander gelegt, zeigen meiner Einschätzung nach große technischen Probleme in der Nordsee, die, so wie es scheint, bisher nicht gelöst sind.  Dividiert man die Einspeiseleistung ( blau) durch die Nennleistung (grün) erhält man einen Leistungsäquivalent, das darstellt, wieviel Prozent der Nennleistung tatsächlich in das Netz geliefert wurden. Der lineare Trend zeigt eine negative Tendenz in Richtung 20 Prozent der Nennleistung. Will sagen: Trotz der 2014 massiv gestiegenen Kapazität der Anlagen, wird am Ende des Jahres kaum mehr Strom geliefert als am Anfang. Nur ein Fünftel der installierten Leistung wird tatsächlich bereitgestellt.
Hieraus ziehe ich folgende Schlüsse. Erstens: Es gibt Probleme mit der Anlagentechnik der Offshoreanlagen. Hier können Fundamentunterspülungen, Korrosion, Überlastung der Anlagentechnik oder ein Mix dieser Ursachen zu Ausfällen der Anlagen führen.
Zweitens: Scheinbar hat man die Problem der HGÜ-Technik (Hochspannungsgleichstromübertragungsleitung) nach wie vor nicht im Griff, da sich scheinbar komplette Windparke vom Netz trennen. Deshalb sollte man sich fragen, ob eine Umsetzung der Stromautobahnen zur Zeit ein Vabanquespiel für die deutsche Energieversorgung darstellt.
Rolf Schuster ist als Betriebsmittelkonstrukteur tätig. In seiner Freizeit hat er begonnen eine Windkraft-Datenbank anzulegen, um die Behauptungen der Windkraft-Lobby überprüfen zu können. Mittlerweile werden seine Grafiken auch von der Fachwelt beachtet.
Übernommen von ACHGUT hier




Gedanken eines Ingenieurs zur Hypothese einer Großen Klimaänderung

Hypothesen einer grundlegenden Klimaänderung?

Die AGW-Theorie schreibt dem CO2 eine starke, ausschlaggebende Rolle positiver Rückkopplungen zu. Dem ist mit Sicherheit nicht so. Etwas anderes treibt das Klima. Und wir wissen bislang noch nicht sicher was. Es war für die Menschheit immer schwierig, eine Theorie zu verwerfen, bevor eine andere, mehr versprechende Theorie diese ersetzen konnte. So unbequem wie das ist, aber wir werden oft auf das Rätsel reduziert „Wie sonst kann man sich das erklären?“. Und genau das ist derzeit der Fall. Allerdings ist die Beweislage für eine ausschlaggebende positive Rückkopplung durch CO2 nicht nur sehr schwach, sondern gar nicht existent. Dies verpflichtet uns, unablässig nach den wahren Treibern des Klimawandels zu suchen und hier vor allem nach den Treibern grundlegender Ereignisse.
Ich möchte gerne eine dem gesunden Menschenverstand folgende Hypothese bzgl. Klimatreiber zur Diskussion stellen, von der man eventuell zumindest teilweise schon zuvor gehört hat. Aber gleichzeitig biete ich eine investigative Methode an, von der ich glaube, dass man sie noch nie gehört hat. Auch ist diese vielleicht geeignet, Interesse zu wecken – an der Untersuchung, meine ich. Als Ingenieur und Manager möchte ich einige simple Perspektiven zum Thema grundlegende Klimaänderungen anbieten.
Ich glaube, es ist offensichtlich, dass der primäre Klimatreiber nicht CO2 ist und dass es auch nicht die Sonne ist (obwohl der solare Einfluss weit größer ist als der CO2-Einfluss). Die Aussage, dass die Sonne NICHT der primäre Treiber ist, ist glaube ich auf höchstem und hervorstechendstem Niveau perfekt verständlich (d. h. nicht begraben unter immensen Detail-Konfusionen).
Die solare Variabilität hat eindeutig seine häufige Signatur, jedoch mit geringer Amplitude auf das Klima (mit solarer Variabilität meine ich alle der vielfältigen Varianten: mittlere Helligkeit, mittlerer Abstand, Zyklen von Sonnenflecken, koronale Vorgänge, Modulationen kosmischer Strahlung usw.). Allerdings operiert die Sonne auf der Erde mit gewaltigen positiven Rückkopplungen. Diese einfache Tatsache schließt die Sonne als DEN primären Treiber aus. Wen ich primär sage, spreche ich von den primären Treibern, die für die wiederholten großen Transitionen zwischen Eis- und Warmzeiten – mit geringer Häufigkeit, aber sehr großer Amplitude verantwortlich sind.
Wenn die Erde vereist ist, wird sie bzgl. der Sonnenstrahlung hoch reflektiv und sollte daher als solche dauerhaft in diesem kalten glazialen Zustand verharren – falls es nicht irgendeinen anderen mächtigen Treiber gibt, der diese Lage wiederholt umgekehrt hat. Das gilt auch umgekehrt: Wenn die Erde in einer Warmzeit steckt, absorbiert sie sehr viel Sonnenlicht und sollte daher dauerhaft in diesem Warmzustand verharren – falls es nicht irgendeinen anderen mächtigen Treiber gibt, der diese Lage wiederholt umgekehrt hat. Aber wir wissen, dass beide Zustände wiederholt umgekehrt worden sind.
Geht man mal alles durch, was erforderlich ist, um diese großen Transitionen zu erklären, mit positiv rückgekoppelter solarer Variation, bekommt man einen gut choreographierten Satz unwahrscheinlicher Umstände. Ein Satz von Umständen, der große solare Variabilität erfordert (größer als die Albedo-Änderungen der Erde) und genaues Timing (z. B. um den Planeten nicht zu einem Eisball werden zu lassen oder ihn zu verbrennen); außerdem wiederholte Ereignisse dieser Art (60 bis 70 sind bekannt). Dieser Satz von Umständen schließt die Sonne als primären Treiber aus, selbst mit ihrem Fingerabdruck häufiger Signaturen mit geringer Amplitude auf vielfältige bedeutende Weise (CO2 weist natürlich das gleiche Dilemma auf).
Die Frage lautet also: „Was ist denn nun dieser ungemein starke Treiber mit geringer Häufigkeit, aber hoher Amplitude, der wiederholt die stabilen Zustände umgeschrieben hat in Gestalt großer Klima-Transitionen?“ Ich theoretisiere mal, die Antwort ist sehr wahrscheinlich die zweite der ausgeprägtesten irdischen Energiequellen … der Kernreaktor im zentralen Erdkern. [siehe Bild oben rechts!]
Hier folgt ein simplistisches, aber trotzdem genaues und nützliches „großes Bild“ der beobachteten Temperatur-Variationen, die so typisch waren während der letzten mehrere Millionen Jahre. Während des jüngsten Interglazials, der einzigen Zeit, in der Menschen existierten, gibt es eine erstaunliche Korrelation verstärkten Aufblühens der Menschheit und sehr wahrscheinlich allen Lebens in warmen Perioden mit hohem CO2-Gehalt.
Wir wissen schon lange, dass die Erde exothermisch ist, und zwar bis zu einem Ausmaß, dass sich das Erdinnere seit seinen Anfängen während der 4,5 Milliarden Jahre seitdem längst abgekühlt haben müsste. Wir wissen auch, dass andere Planeten in unserem Sonnensystem exothermisch sind, sehr wahrscheinlich aus dem gleichen Grund. Man braucht wirklich keinen großen Vertrauensvorschuss um zu erkennen, dass es einen riesigen und sehr heißen Kernreaktor im Zentrum der gegenwärtig sich in einer Zwischeneiszeit befindenden Erde gibt. Interne konvektive Bewegungen im Erdmantel würden das Innere der Erde thermisch homogenisiert haben, es sei denn, im Inneren existiert eine zentralisierte Heizquelle.
In ihrem Ursprung war die Erde ein flüssiger Ball, durch und durch vollständig geschmolzen. Wir glauben stark, dass schwere Elemente wie Eisen und Nickel sich der Gravitation folgend im Zentrum ansammelten. Aber was ist mit noch schwereren Elementen wie Thorium und Uran? Diese radioaktiven Materialien würden sich im Zentrum des Zentrums angesammelt haben. Und wir wissen auch, dass eine ausreichende Menge dieser radioaktiven Elemente mit – höchst wichtig – ausreichender nachbarschaftlicher Dichte spontan eine Kettenreaktion auslösen und enorme Wärmemengen erzeugen würde.
Es scheint also wahrscheinlich, dass ein solcher Reaktor existiert. Und diese Erklärung wird zu „Occams Rasierer“ bei der Beantwortung der Frage: „Woher bloß stammt die Wärme, dass die fortgesetzte Kontinentaldrift antreibt, zehntausende Vulkane, die Zirkulation im riesigen inneren Erdmantel und all die wiederholten Erdbeben auf der Erde?“ Diese Energie ist kein Überbleibsel von Wärme aus der Urzeit und kann mit Sicherheit auch nicht mit solaren Phänomenen erklärt werden. Wahrscheinlich, stammt die Energie aus einem Kernreaktor im inneren Erdkern (Es gibt Theorien, die diese Phänomene teilweise erklären mit verteiltem radioaktivem Zerfall. Allerdings passt die Erklärung eines zentralen Reaktors viel besser zu all dem – besonders hinsichtlich der erforderlichen Energiemenge ebenso wie des nachhaltigen enormen thermischen Gradienten im Erdinneren). Und es gibt starke Beweise für einen solchen zentralen Kernreaktor, während lediglich noch dessen Ausmaße Gegenstand von Diskussionen sind.
Wir wissen, dass die Sonne interne Wettervorgänge kompliziert; Wettervorgänge, die zu vielen Phänomenen führen, die wir beobachten. Wir wissen auch dass die Erde interne Wettervorgänge kompliziert hat, die Umpolungen erklären (beides erst vor Kurzem verstanden). Wie schwer kann es also sein sich vorzustellen, dass es auch im Zentrum des Erdkerns interne Wettervorgänge gibt?
Man kann sich leicht theoretisch einen viskosen, aber doch rotierenden Pool mit schweren, radioaktiv zerfallenden Materialien vorstellen, und zwar im Erdkern (mit einem geschätzten Durchmesser von >10 km) – was für eine bedeutende Primärwärme sorgt, die eine Zwischeneiszeit erzeugt und am Leben hält (und auch die Kontinentaldrift zusammen mit Erdbeben und Vulkanen antreibt). Erreichen diese Reaktionen einen Höhepunkt, kann der Zerfall durch Strömungen außerhalb dieses Zentrums unterbrochen werden, womit die Materialien weiter verteilt werden und weniger dicht sind. Und dann nimmt die Zerfallsrate signifikant ab – ebenso wie die Rate der Kontinentaldrift und die Häufigkeit von Erdbeben und Vulkanausbrüchen.

Im Folgenden führt Voisin seinen Ansatz näher aus. Er stellt einen Zusammenhang her zwischen der Rate der Bewegungen der Erdkruste (Kontinentalverschiebung), die hoch ist bei hoher Aktivität seines angenommenen Erdkern-Reaktors und niedrig im umgekehrten Fall, und der Klimaentwicklung. Er hat keine Studie gefunden, die sich dies zum Thema gemacht hatte.
Zwar stellt er den solaren Einfluss nicht in Frage (wohl aber den CO2-Enfluss!), hält aber die Amplitude ausschließlich solarem Treiben des Klimas für zu gering, um die beobachteten tatsächlichen Ausschläge zu erklären.
Aus seinen Ausführungen zieht er dann Schlussfolgerungen für die nächste Zukunft. Diese möchte ich hier wieder direkt übersetzen:
Diese Erde hat >11.000 Jahre in ihrem gegenwärtigen thermischen Anstieg verbracht (wahrscheinlicher sogar 18.000 bis 20.000 Jahre, abhängig davon, wie man es betrachtet). Im Mittel verharrt die Erde etwa 90.000 Jahre in Vereisung, dann 6000 bis 15.000 Jahre im Interglazial, bevor ´sie erneut in eine 90.000 Jahre dauernde Vereisung zurückfällt. Dieser Zyklus hat sich seit etwa einer Million Jahren erwiesenermaßen wiederholt, wahrscheinlich auch noch länger. Folglich ist es eine blanke Tatsache, dass der nächste Rückfall in eine große Vereisung überfällig ist.
Wir haben keine Ahnung, wann genau dies passieren wird, ja wir wissen noch nicht einmal, was diese großen Schwingungen überhaupt auslöst. Es könnte in 500 oder 1000 Jahren passieren – ist aber irgendwie unwahrscheinlich. Es kann sein, dass der nächste Rückfall in die Vereisung bereits unmittelbar bevorsteht – wir wissen es einfach nicht. Aber wir wissen dies: Es wird passieren, es wird abrupt sein (in geologischen Zeiträumen), und es wird sehr ernst für uns und alle Lebensformen hier auf der Erde. Und es ist nicht allzu schwierig sich vorzustellen, dass falls die Variabilität des Reaktors im Erdkern der wirkliche Grund dafür ist, dass das Ereignis verbreitet einher gehen wird mit erhöhten Häufigkeiten von Erdbeben und vulkanischer Aktivität, was den Reaktor abschalten und den nächsten Rückfall in die Vereisung auslösen wird. Es kann gut sein, dass wir uns heute an genau diesem Punkt befinden!! (Tatsächlich ist es wahrscheinlicher, dass das Ereignis, geologisch betrachtet, bereits vor Kurzem stattgefunden hat und wir gegenwärtig das „thermische Residuum“ eines verringerten Reaktor-Outputs erleben).

Irgendwie ist es uns gelungen, uns selbst davon zu überzeugen, nach einer subtilen, nuancierten Nadel im Heuhaufen zu suchen (große Variation durch geringe Störung). Stattdessen sollten wir nach einem Hammer in einer ansonsten leeren Schublade suchen (eine bedeutende Störung). Es gibt nichts Subtiles an diesen großen Klimaschwankungen. Sie erfolgen sehr abrupt und stark (sogar noch stärker als es nach unserem „geglätteten“ Rückblick aussieht). Es ist bekannt – was immer die Ursache für diese Schwankungen sind – sie überschreibt alle anderen Betrachtungen (einschließlich solar induzierter stabiler Zustände). Und doch bleiben viele von uns davon überzeugt, dass wir Sünder sind und uns selbst bestrafen müssen für nuancierte CO2-Emissionen. Dies ist inkonsistent sowohl zu den Beweisen als auch jedem gesunden Menschenverstand. Wir sind keine Sünder. Wir sind die guten Hüter dieser Erde (da wir auf unsere Missetaten geologisch sofort reagieren). Tatsächlich sind wir die „Natur“ dieser Erde. Können Sie sich vorstellen, dass uns besuchende Außerirdische zu einer anderen Schlussfolgerung kommen? Und eine erhöhte atmosphärische CO2-Konzentration stimuliert die Entwicklung aller Lebensformen. Unvermeidlich wird diese Erde in die nächste Vereisung zurückfallen, und das ist es, worauf wir uns vorzubereiten beginnen müssen.

In den nächsten beiden Abschnitten geht es wieder um Altbekanntes, nämlich um CO2 und große Klimaänderungen (was er genau wie die Klimarealisten einschätzt, dass also CO2-Änderungen der Temperatur hinterher hinken) und um die Versauerung der Ozeane.
In einem dritten Abschnitt führt er noch einmal seine Hypothese aus, dass aufgrund solarer Vorgänge ein geringer, aufgrund der von ihm angenommenen Vorgänge im Erdkern aber ein sehr starker Temperaturrückgang bevor steht. Dann fasst er die Ergebnisse seiner gesamten Ausführungen bis hier in folgenden Punkten zusammen:
Summary
1. Die Klimawissenschaft ist sehr kompliziert und weit davon entfernt, „settled“ zu sein.
2. Das Erdklima wird überwältigend stark dominiert von Negativ-Rückkopplungen, die gegenwärtig in unseren Modellierungs-Bemühungen kaum repräsentiert sind und auch nicht angemessen bei den derzeitigen Untersuchungen eine Rolle spielen.
3. Eine Klimaerwärmung treibt den atmosphärischen CO2-Gehalt hoch, da sie alle natürlichen Quellen von CO2-Emissionen stimuliert. Klimaabkühlung verringert den CO2-Gehalt.
4. Massive, wenngleich verzögerte thermische Modulationen des in den Ozeanen gelösten CO2 sind es, die ultimativ Modulationen des atmosphärischen CO2 antreiben und dominieren.
5. Die gegenwärtige Spitze des atmosphärischen CO2-Gehaltes ist weitgehend natürlichen Ursprungs (~98%). Von den 100 ppm Anstieg in letzter Zeit (von 280 auf 380 ppm) ist die Erhöhung von 280 auf 378 ppm natürlich, während der restliche Anstieg von 378 auf 380 anthropogen sein kann.
6. Die gegenwärtige CO2-Spitze in der Atmosphäre wäre höchstwahrscheinlich ohne dass sich der Mensch entwickelt hätte deutlich höher als heute beobachtet. Der zusätzliche CO2-Beitrag durch Insekten und Mikroben (und Säugetieren und nicht von Menschen bekämpfte Waldbrände) hätten höchstwahrscheinlich eine größere Spitze des CO2-Gehaltes bewirkt.
7. Der atmosphärische CO2-Gehalt hat einen drittrangigen bis nicht existenten Einfluss auf Auslösung und Verstärkung von Klimawandel. CO2 ist nicht entscheidend. Modulationen des atmosphärischen CO2-Gehaltes sind die Auswirkung von Klimawandel und nicht dessen Ursache.
8. Erhöhte atmosphärische CO2-Werte sind am ehesten mit einem erhöhten Vitamin-C-Gehalt vergleichbar – stimulieren sie jedoch alle Lebensformen auf der Erde zum Vorteil aller Lebensformen.
9. Der menschliche Verbrauch fossiler Treibstoffe lässt zuvor abgeschiedenes CO2 wieder in den Lebenszyklus des Planeten eintreten. Das ist vorteilhaft.
10. Zunehmender Energieverbrauch ist identisch mit zunehmendem menschlichen Wohlstand. Allerdings sind Warmzeiten mit einem relativ hohen CO2-Anteil auch historisch erforderlich, um menschliches Wohlergehen zu ermöglichen.
11. Die Sonne drückt dem Klima häufig verschiedene Signaturen auf, jedoch mit geringer Amplitude. (Wenn es eine auf CO2 hindeutende Signatur geben sollte, ist diese so schwach, dass sie bisher nicht nachgewiesen werden konnte).
12. Wir kennen bislang noch nicht die Treiber seltener Klimawandel mit sehr großer Amplitude. Allerdings überschreiben diese mächtigen Treiber alle anderen Treiber, auch die solaren.
13. Milankovitch-Zyklen sind ausgiebig untersucht worden mit dem Ergebnis, dass sie nur für thermische Änderungen geringer Amplitude in Frage kommen mit Häufigkeiten, die mit Klimaschwankungen korrelieren können oder auch nicht. Allerdings gibt es eine Schwingung, nämlich den 100.000-Jahre-Zyklus (orbitale Exzentrizität), die sicher nicht korreliert und die den Georeaktor im Erdkern, über den hier spekuliert wird, gravitationsmäßig beeinflussen kann.
14. Die Erde hat sehr wahrscheinlich einen Kernreaktor im Erdkern. Modulationen des Outputs dieser von dem Reaktor erzeugten kinetischen Energie können sehr gut in Frage kommen für die selteneren Änderungen des Klimas mit hoher Amplitude.
15. Die nächste große Klimaänderung, auf die sich die Menschen vorbereiten müssen, ist zumindest eine Mini-Eiszeit, wenn nicht eine große Eiszeit. Daher wird der Energieverbrauch deutlich weiter zunehmen (ich hoffe, dass ich mich irre).

Sehr ausführlich führt Voisin seine Hypothese dann weiter aus, spricht Einwände von Lesern an und Ähnliches. Es würde zu weit führen, das hier alles zu übersetzen. Hier geht es mir ja nur darum, wie eingangs schon erwähnt, eine – zumindest für mich – völlig neue Hypothese als Grundlage für Klimaänderungen vorzustellen.
Am Ende macht Voisin sechs Vorhersagen, die hier wieder übersetzt werden sollen:
Sechs spezifische Vorhersagen der Geo-Reaktor-Hypothese
1.Die gegenwärtige Rate der Kontinentalverschiebung ist etwas unterschiedlich zur Rate, wie sie vom Beginn bis zur Mitte des Holozän vorherrschend war (aber wahrscheinlich nur marginal und möglicherweise fast ununterscheidbar, aber nichtsdestotrotz eine geringere Rate als im Vergleich zum Anfang des Holozäns).
2.Beide o. g. Driftraten (am Anfang bzw. Ende des Holozäns) sind erkennbar höher (> 2 mal und wahrscheinlich 5 bis 10 mal) als das, was während der großen Vereisung zuvor existierte – sagen wir, höher als während der Periode vor 25.000 Jahren.
Bemerkung: Der Begriff ,Kontinentalverschiebungs-Rate‘ kann genausogut durch die Begriffe ,tektonische Aktivitäts-Rate‘ oder ;Erzeugungsrate ozeanischer Kruste‘ ersetzt werden.
3.Eine außerordentliche Gravitationsstörung der Erde oder eine Konfluenz derartiger Störungen ereignete sich vor 18.000 Jahren (sagen wir, mit einer Bandbreite von vor 32.000 bis 16.000 Jahren) und hat ein ,Anfahren‘ des Georeaktors im Erdkern verursacht.
4.Das Gleiche ereignete sich auch vor 11.000 Jahren (sagen wir, mit einer Bandbreite von vor 32.000 bis 16.000 Jahren).
5.Untermeerischer Vulkanismus hat während der voran gegangenen großen Vereisung und beim Übergang zum Holozän kohärent mit terrestrischem Vulkanismus ab- bzw. zugenommen.
6.Der CO2-Gehalt der Ozeane ist während des Holozäns gestiegen im Zuge des in Punkt 5. angesprochenen untermeerischen Vulkanismus‘.
Auch die folgenden abschließenden Bemerkungen sind übersetzt:
Hinsichtlich der Vorhersagen 1 und 2 ist die University of Wyoming jüngst ein Entwickler verbesserter Datierungs-Technologien von untermeerischen Proben, die wahrscheinlich in der Lage sind, die Komplexe 1 und 2 zu validieren oder zu verwerfen. Diese Universität hat sich ehrerbietig beklagt hinsichtlich unterschiedlicher Prioritäten und der Finanzierung der von mir geforderten weiteren Untersuchung. Vielleicht hat einer der Leser Ideen, wie man diese Hindernisse überwinden kann. Oder kann ein Leser vielleicht einen alternativen Untersucher vorschlagen?
Hinsichtlich der Vorhersagen 3 und 4, hat sich Dr. Willie Soon jüngst ebenfalls über miteinander konkurrierende Prioritäten und Finanzierungen beklagt. Vielleicht hat einer der Leser Ideen, wie man diese Hindernisse überwinden kann. Oder kann ein Leser vielleicht einen alternativen Untersucher vorschlagen?
Hinsichtlich der Vorhersagen 4 und 5 bin ich weit offen für Vorschläge, wie man mit der Validierung oder der Widerlegung weitermachen kann.
Kurz vor Ende kam mir eine weitere Vorhersage hinsichtlich dieser Hypothese in den Sinn. Es gibt viele Ketten von Vulkaninseln auf der Erde, die chronologisch eine Reihe neuer Inseln hat entstehen lassen. Wahrscheinlich wird die Datierung dieser individuellen Entstehung der neuen Inseln zeigen, dass ihr Auftauchen dazu tendiert, mit dem Timing von Interglazialen kohärent zu sein wie zur Stützung von Vorhersage 5 oben. Allerdings wird dies nicht einfach sein, zeigt doch schon der erste Augenschein das Auftauchen dieser Inseln über sehr lange Zeiträume, wobei wahrscheinlich eine ganze Reihe von Ereignissen stattgefunden hat, bevor die neue Insel als solche im Ozean auftauchte.
Ronald D. Voisin
Fremont, CA
Das gesamte PDF steht hier: 

Related Files




Analyse der Leitgrafik im IPCC Synthesis Report, SYR-AR5 und der Trend zu Alarmismus beim IPCC

von Albrecht Glatzle
Der Leitgrafik  des 5. Sachstandsberichts des IPCC AR5 ist nachfolgende Abbildung (Fig SPM.5b) aus dem Synthesis-Report 2014 (http://ipcc.ch/report/ar5/syr/). Diese Abbildung erscheint in diversen Kombinationen und Modifikationen im genannten Synthesis Report insgesamt 4-mal (Fig. SPM5; Fig. SPM10; Fig. 2.3; Fig. 3.1). Es ist auffällig, dass diese Abbildung den beobachteten, bzw. erwarteten anthropogenen Temperaturanstieg als Funktion der kumulativen CO2-Emissionen seit Beginn der industriellen Revolution darstellt und die daraus folgenden CO2-Konzentrationen mit den entsprechenden Fehlerbereichen nur in Form verschiedenfarbiger Ellipsen angibt. Diese Darstellung ist ungewöhnlich, da fast niemand mit kumulativen CO2-Emissionen umgeht, aber jeder interessierte Laie die diversen modellierten Abhängigkeiten zwischen CO2-Konzentration und proklamiertem Temperaturanstieg kennt.

From IPCC: Climate Change 2014 Synthesis Report

 

 


Macht man sich die Mühe, oben genannte Abbildung (Fig. SPM5b) in eine Temperatur-CO2-Konzentrations-Beziehung zu setzen, indem man die den Ellipsenzentren zugehörigen Temperaturwerte abliest und gegen die mittleren CO2-Konzentrationen, die den Ellipsen zugeordnet wurden, aufträgt, erhält man folgende Abbildung 1 (Kurve 1, blau: Werte abgelesen aus Fig. SPM5b).

Abb. 1: Erwarteter bzw. angeblich beobachteter Temperaturanstieg in Anhängigkeit von der CO2-Konzentration mit logarithmischer Kurvenanpassung (schwarze Linien).
1. (Blau) Werte wurden in Fig. SPM5b abgelesenen. 2. (Kastanienbraun) Nur die Werte für 280 und 400 ppm wurden aus Fig. SPM5b übernommen, die einem anthropogenen Temperaturanstieg von 0,73ºC seit Beginn der Industrialisierung entsprechen, und logarithmisch extrapoliert. 3. (Türkis) Logarithmische Fortschreibung eines angenommenen anthropogen bedingten Temperaturanstiegs von 0,6ºC seit Beginn der Industrialisierung (vom IPCC in Fig. 1.10, SYR-AR5 als wahrscheinlichster Wert dargestellt). 

Tab. 1: Klimasensitivität und CO2-Konzentration bei Erreichen des 2-Grad-Ziels bei logarithmischer Fortschreibung der angenommenen, seit Beginn der Industrialisierung anthropogen verursachten Erwärmung (bzw. in Abhängigkeit des in Fig. SPM5b dargestellten IPCC-Szenarios).

Szenario

Anthropogener

Temp.-Anstieg seit 1880 (ºC)

Klimasensitivität: (Temp.-Anstieg bei CO2-Verdopplung)

ppm CO2 bei Erreichen des 2ºC-Grad-Ziels

IPCC, Abb. 1; Fall 1

0,73

2.21

534

Abb. 1; Fall 2

0,73

1.42

744

Abb. 1; Fall 3

0.6

1.17

919

Non-IPCC- Autoren

0.3

0.58

3019

Bei der blauen Kurve in Abb. 1, die aus den aus FigSPM5b abgelesenen Werten rekonstruiert wurde, fallen 3 Dinge auf:
1)    Das IPCC hat eine exponentielle Phase des Temperaturanstiegs eingebaut zwischen 400 und 450 ppm. Nichts aber auch gar nichts (außer einem vom IPCC beabsichtigten Alarmismus) spricht dafür, dass die Temperatur exponentiell mit der CO2-Konzentration ansteigt (siehe auch Punkt 3 dieser Auflistung) – und dies ausgerechnet in den kommenden 3 Jahrzehnten, in denen wir uns voraussichtlich der 450 ppm-Marke nähern werden. Hat das IPCC die ungewöhnliche Darstellung aus Fig. SPM5b gewählt, um den konstruierten völlig unbegründeten exponentiellen Schlenker nach oben zu kaschieren?
2)    In genannter Abbildung (Fig. SPM5b) geht das IPCC von einem anthropogen verursachten Temperaturanstieg von 0,73ºC seit Beginn der Industrialisierung aus (begleitet von einem CO2-Anstieg von 280 auf 400 ppm). Dieser Wert ist mit sehr hoher Wahrscheinlichkeit deutlich zu hoch gegriffen. Er entspricht der Differenz zwischen dem lt. IPCC beobachteten Temperaturanstieg seit 1880 von 0,85ºC, was nach Ansicht diverser Autoren auch zu hoch gegriffen ist, und dem untersten Zipfel des Konfidenzintervalls der „natural forcings“ in Fig. 1.10 SYR-AR5 (Global Average: Land and ocean surface). Der wahrscheinlichste Wert für den menschengemachten Anteil dieser Erwärmung ist laut IPCC (Fig. 1.10 SYR-AR5) 0,6ºC, was der Differenz von 0,85ºC Gesamterwärmung abzüglich der wahrscheinlichsten Erwärmung aufgrund „natural forcings“ (Mitte des Konfidenzintervalls in Fig. 1.10) von 0,25ºC entspricht. Gehen wir also in Übereinstimmung mit dem IPCC von dem Erwartungswert einer anthropogen verursachten Erwärmung von 0,6ºC seit Beginn der Industrialisierung aus, dann erreichen wir die 2-Grad-Erwärmung nicht schon bei einer CO2-Konzentration von 534 ppm (Tab. 1 und Kurve 1 mit blauen Werten in Abb. 1), sondern erst bei 919 ppm (Tab. 1 und Kurve 3 (türkis) in Abb1). Selbst wenn wir nur den vom IPCC hinzugeschusterten exponentiellen Schlenker weglassen (vgl. Punkt 1 dieser Auflistung), würden wir das 2-Grad-Ziel erst bei 744 ppm erreichen (Tab. 1 und Kurve 2 (kastanienbraun) in  Abb.1). Also kein Grund zu Hysterie, Eile oder Aufregung, die uns das IPCC ganz offensichtlich einreden will.
3)    Die Analyse von Fig. SPM5b ergibt, dass die theoretisch-physikalisch gut begründete und in jedem IPCC-Bericht bestätigte logarithmische Abhängigkeit des Temperaturanstiegs von der Konzentration von Treibhausgasen (d.h. konkret: Abnehmende Temperaturzunahme bei linearem CO2-Anstieg) erst bei hohen CO2-Werten einsetzt (Abb. 1, blaue Kurve). Bei niedrigen CO2-Werten wird vom IPCC entgegen der von ihm selbst akzeptierten Grundsätze (z.B. AR4, WG1 Chapter 2(1), p. 140: „For CO2, radiative forcing increases logarithmically with mixing ratio“) von einer exponentiellen Abhängigkeit ausgegangen (siehe auch Punkt 1 dieser Auflistung). Die logarithmische Kurvenanpassung (schwarz) an die Werte aus Fig. SPM5b (blau in Abb.1) zeigt einen für aktuelle CO2-Werte viel zu hohen theoretischen, menschengemachten Temperaturanstieg von 1.1ºC (fast das Doppelte von dem Wert, den das IPCC selbst für den wahrscheinlichsten hält).
Nach Ansicht vieler Experten ist auch der Wert von 0,6ºC als durch Treibhausgase verursachter, menschengemachter Anteil an der leichten Erwärmung der Erde seit Beginn der Industrialisierung zu hoch gegriffen. Vor allem verträgt er sich schlecht mit der Tatsache, dass kein einziges IPCC-Modell den Erwärmungsstillstand seit den letzten 18 Jahren trotz weiter steigender CO2-Werte vorhergesehen hat. Die Tatsache, dass die aktuellen mittleren Temperaturwerte außerhalb, d.h. unterhalb der Konfidenzintervalle aller früheren IPCC-Projektionen liegen (Abb. 2), spricht massiv gegen die Validierung der IPCC-Modelle (so würde ein vergleichbares Ergebnis jedenfalls in jeder studentischen Arbeit gehandhabt: Es würden die Modelle verworfen und nicht die Grafik, die die Unzulänglichkeit der Modelle zeigt: Die hier gezeigte Abb. 2 wurde von den IPCC-Funktionären für die endgültige Fassung des AR5 herauszensiert). Für den durchaus wahrscheinlichen Fall, dass die bisherige menschengemachte Erwärmung nur 0,3ºC oder weniger beträgt, würden wir eine menschengemachte Temperaturerhöhung von 2ºC erst bei mehr als 3000 ppm CO2 erreichen. Die fossilen Energieträger würden bestimmt vorher zu Ende gehen.

Abb 2: Die derzeit beobachteten Temperaturen (schwarze Punkte) liegen unterhalb der Konfidenzintervalle aller Temperaturprojektionen, die in den ersten 4 IPCC Berichten veröffentlicht wurden (FAR, SAR, TAR AR4). Quelle: 2nd order draft of AR5. The Washington Times, Dec. 18th 2012: Editorial: Chilling Climate-Change News. New leak shows predictions of planetary warming have been overstated. http://www.washingtontimes.com/news/2012/dec/18/chilling-climate-change-news/
Schlussfolgerung: Diese kritische Untersuchung des Leitgrafik  des SYR-AR5 (Fig. SPM5b) legt nahe, dass die festgestellten Übertreibungen, die Darstellungsart, die Datenauswahl bis hin zum offensichtlichen Bemühen, interne Wiedersprüche zu vertuschen, nur in eine Richtung weisen, die Neigung des IPCC zum Alarmismus. Sie bestätigt, dass offenbar mehr Gewicht auf das Erscheinungsbild der Dringlichkeit des Handelns (Dekarbonisierung) gelegt wird als auf Solidität und wissenschaftliche Konsistenz in den Darstellungen.