In einer Zeit, die immer mehr von Unsicherheit und Ängsten geprägt ist, macht Klimaschutz Mut

Beide Themen haben eine Information gemeinsam: Mag etwas auch noch so deutlich vor Problemen stehen und auch der Anlass weiterhin fragwürdig sein, unsere politische Führung denkt nicht über ein Thema neu nach, sondern verstärkt ausschließlich konsequent ihre „Kampfanstrengungen“. Entsprechend verbreitet sie dazu Durchhalteparolen und „frohe Botschaften zur Motivation“.

Zu diesem Thema kam jüngst bereits eine Darstellung über den Altbundespräsidenten, Horst Köhler und seiner Rede zum 25-jährigen Bestehen der Deutschen Bundesstiftung Umwelt Berlin:
EIKE: Wem wir erlauben, langfristig seinen eigenen Körper zu schädigen, dem sollten wir auch zutrauen, über die Zukunft unserer Gesellschaft mitzuentscheiden

Dieser Artikel mit der Rede von Umweltministerin Hendricks ergänzt den Zyklus an Statements von Berliner Politikern zum Klima und EEG. Es sind wieder stark gekürzte Auszüge. Zum tieferen Verständnis bitte die vollständige Rede lesen.

[1] Rede von Dr. Barbara Hendricks bei der Handelsblatt-Jahrestagung zur Energiewirtschaft

Ich muss nichts korrigieren, im Gegenteil

B. Hendricks [1]: … vor gut einem Jahr habe ich Ihnen vom Zustandekommen des Pariser Abkommens berichtet. Die Erinnerung an diese sehr emotionale und aufwühlende Situation war noch sehr frisch, wir sind alle sehr euphorisch aus Paris zurückgekehrt. … Muss ich heute Einschätzungen korrigieren? Vielleicht sogar etwas zurücknehmen von dem, was ich Ihnen gesagt habe?

Die Antwort ist: Nein. Im Gegenteil: Der Klimaschutz hat 2016 weltweit betrachtet eine weitere Dynamik bekommen, die zu Jahresbeginn noch nicht abzusehen war.

Die treibhausgasneutrale Weltwirtschaft bleibt unser Ziel, egal mit welchen Partnern

B. Hendricks [1]: … wir packen die globale Umkehr hin zu einer treibhausgasneutralen Weltwirtschaft entschlossen an.
falls die Vereinigten Staaten unter der neuen Administration auf internationaler Ebene beim Klimaschutz keine Vorreiterrolle mehr einnehmen wollen, sollte Europa zusammen mit China und anderen Industrie- und Schwellenländern weiter nach vorn gehen.

Uns Verzagten gibt das Mut, denn wir sind der Vorreiter

B. Hendricks [1]: … In einer Zeit, die immer mehr von Unsicherheit und Ängsten geprägt ist, macht das Paris-Abkommen Mut.

… Es war ein hartes Stück Arbeit – und macht mich deshalb auch ein wenig stolz – dass wir vergangenen November unseren Klimaschutzplan 2050 vorlegen konnten. Wir haben damit als eines der ersten Länder eine derartige Langfriststrategie vorgestellt.
Wir wollen bis zum Jahr 2050 ein weitgehend treibhausgasneutrales Deutschland erreichen. … Ich bin davon überzeugt, dass die Wettbewerbsfähigkeit einer Volkswirtschaft künftig davon abhängen wird, wie schnell und effizient sie sich dekarbonisieren kann.

Moderner EEG-Strom kostet nicht mehr als konventioneller

B. Hendricks [1]: … Rund ein Drittel des Stroms, der heute in Deutschland verbraucht wird, kommt aus Wind, Sonne und Biomasse. Das ist für sich genommen bereits ein Riesenerfolg. … Die Stromgestehungskosten neuer Photovoltaik- und Windenergieanlagen an Land liegen in Deutschland heute auf dem gleichen Niveau wie die Stromerzeugungskosten neuer Steinkohle- und Erdgas-Kraftwerke.

Den Beleg haben wir gemeinsam mit Dänemark erbracht

B. Hendricks [1]: Ein praktisches Beispiel: Gemeinsam mit Dänemark haben wir im vergangenen Jahr bei einer grenzüberschreitenden Auktion den niedrigsten europäischen Preis für Solarenergie von fünfeinhalb Cent die Kilowattstunde erzielt. Und die Internationale Agentur für Erneuerbare Energien IRENA berichtet sogar von Solarparks, die für rund 3 Cent pro Kilowattstunde produzieren. Aber, das muss an dieser Stelle sein, es geht auf der anderen Seite auch wesentlich teurer. Sie wissen, dass die britische Regierung den Betreibern der geplanten neuesten Atomreaktoren eine Vergütung von knapp 11 Cent pro Kilowattstunde garantiert. Das ist ein wirklich teurer Sonderweg, der am Ende niemandem nützt!

Stromspeicher werden dramatisch billiger

B. Hendricks [1]: Die Investitionen, die in Deutschland durch das EEG ausgelöst worden sind, zahlen sich dagegen jetzt aus: IRENA rechnet beispielsweise mit weiter rasant fallenden Preisen für Solarstrom und einer noch dramatischeren Entwicklung bei Stromspeichern.

Klimaschutz schafft Arbeit…

B. Hendricks [1]: … Denn Klimaschutz macht nicht nur Arbeit, er schafft auch Arbeit: Deutsche Unternehmen profitieren im internationalen Wettbewerb massiv von einer Vorreiterrolle bei Energieeffizienz und Erneuerbaren. Bereits heute stehen Erneuerbare Energien und energieeffiziente Technologien für 700.000 bis 800.000 Arbeitsplätze in Deutschland. Wir können getrost davon ausgehen, dass Deutschland mit seinen exportstarken Unternehmen und als Vorreiter bei der Energiewende von der Umsetzung des Pariser Abkommens besonders profitieren wird.

…und davon können andere Branchen nur träumen

B. Hendricks [1]: … Das ist – alles in allem – eine Situation, von der andere Branchen nur träumen können und ich kann nur dringend dazu raten, sich dieses Vorteils sehr bewusst zu sein und ihn nicht leichtfertig aufs Spiel zu setzen. Deshalb plädiere ich für eine offene und ehrliche Debatte.

Die Atomausstiegskommission war eine gute Erfahrung

B. Hendricks [1]: … Wir haben mit Kommissionen im Energie-Bereich gute Erfahrungen gemacht, etwa beim zweiten Atomausstieg oder zuletzt, als es um dessen Finanzierung ging. Deshalb denke ich, dass die beschlossene Kommission „Wachstum, Strukturwandel und Regionalentwicklung“ ein erfolgversprechender Ansatz ist.

Weil alles bisher so erfolgreich war, muss es weiter ausgebaut werden

B. Hendricks [1]: Künftig müssen Erneuerbare Energien auch im Bereich der Mobilität und der Wärme- und Kälteversorgung die wichtigste Primärquelle werden. Elektromobilität beispielsweise kann nicht auf Kohlestrom basieren, sie muss und wird auf Strom aus Sonne und Wind beruhen.

Wer auch nur entfernt die nackten Tatsachen – auf EIKE im Archiv zu jedem einzelnen von Frau Hendricks angesprochenen „Erfolgsstatement“ nachlesbar – kennt, merkt, wie weit entfernt von der Wirklichkeit unsere Politikkaste inzwischen agiert. Es erinnert fatal an die Engstirnigkeit und Erfolgsparolen der ehemaligen DDR-Führung bis zur Wende. Wichtig ist und bleibt ausschließlich die Umsetzung der Ideologie. Dieser Prämisse hat sich die Wirklichkeit anzupassen.

Bild Energielandschaft. Quelle: BMWIde © iStock.com/nullplus

Und als ob es bestellt worden wäre, erschien eben ein Artikel auf Achgut, der die Aussage von Frau Hendricks über den EEG-Erfolg ad absurdum führt:

Achgut.com: Energiepreise: Deutschland endlich mal wieder Spitze!
Wir müssen insgesamt in der Lage sein, den Politikern, die wirklich nachhaltig denken und vorgehen wollen, zu glauben

In einer kürzlich auf EIKE erschienen Buch-Rezension von W. Thüne: Mit Deindustrialisierung und Dekarbonisierung zum Klimaschutz?
wird am Ende zitiert, was im Buch von Prof. H. Lesch als Abschlussstatement ein Professor Ernst-Peter Fischer von der Universität Heidelberg (Wissenschaftsgeschichte) als Wunsch und zukunftsfördernd betrachtet:
Es gäbe bisher noch „keine Erziehung zum Irrationalen, zum Ästhetischen, zum Träumerischen, zum Fantasievollen“. Unsere Instinkte, unsere Emotionalität sind daher unterentwickelt.
Er fordert: „
Wir müssen insgesamt in der Lage sein, den Politikern, die wirklich nachhaltig denken und vorgehen wollen, zu glauben.

So stellen uns unsere Eliten inzwischen die moderne, transformierte Demokratie vor.
Warum wählen wir dann nicht gleich den Papst zum nächsten Bundeskanzler auf Lebenszeit und ermächtigen seine Glaubenskongregation (früher Inquisitionsbehörde), denen, die nicht bereit sind, das alles zu glauben, wieder mit „allerchristlichsten Mitteln“ zu „überzeugen“.

Achgut.com: Intellektuelle als Bodyguards der Konsens-Republik
Novo Argumente: Sanfter Paternalismus statt harter Überzeugungsarbeit

Die Bundesregierung

Demokratie erklärt in leichter Sprache (oder wie Politiker sich darstellen)
Damit jeder mit-entscheiden kann:
Die Menschen in Deutschland wählen
Politiker.
Politiker arbeiten in der
Bundes-Regierung.
Von Deutschland.
Sie
entscheiden zusammen wichtige Sachen.
Für die Menschen in Deutschland.
Zum Beispiel
Gesetze.
Oder Sachen mit
Geld.

Deutschland sagt:
Jeder Mensch soll
bei der Demokratie
mit-machen.
Die
Bundes-Regierung von Deutschland
macht darum
Programme.
Sie können bei den Programmen
mit-machen.
In der Schule.
Bei der Arbeit.
Oder mit Ihren Freunden.
Die Programme helfen.
Damit es mehr Demokratie in Deutschland gibt.

Das gleiche Thema in schwerem Deutsch (oder wie Bürger die Politik sehen):
TYCHIS EINBLICK: Gewaltenteilung verwirklichen

Quellen

[1] BMUB, 25.01.2017: Rede von Dr. Barbara Hendricks bei der Handelsblatt-Jahrestagung zur Energiewirtschaft




Greenpeace Mitbegründer Dr. Patrick Moore hatte recht: @Greenpeace STECKT voller Sch…

Dr. Patrick Moore, einer der Mitbegründer von Greenpeace, welchen die Organisation von ihrer Website zu entfernen versucht hatte, hat sich aus der Organisation zurückgezogen, weil:

Die von mir mitgegründete Organisation ist zu einem Monster geworden. Als ich während der Anfänge Mitglied in deren Zentralkomitee war, traten wir Kampagnen los gegen wahre Umweltbedrohungen wie Kernwaffentests in der Atmosphäre, Walfang und Robbenschlachten.

Als Greenpeace dann antiwissenschaftlich wurde mit ihrer Kampagne gegen Chlor (man rekapituliere die schiere Dummheit, eine Kampagne gegen ein Element im Periodensystem zu reiten!), kam ich zu dem Schluss, dass Greenpeace seinen Zweck aus den Augen verloren und sich nach Erreichen der ursprünglichen Ziele dem Extremismus zugewandt hatte, um seine weiter bestehende Existenz zu rechtfertigen.

Inzwischen hat sich Greenpeace mit voller Absicht selbst zu einem eingeschworenen Feind allen Lebens auf der Erde gemacht. [Da steht sie nicht allein! Politik und Medien hierzulande, allen voran wieder einmal die „Süddeutsche Zeitung“ ist ihr längst beigesprungen. Anm. d. Übers.] Sie steht gegen das eine Wirtschaftssystem, dass hinsichtlich Schutz und Erhalt der Umwelt am erfolgreichsten war.

Quelle: https://wattsupwiththat.com/2015/12/08/breaking-greenpeace-co-founder-reports-greenpeace-to-the-fbi-under-rico-and-wire-fraud-statutes/

Man lese und staune:

Greenpeace beansprucht Immunität gegen Gerichtsverfahren, weil deren Behauptungen ,Übertreibungen‘ sind

von Kathie Brown, PhD

Es gab eine interessante Wendung der Greenpeace involvierenden Ereignisse, eine der großen Vereine, die die scheiternde #ExxonKnew-Kampagne trieben: Sie wurde von der kanadischen Holzverarbeitungsfirma Resolute verklagt wegen Verleumdung und falscher Behauptungen bzgl. der Aktivitäten des Unternehmens.

Aber als Greenpeace vor Gericht Rede und Antwort stehen musste für deren Aktivitäten, war sich der Verein nicht sicher, ob er seine Behauptungen würde verteidigen können. Tatsächlich hat man zugegeben, dass jene Behauptungen keinen Sinn hatten. In einem kürzlich erschienenen Op-Ed erklärte der Präsident und Geschäftsführende Direktor Richard Garneau von Resolut:

Etwas Lustiges geschah, als Greenpeace und deren Verbündete gezwungen worden waren, zu ihren Behauptungen vor Gericht Stellung zu nehmen. Sie begannen mit dem Herbeten ihrer Litanei. Ihre Verdammung unserer Waldarbeiten „sind nicht strikt buchstäblich oder mit wissenschaftlicher Präzision zu nehmen“, wie sie in ihren jüngsten legalen Eingaben einräumen. Ihre Vorwürfe gegen Resolute waren stattdessen „Übertreibungen“ und „nicht verifizierbare Statements subjektiver Meinungen“, welche man nicht „wörtlich“ nehmen oder ihnen irgendeine legale Verbindlichkeit verleihen sollte. Das sind schlichte Erkenntnisse nach Jahren unverantwortlicher Angriffe (Hervorhebung hinzugefügt).

Kein „Waldverlust“ war von Resolute verursacht worden, räumte der Verein ein – jetzt, da man sie zur Rechenschaft zieht.

Auch die Financial Post berichtete darüber:

Aber jetzt sagt Greenpeace, dass sie niemals im Sinn hatten, dass die Leute ihre Aussagen über die Holzwirtschaft von Resolute als buchstäbliche Wahrheit auffassten.

In den Veröffentlichungen tauchte beispielsweise das Wort ,Wald-Zerstörer‘ auf, welches offensichtlich rhetorischer Natur ist“, schreibt Greenpeace in seinen Bemühungen, die Klage von Resolute abzuwehren. „Resolute hat nicht im Sinne des Wortes einen ganzen Wald zerstört. Es lässt sich natürlich darüber streiten, dass Resolute Teile der kanadischen borealen Wälder zerstört hat, ohne den Vorschriften und Praktiken zu folgen, die von der kanadischen Regierung und dem Forest Stewardship Council etabliert worden waren, aber das ist der Punkt: Die ,Wald-Zerstörer‘-Behauptung kann nicht bewiesen oder widerlegt werden, es ist lediglich eine Meinung“.

Mit anderen Worten, Greenpeace gibt zu, dass man sich auf „nicht verifizierbare Aussagen subjektiver Meinung“ stützt, und weil deren Behauptungen nicht faktisch gemeint waren, glaubt der Verein, nicht vor Gericht gezerrt werden zu können für das, was er sagt.

Bemerkenswerterweise hat Greenpeace aktiv an juristischen Klagen gegen ExxonMobil mitgewirkt. Man hat dem Unternehmen vorgeworfen, dass es während der siebziger und achtziger Jahre über den Klimawandel Bescheid „wusste“, bevor die führenden Wissenschaftler der Welt zu irgendwelchen soliden Schlussfolgerungen gekommen waren. Als die von Rockefeller finanzierte InsideClimate News and Columbia School of Journalism ihre #ExxonKnew-Schlagworte erfand, forderte Greenpeace sofort das Justizministerium auf, ein Ermittlungsverfahren gegen ExxonMobil einzuleiten, und zwar mit der Begründung:

Das Justizministerium sollte sofort ein Ermittlungsverfahren einleiten und das Unternehmen gerichtlich wegen Irreführung der Öffentlichkeit, von Gesetzgebern und Investoren hinsichtlich der Auswirkungen des Klimawandels zur Rechenschaft zu ziehen. Eine Untersuchung des Ministeriums sollte umfassend sein und auch die Rolle anderer Fossile-Treibstoffe-Unternehmen beleuchten, ebenso wie Handelsgesellschaften und Denkfabriken, welche Zweifel säen hinsichtlich der Risiken des Klimawandels. (Hervorhebung hinzugefügt).

Greenpeace behauptet, man kann nicht verklagt werden, weil deren irreführende Behauptungen nicht faktisch gemeint waren, aber danach behauptet der Verein, dass das US-Justizministerium gegen ein Energieunternehmen ermitteln muss wegen etwas, dass man „Irreführung der Öffentlichkeit“ nennt.

Es wird keine Überraschung sein, dass Greenpeace auch vom Rockefeller Brothers Fund und Rockefeller Family Fund finanziert worden ist, den gleichen Institutionen also, die auch jedem Schritt der #ExxonKnew-Kampagne den Weg gebahnt hatten.

Repräsentanten von Greenpeace waren zugegen bei einem geheimen Strategie-Treffen im Januar 2016, welches in den Büros des Rockefeller Family Funds in New York stattfand. Dort hatten sich die Aktivisten getroffen, um auszutüfteln, wie man „die Meinung der Öffentlichkeit dazu bringen kann, im Gedächtnis zu verankern, dass Exxon eine korrupte Institution ist“ und „das Unternehmen als einen politisch Handelnden zu delegitimieren“ und „Funktionäre zwingen, sich von Exxon loszusagen“.

Ein ehemaliges Mitglied des Direktoriums von Greenpeace, Kenny Bruno, twitterte im vorigen Jahr:

Ich möchte Exxon nicht aus der Welt schaffen.Ich möchte das Unternehmen einfach auf die Größe reduzieren, mit der ich es in das Badezimmer bringen und in der Badewanne ertränken kann“.

Falls es nicht ohnehin schon überaus offensichtlich gewesen wäre – diese jüngsten Entwicklungen zeigen einfach, wie leichtgläubig Greenpeace ist.

Quelle: https://energyindepth.org/national/greenpeace-claims-immunity-from-lawsuits-because-its-claims-are-hyperbole/

Ich hoffe, dass Resolute diese Öko-Clowns mit jedem Penny, den sie haben, zum Schweigen bringt. Wie in dem Fall, als Gawker wegen einer Verleumdung zu einer hohen Geldstrafe verurteilt worden war. Greenpeace verdient Gleiches in jeder Hinsicht.

Link: https://wattsupwiththat.com/2017/03/03/dr-patrick-moore-was-right-greenpeace-is-full-of-shit/

Übersetzt von Chris Frey EIKE




Gedanken zu: Klimawissenschaft vs. Klimatologie; Spezialisierung vs. Generalisierung; Wald vs. Bäume

Das Problem ist, das alles schon öffentlich war. Ich hörte den Kongressabgeordneten Lamar Smith während der großen Anhörung anlässlich der Heartland Conference im Juni 2015 sagen, dass die Vorladungen eingereicht wurden, um die vollständige Offenlegung des gesamten Materials zu erlangen. Er erzählte uns auch, dass die Anträge abgelehnt wurden, aber ein Follow-up war im Gange. Die gleichen Informationen wurden in den Mainstream-Medien gemeldet, allerdings mit einer Voreingenommenheit.

Warum ging Bates nicht zu Smith und berichtete ihm im Vertrauen, was er wusste?

Die Smith-Anfragen müssen von Gesprächen im Büro oder am Kaffeeautomaten initiiert worden sein.

Alle Arten von lahmen Ausreden wurden für Bates gemacht, vielleicht die einzige mit begrenztem Verdienst war, dass seine späte Offenlegung besser war als niemals. Das Problem ist, dass er und seine Unterstützer nicht beide Wege gehen können. Er kann kein kenntnisreicher Klimaforscher sein, der wertvolle Arbeit leistet, wenn das, was er und alle anderen um ihn herum taten, korrumpiert war, nicht in Frage gestellt wurde,  naiv und begrenzte politische Wissenschaft war.

Es muss mehr sein als ein bewusst blindes „ich befolge nur meine Anweisungen“. Die größere Frage ist, warum hat er nicht gesehen, was los war? Sogar als er erkannte, dass Thomas Karl nur unzureichende Daten genutzt hat, um „die Pause“ zu beseitigen. Es scheint, dass er davon ausgegangen ist, dass es ein Einzelfall war. Er sah nur, was er sehen wollte, weil er korrupte Wissenschaft ohne Frage akzeptierte. Wie konnte ich als Wissenschaftler die konsequent falschen IPCC-Vorhersageversagen sehen und nicht fragen, was an der Wissenschaft falsch war?

Die offensichtlichste Antwort ist, dass ein Wissenschaftler und ein Bürokrat sich gegenseitig ausschließen. Interessanterweise, der Nachweis dieser Aussage ist, das Wissenschaftler wie James Hansen, die offen das was ihre politischen Meister wollen befürworteten, öffentlich handelten und den Hatch Act brechen konnten [Verbot für Beamte, sich an aktiv an politischen Auseinandersetzungen zu beteiligen]. Das Gesetz wurde speziell entwickelt, um diese Aktivitäten zu begrenzen. Er tat dieses in so unverschämter Weise, dass er außerhalb des Weißen Hauses verhaftet wurde. Diejenigen, die wussten, was falsch war, hielten den Mund und die Gesellschaft litt.

Verhaftung Dr James e Hansen anlässlich einer Demonstration am Weißen Haus 2011
Übernommen vom Original Beitrag dieser Übersetzung; Quelle gefunden: de.Wkipedia.org.

Es ist unmöglich, ein Wissenschaftler und gleichzeitig ein Bürokrat zu sein, denn die Definition eines Bürokraten erfordert, Sie müssen tun, was Ihnen gesagt wird. Walter Gilbert sagte: „Die Tugenden der Wissenschaft sind Skepsis und Unabhängigkeit des Denkens“

Beide sind Anathemen für Bürokratien [Der Ausdruck Anathema, auch Anathem bezeichnet eine Verurteilung durch … , die mit dem Ausschluss / … Bann aus der … Gemeinschaft einhergeht]. Es gibt eine größere Erklärung, die alle gegenwärtigen Verständnisse, nicht nur die Wissenschaft umfasst und einschränkt. Ich habe darüber geschrieben und es in meinen Büchern aufgenommen, weil es vor allem für das Verständnis von Klima und Klimawandel gilt.

Ich habe bereits vor WUWT darüber geschrieben, aber der Bates / NOAA Fall zeigt, dass ein Update erforderlich ist. Es ist ein Problem der „Überspezialisierung“, das von der Klimaforschung geschaffen wurde. Fast jeder in der Klimawissenschaft ist ein Spezialist in einem anderen Bereich, der diese Spezialisierung auf das Studium des Klimas anwendet, in der Regel, weil die Finanzierung verfügbar war und immer ohne Zusammenhang mit dem Kontext. Hal Lewis, der späte Emeritus Professor für Physik, erklärte die Auswirkungen,

„Der Betrug mit der globalen Erwärmung, der mit (buchstäblich) Billionen von Dollar angetrieben wird, hat so viele Wissenschaftler verdorben … Es ist der größte und erfolgreichste pseudowissenschaftliche Betrug, den ich in meinem langen Leben als Physiker gesehen habe.“

Einige folgende Absätze sind aus meinen früheren Schriften. Ich sage dies, um zu veranschaulichen, wie verrückt, hirnverbrannt und unlogisch die Welt der Forschung ist. Was ohne Quellenangabe zitiert wird, gilt als Plagiat. Natürlich unterstreicht es die satirische Bedeutung, denn wenn aus mehreren Quellen kopiert wird, ist es Forschung.

Das Jahr 1859 war entscheidend im menschlichen Verständnis, weil Ereignisse auftraten, die einen großen Fortschritt zu bieten schienen, aber auch eine ernsthafte Begrenzung hervorrief. In diesem Jahr wurde Darwins Herkunft der Arten veröffentlicht und Alexander von Humboldt starb. Wir erreichten jetzt einen Punkt, wo die Wirkungen dieser Ereignisse ein Umdenken von Wissen, Verständnis und Erklärung erfordern; Eine Aktualisierung von dem, was wir die Wahrheit nennen.

In meinen Eröffnungskommentaren zu Kunstkursen, lehrte ich die Studenten, dass ich ihnen die heutige Wahrheit erzähle. Es wird nicht die gestrige ‚Wahrheit‘ sein, obwohl diese den Menschen so real war, wie die heutige Wahrheit es für uns ist. Und es wird nicht die „Wahrheit“ von morgen sein, aber sie können sicher sein, dass es eine geben wird, weil die Wahrheit, wie die Wissenschaft, niemals abgeschlossen sein wird. Leider sind sie alle als logische Positivisten erzogen, für die es nur absolute Wahrheiten gibt.

Alexander von Humboldt, der gerade wiederentdeckt wird, gilt als der letzte „universelle Mensch“. Es ist ein endgültiges Ende, weil er alle bekannten Wissenschaften seiner Zeit kannte und das schiere Volumen der bekannten Wissenschaft jetzt über die menschliche Fähigkeit hinausgeht, alles zu wissen. Eine von Humboldts Fähigkeiten war die Produktion der ersten Wetterkarte. Das ist wichtig, weil er einzelne diskrete Informationen, den atmosphärischen Druck an einem Ort, genommen und auf eine Karte gezeichnet hat. Er verband dann Punkte von gleichem atmosphärischem Druck mit einer Linie, die Isobar genannt wird, wodurch ein Muster für das Verständnis von Wetter, das aus den einzelnen Informationen nicht verfügbar ist, geschaffen wird.

Darwins Arbeit, die, wie Alfred Russell Wallace darauf hinwies, die Menschen nicht erwähnte, löste den wissenschaftlichen Bedarf an Daten aus, um eine Theorie zu stützen. Seine Arbeit wurde von Carolus Linnaeus unterstützt, der ein Klassifizierungssystem erstellte, das ein Sortier-/ [Einteilungs-] System lieferte. Das Problem ist, es hat auch die Analyse eingeschränkt, denn wenn eine Kreatur gefunden wurde, die nicht ins Schema passt, das entenartige Platypus [„Das Schnabeltier – ist ein eierlegendes Säugetier aus Australien. Es ist die einzige lebende Art der Familie der Schnabeltiere], haben sie einfach eine andere Kategorie erstellt, ohne zu bedenken, dass es darauf hindeuten könnte, dass das Klassifizierungssystem falsch war.

Unabhängig davon, führte das schiere Datenvolumen zur Schaffung unterschiedlicher Forschungszweige, die zu individuellen Spezialitäten wurden. Die westlichen Universitäten expandierten von zwei großen Fakultäten, den Geisteswissenschaften und den Naturwissenschaften, zu einer neuen und heute größten Fakultät, den hybriden Sozialwissenschaften. Innerhalb jeder, explodierte die Anzahl der Fachgebiete, bis sich Konflikte in jenen Gebieten entwickelten, die mit der realen Welt jenseits der Elfenbeintürme arbeiten wollten. Einige Universitäten reagierten darauf, was sie interdisziplinäre Studien nannten, aber auch diese waren problematisch, weil sie die institutionellen Fachgebietsgrenzen überlappten, was Grabenkämpfe verursachte.

All dies löste eine intellektuelle Verschiebung aus, als es das Diktum in der Akademie wurde, das sich zu spezialisieren das Zeichen des Genies war, um die Anmerkung eines Narren zu verallgemeinern. Das Problem in der realen Welt ist es, dass jedes spezialisierte Stück in das größere allgemeine Bild passen muss , denn die meisten Menschen leben und funktionieren in einer verallgemeinerten Welt. Der [daraus entstandene] Ausdruck „es ist rein akademisch“ bedeutet, dass es für die reale Welt irrelevant ist. Im zwanzigsten Jahrhundert verließ die westliche Welt das Diktum: ‚es gibt allgemeine Regeln mit Ausnahmen‘ hinzu:  ‚es gibt keine Regeln und alles ist eine Ausnahme‘. Dies manifestiert sich in der Gesellschaft als Verurteilung von Verallgemeinerungen und die Förderung, dass alles eine Ausnahme ist – die Grundlage der politischen Korrektheit.

 (Selbst-Plagiatsalarm). Eine häufige Anklage ist, ich habe keine Glaubwürdigkeit, weil ich nur „einen Geographiegrad“ habe. Es ist ein ignoranter Angriff auf vielen Ebenen und wird gewöhnlich als Zeichen der Überlegenheit von Spezialisten in den „harten Wissenschaften“ verwendet. Meine Promotion machte ich in der Geographie-Abteilung an Queen Mary College, weil Klimatologie traditionell Teil der Geographie war. Der eigentliche Dr. Grad wurde in der Fakultät für Naturwissenschaften erteilt.

Klimatologie, ist wie Geographie eine generalistische Disziplin, die Muster und Beziehungen studiert. Geographie ist die ursprüngliche integrative Disziplin, traditionell Chorologie genannt wird. In den späten 1960er Jahren, als ich nach einer Schule der Klimatologie suchte, gab es effektiv nur zwei, die Hubert Lamb’s Climatic Research Unit (CRU) in Ostanglien und Reid Brysons Programm in Madison Wisconsin. Keines davon war eine gangbare Option, obwohl ich privilegiert war, mit Professor Lamb über meine These zu sprechen.

Ian Plimer sagte, Studien über die Erdatmosphäre erzählen uns nichts über zukünftiges Klima.

Ein Verständnis des Klimas erfordert eine Verschmelzung von Astronomie, Sonnenphysik, Geologie, Geochronologie, Geochemie, Sedimentologie, Plattentektonik, Paläontologie, Paläoökologie, Glaziologie, Klimatologie, Meteorologie, Ozeanographie, Ökologie, Archäologie und Geschichte.

Es ist eine interessante Beobachtung, die das Dilemma unterstreicht. Die Klimatologie ist als Teilmenge aufgeführt, muss aber alle Disziplinen und mehr enthalten. Sie können das Muster des Klimas im Laufe der Zeit oder in einer Region nicht studieren oder verstehen, ohne sie alle einzuschließen. Er [Ian Plimer] ist in einigen Disziplinen nicht korrekt, aber es veranschaulicht das Problem, zum Beispiel ist die Meteorologie eine Untergruppe der Klimatologie.

Er lässt viele Spezialisierungen aus, indem er seine Liste auf ein Verständnis der Atmosphäre beschränkt, während die Liste für das Klima viel länger ist. Meteorologie ist das Studium der Physik der Atmosphäre, aber die Anzahl der anderen Disziplinen, die erforderlich sind, um die Atmosphäre zu verstehen, ist in Abbildung 1 impliziert.

 

Abbildung 1, ein einfaches Systemdiagramm des Wetters (nach Kellogg und Schneider 1974). Beachten Sie, dass drei Felder das Wort „Flux“ enthalten, aber der 2007 IPCC Science Report sagt: „Leider sind die gesamten Oberflächenwärme- und Wasserströme nicht gut beobachtet [… genug verstanden].

Quelle, siehe Text

Wie viele Fachgebiete können Sie in diesem Diagramm erkennen?

Klimawissenschaft ist die Arbeit von Spezialisten, die an einem kleinen Teil der Klimatologie arbeiten. Es ist ein klassisches Beispiel dafür, den Wald vor lauter Bäumen nicht zu sehen. Manche denken, Computer-Modellierer sind Generalisten. Sie sind Spezialisten, die versuchen, Generalisten zu sein, die aber die Zusammenhänge, Interaktionen und Feedbacks im großen Ganzen nicht kennen. Wegman hat das Problem in seinem Bericht über das Hockey-Stick-Fiasko identifiziert.

Als Statistiker wurden wir von der Isolierung von Gemeinschaften wie der Paläoklima-Gemeinschaft getroffen, die sich stark auf statistische Methoden stützen und dennoch nicht mit der Mainstream-Statistik zusammenarbeiten. Die politikpolitischen Implikationen dieser Debatte sind finanziell schwankend und doch wurde anscheinend kein unabhängiges statistisches Fachwissen gesucht oder verwendet.

In der Klimaforschungs-Gruppe wurde es bis zum Extrem getrieben und in den zugespielten E-Mails von Climategate entblößt.

Das Problem der Spezialisierung erschien tauchte früh auf in der Klimatologie und verhinderte von Anfang an eine breitere Querschnittsperspektive. Zwei frühe Beispiele veranschaulichen das Problem. Ein früherer Durchbruch in der Klimatologie trat auf, als Ericson und Wollin 1964 außerhalb der Akademie „The Deep and The Past“ [„Die Tiefe und die Vergangenheit“, eine populär wissenschaftliche Abhandlung von 17 Jahre ozeanographischer Forschung] veröffentlichten. Es erregte Aufmerksamkeit, weil die Autoren es als „Handelsbuch“ veröffentlichten.

Robert Claiborne erkannte, dass er bei der Untersuchung der natürlichen Einflüsse unterschiedliche und widersprüchliche Zeitabläufe zwischen Anthropologie und Glaziologie in Bezug auf das Muster und der Sequenz der menschlichen Geschichte bekam. Er schlug eine Doktorarbeit vor, um das Problem zu untersuchen. Wieder war es interdisziplinär und so wurde abgelehnt. Claiborne wandte sich von der Akademie ab und schrieb ein Handelsbuch mit dem Titel “Climate, Man and History”  [„Klima, Menschheit und Geschichte“] das 1970 veröffentlicht wurde. Abgesehen von der intellektuellen Starrheit [~Sturheit?], die durch die Spezialisierung gefördert wurde, verdeutlicht sie auch, wie das IPCC sinnvolle Forschung im Jahr 1990 beendet hat.

Folgend einige gute Beispiele, von Forschern, die sich bis zum Ende des Tunnelblicks der akademischen Spezialisierung und die späteren Einschränkungen des IPCC durchkämpfen, um Klima und Klimawandel besser zu verstehen;

  • Sun, Weather and Climate, (1978) by John Herman and Richard Goldberg
  • Ice Ages: Solving the Mystery, (1979) by John and Kathrin Imbrie
  • The Manic Sun: Weather Theories Confounded, (1997) by Nigel Calder
  • The Maunder Minimum and the Variable Sun-Earth Connection (2003) by Willie Soon and Steven Yaskell
  • Taken by Storm: The Troubled Science, Policy, and Politics of Global Warming. (2003) Christopher Essex and Ross McKitrick
  • The Chilling Stars: A New Theory of Climate Change, (2007) by Henrik Svensmark and Nigel Calder

Die Gesellschaft hat spezialisierte Akademiker, insbesondere Wissenschaftler, vergöttlicht. Bedenken Sie die Phrase „Sie müssen nicht ein Raketenwissenschaftler sein“ um „harte Wissenschaft“ und intellektuelle Überlegenheit anzuzeigen.

Ersetzen Sie es durch eine andere Beschäftigung und Vorurteile entstehen: „Du musst kein Bauer sein„. Betrachten wir nun die Palette der spezialisierten Bereiche, die für den Erfolg auf einem modernen Bauernhof erforderlich sind. Ein Bauernhof, wie so viele Arbeitssegmente der Gesellschaft, kann nur als generalistischer Betrieb gelingen. Ich erkannte das Problem, als ein Landwirt mir sagte, er vermutete, dass er Probleme mit seinem Boden hatte. Er ging zur Universitätsfakultät der Landwirtschaft, um zu erfahren, dass sie keine „Bodenspezialisten“ hatten. Sie hatten Leute, die sich mit Nematoden [Fadenwürmer], Tonmineralkomplexen, Spurenmineralien, allen Teilmengen des Bodens auskannten, aber keinen „Bodenspezialisten“.

Die Klimatologie ist eine generalistische Disziplin, die alle Fachdisziplinen beinhaltet. Die moderne Verherrlichung von Spezialisierung ermöglichte es den Klimaforschern zu dominieren, indem sie behaupteten, ihr Stück eines riesigen Puzzles wäre kritisch. IPCC-Klimawissenschaftler missbrauchen Spezialgebiete, vor allem in Klimamodellen, um ein vorgegebenes Ergebnis zu erzielen. Dieses wird nur offenbart, wenn andere Spezialisten, wie zB Steve McIntyre, untersuchen, was getan wurde oder Klimatologen finden ein Stück des Puzzles, das nicht passt.

Das Bates-Ereignis ist ein Symptom für ein viel breiteres Problem. Es ist viel mehr als nur die Angst, über Fehlverhalten am Arbeitsplatz zu sprechen. Es ist mehr als das Problem der Bürokraten, der Wissenschaft oder Menschen die Wissenschaft für eine politische Agenda nutzen. All das existiert und erfordert Aufmerksamkeit. Allerdings maskiert dieses die größeren Probleme unserer Unfähigkeit, Dinge zu beschreiben, zu verstehen und voranzutreiben in einer generalistischen Welt, die eine Forschungsstruktur entwickelt hat, die Spezialisten verherrlicht, die viel über ein winziges Stück wissen, aber nicht einmal wissen, wie es in ein größeres Bild passt.

Erschienen am 27.02.2107

Übersetzt durch Andreas Demmig

http://principia-scientific.org/climate-science-climatology-specialization-generalization-forest-trees/




Wie die NOAA und schlechte Model­lierung eine „Ozean-Versauerung“ erfunden haben: Teil 2 – schlechte Modelle

    Versauern die oberen Schichten der Ozeane wirklich?

Im Teil 1 ordnete ein Herr Bednarsek von der NOAA den Zerfall von Schalen der Flügelschnecken [Thecosomata; mehr dazu hier bei Wikipedia. Anm. d. Übers.] anthropogenem CO2 zu, obwohl die Beweise eindeutig sind, dass aufwallendes Tiefenwasser mit geringeren pH-Werten dafür verantwortlich war. Auf der Grundlage von Modellen, die Mitarbeiter der NOAA herangezogen hatten, behauptete Bednarsek, dass die oberen Ozeanschichten saurer werden und weniger geeignet sind als Habitat für Thecosomata im Vergleich zu vorindustriellen Zeiten. Allerdings ist das Auffinden des Ortes und der Tiefe, in der sich anthropogenes CO2 derzeit befindet, eine sehr, sehr schwierige Sache. Weil der Ozean ein großes Reservoir anorganischen Kohlenstoffes enthält, 50 mal größer als das atmosphärische Reservoir, ist der anthropogene Beitrag ziemlich gering. Außerdem umfasst anthropogener Kohlenstoff weniger als 2% der CO2-Menge, die jedes Jahr kombiniert von Ozean aufgenommen und wieder ausgegast wird. Folglich gibt es nur ein sehr schwaches Signal im Verhältnis zu Rauschen, was eine genaue Erkennung von anthropogenem CO2 verhindert. Trotz zugegebenermaßen großer Unsicherheiten versuchen die Modellierer stur zu folgern, welche Schichten des Ozeans versauern.

(To clarifying terminology, an organic carbon molecule is a molecule that is joined to one or more other carbons, such as carbohydrates and hydrocarbons. CO2 with a lone carbon is considered inorganic, and when dissolved can take 3 forms (or “species”) collectively referred to as Dissolved Inorganic Carbon (henceforth DIC): 1) Carbonic acid (H2CO3), 2) Bicarbonate ion (HCO3) after losing one H+ 3) Carbonate ion (CO3-2) after losing a second H+ )

[Diesen Absatz lasse ich mangels Fachkenntnis in Chemie lieber unübersetzt, bevor ich falsche deutsche Begriffe verwende. Anm. d. Übers.]

Die Modellergebnisse basieren jedoch auf drei sehr dubiosen Annahmen:

1) Die Modelle nehmen an, dass die Oberflächenschichten anthropogenes CO2 absorbieren, indem sie ein Gleichgewicht mit der atmosphärischen Konzentration erreichen. Mit kleineren Adjustierungen berechnen die Modelle einfach, wie viel anorganischer Kohlenstoff (DIC) dem Ozean hinzugefügt wird auf der Grundlage eines gestiegenen CO2-Gehaltes der Atmosphäre seit vorindustrieller Zeit.

2) Die Modelle nehmen an, dass CO2 in den oberen Ozeanschichten diffundiert und durch den Ozean transportiert wird ähnlich wie Indikatoren wie CFCs. Weil sich CFCs unverhältnismäßig nahe der Oberfläche akkumulieren, nehmen die Modelle an, dass dies auch bei DIC der Fall ist.

3) Die Modelle nehmen an, dass sich die Biosphäre in einem stationären Zustand [steady state] befindet. Folglich tragen sie nicht einer gestiegenen Primärerzeugung und dem rapiden Export von Kohlenstoff in die Tiefe Rechnung.

Obwohl es keinerlei Zweifel daran gibt, dass die Ozeane anthropogenes CO2 aufnehmen, sind die Behauptungen, dass die oberen Schichten der Ozeane versauern, das Ergebnis falscher Modellhypothesen.

Welches Gleichgewicht?

Ein CO2-Gleichgewicht [equilibrium] zwischen Ozean und Atmosphäre wird sehr selten erreicht. Der pH-Wert an der Ozeanoberfläche und folglich die Sättigung mit Kalziumkarbonat [Kalk] werden bestimmt durch die Effizienz der biologischen Pumpe. Mit anderen Worten, wann wo wie viel CO2 in die Ozeanoberfläche eintritt, muss die CO2-Konzentration an der Oberfläche geringer sein als die atmosphärische Konzentration. Diese Differenz ist davon abhängig, wie viel CO2 in organischem Kohlenstoff gebunden ist mittels Photosynthese und nachfolgend in die Tiefe transportiert wird, oder wie viel CO2 nach oben wallt. Die Photosynthese zieht willkürlich alle CO2-Moleküle hinab, die in die Oberflächengewässer eingedrungen sind, entweder durch Aufwallen aus der Tiefe oder durch Diffusion aus der Atmosphäre. Trotz gegenwirkender Effekte wie Durchmischung und Diffusion erhält die biologische Pumpe einen starken vertikalen Gradienten aufrecht eines hohen pH-Wertes an der Oberfläche und geringem DIC, wobei pH-Werte mit der Tiefe abnehmen und DIC zunimmt. In Regionen, in denen ein starkes Aufwallen von DIC aus der Tiefe die Fähigkeit photosynthetisierender Organismen überkompensiert, Kohlenstoff abzuscheiden, fällt der pH-Wert an der Oberfläche und das CO2 wird in die Atmosphäre ausgegast. Viele Modelle schätzen, dass ohne die biologische Pumpe das atmosphärische CO2 um 200 bis 300 ppm über das derzeitige Niveau hinaus zunehmen wird.

Die Effizienz der biologischen Pumpe bestimmt, bis zu welchen Tiefen anthropogener Kohlenstoff vordringt. Allerdings modelliert Sabine [gemeint: Christopher L. Sabine, Pacific Marine Environmental Laboratory/NOAA, Seattle, Washington 98115-6349, siehe Link] nicht die Auswirkungen der biologischen Pumpe, wobei er komischerweise feststellt: „Obwohl die Ozean-Biologie eine integrale Rolle spielt bei der natürlichen Verteilung von Kohlenstoff im Ozean, gibt es keine endgültigen [conclusive] Beweise, dass die Aufnahme durch den Ozean und die Speicherung anthropogenen Kohlenstoffs bisher irgendetwas anderes involviert hat als eine chemische und physikalische Reaktion auf steigendes atmosphärisches CO2“.

Glaubt Sabine wirklich, dass die unleugbare biologische Pumpe unterscheidet zwischen anthropogenem und natürlichem Kohlenstoff? Oder glaubt er, dass es keinerlei Änderungen hinsichtlich der Primärerzeugung und dem Kohlestofftransport gegeben hatte? Nimmt die Primärerzeugung zu, nimmt auch der Transport von Kohlenstoff in die Tiefe zu. Die jährliche Primärerzeugung in der Arktis hat seit 1998 um 30% zugenommen. Wir können auf der Grundlage einer Zunahme von 61% von Mesoplankton zwischen 1994 und 2006 in der Sargasso-See die Primärerzeugung ableiten. Coccolithophores [hier] im Nordatlantik haben zwischen 1990 und 2012 um 37% zugenommen. Und Primärerzeugung und Kohlenstoff-Transport im Peru-Strom hat seit Ende der Kleinen Eiszeit dramatisch zugenommen. Der zunehmende Trend der Primärproduktion und der begleitende Kohlenstoff-Export sind potente Beweise, die eine alternative Hypothese stützen, der zufolge die biologische Pumpe den zunehmenden Eintrag anthropogenen Kohlenstoffs sequestriert hat.

Eine Untersuchung saisonaler Änderungen der oberflächennahen CO2-Konzentration illustriert, wie die biologische Pumpe bestimmt, wann und wie viel CO2 in den Ozean eintritt und wie viel DIC sich nahe der Oberfläche akkumuliert. Wie die folgende Graphik mit Bojen-Daten vor der Küste von Newport aus dem Jahr 2008 veranschaulicht (Evans 2011), erniedrigt jede Frühjahrs-Photosynthese das CO2 an der Ozeanoberfläche auf 200 ppm, weit unter den gegenwärtigen atmosphärischen Konzentrationen und viel niedriger als das, was aus dem Gleichgewicht einer vorindustriellen Atmosphäre zu erwarten ist. Frühjahrs-Oberflächengewässer sind übersättigt, und jedwedes Abtauchen oder Durchmischung dieser übersättigten Gewässer kann nicht aufwallendes Wasser oder Schichten unter der Oberfläche versauern. Außerdem sorgt der Abwärtstransport des Wassers im Frühjahr schlüssig für die Entfernung irgendwelchen anthropogenen CO2, welches in sonnendurchfluteten Gewässern noch übrig ist. Weitere Experimente zeigen, dass CO2 oftmals ein begrenzter Nährstoff ist, und das zusätzliches atmosphärisches CO2 die Photosynthese stimuliert. Mikrokosmos-Experimente zeigten: wenn der atmosphärische CO2-Gehalt höher war, verbrauchte die Plankton-Gemeinschaft 39% mehr DIC.

Die Saison der Aufwallung beginnt im Sommer und dauert bis zum Herbst. Wie oben dargestellt lassen Aufwall-Ereignisse die Oberflächen-Konzentration von CO2 rapide steigen, bis 1000 ppm. Die Physik schreibt vor, dass es keine Diffusion aus der Atmosphäre in den Ozean geben kann, wenn die ozeanische Konzentration höher ist als die atmosphärische Konzentration. Folglich gibt es praktisch keine anthropogenen Hinzufügungen während der Aufwall-Saison. Hier muss jedwede Abnahme des pH-Wertes oder der Karbonat-Sättigung an der Oberfläche auf Aufwallen zurückgehen.

Und schließlich, im Winter (nicht illustriert) zeigen die Oberflächengewässer eine stetige CO2-Konzentration von 340 ppm. Obwohl die Photosynthese herabgesetzt ist und die winterliche Durchmischung mehr unter der Oberfläche befindlichen Kohlenstoff und Nährstoffe an die Oberfläche bringt, bleibt die Atmosphäre unter dem Gleichgewicht mit der Atmosphäre. Obwohl die Oberflächen-Konzentrationen niedrig genug sind, um die Aufnahme atmosphärischen CO2 zuzulassen, sorgt die biologische Pumpe weiterhin dafür, dass Kohlenstoff in die Tiefe transportiert wird, so dass die Oberflächenschichten den ganzen Winter über übersättigt bleiben.

Die Diffusion von CO2 in den Ozean ist ein langsamer Prozess. Man glaubt, dass es etwa 1 Jahr dauert, bis die Ozeane mit einer atmosphärischen Störung ins Gleichgewicht kommen. Aber mit der Annäherung des Frühjahres verstärkt das zunehmende Sonnenlicht die Photosynthese. Wie viel anthropogenes CO2 auch immer in die Ozeanoberfläche im Verlauf des Jahres eingedrungen ist – es ist wieder einmal vollständig sequestriert und in die Tiefe gepumpt worden, was die CO2-Konzentrationen an der Oberfläche auf 200 ppm erniedrigt. Bednarseks Behauptung, dass anthropogenes CO2 das aufwallende Wasser entlang der Küste von Oregon und Kalifornien versauert, wird also wieder nicht gestützt.

Indikatoren simulieren den Transport anthropogenen Kohlenstoffes nicht korrekt

Indikatoren wie chlorofluorocarbons (CFCs) sind synthetische Gase, die biologisch inaktiv sind. Sie kamen während der zwanziger Jahre des vorigen Jahrhunderts in die Welt, hauptsächlich als Kühlmittel. Klimawissenschaftler haben vermutet, dass der physikalische Transport und die Akkumulation von CFCs sowie zunehmender anthropogener Kohlenstoff ähnlich sind. Unten in der Abbildung zeigt der rote Bereich unmittelbar südlich von Grönland ein Gebiet, in dem sich die meisten CFCs akkumuliert haben. Zu dieser lokalen Konzentration kommt es, wenn Wasser aus dem Atlantik mit hohem Salzgehalt sich abkühlt und das Oberflächenwasser zusammen mit den darin gelösten Gasen in die Tiefe sinkt und das Nordatlantische Tiefenwasser bildet. Man schätzt, dass dieses Absinken 18% aller CFCs unter 1000 m tief transportiert hat; was impliziert, dass gelöster anthropogener Kohlenstoff ähnlich transportiert und abgeschieden worden ist. Anderswo jedoch akkumulieren CFCs unverhältnismäßig in Oberflächengewässern, so dass die Modelle annehmen, dass sich gelöstes anthropogenes CO2 ähnlich näher an der Oberfläche akkumuliert.

Sowohl CFCs als auch CO2 sind Gase, und deren Löslichkeit wird von der Temperatur gleichlaufend moduliert. Warmes Wasser in den Tropen absorbiert die geringste Menge von CFCs und CO2, wie die dunkelblauen Bereiche in der folgenden Abbildung zeigen (aus Willey 2004). Folglich haben Äquator-Gewässer, welche die Kalifornische Tiefenströmung füttern, deren Wasser an der Westküste aufsteigt, ebenfalls die geringsten Mengen anthropogenen Kohlenstoffs absorbiert, wenn überhaupt welches. (Das extrem geringe Niveau der CO2-Diffusion in den tropischen Ozean plus die Übersättigung tropischer Gewässer widerspricht sehr jedweden Behauptungen, dass Korallenriffe signifikant beeinträchtigt sind durch anthropogene Versauerung).

Allerdings wird jedwedes in sonnendurchflutetes Wasser eindringende CO2 durch Photosynthese rasch in viel organische Materie umgewandelt, anders als bei den inerten CFCs. Obwohl gelöste CFCs und gelöster Kohlenstoff auf die gleiche Weise passiv transportiert werden, verhält sich organischer Kohlenstoff (lebend oder tot) sehr viel anders. Partikulärer Kohlenstoff sinkt rasch und bringt so Kohlenstoff von der Oberfläche in die Tiefe. CFC-Spurengase können dies nicht simulieren. Eine Durchsicht der Literatur zeigt: „Verschiedene Verfahren und Messungen haben Schätzungen erzeugt von Sink-Geschwindigkeiten für organische Partikel. Dieses Sinken weist eine riesige Bandbreite auf, nämlich von 5 bis 2700 m pro Tag. Allgemein liegt die Geschwindigkeit aber zwischen zehner und hunderten Metern pro Tag“. Niedrige Schätzungen sind verzerrt durch suspended Partikel, die mit den sinkenden Partikeln gemittelt werden. Schnellere Sinkraten werden bei pteropod shells, Foraminiferen, Diatomeen, Flügelschnecken, Panzer von Zooplankton und Anhäufungen von Abfallstoffen beobachtet, die alle in der Lage sind, 500 bis 1000 Meter pro Tag zu sinken. Diese Sinkraten sind viel zu schnell um zu gestatten, dass aufgenommenes CO2 aus deren Zerfall entweder das aufwallende Wasser versauert wie entlang der Küsten von Oregon bis Kalifornien, oder das Wasser an der Oberfläche.

Frühere Experimente hatten gezeigt, dass Einzelzellen sehr langsam sinken mit Raten von nur 1 Meter pro Tag und folglich erheblich unterschätztem Kohlenstoff-Export. Aus Einzelzellen bestehende Organismen werden sich jedoch zu Klumpen zusammenfügen, was die Sinkrate erhöht. Neue Studien zeigten die „allgegenwärtige Präsenz gesunder photosynthetischer Zellen, dominiert von Diatomeen, bis hinab zu 4000 m“. Je nach Länge der Zeit, mit der photosynthetische Zellen in der Dunkelheit bestehen, wurden Sinkraten berechnet mit einer Bandbreite von 124 bis 732 Meter pro Tag, was konsistent ist mit einer hoch effizienten biologischen Pumpe. Obwohl die Wissenschaftler der NOAA Bedenken geäußert haben, dass die globale Erwärmung die Effizienz der biologischen Pumpe verringern würde, indem Bestandteile der Phytoplankton-Gemeinschaften zu kleinen, langsam sinkenden Bakterien geschoben werden, zeigen neue Forschungen, dass sich auch Bakterien zu Clustern zusammenfinden, mit raschen Sinkraten von 440 bis 660 Meter pro Tag.

Die Abscheidung von Kohlenstoff ist abhängig von der Sinkgeschwindigkeit und wie schnell organisches Material abgelagert wird. Die Abscheidung variiert teilweise infolge Variationen in den Phytoplankton-Kolonien. In Tiefen um 1000 m wird angenommen, dass Kohlenstoff relativ permanent abgeschieden wird, wird Wasser aus dieser Tiefe doch 1000 Jahre lang nicht mit der Oberfläche ausgetauscht. Weber 2016 zeigt, dass 25% der organischen Partikel in hohen Breiten bis auf 1000 m sinken, während dies in niedrigen Breiten nur zu 5% der Fall ist. Aber langfristige Abscheidung erfordert keine Absinktiefe bis 1000 Meter. Es erfordert Absinken bis unter die Pycnocline-Schicht [hier bei Wikipedia steht, was das ist. Anm. d. Übers.], eine Region, in der sich die Dichte rapide ändert. Dichtes Wasser kann sich nicht so ohne Weiteres über die Pycnocline-Schicht hinauf bewegen, so dass der vertikale Transport von Nährstoffen und Kohlenstoff behindert wird, was zu langfristiger Abscheidung führt. Weil die Pycnocline-Schicht über den Globus variiert, ist das auch bei der Tiefe der Abscheidung der Fall.

Unten links (a) ist eine Graphik von Weber 2016, in der abgeschätzt wird, bis zu welcher Tiefe Partikel sinken müssen, um 100 Jahre lang abgeschieden zu werden. Im größten Teil des Pazifiks müssen die Partikel dazu nur auf Tiefen zwischen 200 und 500 Metern absinken. Im Gegensatz dazu müssen sie in den goldenen Gebieten um den Golfstrom, Neuseeland und Südafrika bis auf 900 Meter sinken.

Die Karte rechts (b) zeigt Schätzungen, welcher Anteil organischer Materie, welche die sonnendurchfluteten Gewässer verlässt, sequestriert wird. Das Gold im Indischen Ozean schätzt, dass 80% davon die 100-Jahre-Abscheidungstiefe erreichen werden. Entlang der Küste von Oregon bis Kalifornien ist das nur bei 60% der Fall. Auch dies weckt Zweifel an Bednareks Behauptung, dass kürzlich versauertes Wasser die Flügelschnecken beeinträchtigt. Anderswo in Graphik (b) erreichen nur 20% oder weniger des exportierten Kohlenstoffes die zur Abscheidung erforderliche Tiefe.

Die Kombination von Sinkgeschwindigkeiten und Abscheidungs-Tiefen zeigt, dass bedeutende Anteile der Primärproduktion im Zeitmaßstab von Tagen bis Wochen abgeschieden werden. Dies ist konsistent mit dem Erhalt des vertikalen DIC- und pH-Gradienten, der in unseren Ozeanen gefunden worden ist. Es steht jedoch im Widerspruch zu Behauptungen der NOAA-Wissenschaftler.

Verzerrt durch CFC-Beobachtungen schrieb Sabine: „Weil anthropogenes CO2 in die Ozeane eindringt mittels Gasaustausch an der Grenzschicht Wasser-Luft, finden sich die höchsten Konzentrationen anthropogenen CO2 nahe der Wasseroberfläche. Außerhalb von Tiefwassergebieten kann der Zeitmaßstab der Durchmischung von Wasser nahe der Oberfläche mit Tiefenwasser Jahrhunderte betragen, und bis Mitte der neunziger Jahre blieb die Konzentration athropogenen CO2 in der Tiefsee unter dem Erkennungshorizont mit der Delta-C*-Technik.

Wenn die NOAA-Wissenschaftler die Tatsache außer acht lassen, dass Kohlenstoff in Partikelform bis zu harmlosen Tiefen im Zeitmaßstab von Tagen bis Wochen anstatt von „Jahrhunderten“ abgeschieden werden kann, scheint dies der Grund für ihre katastrophalen Fehleinschätzungen der Ozean-Versauerung zu sein. Außerdem, weil sich CFCs nahe der Oberfläche akkumuliert haben mit nur minimalen Anteilen in tieferen Ozeanbereichen, bietet das Spurengas absolut keinen Hinweis, wie Aufsteigen historisches DIV an die Oberfläche bringen kann. Verlässt man sich daher auf ein CFC-Spurengas, werden ihre Modelle fälschlich annehmen, dass gesteigerte Konzentrationen von DIC nahe der Oberfläche auf sich akkumulierenden anthropogenen Kohlenstoff zurückgehen müssen und nicht auf aufgestiegenen historischen Kohlenstoff.

Der Steady State der Biosphäre im Ozean?

Bei einem gegebenen stetigen Prozentanteil von Primärproduktion werden zunehmende Mengen Kohlenstoff im Verhältnis zu gesteigerter Produktivität exportiert. Folglich ist es vernünftig zu hypothetisieren, dass falls die maritime Produktivität seit dem Ende der Kleinen Eiszeit, also seit vorindustrieller Zeit, zugenommen hat, die gesteigerte Produktion die gesteigerten Mengen anthropogenen Kohlenstoffs abgeschieden hat. Obwohl es nur wenige Ozeanbecken ohne Sauerstoff gibt, wo sich organische Sedimente gut erhalten können, zeigen alle diese Becken, dass seit der Kleinen Eiszeit die maritime Produktivität und der Kohlenstoffexport tatsächlich mit der Erwärmung der Ozeane zugenommen haben.

Hier folgen Forschungen von Chavez 2011, die zeigen, dass während der Kleinen Eiszeit die maritime Primärproduktion (d) niedrig war, aber um das 2- bis 3-fache zugenommen hat während der letzten 150 Jahre. Sedimente zeigen, dass rasch sinkende Diatomeen um das 10-fache am Ende der Kleinen Eiszeit zugenommen haben, aber wahrscheinlich aufgrund limitierten Siliziums reduzierte sich der Fluss von Diatomeen in Ozean-Sedimente auf eine etwa 2-fache Zunahme über die Kleine Eiszeit. Nichtsdestotrotz finden zahlreiche Studien, dass Schätzungen der Diatomeen-Vielfalt repräsentativ sind für die Kohlenstoffexport-Erzeugung in küstennahen Aufstiegsgebieten.

Die gesteigerte Primärproduktion fällt zusammen mit einer über 100-fachen Zunahme von Fischschuppen und Gräten (f). Und konsistent mit einer Notwendigkeit für mehr Nährstoffe, um die gesteigerte Primärproduktion zu stützen, zeigen Proxy-Beweise eine 2-fache Zunahme von Nährstoffen in der Wassersäule (c). Es sind diese Beweise, welche die Forscher dazu bringen anzunehmen, dass die beobachteten dekadischen Zunahmen aufgestiegenen DIC und Nährstoffe Teil eines viel längeren Trends sein können. Und schließlich, im Gegensatz dazu, dass die globale Erwärmung zur Erklärung für den aufgebrauchten Sauerstoff herangezogen wird, ist die Ablagerung gesteigerten organischen Kohlenstoffes eine viel bessere Erklärung für Beobachtungen gesunkener Sauerstoff-Konzentrationen in der Wassersäule (a) und in Sedimenten (b). Weil sich die Primärproduktion bis 1900 verdoppelt hatte, lange bevor globale Erwärmung oder bevor anthropogenes CO2 signifikante Konzentrationen erreicht hatte, ist es unwahrscheinlich, dass anthropogenes CO2 zu gesteigertem Aufstieg beigetragen hat, zu gesteigerter Primärproduktion oder irgendwelchen anderen Trends in diesem Gebiet.

Gesteigerte Primärproduktion allein garantiert jedoch nicht, dass absinkender partikulärer Kohlenstoff genügend Kohlenstoff entfernt, um anthropogenen Hinzufügungen entgegen zu wirken. Es gibt jedoch eine Dynamik, die nahelegt, dass dies der Fall sein muss. Erstens betrachte man, dass bei einer Untersuchung der Elemente einer Phytoplankton-Kolonie ein allgemeines Verhältnis von 106 Kohlenstoff-Atomen auf 16 Stickstoff-Atome entdeckt worden ist (d. h. Redfield-Verhältnis). Angesichts des Umstandes, dass Stickstoff typischerweise photosynthetische Produktion begrenzt, falls Kohlenstoff und Stickstoff im gleichen Redfield-Verhältnis aufsteigen, solange nicht andere Prozesse für einen Stickstoff-Überschuss sorgen, könnte die Photosynthese lediglich aufgestiegenen Kohlenstoff assimilieren, aber nicht genug, um dem gesamten zusätzlichen anthropogenen Kohlenstoff Rechnung zu tragen.

Kalk bildende Organismen exportieren jedoch größere Anteile anorganischen Kohlenstoffs, weil ihren sinkenden Schalen aus Kalziumkarbonat Stickstoff fehlt. Dies kann zu einem Überschuss an Stickstoff beitragen relativ zu bis in Oberflächengewässer aufgestiegenem Kohlenstoff. Zweitens, Diazotrophen [noch einmal bei Wikipedia] sind Organismen, die atmosphärischen Stickstoff in biologisch nutzbare Formen konvertieren. Freilebende Diazotrophen wie das Cyanobakterium Trichodesmium können so üppig auftreten, dass ihr Erblühen beobachtet werden kann. (Die Blüten einer Spezies sind primär verantwortlich für die Färbung des Roten Meeres). Einige Diazotrophen bilden symbiotische Beziehungen, um sowohl aufgestiegenen als auch anthropogenen Kohlenstoff zu assimilieren. Außerdem, wie bei Mackey 2015 (sowie deren Literaturhinweisen) diskutiert, zeigen bis heute fast alle Studien, dass die Stickstoff-Bindung aufgrund gesteigerten CO2 zunehmen wird“.

Berücksichtigt man all dies, zeigen die Beweise, dass die NOAA-Wissenschaftler eine Charakterisierung des „Steady State“ des Ozeans haben, die verkehrt herum steht. Es gibt keine starre Rate von Primärproduktion und Export, welche die Assimilation anthropogenen Kohlenstoffes und deren Pumpen in die Tiefe verhindert. Im Gegenteil, die kombinierte Dynamik der Stickstoff-Bindung und der biologischen Pumpe zeigen, dass die oberen Schichten des Ozeans wahrscheinlich ein pH-Gleichgewicht [pH homeostasis] oder einen pH-Steady-State erhalten haben, zumindest seit vorindustrieller Zeit. Eine Zunahme atmosphärischen Kohlenstoffs, ob nun aus natürlichem Aufsteigen oder aus anthropogenen Quellen, wird höchst wahrscheinlich rasch assimiliert und in Ozeantiefen transportiert, wo sie für Jahrhunderte und Jahrtausende sicher abgelagert sind. Behauptungen, denen zufolge der obere Ozean seit vorindustrieller Zeit versauert sind, beruhen nicht auf Messungen, sondern sind lediglich das Ergebnis der Modellierung eines „toten“ Ozeans unter Ignoranz entscheidender biologischer Prozesse (mehr dazu hier).

Jim Steele is Director emeritus Sierra Nevada Field Campus, San Francisco State University and author of Landscapes & Cycles: An Environmentalist’s Journey to Climate Skepticism

Link: https://wattsupwiththat.com/2017/03/02/how-noaa-and-bad-modeling-invented-an-ocean-acidification-icon-part-2-bad-models/

Übersetzt von Chris Frey EIKE, der inhaltlich aber nicht immer ganz folgen konnte.




Langfristige Planungen auf realistischer Grundlage: Chinas Energiepolitik

In Deutschland will man dem Bürger eine streng asketische Zukunft verordnen. Um die uns angeblich drohende Klimakatastrophe durch konsequente „Dekarbonisierung“ zu verhindern, sollen die Bürger zu massivem Konsumverzicht erzogen werden. Das geht schon bei Nebensächlichkeiten los, so z.B. im Bundesumweltministerium, wo Besucher keine Fleischgerichte mehr erhalten werden [VEGG]. Das Umweltbundesamt rät dagegen den Bürgern zu einem 40tägigen freiwilligen „Autofasten“ ab Aschermittwoch [AUFA]. Die Regierung selbst definiert in einem Bericht an ein UNO-Gremium ihre Ziele bezüglich der Energieversorgung wie folgt: „Der Gesamt-Primärenergieverbrauch soll bis 2020 gegenüber 2008 um 20 % sinken, bis 2050 wird eine Senkung um 50 % angestrebt. Der Bruttostromverbrauch soll bis 2050 gegenüber 2008 in einer Größenordnung von 25 % vermindert werden“ [STZI]. Rechnet man diese Angaben entsprechend um, so hat sich Deutschland demnach zu einer Verbrauchsobergrenze von lediglich noch ca. 436 TWh (Terawattstunden) verpflichtet, für die Produktion ergäbe sich daraus ein Maximalwert von ca. 450 TWh. Im Jahr 2016 lag die Produktion mit 648,2 TWh um 44 % höher. Da zudem Öl, Gas und Kohle (und zugleich die Kernkraft) drastisch reduziert werden sollen, kann man sich eine Vorstellung davon machen, welche Abstriche am bisherigen Lebensstandard auf die Bevölkerung zukommen. Und die Umstellung des Verkehrs auf Elektroautos sollten wir auch nicht vergessen: 45 Mio Pkw und die bisher mit Diesel betriebenen Flotten von LKW und Bussen würden alleine schon beim jetzigen Stand jährlich 337 TWh benötigen. Da bliebe für den restlichen Bedarf der Bevölkerung nicht allzu viel übrig. Aber das steht auf einem anderen Blatt und soll hier nicht weiter vertieft werden.

Chinas Zukunftsplanung beim Strom…

Rechnet man die für Deutschland vorgesehenen 450 TWh jährlicher Stromproduktion auf die Gesamtbevölkerung von 82 Mio. um, so sollen jedem Bürger künftig pro Jahr rechnerisch ca. 4.500 kWh zur Verfügung stehen. Das sind etwa 30 % weniger als 2016. Wie sieht es diesbezüglich in China aus? Dazu gibt es in der Zeitschrift Nuclear Street News [CHIN] aktuelle Zahlen der dortigen National Energy Administration (NEA). Demzufolge liegt der aktuelle Pro-Kopf-Verbrauch an elektrischer Energie in China nach einem Ranking des „Index Mundi“ derzeit bei 3.926 kWh. Das ist lediglich rund ein Drittel der 12.186 kWh, die jedem US-Bürger zur Verfügung stehen.

Doch während Deutschland seinen Bewohnern den Energieverbrauch massiv kürzen will, sieht man in China die ausreichende Verfügbarkeit von Energie als eine unabdingbare Voraussetzung zur Aufrechterhaltung einer Hochzivilisation. Deshalb plant man eine kontinuierliche Steigerung. Aktuell befindet sich das Land diesbezüglich nur auf dem 69. Rang, was sich auch im Lebensstandard widerspiegelt. Bis zum Jahr 2030 will die Staatsführung 5.500 kWh pro Kopf und Jahr erreichen und diesen Wert bis 2050 auf 8.500 erhöhen. Damit befände man sich dann an der Schwelle zu den 25 bestversorgten Ländern der Erde.

 

…setzt ein wenig auf Wind und Sonne…

Viele Ideologen der „erneuerbaren“ Energien sehen China derzeit als eine Art gelobtes Land von Wind- und Solarenergie, weil man dort im Rahmen des laufenden Fünjahresplans bis 2020 insgesamt 343 Mrd. € in „CO2-freie“ Stromerzeugungstechnologien investieren will [SPIE]. Die Entwicklung der entsprechenden Investitionen veranschaulicht Bild 1.

Bild 1. Die Vertreter der „erneuerbaren“ Energien setzen große Hoffnungen auf China, das inzwischen gut 35 % der weltweiten Investitionen auf diesem Gebiet tätigt (Grafik: [REN21])

Schaut man auf die Entwicklung z.B. der Kapazität der installierten Windenergieanlagen [WIWI], so findet man beeindruckende Zahlen und Steigerungsraten (Bild 2). Vertreter der „erneuerbaren“ Energien stellen diese gerne als vorbildlich für den Rest der Welt heraus.

 
Bild 2. In den vergangenen zwölf Jahren steigerte China die Kapazität der installierten Windenergieanlagen um mehr als das Hundertfache von 1,26 auf 149 GW [WIWI]. Auch bei der Solarenergie wurden hohe Steigerungsraten erzielt

Diese Euphorie etlicher „Öko-Energetiker“ rührt allerdings wohl zu einem nicht geringen Teil daher, dass viele unter ihnen kaum Übung darin haben, nüchterne Fakten wie Dimensionen, Aufwendungen und Kosten einer technisch anspruchsvollen Aufgabenstellung zu erfassen. Zunächst muss man sich vor Augen führen, wie riesig das Land im Vergleich zu Deutschland ist. Chinas Kraftwerke erzeugen derzeit jährlich ca. 5.000-6.000 TWh an elektrischer Energie, rund 8-9 Mal soviel wie Deutschland. Hiervon sind allerdings lediglich rund 23 % „erneuerbar“, und davon zählen mehr als 18 % zu den „konventionellen“ Erneuerbaren, nämlich der Wasserkraft, zu der insbesondere der Drei-Schluchten-Staudamm beiträgt. Eine Aufschlüsselung der Beiträge der verschiedenen Energieträger für das Jahr 2014 zeigt Bild 3.


Bild 3. Anteile der verschiedenen Energieträger an der chinesischen Stromproduktion im Jahre 2014. Daten: [WIKI]

Im Jahr 2014 trugen Wind mit 2,7 % und und Solar mit 0,5 demnach zusammen nur etwas mehr als 3 % zu Chinas Stromerzeugung bei, was trotz der beeindruckenden Brutto-Kapazitätsangaben an den im Vergleich zu konventionellen Kraftwerken beschämend schlechten Nutzungsgraden der „erneuerbaren“ Energielieferanten liegt. Bis zu deutschen Dimensionen – derzeit ca. 18 %, davon 12 % Wind und 6 % Solar – wäre auf jeden Fall noch ein weiter Weg zurückzulegen, und 80 oder gar 100 % sind für das Schwellenland China finanziell auf keinen Fall zu bewältigen. Bereits jetzt stößt man dort trotz dieser vergleichsweise niedrigen Prozentsätze hart an seine Grenzen, insbesondere was die Belastung der Stromnetze angeht, deren Errichtungs- und Betriebskosten in diesem riesigen Land entsprechend hoch sind. Bereits 2015 wurden deshalb 15 % der chinesischen Windenergieproduktion schlicht „weggeworfen“ [CHDI]. Dies zeigt sich auch am Nutzungsgrad, der mit durchschnittlich 15,8 % selbst unter den deutschen Werten liegt. Das führte zu Auseinandersetzungen zwischen den Provinzen, deren Netzbetreiber versuchen, diesen Störstrom möglichst aus ihren Netzen herauszuhalten, und der Zentralregierung, die aus diversen Gründen gerne mehr davon verwendet sehen möchte.

Interessanterweise scheint die Zentralregierung angesichts dieses Gegenwindes jetzt ihre Ziele in diesem Bereich zurückzuschrauben. So hieß es noch 2016 aus der NEA, dass man im laufenden Fünfjahrplan die Kapazitäten bei Wind von 129 GW auf 210 GW und bei Solar von 43 GW auf 110 GW ausbauen wolle, was dann noch auf auf 250 GW Wind und 150 GW Solarkapazität aufgestockt wurde [CHDI].


Bild 4. Im Bereich Fotovoltaik sind chinesische Hersteller an der Weltspitze

 

Inzwischen scheint man jedoch wieder umzudenken. Kürzlich gab es Berichte, dass diese Aufstockung zurückgenommen wurde und China jetzt wieder zu den ursprünglichen niedrigeren Zahlen zurückkehre, wobei darin jetzt auch Offshore eingebunden ist [RECH]. Zudem gibt es Meldungen über Einschnitte bei den Vergütungssätzen für Fotovoltaik.

 

…und immer stärker auf Kernkraft

Ein entscheidender Punkt, den viele Anhänger der „Erneuerbaren“ bei ihren Blütenträumen bezüglich asiatischer Nationen häufig übersehen, ist der Pragmatismus dieser Länder bei der Bewältigung existenzieller Herausforderungen. So z.B. in Japan, wo Greenpeace, WWF und Co. seit den Nuklearhavarien von Fukushima die Wiederinbetriebnahme von Kernkraftwerken mit allen Mitteln bekämpfen und behindern, wobei ihnen die internationalen Medien als Sprachrohr und Multiplikator dienen. Hierbei fällt unserer von diesen „Fake-News“-Medien eingeschläferten Bevölkerung anscheinend nicht einmal der Umstand auf, dass diese Organisationen offensichtlich auch dort unten erstaunlich häufig von Leuten mit erkennbar westlicher Herkunft geführt werden. Da die Inbetriebnahme freigegebener Kernkraftwerke kaum vorankommt und sich die „Erneuerbaren“ als kostspieliger Irrweg erwiesen haben, setzt Premier Shinzo Abe jetzt stattdessen auf Kohle und will in den kommenden Jahren 45 neue Kohlekraftwerke bauen lassen. So dämlich, sich gleichzeitig von der Kern- und der Kohlekraft zu trennen, ist man in Japan nicht.

Deshalb hätten auch die jubelnden „Ökos“ sich nicht davon täuschen lassen sollen, als China dreistellige Milliardeninvestitionen in CO2-freie Stromerzeugungstechnologien ankündigte. Für China sind dies nur Peanuts, und sehr zum Leidwesen von Greenpeace & Co. gehört zu ihren Planungen auch die Kernenergie. Und hier hat China wirklich große Pläne, denn das Land wurde in seiner diesbezüglichen Entwicklung durch die Fukushima-Ereignisse erheblich zurückgeworfen. Chinas Führung hat ab 2011 auf diesem für das Land extrem wichtigen Sektor zunächst zahlreiche Projekte gestoppt und sich ausreichend Zeit genommen, um die Situation und die mit der Kernkraft verknüpften Risiken ausführlich zu analysieren. Man nahm lieber eine mehrjährige Verzögerung in Kauf, als unvertretbare Risiken für das Land einzugehen. Im Unterschied zu Deutschland hat man anschließend jedoch beschlossen, die Kernkraft weiter auszubauen. Im aktuellen Fünfjahrplan ist nahezu eine Verdopplung der Nuklearkapazität des Landes vorgesehen [CHNU].

Im November 2016 waren in China 36 Kernkraftwerke mit einer Kapazität von 31,4 GW in Betrieb. Von den derzeit im Bau befindlichen 40 Reaktoren [STAT] sollen allein in diesem Jahr fünf in Betrieb genommen werden. Bei acht weiteren ist der Baubeginn noch in diesem Jahr vorgesehen, und zugleich sollen acht weitere Projekte „auf Kiel gelegt“ werden. Aktuell veröffentlichter Planungsstand sind 58 GW KKW-Kapazität bis 2020 und 150 bis 250 GW bis 2030 [CHIN]. Damit würde die Nuklearkapazität des Landes innerhalb von nur 13 Jahren um den Faktor acht (!) zulegen. Für die Zeit nach 2030 sagen Berichte über entsprechende Planungen noch weit höhere Zuwachsraten voraus. Ein wichtiges Hemmnis scheint derzeit der Mangel an geeigneten Fachleuten zu sein. In Betrieben und Universitäten arbeitet man bereits daran, diese Ausbildungsgänge entsprechend auszubauen. Für den Zeitraum nach 2040 soll in China dann die Stunde der „schnelle-Neutronen“-Reaktoren („schnelle Brüter“) schlagen, die nuklearen Abfall, Plutonium sowie abgereichertes Uran verwerten können. Ihre Kapazität soll bis 2100 auf 1.400 GW anwachsen [NUK]. Das allein entspräche etwa 1.000 bis 1.400 weiteren Kernkraftwerken.

 

China will mit jeder Technologie verdienen

Betrachtet man die Lage der verschiedenen Energiesektoren in China, so erkennt man eine geschickte Verknüpfung mit einer mehrgleisigen Handelsstrategie. Man setzt einerseits auf den aktuell ungebrochenen weltweiten Markttrend zugunsten von Wind und Solar. Dieser soll künftig ja zusätzlich durch jährliche Klima-Ablasszahlungen von 100 Mrd. US-$ Dollar der Industrieländer für Energieprojekte in der 3. Welt befeuert werden. Nicht zuletzt deshalb stützt China durch große inländische Investitionen die eigenen Industrien und ermöglicht es ihnen, auf diesen Märkten in vorderster Position mitzumischen. Dies dürfte erklären, warum die Zentralregierung aktuell neben der hohen Kapitalbindung sogar negative Auswirkungen im Lande in Kauf nimmt.

Langfristig setzt man jedoch erkennbar auf die Kernenergie. Auch wenn deren Anteil im eigenen Land ebenso wie die Marktchancen im internationalen Umfeld im Moment noch gering sind, so sind die Investitionen ebenso wie die Entwicklungsaktivitäten erkennbar auf hohe Steigerungsraten ausgelegt. Aufgrund der hohen Nutzungsgrade der Kernkraft erbringt die Investition in ein GW Kernenergie jährlich rund 6 Mal soviel Strom wie Windenergieanlagen mit gleicher Kapazität. Geplant sind derzeit 61 GW Wind und 27 GW KKW, welche den gleichen Stromertrag liefern wie 162 GW Windenergieanlagen. Aus diesen Zahlen ist die Stoßrichtung der chinesischen Energiepolitik klar abzuleiten.

Zudem ist sich China bewusst, dass dieser Markt in vielen Ländern erst dann attraktiv werden dürfte, wenn sich der aktuelle Hype mit den „Erneuerbaren“ totgelaufen hat. Bis es soweit ist, wird man für die künftigen eigenen KKW-Modelle über internationale Zulassungen verfügen, so beispielsweise in Großbritannien. In einigen Jahren wird Deutschland mit brummendem Schädel aus seinem energetischen Selbstzerstörungsrausch namens „Dekarbonisierung“ aufwachen. Dann werden lächelnde chinesische Handelsdelegationen bereitstehen, uns alles zu liefern, was für die Versorgung der deutschen Bevölkerung mit preisgünstiger und sicher verfügbarer Energie so benötigt wird. Zu großzügigsten Konditionen, versteht sich. Allerdings dürfte die Inzahlungnahme gebrauchter Solarpaneele und Windanlagen nicht dazugehören.

Fred F. Mueller

 

Quellen

[AUFA] http://www.n-tv.de/politik/Umweltamt-ruft-zum-Autofasten-auf-article19723009.html

[CHDI] https://www.chinadialogue.net/blog/9113-All-eyes-on-China-s-13th-Five-Year-Plan-for-energy/en

[CHIN] http://nuclearstreet.com/nuclear_power_industry_news/b/nuclear_power_news/archive/2017/03/02/china-maps-out-its-nuclear-future-030202#.WLmmXH_OxLh

[CHNU] http://www.world-nuclear-news.org/NP-China-sets-out-nuclear-plans-for-2017-0203174.html

[DACA] http://dailycaller.com/2017/02/01/japan-infuriating-enviros-by-building-45-new-coal-power-plants/

[NUK] http://www.world-nuclear.org/information-library/country-profiles/countries-a-f/china-nuclear-power.aspx

[RECH] http://www.rechargenews.com/wind/1188761/china-eases-back-2020-re-targets-with-latest-5yp-goals

[REN21] RENEWABLES 2016 – GLOBAL STATUS REPORT RENEWABLE ENERGY INDICATORS Key Findings

[SPIE] http://www.spiegel.de/wirtschaft/unternehmen/china-investiert-343-milliarden-euro-bis-2020-in-oekostrom-und-atomkraft-a-1128741.html

[STAT] http://de.statista.com/statistik/daten/studie/157767/umfrage/anzahl-der-geplanten-atomkraftwerke-in-verschiedenen-laendern/

[STZI] Bericht der Bundesregierung zum High-Level Political Forum on sustainable Development 2016, 12. Juli 2016. http://www.bmz.de/de/index.html

[VEGG] http://www.spiegel.de/politik/deutschland/umweltministerium-serviert-bei-veranstaltungen-nur-noch-vegetarische-kost-a-1135231.html

[WIKI] https://en.wikipedia.org/wiki/Renewable_energy_in_China

[WIWI] https://en.wikipedia.org/wiki/Wind_power_in_China