Japanische Unternehmen schließen sich zusammen zur Forschung an Methanhydraten

Bild rechts: brennende Methanhydrate. Bild: EIKE
Unter Führung der Japan Petroleum Exploration (Japex) und mit einem Startkapital von umgerechnet 2,8 Millionen Dollar wird das Unternehmen Japan Methane Hydrate Operating Co. (JMH) während der mittel- und langfristigen Erzeugungstests Unternehmerdienste ,[contractor services] zur Verfügung stellen und Feldoperationen durchführen, was von der Regierung gesponsert wird.
Alle JV-Partner werden ihr Expertenwissen und ihre Technologie einbringen, um die Erkundung und das Testen zu unterstützen, sagte JMH kürzlich in seiner ersten Presseerklärung.
„Es wird geschätzt, dass sich eine substantielle Menge von Methanhydraten vor den Küsten Japans befindet. Um die neue heimische Energieressource zu erschließen, die das Potential eines wesentlichen Beitrags zu einer stabilen nationalen Energieversorgung hat, ist die technologische Entwicklung zur Kommerzialisierung unabdingbar. Darin enthalten ist auch das Establishment von Erzeugungstechnologien“, hieß es seitens des Unternehmens.
Die japanische Regierung hat erfolgreich im März 2012 die weltweit ersten Methanhydrate gefördert, nachdem man ein Loch in einem experimentellen Feld im Nankai-Graben gebohrt und einen Produktionstest durchgeführt hatte, der die Erwartungen noch deutlich übertraf (siehe hier).
Zwei Monate später folgte ein stetiger Fluss von Gas aus Methanhydraten bei North Slope in Alaska. Beteiligt war eine Partnerschaft zwischen dem Energieministerium der USA (DOE), ConocoPhillips und der staatlichen japanischen Firma JOGMEC. Man hat es einen „beispiellos erfolgreichen Test von Technologie“ genannt.

Andere Regierungen forschen und erkunden ebenfalls die neue Ressource. Indien und die USA haben ein Memorandum zur Zusammenarbeit bei der Entwicklung von Methanhydraten von 2014 bis 2017 unterzeichnet. In diesem Zeitraum plant das DOE, 40 Bohrungen niederzubringen und Pilot-Produktionstests in der Andaman-See bei Indien durchzuführen.
Vollständiger Artikel
Link: http://www.thegwpf.com/japanese-companies-band-together-to-test-methane-hydrates/
Übersetzt von Chris Frey EIKE




Schweiz: Wasser fällt Wind und Sonne zum Opfer

An praktisch allen einigermaßen geeigneten Schweizer Flüssen wurden bereits ab dem späten 19. Jahrhundert Staustufen errichtet und mithilfe von Turbinen Strom erzeugt. Heute liefern solche Laufwasserkraftwerke rund 1/4 des Schweizer Strombedarfs von etwa 65 Terawattstunden (TWh) im Jahr. Da sie keine teuren Brennstoffe benötigen, können sie relativ preisgünstig produzieren. Nicht zuletzt deshalb lagen die Strompreise in der Schweiz trotz der allgemein hohen Lebenshaltungskosten des Landes noch vor wenigen Jahren im europäischen Vergleich eher im Mittelfeld als im oberen Bereich.
Bild rechts:Schweizer Laufwasserkraftwerk an einem der Nebenflüsse des Rheins (Symbolbild)
Deutsche EE-Überproduktion drückt die Erzeugerpreise auch im Nachbarland
Das deutsche Erneuerbare-Energien-Gesetz ist Grundlage für die Subventionierung „erneuerbarer Energien“ wie Wind- und Solarstrom mit aktuell rund 23 Mrd. € pro Jahr. Das hat zu einem planlosen Boom bei der Errichtung entsprechender Anlagen geführt, mit einer besonderen Schwerpunktbildung von Solaranlagen in den sonnenreichen südlichen Bundesländern und von Windenergieanlagen im Norden. Insbesondere in den Mittagsstunden speisen Solaranlagen im Verein mit Windanlagen inzwischen so viel gar nicht benötigten Strom ins Netz, dass dieser teils mit Zuzahlungen ins Ausland verschenkt werden muss, Bild 1.

Bild 1. Am 11.5.2014 wurde in Deutschland Strom wegen der chaotischen Überproduktion aus Wind- und Solaranlagen mit Geldgeschenken bis zu 65 € pro MWh in die in- und ausländischen Märkte gedrückt (Grafik: Rolf Schuster)
Diese Praxis nannte man früher Dumping, sie ist insbesondere in Indien und China sowie anderen asiatischen Ländern bis heute in äußerst unguter Erinnerung. Noch verheerender ist jedoch der langfristige Effekt der durch die subventionierte EE-Erzeugung immer weiter nach unten gedrückten Börsenstrompreise, die inzwischen gegen 30 €/ MWh (3ct/ kWh) tendieren, Bild 2. Aufgrund des international liberalisierten Strommarktes verhageln diese Preise auch den Betreibern von Wasserkraftanlagen in der Schweiz das Geschäft.

Bild 2: Die Strompreise an der EPEX sind mit dem Ausbau der deutschen Solar- und Windanlagen immer tiefer gefallen (Grafik: Proteus Solutions GbR)

Strompreisentwicklung eines typischen Schweizer Laufwasserkraftwerks

Bei diesem Preisniveau können Wasserkraftwerke schon längst nicht mehr mithalten. Für Deutschland mit seinem im Vergleich niedrigeren Preisniveau liegen die Gestehungskosten für Strom aus Wasserkraft bei 10,2 €/ MWh [WAKO]. Dennoch konnte das hier beispielhaft betrachtete Laufwasserkraftwerk noch 2002 bei einem Abgabestrompreis von 7,5 CHF/ MWh mit zufriedenstellendem Ertrag wirtschaften. Dieser Strompreis muss jedoch in regelmäßigen Abständen mit den Abnehmern – regionalen Netzbetreibern, Gemeinden usw. – neu ausgehandelt werden. Da sich diese inzwischen auch am internationalen Markt orientieren, ist er aufgrund des aus Deutschlands hereindrängenden Dumpingstroms in den letzten Jahren kontinuierlich zurückgegangen. Aktuell kann das Wasserkraftwerk für sein Produkt deshalb nur noch 6 CHF/ MWh (umgerechnet 4,9 €/ MWh) erzielen. Berücksichtigt man die seit 2002 fortschreitende Inflation, so sind die realen Einnahmen des Kraftwerks für sein Produkt „Strom aus Wasserkraft“ seit 2002 um 25 % zurückgegangen.

Zukunftsperspektiven

Der Blick auf diese Zahlen zeigt, dass sich Schweizer Betreiber von Laufwasserkraftwerken bisher im Prinzip hervorragend geschlagen haben. Bis jetzt war es ihnen möglich, Strom für knapp die Hälfte des vergleichbaren Preises in Deutschland zu erzeugen. Mit dem tendenziell immer weiter sinkenden Niveau ist jetzt jedoch das Ende der Möglichkeiten erreicht. Zum einen drückt aufgrund der langen Abschreibezeiträume der Kapitaldienst selbst für Investitionen, die bereits vor 30 Jahren vorgenommen wurden. Hinzu kommen erhebliche laufende Kosten für Reparatur und Instandhaltung, da ein solches Kraftwerk im Betrieb einem erheblichen Verschleiß unterliegt. Dies betrifft sowohl die eigentlichen Generatoren als auch periphere Einrichtungen wie die Reinigungsanlagen für die Rechen, welche Schwemmgut aus den Turbineneinlässen heraushalten. Hinzu kommt der Instandhaltungsaufwand für die Baulichkeiten und sonstigen Einrichtungen über und unter Wasser, die durch Strömung und Erosion ständig Schäden erleiden und instandgesetzt werden müssen. Zudem muss für die Einrichtungen ausreichend Personal vorgehalten werden, sowohl für die laufende Überwachung und Instandhaltung als auch für den Bereitschaftsdienst bei Notfällen. Ein Ausdünnen der Personaldecke ist aufgrund der meist ohnehin geringen Belegschaftsgröße solcher Kraftwerke kaum denkbar.
Mit dem langfristig weiter sinkenden Preisniveau an den Strombörsen ist daher ein „Kipppunkt“ erreicht, ab dem der Betrieb nicht mehr sehr viel länger aufrechterhalten werden kann. Es drohen Schließungen und der Verlust von Arbeitsplätzen. Die völlig überzogene Förderung sogenannter erneuerbarer Energien in Deutschland ist dabei, die umweltfreundliche Wasserkraft in der Schweiz aus dem Markt zu drängen. Und in den Belegschaften wächst die Sorge um die Sicherheit der Arbeitsplätze.
Fred F. Mueller
Quellen:
[PROT] http://www.proteus-solutions.de/~Photovoltaik/Strompreis:tM.F06!sM.EX1.asp
[WAKO] http://www.stromerzeugung-stromverbrauch.de/Stromerzeugung/Stromerzeugungskosten/Stromerzeugung-Kosten.html




Neues aus der wunderbaren Welt der Temperaturdaten-Korrekturen

Aber wo endet die wissenschaftlich berechtigte „Korrektur“ und wo beginnt die fragwürdige Manipulation? Die Klimawissenschaften haben sich in den letzten Jahrzehnten zu einem hochpolitisierten Fach entwickelt, indem kleine Eingriffe in die Datenbasis eine große politische Wirkung entfalten können. Sollten sich einige „Korrekturen“ bei einer unabhängigen Überprüfung als unnötig und ideologisch getrieben herausstellen, könnte dies durchaus eine Straftat sein. Bereits 1907 hatte der US-amerikanische Wettdienst vor solchen Manipulationen gewarnt (Scan mit Dank an Real Science):
Übersetzung des Textes rechts aus dem Jahr 2007:
Monthly Weather Review
Januar 2007
Ist Ehrlichkeit nicht die klügste Politik?
Es ist falsch, die Aufzeichnungen eines beobachteten Naturphänomens zu verstümmeln oder zu unterdrücken, aber es ist auch falsch, die Aufzeichnung zu missbrauchen. Tatsächlich ist es der Missbrauch meteorologischer Daten, nicht die Beobachtung oder die Veröffentlichung, ein Verbrechen gegen die Gemeisnchaft. Beobachtung und sorgfältige Forschung müssen als nützlich ermutigt werden. Die Independent Press sollte als „Stimme des Volkes“ nicht nur „Vox Populi“ sein, sondern „Vox Dei“ und alle Schummeleien und Betrügereien unterlassen. Sie sollte die Wahrheit und die Interessen zum Wohle der ganzen Nation gegen Eigeninteressen verteidigen
Vor etwa zwei Jahren, Mitte 2012, haben wir an dieser Stelle eine Einführung in das Thema gegeben (siehe unseren Blogartikel „Die wunderbare Welt der Temperaturdaten-Korrekturen: Und plötzlich hatte sich der Trend ins Gegenteil verkehrt…”.). Der Artikel wird auch heute noch regelmäßig über Google gefunden und gelesen und hat bereits vielen Lesern die Augen geöffnet. Nein, es handelt sich leider nicht um eine Verschwörungstheorie der „Klimaskeptiker“, es ist ein reales Problem, das zu lange unter dem Radar geblieben ist. Im Folgenden wollen wir uns anschauen, wie sich die Diskussion zur Temperaturdaten-Korrektur in den letzten 24 Monaten weiterentwickelt hat.
Am 7. Juli 2014 veröffentlichte Zeke Hausfather auf Judith Currys Klimablog Climate Etc. unter dem Titel „Understanding adjustments to temperature data“ einen Rechtfertigungsversuch, weshalb alle Korrekturen als legitim zu betrachten wären. Zeke Hausfather ist ein Energiesystem-Analyst und Umweltökonom, der einst an der BEST-Temperaturstudie der University Berkeley beteiligt war. Hausfather räumt gleich zu Beginn seiner Abhandlung ein, dass die modifizierten US-Temperaturen stark von den ursprünglichen Messwerten abweichen:

Adjustierungen haben große Auswirkungen auf die Temperaturtrends in den USA und auch gewisse Auswirkungen auf globale Festlands-Temperaturtrends. Die große Menge von Adjustierungen auf US-Temperaturtrends im Zeitmaßstab von Jahrhunderten verleiht aus sich selbst heraus das unglückliche Narrativ, dass die „Regierungs-Bürokraten die Bücher fälschen“.

Die Materie ist technisch und schwierig. Bereits zuvor hatten Hausfathers Ansichten auf WUWT Kritik hervorgerufen (Beiträge von Bob Dedekind und Willis Eschenbach im Juni 2014). Wer liegt richtig, wer liegt falsch? Im Mai 2014 hatten Anthony Watts und Hausfather auf WUWT sogar einen gemeinsamen Artikel, der Diskrepanzen im Temperaturdatensatz des United States Historical Climatology Network (USHCN) zum Thema hatte. Im Gegensatz zu Steve Goddard sieht Klimaskeptiker Watts einen Teil der Temperaturkorrekturen durchaus als gerechtfertigt an. Trotzdem gab es im Juni 2014 dann doch einen Vorfall bei dem Watts Goddard Recht gab und USHCN in die Pflicht nahm. Die Fronten in dieser Diskussion sind daher alles andere als klar. Ende Juni 2014 brachte Judith Curry eine gute und wohlgewichtete Bestandsaufnahme der für Außenstehende verworrenen Diskussion.
Grundsätzlich ist es schon etwas verdächtig, wenn stets die Vergangenheit künstlich kälter gemacht wird als ursprünglich gemessen. Ohne „Korrektur“ würden die heutigen Temperaturen der USA lediglich auf dem Niveau der 1930er Jahre liegen. Eine Erwärmung wäre dann für die letzten 80 Jahre nicht erkennbar. Im Gegenteil, es wäre sogar eine Abkühlung eingetreten.

In einem Manuskript bemängelte 2012 auch Frank Lansner die erheblichen Modifikationen, die am US-Temperaturdatensatz durchgeführt wurden:

Temperaturentwicklung in den USA von 1880 bs 2010 aus nicht adjustierten GHCN V2-Daten

Weltweite Temperaturtrends werden verwendet, um ein Erwärmungssignal infolge des zunehmenden CO2-Gehaltes zu schätzen. Sie sind folglich die Schlüsselparameter für die Grundlage einer angemessenen Klimapolitik. Trotz der Tatsache, dass das zusammenhängende Gebiet der USA die beste Verfügbarkeit von Temperaturdaten in der Welt aufweist, gibt es eine große Differenz zwischen jüngst (2) und früher (1) veröffentlichten Temperaturdaten von GISS. Dies wirft die Fragen nach der Robustheit der Daten auf. Der aus den nicht adjustierten Daten des Global Historical Climate Network (GHCN) berechnete Temperaturtrend in den USA zeigt, dass die dreißiger Jahre die wärmste Dekade waren, etwa 0,2 K wärmer als 2000 bis 2009. Der berechnete Temperaturtrend basiert auf Daten von 826 Stationen und ist praktisch identisch mit dem von Hansen et al. (1) berechneten Temperaturtrend. Der berechnete Temperaturtrend von 1930 bis 2010 ist etwa 0,5 K kälter als der aktualisierte GISS-Temperaturtrend in den USA (2) und etwa 0,4 K kälter als der aus den HadCRUT-Stationen berechnete Temperaturtrend. Der in den HadCRUT-Daten gefundene verstärkte Erwärmungstrend scheint mehr auf die Auswahl der Messstationen als auf die Adjustierungen der Stationsdaten zurückzuführen zu sein.

Bereits Balling & Idso hatten 2002 auf das Problem in den Geophysical Research Letters hingewiesen. Eine weitere Betrachtung steuerte 2013 Paul Homewood bei. Jim Steele führt auf Landscapes & Cycles eine ganze Reihe an fragwürdigen Korrekturbeispielen aus den USA an.
Die Diskussion erstreckte sich auch auf die Behandlung einzelner Monate, so etwa den Juli-Wert (Real Science, WUWT). Walter Dnes wies am 23. August 2014 auf WUWT darauf hin, dass die verschiedenen Monate offenbar in unterschiedlicher Weise korrigiert werden. US-Temperaturen der jüngeren Jahre sind offenbar besonders stark nach oben korrigiert worden (hier, hier, hier). Auch wird die Korrektur mit jeder neu eingeführten Datensatzversion auf mysteriöse Weise stärker. Zum Teil scheinen die offiziell mitgeteilten Korrekturen nicht einmal in der hauseigenen Datenbank enthalten zu sein.
Noch Ende der 1980er Jahre hatte man die Wärme der 1930er Jahre klaglos anerkannt. In der New York Times war am 4. Februar 1989 Erstaunliches zu lesen:

Kürzlich haben Wissenschaftler der NOAA gesagt, dass eine Studie von Temperaturmessungen für die 48 Kernstaaten der USA während des vorigen Jahrhunderts gezeigt haben, dass es während dieser Zeit keine signifikante Änderung der mittleren Temperatur gegeben hat. Dr. Phil Jones sagte in einem Telefoninterview, dass seine eigenen Ergebnisse für die 48 Staaten mit diesen Ergebnissen übereinstimmen.

Selbst zehn Jahre später, 1999, konnte James Hansen über die US-Temperaturgeschichte nichts anderes berichten:

Empirische Beweise unterstützen die Aussage nicht, dass sich das Klima plötzlich hin zu extremerer Hitze und Dürre bewegt (…) In den USA gab es während der letzten 50 Jahre, also dem Zeitraum rapide zunehmender Treibhausgas-Konzentrationen, kaum eine Änderung der Temperatur – tatsächlich gab es sogar eine leichte Abkühlung in den meisten Gebieten der Nation.

Mysteriöse Vorgänge auf Island
Ähnlich wie in den USA liegen in Island die heutigen Temperaturen auf dem Niveau der 1930er/40er Jahre. So berichtet es der Isländische Wetterdienst, und der sollte es wissen. Die globalen Datenkorrektoren sehen dies jedoch anders und haben kräftig mit ihrem Zauberstock in der Datensuppe herumgerührt. Schaut man sich die korrigierten Daten des Global Historical Climatology Network (GHCN) an, dann könnte man glauben, Island hätte sich in den letzten 70 Jahren erwärmt. Vormals harte Daten bekommen weiche Knie. Paul Homewood hat im Oktober 2012 auf WUWT die Misere detailliert protokolliert. Kurz darauf meldete sich auch David Stockwell auf der Webplattform zu Wort und zweifelte ebenfalls die Korrekturmethoden an. Wibjörn Karlén, ehemaliges Mitglied Royal Swedish Academy of Sciences, wirft GISS und NASA regelrechte Manipulation vor und geht auf das Island-Beispiel in einem Manuskript auf geoclimate.se ein. Im Tallbloke-Blog beschäftigte sich auch Roger Andrews mit den fragwürdigen Vorgängen auf Island. Zudem erschien im Dezember 2013 auf der Webseite der Swedish Stockholm’s Initiative ein Beitrag von Magnus Cederlöf, in dem die isländische Temperatur-Manipulation Schritt für Schritt enthüllt wurde.
Ganz ähnlich sieht die Situation übrigens in Norwegen aus. Hier eines der bekannten Vorher-Nachher-Charts von Steven Goddard:

Auch in den Niederlanden wurde kräftig korrigiert, wie Frank Lansner 2012 auf WUWT darlegte.
Asien, Ozeanien und Antarktis
In China sind Zhang et al. 2014 ebenfalls auf Korrekturprobleme gestoßen, die die Erwärmung offenbar stärker aussehen lassen, als sie in Wirklichkeit wohl ist. Eine ausführliche Diskussion des Papers gibt es auf WUWT von Anthony Watts. Auszug aus der Kurzfassung der Arbeit:

Auswirkunen der Daten-Homogenisierung auf die Schätzung des Temperaturtrends: Der Fall der Huairou-Station in der Stadt Peking

Unsere Analyse zeigt, dass Daten-Homogenisierungen für Stationen, die aus den Innenstädten an den Stadtrand verlegt wurden, zu signifikanten Überschätzungen steigender Trends der Lufttemperatur führen kann, und dies erfordert eine sorgfältige Evaluierung und Adjustierung der städtischen Verzerrungen, bevor man die Daten für Analysen der lokalen und regionalen Klimaänderung verwendet.

Interessanterweise liegen die Originalmessungen des japanischen Wetterdienstes JMA (hellblaue Kurve) deutlich unter den korrigierten Japan-Werten der internationalen Temperaturdatenbanken:

Gehen wir nun nach Australien. Roger Andrews berichtet aus dem Outback 2012, wie dort per Korrekturformel theoretische Erwärmung herbeigerechnet wurde. Im November 2013 publizierte Alberto Boretti im Fachjournal Theoretical and Applied Climatology eine Untersuchung zur Temperaturentwicklung im Northern Territory für die letzten 130 Jahre. Boretti fand, dass kaum eine Erwärmung feststellbar ist, wenn man die Datenkorrektur solide durchführt. Hier die Kurzfassung (mit Dank an The Hockey Schtick):
Das Nördliche Territorium von Australien befindet sich in der einmaligen Lage, eine Ausdehnung größer als Frankreich zu haben mit einer Bevölkerung von 200.000 und nur drei meteorologischen Stationen, die seit über 40 Jahren in Betrieb sind. Das sind die Stationen Darwin (DW), Alice Springs (AS) und Tennant Creek; und nur zwei davon, nämlich DW und AS, messen seit über 100 Jahren. Diese Stationen liegen 500 km voneinander und über 1000 km von benachbarten Stationen in Australien entfernt. Die Homogenisierung von Daten zwischen unterschiedlichen Messstellen an der gleichen Stelle ebenso wie die Methode, die fehlenden Daten abzuleiten, um mindestens 100 Jahre mit Daten abzudecken, werden detailliert analysiert, und die Auswirkungen auf die Temperaturtrends werden gleich danach untersucht. Die Verwendung ordnungsgemäß homogenisierter Daten aus über 130 Jahren und eine lineare Anpassung (fitting) ergibt hinsichtlich der Maximum- und Minimum-Temperaturen einen Trend von +0,009°C und +0,057°C pro Dekade für Alice Springs sowie -0,025°C und 0,064°C pro Dekade für Darwin. Mit den verfügbaren Daten besteht die einzige Option zur Erzeugung von Erwärmungstrends darin, die kalten Jahre Mitte der siebziger Jahre überzubetonen, was die Rückkehr zu wärmeren Temperaturen erhöht. Die Berechnung von Trends mit Beginn im Jahre 1980 zeigt immer noch eine klare Erwärmung in Alice Springs, aber ebenso klar eine Abkühlung in Tennant Creek, und ein gemischtes Verhalten mit steigenden Höchsttemperaturen und fallenden Tiefsttemperaturen in Darwin.
Schöne australische Vorher-Nachher-Bilder gibt es im Hockey-Schtick Blog zu bewundern. Hier zwei Beispiele:



Am 23. August 2013 griff dann die Tageszeitung The Australian die fragwürdige Datenmanipulation in zwei Artikeln auf (Artikel 1, Artikel 2), was große Wellen schlug:

Heiße Debatten zum Thema ,Wetteramt homogeniesiert Temperaturaufzeichnungen‘

Als im Januar 2011 Brisbane von einer Überschwemmung heimgesucht worden war, haben die Wassermassen in der Tiefgarage eines Gebäudes in dem Vorort St. Lucia am Fluss ein Corvette Sportauto absaufen lassen. Vergleicht man es mit dem Maßstab der Schäden von Dollar in Milliardenhöhe, zu der es in der Stadt durch diese vom Menschen verursachte Flut gekommen ist, scheint der Verlust eines Sportwagens nicht viel zu sein. Aber dieser Verlust fungierte als Katalysator für wachsende Zweifel und ernste Fragen an das staatliche australische Wetteramt hinsichtlich seiner Kompetenz und Integrität, die weit über die Sommerunwetter hinausgehen. Es geht bis ins Herz der Debatte um die Klimaänderung und im Besonderen darum, welche Computermodelle besser sind als reale Daten und ob die Temperaturaufzeichnungen manipuliert worden sind in einer Weise, dass jedes Jahr wärmer erscheint als das voran gegangene.

Wetteramt ,verändert Klimaangaben‘
Dem Wetteramt BOM ist vorgeworfen worden, historische Temperaturaufzeichnungen manipuliert zu haben, so dass sie danach zu einer vorbestimmten Ansicht bzgl. der globalen Erwärmung passen. In einem Streit mit BOM, dessen Anfänge bis zurück zur Brisbane-Flut im Januar 2011 reichen, hat die Forscherin Jennifer Marohashy behauptet, dass die adjustierten Temperaturreihen mehr „Propaganda“ als Wissenschaft seien.
Auszüge aus den nur für Abonnenten zugänglichen Artikeln finden Sie bei JoNova. Auch The Daily Caller griff das Thema auf. Im Laufe der sich daraufhin entwickelnden Diskussion kamen krasse Datenbehandlungsfehler durch den Australischen Wetterdienst ans Licht, so dass der Ruf nach personellen Konsequenzen laut wurde. Unter anderem redet sich der Dienst mit Wetterstationsverlegungen heraus, die er jedoch nicht belegen kann. Wiederum lohnt es sich, die Details bei JoNova nachzulesen.
Auch aus der Antarktis sind beeindruckende und erwärmende Korrekturen zu vermelden. Roger Andrews brachte dazu im Tallbloke-Blog eine schöne Vorher-Nachher-Graphik:

Globaler Korrekturwahn
Wenn man die Vielzahl der lokalen Korrekturen zusammenrechnet, kommt in der globalen Summe ein schöner Batzen zusammen. Ole Humlum von Climate4you zeigte im Juni-2014-Klimarundschreiben eine überraschende Graphik, in der die Entwicklung des Korrekturfaktors im Laufe der letzten 6 Jahre dargestellt wird (Abbildung unten). Während der Januar 2000 stetig künstlich wärmer gemacht wurde, gedachte man dem Januar 1915 das genaue Gegenteil an, nämlich man kühlte ihn immer weiter ab. Das National Climatic Data Center (NCDC) wird sicher eine gute Erklärung dazu haben?

Steven Goddard fand eine ganze Reihe von weiteren Korrekturen bei der NASA, angeregt durch den ehemaligen GISS-Chef und Klimaaktivisten James Hansen (hier, hier). Zum Teil wurden bereits frühere Archivversionen von der NASA vom Netz genommen bzw. gesperrt, damit die Entwicklung des Korrekturfaktors nicht mehr zurückverfolgt werden kann. Auch WUWT fand immer wieder Hinweise auf derlei mysteriöse Datenmodifikationen (hier, hier, hier, hier). Greg Goodman verfasste in Judith Currys Blog eine längere Analyse zur Problematik unter dem Titel „On the adjustments to the HadSST3 data set“. Goodman schlussfolgert, dass mit Ausnahme einiger Korrekturen für Werte aus dem Zweiten Weltkrieg, keine solide Basis für den Korrekturaktivismus vorliegt. Viele Veränderungen der Originaldaten basieren auf reiner Spekulation, die den Datensatz eher verschlechtern als verbessern. Die hinfort korrigierten “Anomalien” stellen vermutlich oftmals reale Temperaturentwicklungen dar. Hier Goodmans Schlußfolgerungen im Orginal:
HadSST3 enthält eine Reihe von Adjustierungen. Mit Ausnahme der Störungen zu Kriegszeiten sind sie auch durch Studien der Reihen nicht offensichtlich. Ihre Existenz basiert auf Spekulation und Hypothesen. Die Berechnung der Verzerrungen involviert eine Umkehrung eines wichtigen Teils der geschriebenen Metadaten der Aufzeichnung während der Periode hauptsächlicher Adjustierungen und ignoriert detaillierte Studien zum Verhältnis und der zeitlichen Abfolge der Änderungen bei der Datensammlung ebenso wie eine Spekulation hinsichtlich der Größenordnung der verschiedenen Effekte. Der hauptsächliche Effekt dieser Adjustierungen ist es, selektiv den größten Teil der langzeitlichen Variation aus den früheren zwei Dritteln der Datenreihe zu entfernen und deutlich in den Daten erkennbare etwa 10 bis 11-jährige Verteilungen zu unterbrechen. Diese Änderungen verändern den Charakter der Originaldaten fundamental. Die große Ähnlichkeit der Form zwischen den Variationen in den originalen ICOADS-Daten und den als notwendig erachteten Korrekturen bei der Stichprobe der Verzerrungen ist bemerkenswert. All dies gilt noch stärker vor dem Hintergrund, dass dokumentarische Informationen über die Grundlage der geschätzten Größenordnung und zeitlichen Abfolge der Adjustierungen fehlen. Die hier präsentierte Analyse zeigt, dass außerhalb der Zeit unmittelbar während des Krieges diese Adjustierungen die Daten verzerren und wertloser machen anstatt sie zu verbessern. Eine Anzahl verschiedener Analysen zeigt, dass eine einfache Korrektur der Kriegszeit (wie sie vor Gründung des Hadley Centers angewendet worden war) ein viel kohärenteres und glaubwürdigeres Ergebnis zeitigt. Ein Vergleich mit Studien von Nicht-Wassertemperatur-Daten [non SST data] zeigt, dass vieles der Variationen in den ICOADS-Daten ziemlich sicher realen Klimasignalen geschuldet sind und nicht Verzerrungen von Instrumenten. Diese Variationen müssen angemessen untersucht werden, anstatt sie a priori aus den Klimaaufzeichnungen zu entfernen.
Quo vadis Temperaturkorrektur? Wann platzt die Blase?
Link bei der „kalten Sonne“: Neues aus der wunderbaren Welt der Temperaturdaten-Korrekturen
Übersetzung der englischen Passagen von Chris Frey EIKE
Hinweis des Übersetzers: Dieser Artikel enthält mehrere Vorher – Nachher – Graphiken. Diese sind im Original einsehbar, ließen sich aber hier nicht übernehmen. Darum habe ich die Abbildungen als Standbilder nach dem Prinzip vorher – nachher dargestellt.
C. F.




Motive der Wissenschaft für die Energiewende: EU finanziert 14 Doktorandenstellen zur Förderung der Windenergie

Meine Antwort darauf ist immer dieselbe. Wissenschaftler sind eben auch nur Menschen. Einige glauben an das, was sie da sagen oder schreiben und meinen es daher ehrlich und ernst und können partout nicht einsehen, dass sie einem unwiderlegbarem, aber trotzdem Dogma erliegen, dass durch ihre Wissenschaft nicht bestätigt werden kann. Andere wiederum heulen mit den Wölfen und tragen durch stillschweigendes Mitmachen zur Verfestigung des Dogmas bei, sichern aber damit ihre Jobs evtl. sogar ihre Karriere.
Als ein Beleg dafür wie solche Karrieren entstehen oder verfestigt werden zitiere ich aus einer Mail eines mir Bekannten, dazu Windkraft-Unternehmers, der – und dafür gebührt ihm Achtung und Anerkennung- sein zuvor sauer verdientes eigenes Geld in die Entwicklung neuer Formen der Ernte der Windenergie steckt, nämlich durch den Einsatz von Drachen die in 500 m Höhe den dortigen Wind abernten sollen. Eine Teststrecke dazu in Friedland (Mecklenburg Vorpommern) hat er (vermutlich) weitgehend privat finanziert. Sie ist wieder in Betrieb, wie er stolz in der Mail verkündete.
In seiner letzte Rund-Mail u.a. auch an mich, berichtete er deshalb von Fortschritten in der Sensorik, und anderen Komponenten, die die Zuverlässigkeit  seiner Erfindung steigern würde. Und dann kommt der Satz, der zu diesem Artikel führt.

Drei Millionen neue EU Fördergelder für die Erforschung der Höhenwindenergien

Gefolgt von der Mitteilung:

Zitat: Gute Nachrichten aus Brüssel: Die EU hat gerade ein Förderprogramm genehmigt, mit dem die Forschung an Höhenwindtechnologien weiter Fahrt aufnimmt. In das Programm "Airborne Wind Energy System Modelling, Control and Optimisation" investiert die EU drei Millionen Euro an Fördergeldern. Bei unserem Partner, der Technischen Universität Delft in Holland, werden dafür insgesamt 14 Doktorandenstellen geschaffen. (Hervorhebung vom Autor) NTS profitiert als Mitglied des Konsortiums von den Forschungsergebnissen. Darüber hinaus steigt die öffentliche Wahrnehmung für Höhenwindenergie als wirtschaftlich hochinteressante Energiequelle. Zitatende

Dieser kurze Hinweis ist symptomatisch für das ganze System. Mittels Steuergeldern – und etwas anderes sind EU Mittel auch nicht- wird nur nach Gusto der herrschenden Systemmeinung, auch in der lt. Grundgesetz (Freiheit der Wissenschaft) unabhängigen Forschung eine feste Abhängigkeit geschaffen, die zu 100 % sicher stellt, dass die so Begünstigten schon das Gewollte, das zum „Richtigen“ per Geld definiert wird, "erforschen".  Und das lässt sich auch an allen deutschen Hochschulen und Forschungs-Instituten erkennen. Diese Meldung hier ist daher leider nur ein Beispiel von vielen.
Wie weit dieses „Förderung“ geht, böse Zungen könnten auch Bestechung dazu sagen, bewies mir vor wenigen Tagen ein verdienter Vertreter der Wissenschaft, Physiker und Universitätsprofessor (em), allseits akzeptiert, in vielen Gremien aktiv und hoch anerkannter Fachmann, sowie nach eigener Auskunft auch Politikberater. Der stellte in einem Fachvortrag unmissverständlich und schonungslos die wichtigsten – weitgehend nicht mal im Ansatz gelösten- Probleme vor, die samt und sonders erst durch die Energiewende entstanden sind. Sie gefährden aufs Ernsteste unsere bis dato weltweit beste Energieversorgung.
Doch nachdem er all dies unmissverständlich verkündet hatte, war seine Schlussfolgerung nicht etwa wenigstens ein Moratorium, oder gar eine totale Umkehr von diesem Irrweg zu fordern, sondern er forderte einzig und allein mehr Mittel für die Forschung. Seine Begründung: Die Energiewende sei richtig und gut -auch zur Bekämpfung des Klimawandels, somit höherwertig, alles andere sei unverantwortlich.
Soweit zu den Motiven vieler in der Wissenschaft
Falls Sie sich an den oben genannten Drachen-WKA beteiligen wollen
Hier der Rest der Email des Windkraft Unternehmers:

Unterstützen Sie uns mit Förderdarlehen!

Wir haben ein Modell entwickelt, mit dem Sie ein Teil unserer Idee werden und finanziell von unserem Erfolg profitieren können. Für Ihr Darlehen an uns, bieten wir Ihnen eine garantierte Verzinsung von bis zu 8%. Zusätzlich können Sie eine Ergebnisbeteiligung sowie einen Bonuszins erhalten. Jeder Investor wird darüber hinaus auf einem von uns errichteten „Monument“ verewigt.Um unseren nächsten großen Schritt gehen zu können, benötigen wir insgesamt rund 3,5 Mio. EUR. Mit diesem Geld werden wir einen 700m langen Rundkurs errichten, auf dem wir mehrere Elektrowagen im Parallelbetrieb fahren lassen können. Ein wichtiger Baustein auf dem Weg zur Markteinführung.

Viele von Ihnen haben uns bereits auf diesem Weg unterstützt. Wir möchten die Gelegenheit nutzen und uns hier nochmals herzlich bedanken. Das Geld hat uns geholfen, die oben beschriebenen Entwicklungsschritte zu realisieren. 
Helfen Sie uns weiter zu wachsen und werden Sie ein Teil unserer Vision! 

>Mehr Information zum Förderdarlehen




Das „Treibhaus“ treibt Journalisten in die Glaubwürdigkeitskrise- „Diese Welt braucht mutige Journalistinnen und Journalisten“

Weitere Forderungen zwecks Rückgewinnung von Vertrauen in die Arbeit von Journalisten sind: „Wir dürfen niemals die Regeln unseres Handwerks verlassen.“ Oder: „Gründliche Recherche, richtig geht immer vor schnell. Das ist der Unterschied zwischen einem Gerücht und einer Nachricht.“ Nur so könne der Leser lernen zu unterschieden, ob etwas relevant oder irrelevant ist. Doch kann dies ein Journalist, wenn die Überbringer von Botschaften wissenschaftliche Gremien oder Arbeitsgruppen von Experten sind, die Themen oder Probleme ansprechen, die völlig neuartig sind und zwecks Überprüfung ein Fachwissen erfordern, über das auch ein qualifizierter Journalist nicht verfügt. Wichtig ist es, bei Pressepräsentationen eine emotionale Distanz und damit seine Kritikfähigkeit zu wahren.
Am 26. August 2014 erging eine Presseeinladung der Michael Otto Stiftung für Umweltschutz, des Potsdam-Instituts für Klimafolgenforschung und der Technischen Universität Berlin durch das PIK in Potsdam. Ort waren die Mozartsäle in Hamburg. Der Titel der Veranstaltung lautete: „Klimawandel und Klimaschutz: zwischen globaler Transformation und nationalen Herausforderungen“. Als Anreiz wurde angeboten eine Podiumsdiskussion mit Bundesumweltministerin Hendricks. Zelebriert wurde der Abschluss der Förderung der Professur „Ökonomie des Klimawandels“ an der Technischen Universität Berlin. Doch kein Journalist entzog sich der „Gleichförmigkeit der Meinung“. Keiner hatte den Mut zu fragen, wie man das Klima, das ein Konstrukt darstellt und von langjährigen Wetterbeobachtungen abhängt, schützen könne. Das Wetter gehört zu den irreversiblen Naturvorgängen. Es kann weder rückgängig noch ungeschehen gemacht werden und seinen Wandel, der jedwedem Klimawandel zugrunde liegt, kann auch kein Mensch beeinflussen, nicht einmal eine Weltmacht wie die Vereinigten Staaten vor Amerika oder die Vereinten Nationen. Die Ohnmacht vor dem Wetter wird zu kaschieren gesucht durch eine angebliche Macht über das Klima. Aber auch eine „globale Transformation“ und die Schaffung einer „Weltregierung“ würde an der Allgemeinen Zirkulation mitsamt der Wettervielfalt auf der Erde nichts ändern.
Mögen sich auch Deutsche Unternehmer mitsamt ihrer „Stiftung 2°“ für Klimaschutz aussprechen und sich dem staatlichen Diktat „Klimaschutz“ wohlgefällig beugen, das Wetter nimmt dies nicht zur Kenntnis und macht weiter, was es will. Es ist nach wie vor als „chaotisches System“ so unverstanden und unberechenbar, dass es sich jeder mittelfristigen Vorhersage entzieht. Wie das Weihnachtswetter regional in Deutschland ausfallen wird, das steht sprichwörtlich „in den Sternen“!
„Die Katastrophen sind die Saturnalien der Journalisten“
Die Saturnalien waren ein römischer Festtag am 17. Dezember zu Ehren des Gottes Saturn, der als Herrscher des urzeitlichen „goldenen Zeitalters“ galt. Wichtigster Aspekt der Saturnalien war die Aufhebung der Standesunterschiede. Auch Sklaven wurden an diesem Tag von ihren Herren wie Gleichgestellte behandelt. An einigen Universitäten wie Göttingen, Kiel und Köln werden „Saturnalien“ als studentisches Fest veranstaltet, bei dem man in der Vorweihnachtszeit mit den Dozenten „abrechnet“. Wenn Gerd Ruge als Journalist „Katastrophen“ als „Saturnalien“ der Journalisten bezeichnet, dann fand so ein Ereignis am 22. Januar 1986 im Hotel Tulpenhof in Bonn statt.
An diesem Tag hatte die Deutsche Physikalische Gesellschaft e. V. zu einer Pressekonferenz eingeladen, um den Journalisten die „Warnung vor der drohenden Klimakatastrophe“ zu präsentieren. Unter Aufhebung der Standesunterschiede wurde von Professoren den Pressevertretern Einblick in die Geheimnisse moderner physikalischer Forschung gegeben. Erläutert wurde die Rolle des CO2 als potentielle Gefahrenquelle für weltweite Klimaveränderungen. Die Wirkung des CO2 wurde mit der Wirkung der Glasabdeckung eines nur durch Sonneneinstrahlung „beheizten“ Treibhauses verglichen. Bei Verdoppelung des CO2-Gehaltes sollte die Temperatur in äquatornahen Breiten um 2°C, in „unseren Breiten“ um 4°C und in polnahen Breiten um 8°C steigen und eine Verschiebung der Klimazonen bewirken. Verschwinde das schwimmende Eis am Nordpol und auch das Eis über der Antarktis, dann würde der Meeresspiegel sukzessive bis zu 60 Meter ansteigen.
Dies wäre die ideale Stunde für kritischen Journalismus gewesen, doch dieser erstarrte aus Ehrfurcht vor der Weisheit der physikalischen Prominenz, repräsentiert durch die Physikprofessoren K. Heinloth (Bonn) und J. Fricke (Würzburg). Kein Journalist wagte zu fragen, was die Physiker das „Klima“ anginge, das statistisch vom Wetter abgeleitet werde und daher lediglich den historischen Wetterwandel abbilde und widergebe. Im Gegensatz zum Wetter, das auf physikalischen Vorgängen in der Atmosphäre beruhe, sei „Klima“ kein Naturvorgang, der in irgendeiner Weise vom Menschen beeinflusst werden könnte. Zudem ist Wetter so komplex und vielfältig, dass es bis heute keine Definition von Wetter gibt. Und was das Wetter betrifft, so kann der Mensch dieses nicht verändern, indem er in die Allgemeine Zirkulation lenkend eingreift und die Winde so wehen lässt, wie es ihm gefällt.
Noch peinlicher wäre es für die Herren Physiker geworden, wenn ein Journalist die Courage gehabt hätte zu fragen, wie es nachts in dem „durch Sonneneinstrahlung beheizten Treibhauses“ aussieht. Warum es darin mit Sonnenuntergang empfindlich kalt wird, sich an den Scheiben sogar Eisblumen bilden und im Winter der Großteil der Treibhäuser leer steht, weil die Heizkosten unerschwinglich hoch sind und einen Gemüseanbau gänzlich unrentabel machen. Mit Glas kann man zwar ein Gewächshaus oder einen Wintergarten bauen, doch Glas ist ein guter Wärmeleiter und führt zu einer schnellen Auskühlung des Treibhauses. Mittels Doppel- und Dreifachverglasung kann man die Wärmeleitfähigkeit verringern, doch nur wegen der zwischen den Glasscheiben eingesperrten Luft. Luft, die stillgestellt ist, ist der schlechteste Wärmeleiter in der Natur.
 Die Propagandisten beziehen die „Prügel“, die die Protagonisten verdienen!
Journalisten sind wie Boten und schon in der Antike galt: Der Überbringer schlechter Nachrichten wird geköpft. Daher forderte Sophokles: „Töte nicht den Boten!“ Abstrakt ist ein Journalist der Überbringer einer Botschaft auf Veranlassung eines Senders an einen Empfänger. Der Sender ist die Deutsche Physikalische Gesellschaft. Sie lädt zu einer Pressekonferenz,  füttert Journalisten mit Informationen, die diese über die Medien an ein breiteres Publikum, das Volk als Empfänger, weitergeben und das politische Klima, den „Zeitgeist“, beeinflussen sollen. Bei Unglücks- oder Katastrophenbotschaften hat sich der Ausdruck „Hiobsbotschaft“ eingebürgert. Derartige Hiobsbotschaften sollen zum Nachdenken, zur Umkehr und Verhaltensänderung führen. Sie erfüllen einen politisch-pädagogischen Zweck, sind ein gesellschaftliches Regulativ. Doch sie müssen sinnvoll sein und es muss ein konkretes Schutzobjekt geben. Bisher hat noch kein Jurist das Schutzobjekt „Klima“, das nur als Abstraktum existiert, umreißen können.
Der Journalist steht vor der Gewissensfrage: Soll er die Botschaft ungeprüft übernehmen und weitergeben? Dann ist er nichts als ein Handlanger. Soll er die Botschaft kritisch werten, Fragezeichen setzen? Er würde damit die Entscheidung den Lesern, Zuhörern oder Zuschauern als mündige Bürger übertragen. Das könnte ihm Kritik eintragen. Oder soll er die Botschaft nehmen und dramatisieren, um Aufmerksamkeit zu erhöhen und den Absatz zu steigern? Das würde ihm sicher positiv angerechnet. Das Nachrichtenmagazin Der Spiegel wählte die dritte Variante und ließ auf der Titelseite am 11. August 1986 den Kölner Dom in der blauen Nordsee versinken. Der Spiegel bediente damit die mythische Angst vor der „Sintflut“ als Strafe Gottes für uns sündigen Menschen.
Der Journalist ist in einer durchaus tragisch-zwieträchtigen Rolle. Ist er nur ein Instrument und wie weit reichen seine Gestaltungsmöglichkeiten? Das Schlimmste wäre, wenn er als „nützlicher Idiot“ missbraucht würde. Ihm musste eine positive und wichtige Rolle zugewiesen werden. Und dies taten die „Experten“. In einem Aufsatz „Der Treibhauseffekt als journalistische Herausforderung“ beschrieben 1998 H.-P. Peters vom Forschungszentrum Jülich und M. Sippel vom Südwestfunk ihre Gedankengänge: „Umweltprobleme sind generell attraktive Themen für die journalistische Berichterstatten. So können sich Journalisten wegen des hohen Umweltbewusstseins sicher sein, dass das Thema interessierte Leser, Zuhörer und Zuschauer findet. Der Einsatz für den Umweltschutz gilt weithin als „sozial wünschenswert“. Journalisten, die sich dieser Themen annehmen, können daher mit sozialer Anerkennung rechnen. Der Journalist als „Warner“ vor Risiken und als Aufdecker von Missständen dürfte die beliebteste Rolle sein, in der sich Journalisten gefallen“. Die Journalisten konnten der Versuchung nicht widerstehen, erfüllten die in sie gesetzten Erwartungen, betrieben die „Skandalisierung“ von Umweltproblemen, prangerten die „Schuldigen“ öffentlich an und inszenierten im Muster simpler Mythen ein Schauspiel „das Gute im Kampf mit dem Bösen“, bei dem der Leser sich immer auf die moralisch richtige Seite der „Guten“ schlagen konnte.
Die „Klimaproblematik“ wurde mit dem sprachlichen Unwort „Klimakatastrophe“ durch die Deutsche Physikalische Gesellschaft eingeführt und vom Spiegel popularisiert. Über die Magazine Spiegel wie Stern wurde das Thema aktiv in die öffentliche Debatte eingespeist, bis es 1987 die mediale die politische Bühne eroberte und als „Klimapolitik“ einen Parteienwettbewerb entfachte darüber, wer in diesem unseren Lande der beste „Klimaschützer“ sei.
Peters und Sippel fassen zusammen: „Bei der Entstehung des Themas haben offenbar Wissenschaftler eine ungewöhnlich aktive Rolle gespielt. Nicht Umweltschutzbewegung, nicht Katastrophe, sondern die Warnungen von Wissenschaftlern, die bereit waren, sich auch öffentlich und politisch zu exponieren, waren international Pate der Klimadebatte. Auch in Deutschland fällt die aktive Rolle der Wissenschaftler auf“. In der amerikanischen Berichterstattung fällt zudem auf, dass die Zahl der Beiträge über den Treibhauseffekt mit der Lufttemperatur stieg. In den heißen Sommermonaten berichteten die Medien überproportional häufig über den Treibhauseffekt. Besonders der heiße Sommer 1988 wurde von James Hansen (NASA) genutzt, um die Folgen des Treibhauseffekts zu dramatisieren und im Kongress das psychologische Klima zu manipulieren. Das Wetter konnte und kann sich nicht wehren gegen solch unverschämten Missbrauch! Der amerikanische Kommunikationswissenschaftler L. Wilkins kritisierte 1993, dass die Treibhaus-Hypothese unhinterfragt übernommen wurde. Sie ist bis heute nicht durch Messungen belegt und muss mit dem Verweis auf eine „Konsensmeinung unter Experten“ geglaubt werden. Dabei sollte gerade der Glaube in der Wissenschaft verpönt sein. Wo sind die mutigen Journalisten, die den „Klimaexperten“ die entscheidenden Fragen stellen und sie wie den Kaiser in seinen neuen Kleidern entzaubern?
Die Journalisten sollten sich mit ihrer Rolle als Verbreiter einer Botschaft bescheiden und sich nicht auf das glatte Parkett der Erfinder und Propagandisten des „Treibhauseffektes“ samt „Klimakatastrophe“ begeben. Etwas mehr Bescheidenheit würde ihr Ansehen wie ihre Glaubwürdigkeit erhöhen.
Oppenheim, den 2. Oktober 2014                                                             
Dipl.-Met. Dr. phil. Wolfgang Thüne