Kommt nun die richtige Energiewende? Das CERN hält die „kalte Fusion“ nicht für Esoterik
geschrieben von Edgar Gärtner | 18. April 2012
Doch dann kam eine überraschende Wende. Im März 1989, also vor nun 23 Jahren, verkündeten die beiden amerikanischen Elektrochemiker Martin Fleischmann und Stanley Pons auf einer Veranstaltung des europäischen Kernforschungszentrums CERN in Genf, es sei ihnen gelungen, die Wasserstoffisotopen Deuterium und Tritium bei Zimmertemperatur im Reagenzglas zu verschmelzen. Dieses Gefäß bestand aus einer Art Elektrolysezelle mit einer Kathode aus Palladium. Die Nachricht, die „kalte Fusion“ könne uns vielleicht auf billige, sichere und unerschöpfliche Weise unserer Energiesorgen entledigen, machte schnell die Runde. Doch schon wenige Wochen darauf folgte die Ernüchterung, als die US-Physiker Steven Koonin, Nathan Lewis und Charles Barnes vom renommierten California Institute of Technology (Caltech) auf einer Versammlung der amerikanischen Gesellschaft für Physik erklärten, es sei ihnen nicht gelungen, die Versuchsergebnisse von Fleischmann und Pons (Entstehung von Helium, freien Neutronen und Gammastrahlen) zu reproduzieren.
Doch Martin Fleischmann und eine Reihe weiterer Forscher in Indien, Japan und Italien ließen sich davon nicht beirren. Schließlich hatte Andréj Sacharow, der Vater der russischen Wasserstoffbombe, die grundsätzliche Möglichkeit der „kalten Fusion“ (wiss. Korrekt: Low Energy Nuclear Reaction, LENR) schon 1948 theoretisch hergeleitet. Während sich das US-Energieministerium (DOE) längere Zeit gegen eine staatliche Förderung der LENR aussprach, hält die US-Weltraumbehörde NASA neuerdings LENR für eine viel versprechende „Zukunftstechnologie“, die auch die Luft- und Raumfahrt revolutionieren könnte Dennis Bushnell, der Chefwissenschaftler des NASA-Forschungszentrums in Langley, geht allerdings nicht davon aus, dass die „kalte Fusion“ genau so abläuft, wie Fleischmann und Pons annahmen. Statt um eine Fusion leichter Atomkerne handele es sich vermutlich eher um eine Transmutation durch Neutronen- und Elektronenanlagerung und anschließendem Zerfall des schwereren Isotops. Wie dem auch sei, der Prozess setzt auf jeden Fall reichlich Wärme frei, und zwar deutlich mehr, als durch chemische Reaktionen allein erklärt werden kann. Es müssen Umwandlungen auf atomarer Ebene stattgefunden haben. Das wurde durch etliche Experimente, die unabhängig voneinander in Indien, Japan, Italien und den USA durchgeführt wurden, demonstriert.
Kein Wunder, dass sich nun auch private Konzerne wie Mitsubishi und Toyota in Japan und vielleicht auch Siemens in Deutschland für die „kalte Fusion“ erwärmen. Das wurde offenbar auf einem am 22. März 2012 vom CERN eigens veranstalteten Kolloquium zum Thema LENR. Dort stellte der an der Universität von Perugia/Italien lehrende indische Physiker Yogendra Srivastava die von der NASA favorisierte Theorie der Low Energy Nuclear Transmutations (LENT) von Giuliano Preparata (Mailand) und Allan Widom (Boston) vor. (Preparata hat in den 70er Jahren selbst am CERN gearbeitet.) Srivastava wies in seinem Vortrag auch darauf hin, dass die explosive Freisetzung von Neutronen in der Natur durchaus nichts Seltenes ist. Sie wird beobachtet bei Sonneneruptionen, bei Gewittern und bei Erdbeben. Vermutlich gehen die bei starken Erdbeben beobachtbaren Blitze von piezoelektrisch ausgelösten Transmutationen beim Zerbrechen von Quarzkristallen in der Erdkruste aus, meint Srivastava
Der italienische Kernphysiker Francesco Celani (Frascati) stellte beim Genfer Kolloquium bislang unveröffentlichte LENR- bzw. LENT-Experimente der NASA und japanischer Firmen vor. Dabei ragen die Ergebnisse der Versuche mit nanoskaligen Paladium-Silber oder -Zirkon-Elektroden heraus. Celani erwähnte auch den geheimnisvollen„Energy-Katalysator“, mit dem der italienische Unternehmer Adrea Rossi im vergangenen Jahr Furore gemacht hat. Dieser arbeitet nicht mit Palladium-Elektroden, sondern mit nanoskaligem Nickel in Wasserstoff. Durch den Einfang von Protonen durch die Nickel-Atome soll dabei Kupfer entstehen. Rossi, der mit dem emeritierten Physikprofessor Sergio Focardi aus Bologna zusammenarbeitet, lässt sich aber nicht in die Karten schauen. Der innere Aufbau seines Apparats bleibt streng geheim. Deshalb hat er dafür auch kein Patent bekommen. Immerhin hat Rossi sich vom renommierten Königlichen Institut für Technologie (KTH) in Stockholm bestätigen lassen, dass sein Apparat sechs Stunden lang 25 Kilowattstunden elektrische Leistung erzeugt hat. Inzwischen hat Rossi angekündigt, dass er ab 2013 für zirka 1.000 Euro ein kompaktes Gerät anbieten will, mit dem sich ein ganzes Eigenheim heizen lässt. Es soll nur zweimal im Jahr „Brennstoff“ für etwa 20 Euro benötigen. Ein Gerät will Rossi bereits an den Mann gebracht haben. Auch wenn gegenüber diesen Erfolgsmeldungen Skepsis geboten ist, zeichnet es sich schon jetzt ab, dass die „Energiewende“ wohl ganz anders aussehen wird, als von Angela Merkel und den ihr dienstbaren „Experten“ geplant. Sollte die kalte Transmutation tatsächlich funktionieren, wäre damit ihr Markterfolg aber noch nicht sicher gestellt, denn die Grünen werden wohl bald ein Haar in der Suppe finden.
Edgar Gärtner EIKE
Internet:
Leser die sich über den Fortgang der Erfindung Rossis informieren wollen, hier dessen Internet-Plattform hinweisen: http://www.e-catworld.com/
Was nicht passt wird passend gemacht – ESA korrigiert Daten zum Meeresspiegel
geschrieben von Rudolf Kipp | 18. April 2012
Der “Environmental Satellite” (Envisat) ist so etwas wie das Prunkstück der European Space Agency (ESA). Der 8 Tonnen schwere Umweltsatellit stellte die größte Nutzlast dar, die jemals mit einer Ariane Rakete ins All befördert wurde und ist mit 2,3 Milliarden Euro auch der bislang teuerste Satellit der ESA.
Zu den Aufgaben dieses Satelliten gehört unter anderem die Vermessung der Ozonschicht, der Eisbedeckung, die Dokumentation von Vulkanausbrüchen und die Vermessung des Meeresspiegels. Allerdings hat die Auswertung letzterer Daten bislang zu Ergebnissen geführt, die weder mit den Aussagen eines beschleunigten Meeresspiegelanstiegs, noch mit den Messungen der amerikanischen Jason Satelliten in Einklang standen.
Anstieg durch “Datenkorrektur” verfünffacht
Der von Envisat gemessenen Anstieg des Meeresspiegels betrug im Zeitraum von Ende 2003 bis Ende 2011 lediglich 0,48 mm/Jahr, was 4,8 cm in 100 Jahren entsprechen würde. Die Messungen des Jason-1 Satelliten haben für den gleichen Zeitraum einen Anstieg von 2,05 mm pro Jahr gefunden. (Bitte beachten Sie, dass die folgenden Darstellung zum Vergleich der Absolutwerte normiert sind. Die aus den Ergebnissen resultierenden Steigungen des Meeresspiegels bleiben davon unberührt.)
Um diesem Umstand zu begegnen wurden bei der ESA bereits im letzten Jahr Methoden diskutiert, wie man die Envisat Daten rechnerisch an die Ergebnisse der Messungen der Jason Satelliten angleichen kann. Diese Anpassung wurde jetzt beim Umstellen auf die neueste Version der Envisat Daten (Version 2.1) offensichtlich vorgenommen. Aus dem bisherigen minimalen Anstieg von 0,48 mm/Jahr wurde dadurch quasi über Nacht ein Anstieg von 2,32 mm/Jahr. Wer nach einer Begründung für diese Maßnahme sucht, der wird auf der Aviso-Homepage unter “Processing and corrections“ fündig. Dort heißt es: “sign of instrumental correction (PTR) corrected via external CLS input (impact of +2 mm/year drift)” Man hat also einen Abgleich an externen Daten vorgenommen. Es findet sich allerdings kein Wort dazu, was für Daten das sind oder welcher Umstand diesen radikalen Eingriff notwendig gemacht hätte.
Was weiter auffällt ist, dass in der neuen Version (2.1) nicht nur eine deutlich größere Steigung zeigt, sondern dass sie jetzt bis ins Jahr 2002 zurückreicht (die bisherige Version begann Ende 2003). Man scheint also nicht nur befunden zu haben, dass der bisher gefundene Anstieg deutlich zu niedrig war, sondern hat allem Anschein nach außerdem noch “alte Daten” wiederentdeckt.
Laufende Anpassungen nach oben
Anpassungen dieser Art sind in der noch jungen Geschichte der Satelliten-Altimetrie nichts ungewöhnliches. Wobei man sich im jeweiligen Fall durchaus die Frage stellen muss, ob die vorgenommenen Korrekturen nun die Wirklichkeit besser widerspiegeln, oder ob sie vorgenommen werden, damit die Ergebnisse besser zu einer vorgefertigten Meinung passen. Dieser Verdacht kann einem nämlich durchaus kommen, wenn man die Zahlreichen Korrekturen etwa beim amerikanischen Programm zur Meeresspiegelmessung mit Satelliten betrachtet. Dieses Begann im Jahr 1992 mit dem TOPEX/Poseidon Satelliten.
In einer im Jahr 2000 publizierten Veröffentlichung (G. Menard, 2000. “Satellite-based altimetry reveals physical ocean.” MEDIAS Newsletter, Vol. 12, pp. 9-17) wurden die Ergebnisse der Messungen von Oktober 1992 bis April 2000 dargestellt. Der Verlauf war mehr oder weniger flach, lediglich durch den im El Nino 1997/98 kam man damals rechnerisch auf einen Anstieg von einem Millimeter pro Jahr.
Als die gleichen Daten dann im Jahr 2003 erstmals auf der Internetseite AVISO (Archiving, Validation and Interpretation of Satellite Oceanographic data) vorgestellt wurden, stellte sich das Bild sich bereits anders dar.
“Wir mussten das machen, ansonsten hätten wir ja keinen Anstieg”
Offensichtlich waren die Daten jetzt mit einem Trend versehen worden, so dass sich ein Anstieg von 2,3 mm pro Jahr ergab. Der schwedische Ozenaograph Nils-Axel Mörner der von 1999 bis 2003 Präsident der INQUA-Kommission zur Meeresspiegelveränderung und Küstenentwicklung war, schrieb hierzu in 21st Century Science & Technology:
“Als die Satelliten-Altimetrie-Gruppe feststellte, dass der Anstieg im Jahr1997 ein ENSO-Signal war und sie den Trend bis 2003 fortführten, stießen sie auf ein Problem. Es war kein Anstieg des Meeresspiegels sichtbar und daher musste eine “Re-Interpretation” vorgenommen werden.”
“When the satellite altimetry group realized that the 1997 rise was an ENSO signal, and they extended the trend up to 2003, they seemed to have faced a problem: There was no sea level rise visible, and therefore a “reinterpretation” needed to be undertaken.”
Laut Mörner blieb es damals unklar, wie genau dieser neue Trend rechnerisch zustande kam, die Satelliten-Altimetrie-Gruppe hätte nicht genauer spezifiziert, welche Art von “Korrekturen” im Detail vorgenommen worden wären. Mörner zitiert in seinem Text ein Mitglied der britischen IPCC Delegation mit den Worten:
“Wir mussten das machen, ansonsten hätten wir ja keinen Anstieg”
“We had to do so, otherwise there would not be any trend.”
Der Trend wird immer weiter nach oben korrigiert
Und auch nach diesem “großen Wurf” gingen die “Anpassungen” munter weiter. Zu welchen Resultaten das führte soll im Folgenden erläutert werden. Betrachten wir zunächst die Entwicklung des Meeresspiegels nach Messungen der Satelliten Toppex/Poseidon, sowie Jason-1 und Jason-2, wie sie auf der Homepage der University of Colorado dargestellt wird.
Man erkennt deutlich, dass der Anstieg bis etwa 2005 ziemlich gleichförmig verlief und sich die Geschwindigkeit des Anstiegs seitdem verlangsamt hat. Man sollte also annehmen, dass der resultierende Anstieg über den gesamten Zeitraum daher seit 2005 tendenziell rückläufig sein sollte. Allerdings ist ziemlich genau das Gegenteil der Fall. Lag der aus den Daten errechnete Anstieg über den bis dahin gemessenen Gesamtzeitraum bei 2,9 mm/Jahr, lag er 2008 trotz der offensichtlichen Stagnation von 2006 bis 2008 bei 3,3 mm/Jahr. Und trotz des Umstands dass der Anstieg sich von 2008 bis 2012 weiter deutlich unter dem Niveau der 90er Jahre befindet beträgt der errechnete Anstieg seit 1992 heute 3,1 mm/Jahr. Die Entwicklung des Anstiegs von 2004 bis 2012 ist in nachfolgender Tabelle dargestellt.
Jahr
Anstieg [mm]
Fehler [mm]
2004
2,8
0,4
2005
2,9
0,4
2006
3,2
0,4
2007
3,2
0,4
2008
3,3
0,4
2009
3,2
0,4
2010
3,1
0,4
2011
3,1
0,4
2012
3,1
0,4
Um zu verstehen, wie es zu diesem vermeintlichen Widerspruch kommt muss man sich die Daten aus den jeweiligen Jahren etwas genauer ansehen. Leider gibt es auf der Homepage der University of Colorado kein Archiv, aus dem man die Daten der vorherigen Jahre beziehen könnte. Aber da das Internet bekanntlich nie etwas vergisst und es nützliche Seiten wie die WaybackMachine gibt, lassen sich die entsprechenden Daten auch nachträglich bis 2004 zurückverfolgen. Die Daten für die Jahre 2004 bis 2012 sind in der folgenden Grafik vergleichend dargestellt.
Man erkennt auf den ersten Blick, dass an den Daten laufend Korrekturen vorgenommen wurden. Interessant ist dabei, dass diese Anpassungen allesamt in eine Richtung weisen, und zwar hin zu einem immer größeren Anstieg des Meeresspiegels. Man gewinnt fast den Eindruck, dass in den letzten Jahren immer weiter “angepasst” wurde, um den Gesamtanstieg über der magischen Grenze von drei Millimeter pro Jahr zu halten. Das Ganze wird noch deutlicher, wenn man die sich ergebende Steigung im zeitlichen Verlauf für die Unterschiedlichen Versionen grafisch darstellt.
Über die Jahre lässt sich so ein “schleichender” Prozess von immer neuen Korrekturen und Anpassungen feststellen. Man kann also festhalten, dass die Rohdaten der Meeresspiegelmessungen einen eher flachen Verlauf mit einem Anstieg im Bereich von 0,5 bis 1 Millimeter pro Jahr zeigen. Nur durch zahlreiche Korrekturen, die auf Annahmen beruhen die nicht weiter ausgeführt werden, ergibt sich der “offizielle” Wert von zur Zeit 3,1 mm pro Jahr.
Beschleunigt sich der Anstieg des Meeresspiegels?
Wobei diese Zahl einen durchaus stutzig machen kann. Wenn man sich die verfügbaren Pegeldaten aus der ganzen Welt ansieht (Permanent Service for Mean Sea Level PSMSL, hier eine Liste der NOAA mit Stationen längerer Messhistorie und den zugehörigen Trends), hat man Schwierigkeiten, überhaupt Stationen zu finden, an denen ein ähnlich hoher Wert für den Meeresspiegelanstieg gefunden wird. Jetzt sollte aber der von den Satelliten gemessene Wert, wenn er denn sinnvoll ist, in erster Näherung den Durchschnitt der globalen Messtationen repräsentieren.
Der Versuch einen solchen Durchschnitt zu ermitteln wurde bislang von verschiedenen Autoren mithilfe unterschiedlicher Methodiken unternommen. Die gefundenen Werte bewegen sich alle im Bereich zwischen 1-2 mm Anstieg pro Jahr (10-20 cm in 100 Jahren). Keiner der Autoren sah auch nur annähernd Werte, welche den 3,1 mm/Jahr der Satelliten auch nur nahe kamen.Die folgende Tabelle gibt einen Überblick über verschiedene Arbeiten.
Autor(en)
Jahr
Abgeschätzter globaler Anstieg des Meeresspiegels [mm/Jahr]
Nun könnte man annehmen, dass sich der Anstieg der Meeresspiegel im 20. Jahrhundert eben beschleunigt hat (was schließlich auch von IPCC-nahen Autoren suggeriert wird). Eine (wenn auch geringe) Beschleunigung wurde in den Arbeiten von Church et al. (2006 und 2011) schließlich auch gefunden. Allerdings schreiben die Autoren selbst, dass andere Autoren bisher eine solche Beschleunigung nicht sehen konnten (“no 20th century acceleration has previously been detected”). Interessant ist auch zu erwähnen, dass Holgate (2007) genau das Gegenteil gefunden hat, nämlich dass der Anstieg zwischen 1904 und 1953 mit 2,03 mm pro Jahr größer war, als in der Zeit von 1954 bis 2003 mit dann 1,45 mm pro Jahr.
Modelle statt Messungen?
Zusammenfassend kann man wohl sagen, dass die Ermittlung des exakten Wertes der Veränderung des Meeresspiegels eine hochkomplexe Aufgabe darstellt, bei der man abhängig von den gewählten Daten und der verwendeten mathematischen Korrekturen und Modelle zu gänzlich unterschiedlichen Schlüssen kommen kann. Eine gute Beschreibung der Situation findet sich in dem äußerst lesenswerten Essay des 2004 verstorbenen Skeptikers John Daly (dessen Tod, wie manche sich vielleicht erinnern, vom damaligen CRU Chef Phil Jones als ” aufheiternde Neuigkeiten” (“cheering news”) bezeichnet wurde).
“Es wurde der Weltöffentlichkeit, den Medien und den politischen Entscheidern immer der Eindruck vermittelt, dass der Anstieg der Meeresspiegel von 18 cm im vergangenen Jahrhundert eine gemessene Größe wäre, die nicht zur Diskussion stünde. Was größtenteils nicht bekannt ist, ist der Umstand, dass diese Größe in weiten Teilen das Produkt von Modellen, und nicht von Messungen ist, und daher sehr wohl diskussionswürdig, ganz besonders da die Meeresspiegeldaten in vielen Teilen der Welt nicht den IPCC Annahmen entsprechen.”
“The impression has been conveyed to the world’s public, media, and policymakers, that the sea level rise of 18 cm in the past century is an observed quantity and therefore not open to much dispute. What is not widely known is that this quantity is largely the product of modeling, not observation, and thus very much open to dispute, especially as sea level data in many parts of the world fails to live up to the IPCC claims.”
Die 3 Millimeter müssen gehalten werden
Wenn man die Entwicklung der Trends bei den Satellitendaten in den letzten 10 Jahren betrachtet, dann drängt sich einem der Eindruck auf, es soll nach Kräften verhindert werden, dass die publizierten Daten unter einen Wert fallen, der dann nicht mehr als besorgniserregend wahrgenommen würde. Kaum anders ist es zu erklären, dass die Satellitenmessungen der University of Colorado trotz des seit mittlerweile fast 7 Jahre andauernden Rückgangs des Anstiegs unvermindert hohe Werte von über 3 mm Anstieg pro Jahr angeben.
Und auch die aktuell bei den Daten des europäischen Envisat Projektes vorgenommenen Korrekturen folgen nicht nur dem altbekannten Schema, dass diese Maßnahmen ausnahmslos in eine Richtung weisen, und zwar zu höheren Werten. Auch die Begründung, welche die Wissenschaftler anbieten trägt mehr zur Verschleierung bei, als dazu aufzuklären, warum ein so fundamentaler Eingriff in die Daten vorgenommen werden musste.
Was bleibt ist der Eindruck, dass hier Daten systematisch “schöngerechnet” werden. Schließlich steht der nächste Zustandsbericht des Weltklimarates (IPCC) für das Jahr 2014 an. Und dieser kann seine volle Wirkung nur entfalten, wenn alles sich noch viel schlimmer darstellt, als man im letzten Report 2007 bereits gesichert wusste. Ein seit Jahren langsamer werdender Anstieg des Meeresspiegels wäre hierzu ganz sicher nicht hilfreich.
Von Rudolf Kipp; Zuerst erschienen bei Science Sceptical ÄHNLICHE BEITRÄGE (AUTOMATISCH GENERIERT):
• Grönländischer und westantarktischer Eisschild schmelzen nur halb so schnell
• Erneuter Rückschlag für Klimaalarmisten – Die globale Strahlungsbilanz zeigt ein starkes negatives Feedback
• Meeresspiegelanstieg stetig nachlassend – PIK-Propaganda im Abseits
Ergänzend dazu der Vortrag von K.E. Puls über die Einflussgrößen auf den Meeresspiegel anlässlich der IV- IKEK im November 2011 in München
Der Tod der Glaubwürdigkeit der Zeitschrift NATURE
geschrieben von Dr. Patrick Michaels | 18. April 2012
Meiner Ansicht nach markiert dieses Papier den Tod der Glaubwürdigkeit von Nature hinsichtlich der globalen Erwärmung. Die ersten Symptome zeigten sich schon 1996 mit der Veröffentlichung einer Studie von Ben Santer and 13 Ko-Autoren, die so abwegig [cherry-picked] war, dass ich zusammen mit meinen Kollegen gerade mal drei Stunden gebraucht hatte, um sie vollständig zu zerlegen. Dann ist es stetig abwärts gegangen, und zwar von einem idiotischen Seufzer von Jonathan Patz über die Sterblichkeit infolge der Erwärmung, der sich nicht einmal die Mühe gemacht hat zu untersuchen, ob fossile Treibstoffe mit einer erweiterten Lebenserwartung einher gingen (das war so) bis hin zum jüngsten Shakun- Debakel. Aber der letzte große Tropfen von Ben Booth und seinen Kollegen am UK Met. Office signalisiert den Tod von Nature in diesem Bereich.
Das UK Met. Office gab eine Presseerklärung heraus, in der der Welt die Ergebnisse seiner Forscher aufgedrängt werden. Es gab keinerlei Hinweise z. B. zur Signifikanz der Studie. Die Schlagzeile lautete „Industrielle Verschmutzung verursacht ‚Natur’katastrophen“. Darin fanden sich auch solche Dinge:
Von diesen Veränderungen der Wassertemperatur, bekannt als die atlantische multidekadische Oszillation oder AMO, nimmt man an, dass sie Einfluss auf die Regenmengen in Afrika, Südamerika und Indien haben, ebenso wie auf die Hurrikanaktivität im Nordatlantik – die in extremen Fällen zu menschlichen Katastrophen führen.
Ben Booth, ein Klimawissenschaftler am Met. Office und Forschungsleiter sagt: „Bis jetzt konnte noch niemand einen physikalischen Zusammenhang zeigen, durch was diese beobachteten Fluktuationen im Nordatlantik ausgelöst werden. Daher nahm man an, dass es der natürlichen Variabilität entsprach.
Unsere Forschung impliziert, dass diese Veränderungen weit entfernt von natürlichen Ursachen sind und zum größten Teil durch Verschmutzung und Vulkanismus ausgelöst worden sind. Falls das so ist, bedeutet das, dass ein Teil der Naturkatastrophen im Zusammenhang mit diesen ozeanischen Fluktuationen, wie z. B. die anhaltende Dürre in Afrika in den siebziger und achtziger Jahren, gar nicht so natürlichen Ursprungs waren wie gedacht.“
Ein begleitender Kasten „News and Views“ in Nature stellte die Ergebnisse von Booth et al. in eine klimatologische Perspektive:
Falls die Ergebnisse von Booth et al. erhärtet werden können, dann zeigen sie, dass multidekadische Temperaturfluktuationen im Nordatlantik durch menschliche Aktivitäten dominiert werden und die natürliche Variabilität nur eine sekundäre Rolle spielt. Dies hat viele Implikationen. Zuvorderst ist darunter, dass die AMO nicht existiert, und zwar dergestalt, dass die Temperaturvariationen, um die es hier geht, weder wirklich oszillatorisch noch rein multidekadisch sind.
Aber nicht jeder war so beeindruckt von den Ergebnissen von Booth et al.
Zum Beispiel hatte Judith Curry auf ihrem Blog „Climate etc“ dies zu sagen:
Betrachten Sie mich als nicht beeindruckt von dieser Studie. Ich glaube, wenn man dieses Papier an das Journal of Geophysical Research oder das Journal of Climate eingereicht hätte, wäre es zurückgewiesen worden. In jedem anderen Fall wäre ein längeres, detailierteres Manuskript eingereicht worden, um mehr Leuten zu erlauben, das Ganze kritisch zu begutachten. Mit der Veröffentlichung hiervon scheint Nature mehr auf der Suche nach Schlagzeilen zu sein als gute Wissenschaft zu fördern.
Und Curry hat gute Gründe, skeptisch zu sein.
Beim Journal Geophysical Research Letters ist eine Studie „im Druck“ mit dem Titel „Eisbohrkern aus Grönland beweist räumliche und zeitliche Variabilität der Atlantischen Multidekadischen Oszillation“ von Petr Chylek et al, einschließlich Chris Folland vom Hadley Centre des UK Met. Office.
In dieser Studie untersuchen Chylek et al. Beweise für die AMO, wie sie in zahlreichen Eisbohrkernen konserviert sind, die über Grönland verteilt gezogen worden sind. Die Forscher suchten, ob es Änderungen im Charakter der AMO während verschiedener klimatologischer Perioden in der Vergangenheit gegeben hatte wie z. B. der Kleinen Eiszeit und der Mittelalterlichen Warmzeit – Perioden lange vor umfangreichen menschlichen Aerosolemissionen. Die AMO war während der Kleinen Eiszeit durch eine Quasi-Periodizität von etwa 20 Jahren charakterisiert, während sie in der Mittelalterlichen Warmzeit mit einer Periode von etwa 45 bis 65 Jahren oszillierte.
Und Chylek und seine Kollegen hatten Folgendes über die involvierten Mechanismen zu sagen:
Die beobachtete Periodizität dieses Verhaltens während der vergangenen 4000 Jahre stützt die Ansicht, dass es sich hier um interne Wechselwirkungen zwischen Ozean und Atmsphäre handelt, mit nur wenigen oder gar keinen externen Antrieben.
Man lese das noch einmal: „…mit nur wenigen oder gar keinen externen Antrieben“.
Chleks Schlussfolgerung ist erheblich unterschiedlich zu denen von Booth et al., von denen es in einem Editorial bei Nature heißt (Hervorhebung durch den Autor im Original):
Weil die AMO in globale Prozesse eingebunden war, wie der Häufigkeit atlantischer Hurrikane und Dürren in der Sahel-Zone in Afrika in den achtziger Jahren gehen die Ergebnisse weit über die möglichen Folgen menschlicher Aktivität auf das globale Klima hinaus. Mehr noch, wenn sie stimmen, räumt die Studie mit der AMO, wie sie sich gegenwärtig zeigt, dahingehend auf, dass sie weder wirklich oszillatorisch noch multidekadisch ist.
Es ist schon eigenartig, dass die von Chylek et al. analysierten Eisbohrkerne (im Gegensatz zur Übung mit großräumigen Klimamodellen von Booth et al.) zeigen, dass die AMO sowohl oszillatorisch als auch multidekadisch ist – und dass es diese Charakteristika auch schon lange vor irgendwelchen menschlichen Einflüssen gegeben hatte.
Die Worte von Judith Curry „mit der Veröffentlichung hiervon scheint Nature mehr auf der Suche nach Schlagzeilen zu sein als gute Wissenschaft zu fördern“ scheinen im Lichte neuer beobachtungsbasierter Forschungen laut zu klingeln.
Möge Gott die Seele von Nature bewahren!
Dr. Patrick Michaels References:
Booth, B., et al., 2012. Aerosols implicated as a prime driver of twentieth-century North Atlantic climate variability. Nature, doi:10.1038/nature10946, http://www.nature.com/nature/journal/vaop/ncurrent/full/nature10946.html
Chylek, P., et al., 2012. Greenland ice core evidence for spatial and temporal variability of the Atlantic Multidecadal Oscillation. Geophysical Research Letters, in press, http://www.agu.org/pubs/crossref/pip/2012GL051241.shtml
Link ausführlich: Atmospheric Aerosols and the Death of Nature
Link: http://wattsupwiththat.com/2012/04/11/pat-michaels-on-the-death-of-credibility-in-the-journal-nature/
Übersetzt von Chris Frey EIKE
Können Windkraftanlagen viele Haushalte „versorgen“? Offener Brief an Norbert Röttgen zur BMU Behauptung sie könnten das.
geschrieben von Dr. R.a. Dietrich | 18. April 2012
Betrifft: "BMU-Newsletter „Energiewende Aktuell – Ausgabe 04/2012“, vom 19. März 2012
Sehr geehrter Herr Dr. Röttgen,
in dem oben genannten Newsletter gibt es mindestens zwei Textstellen, die zu einer Gegendarstellung herausfordern. Auf Seite 1 heißt es: „2011 wurden allein an Land Windkraftanlagen mit einer Kapazität von zwei Großkraft-werken installiert“.
Auf Seite 2 im zweiten Absatz unter der Tabelle heißt es: „Experten halten einen Ausbau der Offshore-Windkraft bis zum Jahr 2030 auf bis zu 25 Gigawatt für realistisch. Das entspricht 25 herkömmlichen Großkraftwerken“.
Mit Bezug auf mein Schreiben vom 12.03.2012 bezüglich der Bereitstellung von elektrischer Energie (kWh) mit Photovoltaikanlagen halte ich es für geboten, nochmals darauf hinzuweisen, dass auch der in den obigen Sätzen beschriebene Sachverhalt für Windenergieanlagen aus naturwissenschaftlicher und ökonomischer Sicht falsch und somit nicht haltbar ist. Hier werden wieder mal die installierten Leistungen (kW) von unterschiedlichen Anlagen zur Energieerzeugung (kWh) miteinander gleichgesetzt. Dies ist grober Unfug und der Aussage eines Fachministeriums nicht angemessen, so dass sich die folgende Frage stellt: Ist es Absicht, dass die Bürger vom BMU unsachgemäß informiert werden, oder sind es fehlende naturwissenschaftliche Grundkenntnisse?
Auf der Basis der Zahlen für die installierte Gesamtleistung (29060,04 MW) und für die Stromproduktion (48 Mrd. kWh) durch Windenergieanlagen, die in der Tabelle auf Seite 2 Ihres Newsletters angegeben sind, ergibt sich für die in 2011 betriebenen Windenergieanlagen eine durchschnittliche Verfügbarkeit von 1652 Volllaststunden pro Jahr, während der elektrische Energie bereitgestellt werden konnte. Während 7108 Stunden im Jahr wurde mit denselben Windenergieanlagen, obwohl die gleiche elektrische Leistung installiert war, keine elektrische Energie (kWh) zur Verfügung gestellt.
Mit der in 2011 neu installierten Leistung von 2085,72 MW durch Windkraftanlagen wurden demnach 3,45 Milliarden kWh elektrische Energie (Strom) bereitgestellt.
Mit zwei Großkraftwerken mit je 1000 MW installierter elektrischer Leistung wären bei einer Verfügbarkeit von 8000 Volllaststunden pro Jahr 16 Milliarden kWh elektrische Energie bereitgestellt worden, also das 4,63-fache an elektrischer Energie. Mit anderen Worten, um 3,45 Milliarden kWh elektrische Energie bereitzustellen, wäre nur ein Anteil von 0,43 eines Großkraftwerkes erforderlich gewesen.
Bei einem Ausbau der Offshore-Windenergieanlagen auf eine installierte elektrische Leistung von 25 Gigawatt und den gleichen Windverhältnissen könnten somit pro Jahr 41,3 Milliarden kWh bereitgestellt werden.
Bei einem Einsatz von 25 herkömmlichen Großkraftwerken mit einer installierten elektrischen Leistung von je 1000 MW würden dagegen aufgrund der durchschnittlichen Verfügbarkeit von 8000 Volllaststunden pro Jahr 200 Milliarden kWh an elektrischer Energie bereitgestellt, d.h. es würde die 4,8-fache Menge an elektrischer Energie (kWh) zur Verfügung gestellt. Oder mit anderen Worten, um 41,3 Milliarden kWh mit herkömmlichen Großkraftwerken bereitzustellen, wären nur 5,2 dieser Großkraftwerke und nicht 25 Großkraftwerke notwendig.
Diese Darlegungen zeigen: Erstens, dass die installierte Leistung (kW) kein Maß für die Beurteilung eines Energieträgers ist, sondern nur die mit diesem Energieträger bereitzustellende elektrische Energie (kWh). Zweitens, um mit Windenergieanlagen die gleiche elektrische Energie (kWh) bereitstellen zu können wie mit Großkraftwerken, muss die installierte Leistung (kW) bei Windenergieanlagen um einen Faktor von ca. 4,8 größer sein als bei Großkraftwerken.
Somit ist leicht zu erkennen, dass der finanzielle Aufwand zur Bereitstellung von elektrischer Energie mittels Windenergieanlagen ebenfalls wesentlich höher und somit für die Volkswirtschaft auch eine wesentlich höhere finanzielle Belastung ist. Da höhere finanzielle Aufwendungen gleichbedeutend mit einem höheren Bedarf an Rohstoffressourcen sind, ist eine zügellose Bereitstellung von elektrischer Energie mit unwirtschaftlichen Windenergieanlagen auch im Sinne einer Schonung von Rohstoffressourcen nicht zu verantworten. Ferner ist anzumerken, dass viele weitere, gesundheitliche und artenschutzspezifische (Vogelschutz) Aspekte, die aus ideologischen Gründen ignoriert werden, gegen einen zügellosen Ausbau von Windenergieanlagen sprechen.
Die Energieträger Wind und Sonne sind dargebotsabhängig und somit nicht vom Menschen verbindlich planbar. Sollte sich eine stabile Wetterlage über ganz Deutschland einstellen, bei der eine Windflaute auftritt, so müsste die dadurch nichtvorhandene, dargebotsabhängige elektrische Energie kurzfristig durch konventionelle Großkraftwerke bereitgestellt werden. Diese Kraftwerkskapazitäten müssen stets im Stand-By-Betrieb zusätzlich vorhanden sein und somit auf Dauer sichergestellt und finanziert werden.
Diese Windtechnologie dient daher nicht einer freien sozialen Marktwirtschaft, sondern nur den Protagonisten dieser Technologie und führt durch die ideologisch gesteuerten, planwirtschaftlichen Maßnahmen, wie Zwangseinspeisung und Zwangsabgaben, die durch das EEG gestützt werden, zur Umverteilung von unten nach oben. Ein Wirtschaftszweig wie die Energiewirtschaft, die in jedem Staat eine Schlüsselfunktion hat, ist aber nicht geeignet, um eine freie soziale Marktwirtschaft in eine sozialistische Plan- und Umverteilungswirtschaft umzuwandeln. Wenn Veränderungen oder Anpassungen vorgenommen werden müssten, so müssten sie auf der Basis kostenwirtschaftlicher und ressourcenschonender Zielvorgaben erfolgen, die aber nur auf der Grundlage natur- und ingenieurwissenschaftlicher sowie ökonomischer Kenntnisse zu sozial verträglichen Lösungen führen können.
Ferner sollte per Gesetz bewirkt werden, dass alle Personen, die in Entscheidungsprozessen zur Einführung der sogenannten Erneuerbaren Energien eingebunden sind, offenlegen müssen, ob sie zu den Investoren und somit zu den Profiteuren im Bereich der Erneuerbaren Energien gehören. Falls es zutreffen sollte, müssten sie wegen der Möglichkeit einer Vorteilsnahme von den Entscheidungsprozessen ausgeschlossen werden. Der beste Weg wäre aber, das EEG abzuschaffen.
Für eine konstruktive und zielführende Diskussion ist es dringend erforderlich, dass die MItarbeiter in dem von Ihnen geleiteten Ministerium diese Zusammenhänge auf der Basis natur- und ingenieurwissenschaftlicher sowie ökonomischer Gesetzmäßigkeiten richtig beurteilen und darstellen. Mit derartigen, nicht zutreffenden Meldungen über angebliche Erfolge bei der sogenannten Energiewende kann die Politik beim sachlich informierten Bürger kein Vertrauen erwerben. Wenn schon bei einer solchen, relativ einfachen Fragestellung keine richtigen Antworten aus dem von Ihnen geleiteten Ministerium kommen, so ist zu befürchten, dass bei wesentlich komplexeren Fragen erst recht keine zutreffenden Antworten zu erwarten sind.
Die Aussage „ Erneuerbare Energien schaffen Arbeit“ in Ihrer neuesten Ausgabe „Energiewende Aktuell – Ausgabe 05/2012“ vom 26. März 2012 muss daher auch sehr kritisch gesehen werden, da hier auf Seite 3 die gleichen falschen Aussagen gemacht werden. Außerdem ist nicht zu erkennen, dass die Arbeitplätze, die durch erhöhte Produktionskosten, durch Konsumein-schränkungen und somit durch Umsatzeinbußen infolge der gestiegenen Stromkosten verloren gegangen sind bzw. verloren gehen werden, gegengerechnet wurden.
Es sollte bedacht werden, dass nicht die installierte elektrische Leistung (kW), sondern die elektrische Energie (kWh) der Motor aller Wirtschaftszweige und somit auch Träger eines Sozialstaates ist. Jede unwirtschaftlich bereitgestellte kWh ist unsozial und ressoursenschädigend.
Für ein Busunternehmen ist es auch nicht von Bedeutung, wieviel Busse es im Depot stehen hat, sondern wie oft diese Busse im Einsatz sind. Dieser kleine Unterschied entscheidet darüber, ob das Busunternehmen wirtschaftlich überlebt oder nicht.
Über meiner Homepage habe ich folgenden Satz geschrieben: „Politik kann wohl auf der Basis naturwissenschaftlicher und ökonomischer Gesetzmäßig-keiten gestaltet werden, aber von der Politik dürfen keine eigenen naturwissenschaftlichen und ökonomischen Gesetzmäßigkeiten geschaffen werden.“
Es wäre gut, wenn dieser Satz seine Gültigkeit, die er während meiner langjährigen Tätigkeit vor dem Eingreifen des Staates in die Energiewirtschaft durch das EEG hatte, wieder bekäme.
Dieses Schreiben werde ich unter http://www.Rudolf-Adolf-Dietrich.de/IN010/S-11.pdf in meiner Homepage aufnehmen.
Mit freundlichen Grüßen
Dr. rer. nat. R. A. Dietrich
in Kopie an:
Bundeskanzlerin Frau Dr. rer. nat. Angela Merkel
Bundeswirtschaftsminister Herrn Dr. Philipp Rösler
Nds. Ministerpräsident Herrn David McAllister
Nds. Umweltminister Herrn Stefan Birkner
E.ON AG Vorstandsvorsitzenden Herrn Dr. Johannes Teyssen
RWE AG Vorstandsvorsitzenden Herrn Dr. Jürgen Großmann
Bundesverband Verbraucherzentrale e. V. Herrn Dr. Holger Krawinkel
Update:
Es kommt also immer auf die zu wiederholende Behauptung an. Welche irrwitzigen Blüten die "Energiewende" schon jetzt treibt, beleuchtet dieser Artikel:
Update zur „Nature“ Shakun Eiszeitstory: Hans-guck-in-die-Luft“ und die „Klimakatastrophe“
geschrieben von Dr. W. Thüne | 18. April 2012
Am 5. April 2012 erschien um 16:31 Uhr in SPIEGEL Online ein Bericht mit der Überschrift „Kleine Veränderungen geben der Erde Hitzeschocks“. Der Artikel beginnt mit den Sätzen: „Die Bahn der Erde um die Sonne verändert sich regelmäßig. Der kleine Effekt hat in der Vergangenheit extreme Klimaerwärmungen ausgelöst,…“ Warum sind die Eiszeiten, nicht aber die Klimaabkühlungen erwähnt? Wenn sich etwas regelmäßig verändert, dann immer in zwei Richtungen, wie beim Pendel. Diese Tatsache auszublenden, riecht nach bewusster Manipulation, denn wer in Dimensionen von Jahrmillionen forscht, muss immer den Wechsel zwischen Glazial- und Interglazialzeiten im Auge haben. Bei Anhalten des Rhythmus der letzten Million Jahre ist die Wahrscheinlichkeit einer „Eiszeit“ wesentlich größer als einer „Warmzeit“.
Schreitet die Erde mit kleinen Schritten über eine kritische Schwelle, einen Kipp-Punkt? Hat der Mensch ihr einen Schubs gegeben, sie aus der Bahn geworfen? Wer einen Schrank umwerfen will, muss ihn zuerst mit Kraftaufwand aus dem Lot, dem Gleichgewicht, bringen und dann solange drücken, bis ein bestimmter Neigungswinkel überschritten ist. Danach fällt der Schrank von alleine um. Beim Menschen genügt schon ein kleiner Fehltritt. Übersieht er eine Bordsteinkante, fällt er auf die Nase. Kleine Fehltritte können katastrophale Folgen haben, insbesondere bei Gratwanderungen im Hochgebirge. Hebt dort einer hochmütig die Nase in die Höhe und bewundert die Luftschlösser am Himmel, dann kann solch ein Leichtsinn tödliche Folgen haben.
Es kann durchaus sein, dass solch ein schreckliches Bild die beiden Klimaexperten und Professoren Hans Joachim Schellnhuber und Stephan Rahmstorf vom Potsdam-Institut für Klimafolgenforschung vor Augen hatten, als sie 2007 die Arbeit „Tipping elements in the Earth’s climate system“ schrieben und der Wissenschaft eine neue Spielwiese bereiteten. Ein „Tipping element“ ist ein Kippelement und es macht Spaß, mit dem Antippen von Glasvasen zu probieren, bei welchem Kraftaufwand sie fallen. Es ist auch ein beliebtes Spiel bei Kindern, einen anderen durch plötzliches Schubsen zuerst aus dem Gleichgewicht und dann zu Fall zu bringen.
Die Klimaexperten rund um den Globus haben sich dieses Kinderspiels angenommen und versuchen, die Erde aus der Bahn zu kippen. Da das mit der wirklichen Erde nicht geht, hat man dieses Spiel in den Computer verlagert. Der macht gehorsam, was man ihm befiehlt. Mit Klimamodellen kann man Weltuntergangsspiele anstoßen und etwas für Auflockerung in der sonst nüchternen Wissenschaftsszene sorgen. Man kann den Spieltrieb befriedigen, fleißig Forschungsgelder generieren und die Welt über die Medien in Atem halten. Dies haben zwei Forschungsteams in den USA gemacht und ihre Spielereien in „Nature“ veröffentlicht. Dies ist längst kein Fachblatt mehr, sondern ein Comicheft für Klimajunkies. Veröffentlichen kann nur noch der, der die Spielregeln nicht verletzt und sich zu dem Leitmotiv bekennt, das da heißt: „Lug und Trug sind integrale Bestandteile des Forschens“!
Das Schlimme an den beiden Publikationen von Forscherteams der Harvard University in Cambridge wie der University of Massachusetts in Amherst ist, dass hier so primitiv und plump gelogen wird, dass dies schon als Beleidigung des gesunden Menschenverstandes angesehen werden kann. Da haben vor 55 Millionen Jahren und nochmals vor 18.000 Jahren Geister mit unsichtbarer Hand die Erde aus ihrer regelmäßigen Umlaufbahn geworfen. Die Erde begann zu torkeln, so dass sich zuerst die Antarktis und dann die Arktis erwärmten. Besonders bei der Erwärmung der „südlichen Polarregionen“ wären „gewaltige Mengen an Kohlenstoff freigesetzt“ worden, die dann den „Hitzeschock“ auslösten. Auch heute könnten „Veränderungen des Erdorbits“ ähnliche Folgen haben und eine „galoppierende Erwärmung“ hervorrufen.
Ist dies nicht fürchterlich, schrecklich? Doch wie sollen „gewaltige Mengen an Kohlenstoff“ ausgerechnet über der Antarktis freigesetzt worden sein, die doch nachweislich seit Millionen von Jahren unter einem dicken Eispanzer liegt und nie, wie der südlich Zipfel von Grönland „grün“ und mit Vegetation bedeckt war? Was Wissenschaftler heute einem zumuten, geht schon auf keine Kuhhaut! Aber der Glaube an diese wissenschaftlichen Scharlatane ist in der Politik unerschütterlich, denn ansonsten würde diese Art von Pseudowissenschaft nicht so unendlich fürstlich mit hart erarbeiteten Steuergeldern von den Staaten gefördert. Die Politik weiß, warum sie dies tut, verrät aber ihr Wissen nicht und versündigt sich damit an der Demokratie, die ja transparent sein soll.
Politik und Wissenschaft kooperieren aufs Engste in dem immerwährenden Spiel um Geld und Macht. Die Oberherrschaft hat dabei eindeutig die Politik. Sie trägt daher auch die moralische Verantwortung in diesem amoralischen Spiel mit unbegründeten Ängsten. Wie sublim dieses Spiel ist, das habe ich in meinem Buch „Propheten im Kampf um den klimathron – Wie mit Urängsten um Geld und Macht gekämpft wird“ aufzudecken versucht. So primitiv simpel die Klimamodelle auch sind, die Machenschaften hinter den Kulissen sind umso komplizierter. Da spielen natürlich auch gewichtige wirtschaftliche Interessen- und Verteilungskämpfe mit. Die Last all dessen tragen die Bürger!
Dies ist der eigentliche Skandal. Es ist ein politischer Skandal! Die Politik bedient sich der Klimawissenschaft, um in der Gesellschaft die Neigungsverhältnisse zu ändern, allein zu ihren Gunsten und aus Machtkalkül heraus. Sie hat von Hans Joachim Schellnhuber den „2-Grad-Kipp-Punkt“ übernommen und beim G8-Gipfel in Heiligendamm 2007 zu einem Weltrettungsziel erhoben. Dieser Kipp-Punkt entspricht einem Schwellenwert von 450ppm CO2 in der Atmosphäre. Diesen Wert hatten wir bereits 1941 in Gießen mit 444 ppm an der Agrarmeteorologischen Forschungsstelle fast erreicht. Es wäre ein Grund gewesen, den 2. Weltkrieg mit seinen gigantischen CO2-Emissionen sofort zu beenden.
Es wird Zeit, dass wir wieder zur Realität zurückkehren, zum Wetter, und nicht unsere geistigen wie materiellen Energien vergeuden, um das Hirngespinst „Klimakatastrophe“ nachzuweisen. Sie sollten vielmehr überlegen, wie sie das Wetter schützen oder die Menschheit vor dem Wetter besser schützen können. Apropos, wenn die Klimaexperten schon so schlau sind und wissen, wie die „Globaltemperatur“ in 100 Jahren sein wird, warum nehmen sie nicht den Wetterfröschen das Heft aus der Hand und sorgen mit ihren schlauen Computern für bessere Wettervorhersagen? Die Wetterdienste der Welt mitsamt der Weltorganisation für Meteorologie (WMO) in Genf wären überflüssig!
Dr. Wolfgang Thüne, Dipl.-Meteorologe
Inzwischen beschäftigen sich weitere Autoren mit den merkwürdigen Methoden des Teams um Jeremy Shakun