Australisches Wetteramt der Manipulation von Temperaturaufzeichnungen angeklagt

Dr. Marohasy hat die Rohdaten von Dutzenden Messorten in ganz Australien analysiert und diese mit den neuen Daten des BOM verglichen, die eine fortschreitende Erwärmung zeigen. In vielen Fällen, sagt Dr. Marohasy, wurden die Temperaturtrends verändert, nämlich von gleichbleibend bis leicht kühler werdend hin zu einer dramatischen Erwärmung über 100 Jahre.
Das BOM hat die Behauptungen von Dr. Marohasy zurückgewiesen und gesagt, dass die Agentur mit den besten Verfahren der Welt und einem begutachteten Prozess die physikalischen Temperaturaufzeichnungen modifiziert hat, die an Wetterstationen im ganzen Land aufgezeichnet worden waren. Es sagte weiter, die Daten einer Auswahl von Wetterstationen wurden einem Prozess unterzogen, der unter der Bezeichnung „Homogenisierung“ bekannt ist, um Anomalien zu korrigieren. Es sei „sehr unwahrscheinlich“, dass die Homogenisierung der Daten Auswirkungen auf die empirischen Aussichten gehabt habe.
In einer Erklärung des BOM an The Weekend Australian heißt es: Die große Mehrheit der wissenschaftlichen Literatur stützt nicht die Ansicht, dass die Homogenisierung von Daten „die physikalische Wahrhaftigkeit in irgendeinem Klima-Datensatz verringert“.
Die historischen Daten sind aus einer großen Vielfalt von Gründen homogenisiert worden, die nicht mit Klima in Zusammenhang stehen. Darunter sind der gewählte Instrumententyp, Wahl der Kalibrierung oder unmittelbare Umgebung und genauer Ort. „Alle diese Elemente sind im Verlauf von 100 Jahren Gegenstand von Änderungen, und derartige nicht mit dem Klima in Zusammenhang stehende Änderungen müssen berücksichtigt werden, um aus den Daten eine verlässliche Analyse und das Monitoring von Trends zu ermöglichen“, sagte das BOM.
In Betracht gezogen wurden auch Temperaturaufzeichnungen benachbarter Stationen. Die Bearbeitung der Klimaaufzeichnung erforderte „sehr viel Sorgfalt und Verständnis für die Bedeutung wissenschaftlicher Integrität“.
Dr. Marohasy hat gesagt, dass sie Beispiele gefunden habe, bei denen es keine Änderungen hinsichtlich der Ausstattung mit Instrumenten oder der Umgebung und keine Inkonsistenzen mit benachbarten Stationen gegeben habe. Aber trotzdem wiesen diese Stationen nach der Homogenisierung eine dramatische Trendänderung hin zu Erwärmung auf.
Sie führte als Beispiel die Station Amberley in Queensland an. Dort resultierte die Homogenisierung in einer Änderung des Temperaturtrends von Abkühlung zu dramatischer Erwärmung.
Sie berechnete, dass die Homogenisierung in Amberley aus einem Abkühlungstrend von 1°C pro Jahrhundert einen Erwärmungstrend von 2,5°C gemacht habe. Und dies, obwohl es an dieser Station keinerlei Änderungen der Örtlichkeit oder der Instrumentierung gegeben hatte.
Full story
Link: http://www.thegwpf.org/australian-met-office-accused-of-manipulating-temperature-records/
Übersetzt von Chris Frey EIKE

Anmerkung der Redaktion:

Zu den potentiellen Folgen einer starken Homogenisierung wie sie in diesem Falle anscheinend vorliegt siehe auch diesen Bericht 




Was war tödlich in Fukushima?

In Übereinstimmung mit Three Miles Island, scheint es in Fukushima keine von Strahlung verursachte Todesfälle gegeben zu haben; sogar in Tchernobyl war die nachweisbare Todesrate durch Strahlung klein gegenüber Ereignissen in Bophal oder dem Banqiao Dammbruch.
Was die humanitäre Misere in Fukushima verursachte, war die Reaktion – nicht die vorsorgliche Evakuierung, sondern was folgte und ironischerweise, auch was vorherging. Das einzige andere Gebiet, das gesperrt wurde wegen menschlicher Aktivitäten, ist Tchernobyl. Daraus folgt für den Laien, dass die Strahlung in diesen Sperrzonen ein höheres Risiko darstellt, als jede andere menschengemachte Bedrohung auf dem Planeten.
Die öffentliche Wahrnehmung von radioaktiver Strahlung ist sehr komplex. Es gibt keine generelle Angst vor ionisierender Strahlung – das zeigt sich z.B. in Gebieten mit hoher Radon Konzentration. Die vielen Beispiele von Todesfällen, die durch unachtsamen Umgang mit radioaktivem Material im medizinischen Bereich vorkamen, scheinen nicht von Radiophobie begleitet zu sein ebenso nicht der Mord an Alexander Litvinenko in London 2008. Klar ist, das es etwas gibt in der Kommunikation von Strahlung, die von zivilen nuklearen Aktivitäten stammt, das ein Bündel von Ängsten geschaffen hat, die es in anderen Kontexten nicht gibt.
Auf einem Meeting des Japan Atomic Industrial Forum (JAIF) früher in diesem Jahr, beklagte ein Sprecher, dass die Japanische Öffentlichkeit nicht bemerkt hat, dass menschengemachte radioaktive Strahlung dieselbe ist wie die natürliche Strahlung überall um uns herum. Eine riesige Anstrengung erforderte die Korrektur dieses Missverständnisses, um so Kernenergie akzeptabler zu machen.
Aber gut, was weiß der gut informierte Japaner (oder schließlich, welche unbestreitbaren Fakten sind in der Öffentlichkeit verbreitet)?
Zuerst und vor allem wurden ca. 100.000 Menschen evakuiert aus einer 20km Zone um Fukushima Daiichi und es wurde ihnen nicht erlaubt (außer einigen Hundert erst vor kurzem) in ihre Häuser zurückzukehren über einen Zeitraum von über drei Jahren, was unsägliches Leid verursacht hat. In vielen Gebieten der Sperrzone ist die Strahlung (aus allen Quellen) niedriger, als 5mSv pro Jahr, mit einer radioaktiven Niederschlagdosis von unter 1mSv pro Jahr.
  Klar ist, das es etwas gibt in der Kommunikation von Strahlung, die von zivilen nuklearen Aktivitäten stammt, das ein Bündel von Ängsten geschaffen hat, die es in anderen Kontexten nicht gibt.
Zweitens gibt es Gebiete wie Ramsar in Iran (durchschnittlich 130mSv/a) und Guarapari in Brasilien (Spitzenwerte am Strand in der Größenordnung von 350mSv/a), die nicht evakuiert werden. Es gibt sogar bestimmte Gebiete in Japan (z.B. die Insel Kyushu) wo die natürliche Dosis höher ist, als in einigen Teilen der Sperrzone.
Was kann der gut informierte Japaner damit anfangen? Es scheint drei mögliche Erklärungen zu geben.
1.     Entweder sind die Behörden irrsinnig (oder kaltschnäuzig), so viele Leben aufs Spiel zu setzen und solch riesige Schäden aus unvertretbaren Gründen zu verursachen.
2.     Die Behörden lügen einfach über die Höhe der Kontamination in der Sperrzone.
3.     Menschengemachte radioaktive Strahlung ist signifikant gefährlicher als natürliche Strahlung, sodass Vergleiche bedeutungslos sind.
Angenommen die Japanische Regierung und die nukleare Industrie sind erfolgreich bei der Überzeugung der Menschen, dass ihr (sensibles) Verständnis der indiskutablen offensichtlichen Fakten (Option 3) nicht korrekt ist. Die Fakten werden sich nicht ändern, sodass ein neues Verständnis erforderlich ist. Es ist nicht sofort offensichtlich, dass ein Umschwenken zur Option 1 (die wahre Option) oder 2 das Zutrauen der Bevölkerung zur Industrie oder zum Konzept der Kernenergie verbessern würde.
Ironischerweise ist verdächtig, dass die irrationale Aussperrung zur Annahme führte, die Menschen beschwichtigen zu können. Aber in Wirklichkeit gibt es einen nachweisbaren aber meist unsichtbaren Mythos, dass man auf Nummer sicher gehen muss beim Strahlenschutz. Jede Aktion, die nicht auf Gesundheitsfürsorge begründet ist – will sagen Aussperrung aus einem Gebiet, das sicherer als das Leben in London oder Tokio mit all der dortigen Luftverschmutzung ist – macht mehr Schaden, als Nutzen.
Man kann sicher argumentieren, dass eine übertriebene Vernarrtheit in die Reduzierung der Strahlendosis, weit entfernt von einer Minimierung des schädlichen Einflusses auf Menschen, das eigentliche Kernproblem ist. Möglicherweise ist die Schlüsselfrage – wie schützen wir die Menschen nicht vor radioaktiver Strahlung, sondern vor den Einflüssen des Strahlenschutzes?
Malcolm Grimston ist ein Erfahrenes Forschungsmitglied am Imperial College Centre for Energy Policy and Technology. Er wird an einem Forum über Strahlenschutz am WNA Symposium in London, am 10. – 12. September 2014 teilnehmen.
Die Übersetzung besorgte Rolf Pietsch
Anmerkung der Redaktion. Einige Leser mögen einwenden, dass bei einer so großen Zahl von Evakuierten eine ähnliche Todesrate durch natürliche Todesfälle zu erwarten gewesen sei. Jedoch muss diesem Einwand entgegengehalten werden, dass der durch die erzeugte panische Angst und die dann folgende Evakuierung mit dem drohenden und realen Verlust sämtlicher materieller wie seelischer Werte, der dadurch erzeugte Stress unmittelbar diese Entwicklung der Sterblichkeitsrate deutlich beschleunigt haben muss. Deshalb ist die Argumentation des Autors durchaus nachvollziehbar.
    




Die ökologischen Leistungen des Kulturpflanzenbaus und der Renaturierungsflächen

Demgegenüber werden die Leistungen der Kulturpflanzen – unter anderem streckenweise auch durch die Bio-Ideologie – herabgewürdigt. Der Kulturpflanzenbau ist aber ebenso „Natur“ wie jeder andere Biotop.
Der Kulturpflanzenbau erbringt durch die Optimierung der Wachstumsbedingungen einschließlich der Minimierung des Schädlingseinflusses nicht nur eine für den Menschen lebensnotwendige maximale biologische Stoff- und Energieproduktion, sondern zugleich standortabhängig  mit die höchsten ökologischen Leistungen: Die ökologischen Leistungen des Kulturpflanzenbaus sind in erster Linie die Bindung von atmosphärischem Kohlendioxyd (CO2) als „Rohstoff“ der Photosynthese, die Freisetzung von Sauerstoff in die Atmosphäre, die Transpiration von Wasser zur Aufrechterhaltung der Luftfeuchtigkeit und des Wasserkreislaufes (Transpiration, Kondensation, Niederschlag) sowie die Aufnahme, Akkumulation und Einbindung von Mineralstoffen. Gegenstand dieses Beitrages sind die CO2-Bindung und Sauerstoffemission.

CO2-Kreisläufe – das Lebenselixier

Das Leben auf der Erde und damit die Existenz der menschlichen Gesellschaft begründet sich auf die produktiven CO2-Kreisläufe: Unter Nutzung der Sonnenenergie wird das atmosphärische CO2 mit Wasser zu Kohlenhydraten assimiliert und der überschüssige Sauerstoff in die Atmosphäre abgegeben. Die produktive Nutzung der synthetisierten Biomasse als Nahrungs- und Futtermittel oder zur Rohstoff- und Energiegewinnung (Vergärung, Verbrennung) und sonstige Umsetzungen der Biomasse führen letztendlich wiederum zur Freisetzung von CO2 und Wasser, wodurch sich der CO2- und Wasserkreislauf schließt. Diese Kreisläufe sind ökologisch notwendig zur permanenten Regeneration der Atmosphäre, sind diesbezüglich ent- und nicht belastend, d.h. sie sind unabhängig vom Umfang klimaneutral. Klimarelevant wäre, wenn man CO2 eine noch nicht hinreichend bewiesene „Treibhausgaswirkung“  zuschreibt, hingegen nur die Verbrennung fossilen Kohlenstoffs in Form von Kohle, Torf, Erdöl und Erdgas.

Kohlenstoffbindung (CO2)

Da Pflanzen Kohlenstoff fast ausschließlich nur über atmosphärisches  CO2 aufnehmen und in Kohlenhydraten und diversen Kohlenstoffgerüsten anderer Pflanzenbestandteile (Eiweißmoleküle u.a. kohlenstoffhaltige Verbindungen) verbauen, können der Kohlenstoffgehalt bzw. die akkumulierten Kohlenstoffmengen in CO2-Äquivalente (1 g Kohlenstoff = 3,67 g CO2-Äquivalente) umgerechnet und bilanziert werden.
Desweiteren kennzeichnen die Bruttoenergieerträge der Kulturen das Leistungspotential an regenerativer Energie. Dieses kann durch Umrechnung in Benzin-Äquivalente auf CO2- und Energiebasis veranschaulicht werden.
Eine Übersicht der positiv klimarelevanten Leistungsfähigkeit landwirtschaftlicher Kulturen in der Kohlenstoffbindung (Kohlendioxydäquivalente – t/ha), Energieproduktion (GJ/ha) und Sauerstoffemission (t bzw. m3/ha) vermittelt Tabelle 1.

Tabelle 1: Kohlenstoffbindungskapazität, Energieproduktion und Sauerstoffproduktion landwirtschaftlicher Kulturen (brutto)

Kohlendioxydbindungskapazität landwirtschaftlicher Kulturen

Fruchtart

Ertrag/ha

 

Kohlendioxyd-Äquivalente

 

 

Hauptprodukt

Koppelprodukt

Hauptprodukt

 

Koppelprodukt  

Benzin-CO2

 

Korn/Frucht

Stroh/Blatt

Korn/Frucht

Stroh/Blatt

gesamt

Äquivalente

 

dt/ha

dt/ha

t/ha

t/ha

t/ha

l/ha

Weizen

100

40

14,0

6,0

20,0

8483

 

60

40

8,4

6,0

14,4

6104

Raps

40

30

6,5

4,5

11,1

4695

Kartoffeln

500

 

16,9

0,0

16,9

7182

 

400

 

13,6

0,0

13,6

5745

Zuckerrüben

600

180

22,2

4,4

26,6

11266

Mais

600

 

30,3

0,0

30,3

12827

Weidelgras

600

 

18,6

0,0

18,6

7886

– Energieproduktion landwirtschaftlicher Kulturen (brutto)

Fruchtart

Ertrag/ha

 

Energie

 

 

 

Hauptprodukt

Koppelprodukt

Hauptprodukt

Koppelprodukt

Benzin-Energie

 

Korn/Frucht

Stroh/Blatt

Korn/Frucht

Stroh/Blatt

gesamt

Äquivalente

 

dt/ha

dt/ha

GJ/ha

GJ/ha

GJ/ha

l/ha

Rel.1) %

Weizen

100

40

161

60

221

5129

60

 

60

40

96

60

156

3635

60

Raps

40

30

101

45

147

3413

73

Kartoffeln

500

 

181

0

181

4220

59

 

400

 

145

0

145

3376

59

Zuckerrüben

600

180

223

44

268

6222

55

Mais

600

 

347

0

347

8077

63

Weidelgras

600

 

199

0

199

4621

59

1)Benzin-Energie-Äquivalente in % der Benzin-CO2-Äquivalente

– Sauerstoffproduktion landwirtschaftlicher Kulturen (brutto)

Fruchtart

Ertrag/ha

 

 

 

 

 

Hauptprodukt

Koppelprodukt

Glukose-

Sauerstoff

 

 

 

Korn/Frucht

Stroh/Blatt

Äquivalente

brutto

Atmung

Emission2)

 

dt/ha

dt/ha

t/ha

t/ha

m3/ha

kg O2/ha

Rel. %

kg/m3 O2/ha

Weizen

100

40

13,61

14,57

10201

7260

49,8

7307/5117

 

60

40

9,80

10,48

7340

5172

49,3

5310/3718

Raps

40

30

7,53

8,06

5646

3732

46,3

4330/3032

Kartoffeln

500

 

11,53

12,33

8636

6450

52,3

5882/4119

 

400

 

9,22

9,87

6909

5160

52,3

4706/3295

Zuckerrüben

600

180

18,08

19,34

13547

10080

52,1

9265/6488

Mais

600

 

20,58

22,03

15424

11520

52,3

10506/7357

Weidelgras

600

 

12,66

13,54

9483

6480

47,9

7062/4945

2) Umrechnung in m3 =1,428 kg O2/ m3

So bindet Mais mit einem Ertrag von 600 dt/ha ca. 30 t CO2-Äquivalente/ha, Zuckerrüben bei 600 dt/ha ca. 27 t CO2-Äquivalente/ha, Getreide bei  60 – 100 dt/ha ca. 14 – 20 t CO2-Äquivalente/ha!

Energieproduktion

Desgleichen offenbaren die Bruttoenergieerträge der Landwirtschaftlichen Hochleistungskulturen
das enorme Potential zur Gewinnung nachwachsender Energieträger. Auch hier stehen Mais (347 GJ/ha) und Zuckerrüben (268 GJ/ha bzw. ohne Blatt 223 GJ/ha) an der Spitze, Energieerträge die selbst bei hohen Erträgen mit Getreide (221 GJ/ha bzw. ohne Stroh 161 GJ/ha) und Kartoffeln (181 GJ/ha) nur etwa zu 2/3 erreicht werden können.
Die Relationen zu fossilen Energieträgern vermitteln die Benzinäquivalente, berechnet nach CO2- (2,36 kg CO2/l Benzin) und Energieäquivalenz (43 MJ/l Benzin). So kompensiert 1 ha Getreide die Verbrennung von 6100 – 8500 l Benzin, 1 ha Maisganzpflanze 12.800 l Benzin auf CO2-Basis bzw. auf Energiebasis nur 3640 – 5130 l Benzin je  ha Getreide und 8.100 l Benzin je ha Maisganzpflanze. Die Differenz zwischen CO2- und Energieäquivalenz ist durch die chemische Zusammensetzung (Kohlenstoffgehalt) bedingt. Die Energieäquivalenz liegt zwischen 55 % bei Zuckerrüben und 73 % der CO2-Äquivalenz bei Raps und bezeugt den niedrigeren Energiegehalt der Bioprodukte gegenüber den reinen Kohlenwasserstoffen.

Sauerstoffemission

Die Reproduktion von Biomasse erfolgt durch Aufnahme von atmosphärischem Kohlendioxyd und Wasser gemäß der allgemeinen Assimilationsformel
6 CO2 (264 g)+ 6 H2O(108 g)  à C6H12O6 (180 g)+ 6O2 (192 g),
d.h. aus 264 g CO2 und 108 g H2O werden unter Nutzung von Sonnenergie  180 g Glukose erzeugt und 192 g Sauerstoff freigesetzt. Gravimetrisch gesehen wird mehr Sauerstoff (107 %) freigesetzt als Glukose synthetisiert!
Auf der Basis dieser Beziehungen lassen sich aus den in den Pflanzen akkumulierten Kohlenstoffmengen die Menge an Glukose-Äquivalenten (40 % C), die für die Biomasseproduktion synthetisiert werden mussten, als auch die total freigesetzte Menge an Sauerstoff modellmäßig berechnen: Je 1 g Kohlenstoff sind dies 180/72 =2,5 g Glukose-Äquivalente bzw. 192/72 = 2,67 g bzw. = 1,87 l Sauerstoff. Diese Werte korrespondieren selbstverständlich mit den CO2-Bindungsäquivalenten und liegen zwischen 7,53 t/ha beim Raps und 20,58 t/ha beim Mais, 9,80 bis 13,61 T/ha bei Getreide. Diese im Vergleich zur produzierten Biomasse  höheren Werte erklären sich daraus, dass der aufgenommene Kohlenstoff zu anderen Substraten mit wesentlich höherem C-Gehalt verbaut wurde. Der Kohlenstoffgehalt der Pflanzen liegt zwischen 43% bei kohlenhydratreichen und 49 % fettreichen Pflanzen wesentlich höher als bei Glukose (Zucker) mit 40 % C in der Trockensubstanz.
Die totale Freisetzung an Sauerstoff beläuft sich – gravimetrisch 7 % höher als CO2-Äquivalente – auf  8,06 t/ha bzw. 5646 m3O2/ha beim Raps bzw. entsprechend  22,03 t/ha bzw. 15424 m3/ha beim Mais. Diese Sauerstoffmengen kennzeichnen das theoretisch maximale Sauerstoffemissionspotential, das nur mit Licht (Sonnenstrahlung) als Energielieferant  generiert werden kann.. Davon ist der Bedarf der lebenden Pflanzen an Sauerstoff für die Atmung zur Energiegewinnung (ATP) für die pflanzlichen Prozesse (Aufrechterhaltung der Potentiale) abzusetzen. Dieser Energiebedarf ist sowohl bei Lichteinstrahlung (tagsüber), wo der bei der Assimilation freigesetzte Sauerstoff verfügbar ist, als auch bei Dunkelheit (nachts) durch Sauerstoffaufnahme aus der Luft zu decken.
Es fehlt offensichtlich an systematischen Messungen des Sauerstoffbedarfs lebender (grüner) Pflanzen, da quantitative Angaben nicht recherchiert werden konnten. Sicher ist, dass der Sauerstoffbedarf der Pflanzen von verschiedenen externen und internen Faktoren abhängig ist. Lediglich Messungen an Wasserpflanzen wurden zitiert. In Anlehnung an diese Messungen wurde als  Größenordnung  für die vorliegenden Berechnungen ein Bedarf von 12 g/ kg Trockenmasse und Tag angenommen. Für diese Modellrechnung wurden zur Berücksichtigung des Wachstums 50 % der erzeugten Mengen an Trockensubstanz und 100 Vegetationstage unterstellt.
Die Ergebnisse dieser Modellrechnung zeigen, dass die Atmung einen Umfang von 3732 kgO2/ha bei Raps und 11 520 kgO2/ha bei Maisganzpflanzen, etwa 50 % der errechneten totalen Sauerstofffreisetzung, hat. Dementsprechend errechnet sich eine Sauerstoffemission  von 4330 kg O2/ha  bzw. 3032 m3 O2/ha bei Raps und 10506 kg O2/ha bzw.7357m3 O2/ha  (1,428 kg/m3 ) bei Maisganzpflanzen. Möglicherweise ist der Sauerstoffbedarf für die Atmung zu hoch angesetzt; ein Anteil von 20-30 % dürfte wahrscheinlicher sein. Diese Angaben sind bei Vorlage neuer Messergebnisse zu präzisieren.
Ungeachtet dessen, dass es sich bezüglich des Sauerstoffbedarfs um grobe Schätzwerte handelt, belegen die Modellrechnungen, dass die landwirtschaftliche Hochleistungskulturen mit Ihren hohen für produktive Zwecke nutzbaren CO2-Bindungskapazitäten und die mit der Stoffproduktion verbundenen hohen Sauerstoffemissionen den größten Beitrag zur Stabilität der Luftzusammensetzung und zum Erhalt des Klimas, d.h. insgesamt zum Umweltschutz leisten. Ihre ökologische Bilanz ist uneingeschränkt positiv.
Der forcierte Anbau landwirtschaftlicher Hochleistungskulturen und die Aufforstung aller übrigen Standorte haben demzufolge im Kampf gegen den Klimawandel eine tragende Bedeutung.

Moore und renaturierte Niedermoorstandorte versus Kulturgrasbau

In diesem Kontext ist auch die maßlose Überschätzung der ökologischen Leistungen von „intakten“ und wiedervernässten meliorierten („renaturierten“) Mooren, wie sie von den „Moorschützern“ mit Medienverstärkung suggeriert wird, kritisch zu hinterfragen. Ist die die Aussage, Moore sind Kohlenstoffsenken, berechtigt oder eine Zwecklüge?
Unsere fossilen Moore waren entstehungsgeschichtlich einst „Kohlenstoffsenken“. Sie sind nacheiszeitlich unter völlig anderen ökologischen Bedingungen entstanden. Hohe Feuchtigkeit, Wärme und hohe CO2-Konzentrationen in der Atmosphäre bewirkten einen extrem hohen Anfall  an Biomasse, die nicht mehr durch Verrottung umgesetzt werden konnte. Die dadurch entstandenen Biomasseablagerungen (Kissen“ ) führten durch Inkohlung, d.h. durch Reduzierung des organisch gebundenen Kohlenstoff s zu amorphem Kohlenstoff,  zu den heutigen fossilen Moorkohlenstofflagerstätten (Torf). Demgegenüber kann unter unseren ökologischen Bedingungen amorpher Moorkohlenstoff mangels der dazu notwendigen Redox-Potentiale nicht generiert werden.
Hierzulande sind „intakte Moore“ und wiedervernässte Renaturierungsflächen (Flachwasserseen) natürliche „Biogasreaktoren“  mit in relativ  geringen Mengen anfallenden nachwachsenden Rohstoffen (Biomasse) und einer Morastablagerung der unvergärbaren kieselsäure- und ligninhaltigen Zellwandbestandteile (Gärungsrückstände). Das gebildete Methan (Biogas) entweicht als „Treibhausgas“ mit einer gegenüber CO2 23-fachen klimaschädigenden Wirkung kontraproduktiv in die Atmosphäre. Wie sieht die ökologische Bewertung der Moorstandorte im Vergleich zum Kulturgrasbau (Grünlandnutzung) auf meliorierten und wasserstandsregulierten  Niedermoorstandorten aus?
Eine Antwort geben die Ergebnisse von Modellrechnungen mit unterschiedlichen Erträgen bzw. unterschiedlichem Anfall  an Biomasse auf den Moorstandorten in Tabelle 2.
Der Kulturgrasanbau auf meliorierten wasserstandsregulierten Niedermoorflächen bindet ertragsabhängig zwischen 12,4 bis 24,8 t CO2-Äquivalente/ha in der erzeugten Biomasse, die ein Biogaserzeugungspotential  von 2100 bis 4250 m3 Methan/ha verkörpert, und  emittiert  als willkommene ökologisch bedeutsame Sekundärleistung der Assimilation 3.300 bis 6.500 m3 Sauerstoff/ha in die Atmosphäre. Als  ökologische Kohlenstoffbilanz stehen je ha + 6.300 bis +12.650 m3produktiv nutzbare CO2-Äquivalente auf der Habenseite zu buche.

Tabelle 2: Ökologische Bilanz der Moor-/Renaturierungsstandorte im Vergleich zu melioriertem Grasland

Fruchtart

Ertrag

Kohlendioxyd-bindung

Sauerstoff

Methan

Ökologische

C-Bilanz

Frischmasse

CO2 Äquivalente

Emission

(netto)

atmo-sphärische Wirkung

CO2-Äquiva-lente

dt/ha

t/ha

m3/ha

m3/ha

m3/ha

m3/ha

m3/ha

Melioriertes Grasland

 

Potential

Wiesengras

400

12,408

6318

3297

2120

0

+6318

650

20,163

10266

5358

3444

0

+10266

800

24,816

12635

6594

4239

0

+12635

Renaturierungsflächen und Moore

Emission

Minderwertige

50

1,485

756

378

253

5829

-5073

Gräser

100

2,970

1512

757

507

11658

-10146

Binsen/Seggen

200

5,940

3024

1514

1014

23316

-20292

300

8,910

4537

2271

1521

34975

-30438

Die Renaturierungsflächen hingegen weisen laut Modellrechnung bei einem Anfall an Biomasse von 50 bis 300 dt/ha zunächst eine Kohlenstoffbindung von 1,5 bis 8,9 t CO2-Äquivalenten aus, die jedoch nicht produktiv genutzt werden kann. Die Biomasse verfällt der anaeroben Vergärung  anheim. Laut „Richtwerte für die Gasausbeuten“ in „Gasausbeute in landwirtschaftlichen Biogasanlagen“. KTBL-Heft 88, 2. überarbeitete Auflage, 2010, S. 18-19, Herausgeber: Kuratorium für Technik und Bauwesen in der Landwirtschaft e.V. (KTBL), Darmstadt, kann mit einer Methanemission von 320 Normlitern (0°C und 1013 mbar) je kg organischer (aschefreier) Trockensubstanz (oTS), d.h. im Modell mit 250 bis 1500 Nl Methan/ha, gerechnet werden. Diese entweicht mit einem Wirkungsfaktor von 23 l CO2-Äquivalenten/ l Methan in die Atmosphäre und entspricht einer atmosphärischen Wirkung von 5.800 bis 35.000 m3 CO2-Äquivalenten. Dies führt ungeachtet der C-Bindung und Sauerstoffemission bei der Bildung der Biomasse zu einer negativen ökologischen C-Bilanz, im Modell linear zum Biomasseanfall ansteigend von -5000 bis – 30.500 m3 CO2-Äquivalenten/ha, = -101,46 m3CO2-Äquivalente/dt Biomasseertrag. Moore sind keine Kohlenstoffsenken und die Renaturierung (Wiedervernässung) von meliorierten Niedermoorflächen ist gegenüber dem Kulturgrasanbau (Grünlandnutzung) sowohl ökologisch als auch ökonomisch, wie z.B. im Hinblick auf regenerative Energieerzeugung, ein Desaster, das die Politik zu verantworten hat. Auf Mecklenburg-Vorpomrnern bezogen wurden mit mehr als 40 Millionen Steuergeldern aus EU- und Landesmitteln mit der Renaturierung von bisher 30.000 ha ein Potential für regenerative Energiegewinnung von 105 Millionen m3 Methan vernichtet und ein ökologischer Schaden von etwa 300 bis 600 Millionen m3 CO2-Äquivalenten angerichtet.
Diese Fehlorientierung in der Umweltpolitik ist ebenfalls von den wissenschaftlichen Einrichtungen, die für Moorschutz verantwortlich zeichnen und die exorbitant hohen CO2-Emissionen meliorierter Grünlandflächen (siehe „Die Folgen einer Fiktion, BZ 30, 2013) propagieren, zu verantworten.
Es hat niemand etwas einzuwenden gegen Moore als flächenbegrenzte Naturschutzgebiete in angemessenen Größenordnungen, wie wir sie früher Jahrzehnte lang hatten. Eine weitere Vernichtung von Kulturlandschaft und landwirtschaftlicher Nutzfläche durch Renaturierung (Wiedervernässung) von z.B. 70.000 ha, wie sie u.a. das Landwirtschaftsministerium Mecklenburg-Vorpommerns  vorsieht, ist kulturgeschichtlicher Frevel und ökonomischer sowie ökologischer Schaden; sie muss untersagt werden. Die allgemeine Erkenntnis lautet:
Das dichtbesiedelte und an Nutzfläche relativ arme Deutschland im Besonderen und die Welt im Allgemeinen brauchen weder“ intakte“ noch „renaturierte“ Moore.
Dr. agr. Arthur Chudy
Warsow 11
17154 Neukalen
arthur.chudy@t-online.de
Tel.: 039956 20590
Lebensraum Peenetal  e.V.




Lager: Die Achillesferse von Windturbinen

Zu jener Zeit gab es online kaum eine Bestätigung, die diesen verstörenden Kommentar bestätigten – aber die Beweise scheinen zu akkumulieren, dass Lager ein ernstes Problem für die Windindustrie sind.
Siemens nennt schadhafte Lager als teilweisen Grund für einen substantiellen Rückgang des Profits hier. In einer Ankündigung zur Eröffnung eines neuen Siemens-Forschungslabors (hier) heißt es: „Das Brande-Testzentrum würde die wesentlichen Teile ihrer Windturbinen evaluieren; Teile wie z. B. die Haupt-Lager…“ (ein Versuch, Direct-Drive-Turbinen [?] herzustellen, um die Lager zu entlasten).
„Genauer, es ist typisch, dass die Läger innerhalb der Getriebe nicht funktionieren (hier) und das Getriebe belasten, aber das ist eine andere Geschichte, die ein andermal erzählt werden soll“ (hier). „Im Sommer 2010 entschied Siemens, die Lager der Rotorblätter  an allen 25 Turbinen zu verändern, als eine vorsorgliche Maßnahme, nachdem man in anderen Windparks Korrosion an eben diesen Lagern entdeckt hatte…“.
Natürlich gibt es auch ein Video über eine Windturbinen-Katastrophe:

Video: Brand einer Windturbine bei Ardrossan 12. August 2011
Es zeigt sich, dass die Industrie versucht, das Ausmaß der Feuergefährlichkeit von Windturbinen zu verschleiern hier.
All dies wirft eine interessante Frage auf: Wie viel unseres Geldes will die Regierung verschwenden, um den Traum von Windkraft am Laufen zu halten? Falls die Kosten weit größer sind als von der Industrie eingeräumt, wie lange wird die Windindustrie dann noch diese versteckten, zusätzlichen Kosten tragen, bevor sie versucht, die Kosten auf den Steuerzahler umzulegen oder die Windtechnologie insgesamt aufzugeben? (hier).
Link: http://wattsupwiththat.com/2014/08/26/bearings-the-achilles-heel-of-wind-turbines/
Übersetzt von Chris Frey




Der Klimawandel in Russland! Sind die IPCC Methoden zur Berechnung der russischen Mitteltemperatur korrekt?

Am 18. Mai 2010 hielt Andrei Illiaronow vom Institut für ökonomische Analyse IEA in Moskau einen Fach-Vortrag zur Qualität der Methoden zur Berechnung der russischen Mitteltemperatur für die vergangenen 160 Jahre. Der Ort, an dem der Vortrag gehalten wurde, war mit Bedacht gewählt. Es trug ihn anlässlich der 4. Internationalen Klimakonferenz in Chicago vor. Sie wurde, wie die 3 Vorgängerkonferenzen und die 5 Nachfolgekonferenzen vom Heartland Institute veranstaltet.  Ca. 100 Teilnehmer der ca. 650 anwesenden Wissenschaftler folgten diesem Vortrag, darunter der Autor dieser Zeilen.

Video des Vortrages von A, illaronov am 18.Mai 2010 auf der Heartland Klimakonferenz in Chicago.
Der Inhalt des Vortrages hatte es in sich, trotzdem wurde er kaum beachtet. Das sei hiermit nachgeholt.
Andrei Illiaronow hatte es zusammen mit seiner Ko-Autorin Natalia Pivovarova unternommen, die Zeitreihe der mittleren Temperaturanomalie für ganz Russland nachzubilden. Dazu wurden die frei zugänglichen Daten des Russian Institute of Hydro Meteorological Information/World Data Center (WDC) verwendet, sie können hier abgerufen werden. Insgesamt werden in dieser Datenbank die Datensätze von 476 russischen Wetterstationen bereitgestellt.
Eine der für die Temperaturberechnung des IPCC verantwortliche Stelle, die Climate Research Unit der Universität von East Anglia in England, unter Leitung von Prof. Phil Jones hat ihrerseits nur 121 der verfügbaren Datensätze für die Bestimmung der mittleren Welttemperatur, bekannt unter dem Namen HADCRUT 3, veröffentlichten Analyse  verwendet. Die Auswahlkriterien dafür sind nicht ganz klar. Doch die Berechnungsmethode ist im Detail[1] festgelegt. Man gibt jedoch an, dass diese russische Untermenge eine statistisch gleichverteilte Auswahl[2] darstellt.  Abbildung 1 zeigt die Lage der 476 Stationen, Abbildung 2 die Lage der von der CRU verwendeten 121 Stationen. 
Der IPCC Bericht von 2007 berichtet von einem Anstieg der globalen Mittel-Temperatur von 1907 bis 2008 nach dieser Methode [3] von +0,74 K. Er wurde nach dieser Methode ermittelt. Die für Russland gewählte Untermenge von 121 Stationen zeigt für den genannten Zeitraum einen Anstieg von 1,29 K

Soweit so bekannt, so weit so gut.

Oder doch nicht? Was z.B. ergibt sich, wenn die Zahl der Stationen zur Berechnung des Mittelwertes der Anomalie weiter verringert wird. Gibt es dann einen unteren Grenzwert, wo die Kurven auseinander laufen? Oder müssen die Stationen bestimmte Eigenschaften besitzen, um repräsentativ zu sein?
Um diese Fragen zu beantworten, reduzierten die Autoren, die zur Berechnung verwendete Zahl der Stationen weiter. Von anfangs 476 auf (IPCC) 121.

Abbildung 1: Anzahl und Lage der 476 russischen Wetterstationen, sie decken einen wesentlichen Teil des russischen Territoriums ab. Der Schwerpunkt liegt im europäischen Teil Russland

Abbildung 2: Anzahl und Lage der von der CRU verwendeten 121 russischen Wetterstationen, auch sie decken einen wesentlichen Teil des russischen Territoriums ab. Der Schwerpunkt liegt nicht mehr im europäischen Teil Russland

Abbildung 3: Anzahl und Lage der verbleibenden 12 russischen Wetterstationen.sie decken nur einen sehr geringen Teil des russischen Territoriums ab. Falls man überhaupt von Schwerpunkten sprechen kann, liegen dieser wieder im europäischen Teil Russland mit 7 Stationen (25 % der Landmasse) während ein zweiter, mit nur 5 Stationen, im asiatischen Teil (75 % der Landmasse) sitzt. Von einer Abdeckung der Landfläche Russlands kann keine Rede mehr sein.
Russland bedeckt immerhin mit rd. 17,1 x 10^6 km2 etwa 11.5 % der weltweiten Landmasse. Der Anteil der russischen Stationen ist also für das globale Ergebnis sehr bedeutend. Auch deswegen unternahmen die Autoren Illiaronow et al den folgenden Vergleich. Sie fragten sich, wie viele Stationen es eigentlich bedürfe, um die ermittelte Zeitreihe abzubilden.

Das Ergebnis der Reduzierung ist mehr als verblüffend.


Abbildung 3: Temperaturanomalie der russischen Wetterstationen gebildet aus allen 476 (gelb) bzw. 121 (lila) Temperaturdatensätzen, die von der CRU ausgewählt wurden. Die Übereinstimmung beider ist erwartungsgemäß gut, beide Kurven verlaufen fast identisch. 
Dann reduzierten sie die Zahl der Datensätze weiter, auf 37, um dann zuletzt auf nur noch 12 (hier abgebildet) um dann bei nur noch 4 Stationen (deren Zeitreihe wird nur im Vortrag gezeigt)  zu landen.
 Abbildung 4: Temperaturanomalien der russischen Wetterstationen gebildet aus allen 476 (dunkel lila) bzw. 121 (rot-lila) Temperaturdatensätzen, die von der CRU ausgewählt wurden, sowie 37 (blau) und 12 (hell lila) Datensätzen russischer Stationen.  Wie zu erkennen, gibt es keine nennenswerten Unterschiede zwischen allen 4 Zeitreihen. Sie liegen nur an manchen Stellen bei max 0,15 K. 
Das ist mehr als überraschend. Die Übereinstimmung ist frappant eng. Denn sie würde bedeuten, dass sich die mittlere Anomalie der Temperatur Russlands völlig unabhängig von der Zahl der Mess-Stationen, aber auch von der Qualität der verwendeten Datensätzen, gleichförmig, fast identisch, bestimmen ließe. Die vielfältigen Fehler der Messungen treten nicht in Erscheinung. Die verbliebenen Unterschiede liegen allesamt im Bereich der Unsicherheit. Sie sind also statistisch nicht signifikant.
Und das über mehr als 40 Breitengrade hinweg, mit Berg und Tal, ewigen Flächen und endlosen, wenn auch häufig vereisten Küsten im Nordatlantik und im Pazifik, auf der riesigen Landmasse des  russischen Landes, welches sich 9000 km weit von Ost nach West und 4000 km von Nord nach Süd über die eurasische Landmasse, d.h. über 2 Kontinente erstreckt.
Die verbliebenen 12 Stationen und ihre Position, der Beginn ihrer Messungen und die Häufigkeit ihrer lokalen Umsetzung, sowie deren aktueller Bevölkerung  sind in Abb. 5 dargestellt. Vielleicht, so dachten wohl die Autoren, lässt sich daraus ergründen, warum diese Stationen fast exakt dasselbe Ergebnis abliefern, wie die zuvor gemittelten 476 oder 121 Stationen

Abbildung 5: Tabelle der 12 „Wunderstationen“ die ausreichen, den Anstieg der mittleren Temperaturanomalie auf 1/10 K genau zu zeigen.  Ihre größten Gemeinsamkeiten sind die hohe Bevölkerungszahl (Dichte), wie auch ihre lange Beobachtungszeit. Ihre mittlere derzeitige Bevölkerungszahl liegt bei 655.000. Davon nur 4 unter 25.000.
Die Autoren stellten sich daher die Frage, worin sich die 12 (zuletzt waren es nur noch 4; siehe Vortrag) bestimmenden Stationen letztlich von den anderen unterscheiden. Sie stellten fest, dass sowohl die letzten 12, als auch die im Vortrag erwähnten vier verbleibenden Stationen, die sind, deren Aufzeichnungsdauer am längsten verfügbar ist.  Die Tabelle zeigt die Lage und den Beginn der Aufzeichnungen dieser zwölf Stationen. Zu den letzten vier (aus den 12) gehören die Stationen von St. Petersburg (seit 1743) mit 4,581 Mio Einwohnern, Archangelsk (seit 1813) mit 356 Tausend Einwohnern, Astrachan (seit 1837) mit 499 Tausend Einwohnern und als Ausreißer Yeniseysk (seit 1871) mit nur 19.000 Einwohnern.
8 der 12 Stationen  liegen zudem in sehr dicht bevölkerten urbanen Zentren, deren mittlere Bevölkerungszahl bei > 655.000 Einwohnern liegt.  Nur 4 (der 12) haben gleich oder weniger als 25 Tausend Einwohner. Von den verbliebenen 4 sogar nur 1  Yeniseysk mit nur 19.000 Einwohnern
Deshalb verglichen die Autoren, neben vielen anderen Vergleichen (siehe ppt Kopie des Vortrags) die Temperaturentwicklung der 10 am dünnsten besiedelten  Wetterstationen mit denen der 10 am dichtesten besiedelten Gebiete.

Abbildung 6: Differenztemperaturentwicklung der Anomalien der Mitteltemperaturen von 10 Stationen mit der geringsten Bevölkerungsdichte zu den 10 Stationen mit der höchsten Bevölkerungsdichte. In beiden Kollektiven wurden die Änderung der Mitteltemperatur von 1897-1906 zu der von 1997-2006 errechnet. Dann beide Mittelwerte miteinander verglichen. Die Differenz liegt bei 1,35 K. Also nur rd 0.06 K  über dem von CRU ermittelten Temperaturanstiegs für Russland von 1,29 K. Somit statistisch identisch.
Die Differenz der 10 Stationen mit größter Erwärmung zu den 10 Stationen mit schwächster Erwärmung beträgt 1,35 K.

Der Unterschied ist deutlich.

Die 10 am dichtesten besiedelten Messorte tragen also mit etwas mehr als 100 % zur insgesamt berechneten durchschnittlichen Erwärmung für ganz Russland von 1,29 K bei. Die restlichen 111 (121 – 10) senken den mittleren Anstieg nur um 0,06 K. Das bedeutet, dass man die Erwärmung dieser Stationen sehr wahrscheinlich ganz oder überwiegend auf die Wirkung des Urban Heat Island (UHI) Effekt zurückzuführen muss, denn die 10 Stationen mit geringster Population haben auch die geringste Erwärmung und zeigen daher diesen starken Anstieg nicht.  Da diese Methode auf alle Datensätze, nicht nur die russischensondern weltweit angewendet wurde, ist mit hoher Wahrscheinlichkeit anzunehmen, dass die verwendete Methode nach Phil Jones von der CRU, so gut wie ausschließlich, nur den UHI Effekt erfasst. 
Oder anders ausgedrückt: Man hat mit der Methode CRU des Phil Jones[4] wohl ein gutes Proxy für die Zunahme der Bevölkerungsdichte über die Bestimmung der lokalen Mitteltemperatur gefunden, aber (zumindest) nicht die reale russische Mitteltemperaturentwicklung bestimmt. Deren Anstieg, legt man stattdessen die Daten der (fast) ruralen Stationen  zugrunde, dürfte im Mittel für die letzten 100 Jahre bei ± 0 K liegen,.
Dieses verblüffende Resultat veranlasste dann auch die Autoren zu folgenden vorsichtigen Feststellungen: 

It means that for calculating the Russian and then, therefore, Global temperature averages: 
· the temperature time-series collected from 97,5% Russian weather stations are excessive,
· the measurements made at the weather stations established after 1872 are unnecessary,
· the quality of data at all those stations doesn’t matter.

Zu deutsch (Anmerkungen in Kursiv von mir):
das bedeutet, dass für die Berechnung der russischen und dann damit die globalen Temperatur-Mittelwerte:
·      die Temperatur-Zeit-Reihen, die von (den restlichen!) 97,5% russischen Wetterstationen gesammelt wurden, (in Bezug auf die Auswertung) überschüssig sind,
·      die Messungen der Wetterstationen, die nach 1872 gegründet wurden, dazu unnötig (für die Bestimmung der russischen Mittelwerte) sind,
·      die Qualität der Daten all dieser Stationen keine Rolle spielt. (denn sie ist offenbar für die Bestimmung der russischen Mittelwerte völlig unerheblich)
Mir scheint aber, dass es noch eine andere Möglichkeit gibt, warum die vier oder zwölf finalen Datensätze die anderen 464 (476 – 12) oder auch 109 (IPCC) so offensichtlich markant dominieren, bzw. glatt überschreiben, oder anders ausgedrückt, warum das Signal der Vielen gegenüber dem Signal der Wenigen einfach verschwindet.
Keiner der verfügbaren Datensätze ist in seiner ursprünglichen, seiner Roh-Form abrufbar. Alle diese Datensätze sind von den Meteorologen aus z.T. sehr guten Gründen zuvor bearbeitet worden.  Denn sie mussten Ausreißer, dh. Werte, die aus Gründen die evtl. einem defekten Thermometer oder einer Stationsumsetzung oder einem anderen nicht meteorologischen Grund zuzuordnen wären, und deshalb unplausibel scheinen, herausfischen (auch mittels automatisierter statistischer Methoden, wie Winsorizing oder Trimming). Zudem mussten sie lange und kurze Leerzeiten innerhalb der Zeitreihen künstlich auffüllen, oder ganze Leerstellen künstlich ersetzen. Derartige Probleme sind in der Meteorologie seit langem bekannt, ebenso wie das Verfahren zu ihrer Minimierung dazu. Auch ist bekannt, dass es nicht unproblematisch ist. Man nennt es Homogenisierung,  d.h. auf Deutsch und ist erfreulich klar: Gleichmacherei. 
Doch mit der Methode Jones hat diese universelle, seit Beginn der Wissenschaft von der Meteorologie eingesetzte Methode der Homogenisierung, wohl ihre überraschenden Grenzen gefunden.
Jetzt wird auch klar, warum die Anomalienbildung samt Homogenisierung auf John´sche Art anscheinend für die Bestimmung der Temperatur des Planeten nichts taugt. Sie führt offensichtlich zu falschen Ergebnissen. 
Deswegen empfiehlt es sich vielleicht,  wieder zur zu Fuß Methode nach Prof. K.H. Ewert zurückzukehren, der in mühsamer Kleinarbeit, die absoluten Werte der Zeitreihen von jetzt ca. 1500 Wetterstationen weltweit verglichen und ihre Erwärmungs- und Abkühlungstendenzen bestimmt hat. Darüber demnächst mehr
Die ausschließliche Verwendung der CRU Methode der Gruppe um P. Jones kann – trotz der durch sie erzielten kräftigen Vergrößerung durch ausschließliche Betrachtung der Änderung durch die Bildung von (kleinen) Anomalien aus (großen) Absolutwerten- evtl. auch der Grund dafür sein, warum sich ein von den Alarmisten vermutetes Signal der Treibhausgase in den Beobachtungen partout nicht finden lässt. Wenn 12 (oder sogar 4) von 121 oder 476 Stationen, mit ihren vom UHI völlig dominierten Werten ausreichen, um die vermeintliche Temperaturanomalie für ganz Russland abzubilden, bleibt für eventuelle und zudem nur hypothetische andere Treiber (forcings), wie dem des CO2, kein Platz mehr übrig.
Bei der Bestimmung der Absolutwerte der Temperaturzeitreihen nach der Methode Ewert findet sich das CO2 Signal übrigens auch nicht.
Das bedeutet letztendlich ganz klar , dass dieses postulierte Signal entweder nicht existiert oder zu schwach ist, um eine erkennbare Wirkung zu haben.


[1] The basic methodology for calculation of the global temperature is described in:
Jones, P.D., M. New, D.E. Parker, S. Martin, and I.G. Rigor. 1999. Surface air temperature and its changes over the past 150 years.
Reviews of Geophysics 37: 173-199.
http://www.agu.org/journals/rg/v037/i002/1999RG900002/1999RG900002.pdf
[2] CRU: The data subset will consist of a network of individual stations that has been designated by the World Meteorological Organization for use in climate monitoring. The subset of stations is evenly distributed across the globe and provides a fair representation of changes in mean temperature on a global scale over land
[3] Russia’s Assessment Report 2008, pp. 9, 36:http://climate2008.igce.ru/
[4] Unter anderem in „Assessment of urbanization effects in time series of surface air temperature over land“ von Jones et al erschienen 1990 in Nature wie auch in späteren Veröffentlichungen versuchen die Autoren zwar den UHI zu bestimmen und ihn dann als systematischen Fehler  zu korrigieren. Danach stieg dieser Effekt schleichend von 0 (1900) auf  0,05 °C  (1990) an.  Damit sei dieser viel zu gering, so argumentieren sie, um signifikant zu sein. Außerdem tendiere er seit 1990 wieder gegen 0. Er sei also zu klein, um überhaupt beobachtet zu werden.

Related Files