Deja Vu Ideologische Übernahme: Deutsche Wikipedia droht im Desaster zu enden

Offener Brief von Michael Klein und Arne Hoffmann an Jimmy Wales, Mitbegründer von Wikipedia:

———–

Feindliche, ideologische Übernahme: Deutsche Wikipedia droht im Desaster zu enden

Lieber Jimmy Wales,

wir schreiben Ihnen diesen offenen Brief, weil wir besorgt sind: Die deutsche Wikipedia ist in großer Gefahr. Die deutsche Wikipedia steht in der Gefahr, ein kompletter Fehlschlag zu werden, denn eine relativ große Anzahl ausschließlich ideologisch motivierter Personen, denen es nicht um die Verbreitung von korrekten Informationen geht, sondern darum, die eigene Ideologie als Information verpackt zu verbreiten, hat sich bei der deutschen Wikipedia eingenistet und droht die Wikipedia zu übernehmen. Die Folgen sind bereits jetzt katastrophal: Die deutsche Wikipedia ist immer weniger eine Informationsquelle, die korrekte und verlässliche Informationen bereitstellt. Die deutsche Wikipedia ist eine Quelle für ideologisch verbrämte Fehlinformationen.

Wir schreiben diesen offenen Brief gemeinsam und bringen entsprechend unsere je unterschiedlichen Erfahrungen in diesen offenen Brief ein. Das ist einmal die Erfahrung eines Wissenschaftlers, der sich täglich mit Fragen wissenschaftlicher Korrektheit und der Bewertung wissenschaftlicher Arbeiten beschäftigt, es ist einmal die Erfahrung eines Journalisten, der zum Ziel einer Kampagne aus Hass und Verleumdung auf Wikipedia geworden ist, deren Ziel darin besteht, seine Reputation zu zerstören.

Wir haben die deutsche Wikipedia über den Zeitraum einiger Monate hinweg beobachtet. Die Analyse, die die Grundlage dieses Offenen Briefes bildet, basiert entsprechend auf einer ausreichend großen Anzahl von Beobachtungen, sie ist daher geeignet, Ihnen einen sehr guten Einblick in die Verhältnisse, wie sie derzeit bei Wikipedia Deutschland herrschen, zu geben. Unsere Datenbasis erlaubt es uns, Ihnen sehr genau aufzuzeigen, was bei Wikipedia in Deutschland in höchsten Maße “faul” ist, und sie ist ausreichend um die im Folgenden gezogenen Schlußfolgerungen zu stützen. Wir sind jederzeit bereit, Ihnen die Belege für unsere Aussagen in vollem Umfang zur Verfügung zu stellen, verzichten aber an dieser Stelle darauf, da dies ein Offener Brief und kein Offenes Buch werden soll.

Wo die erheblichen Probleme der deutschen Wikipedia liegen, kann am Beispiel von vier gegenseitig verschränkten und sich gegenseitig verstärkenden Prozessen deutlich gemacht werden, aus wiederum eine sich selbst verstärkende Schleife resultiert, die, wenn sie nicht angehaltet wird, letztlich das Ende der deutschen Wikipedia bedeuten wird: Denn wird sie nicht angehalten, dann wird die Wikipedia zu einer Geheimgesellschaft, zu einem Kult degenerieren, in dem eine kleine Clique von die selbe Ideologie teilenden Administratoren darüber wacht, dass die Realität, wie sie nur außerhalb der ideologisch verklärten Sichtweise vorkommt, nicht Einzug in Wikipedia-Artikel hält. Diese Dystopie, ist leider zu real, denn eine Vielzahl von Personen, denen nichts ferner ist als der Geist, in dem Sie die Wikipedia gegründet haben, der Geist, der zum Ziel hatte, eine Vielzahl unterschiedlicher Menschen mit ihrem Wissen und ihren Fähigkeiten an einem gemeinsamen Projekt arbeiten zu lassen, hat sich bereits in der Wikipedia eingenistet. Diese Ideologen wollen keine breite Informationsbasis, sondern eine Basis zur Verbreitung ihrer höchst eigenen Ideologie. Nichts könnte weiter vom Geist, in dem die Wikipedia gegründet wurde, entfernt sein.

Die vier gegenseitig verschränkten und sich gegenseitig verstärkenden Prozesse, die letztlich zum Ende der Wikipedia führen werden, sind die folgenden:

  • Das Fehlen jeglicher Form von Kriterien, die das Auffinden von Information und das Schreiben von Artikeln strukturieren.
  • Die daraus resultierende Selektivität vieler, wenn nicht der meisten Artikel in Wikipedia.
  • Die feindliche Übernahme der Wikipedia durch Ideologen, die durch die zuvor beschriebenen Prozesse erleichtert wird.
  • Die negativen Anreize für bzw. das Abschrecken von fähigen, potentielle/n Autoren, die zur Wikipedia beitragen wollten, darauf aber aufgrund der ideologischen Infizierung der Wikipedia verzichten, sowie die Verschwendung von Humanressourcen und die Lähmung von Ressourcen in so genannten Editier-Schlachten.

Das Fehlen eines kohärenten Sets von Kriterien

Die Erstellung einer Enzyklopädie ist in erster Linie eine Aufgabe, die eine ausgereifte und verlässliche Methode benötigt, die es ermöglicht, korrekte, verlässliche und repräsentative Informationen zu finden. In anderen Worten: Die Erstellung einer Enzyklopädie erfordert Menschen, die fähig und – wichtiger nocht – bereit sind, Informationen auszuwählen, die ein korrektes Bild vom im Artikel bearbeiteten Gegenstand vermitteln. Um Informationen aufzuspüren, die korrekt, verlässlich und repräsentativ sind, ist es notwendig, dann, wenn man alleine an einem Artikels arbeitet, etwas vom Gegenstand des Artikels zu verstehen. Sind mehrere Autoren an der Erstellung eines Artikels beteiligt, dann ist es notwendig, dass sich alle Autoren auf einen Katalog gemeinsamer Kriterien verpflichten, die es gewährleisten, dass das ausgewählte Material im Hinblick auf seine Korrektheit, Verlässlichkeit und Repräsentativität geprüft werden kann, ein Katalog, der die Basis dafür bereitstellt, eine Übereinkunft über den Inhalt eines Artikels zu erzielen. Im Moment gibt es in der deutschen Wikipedia keinerlei Kriterien, die diese Leistung erbringen könnten. Dies ist nirgends so deutlich wie bei den regelmäßig stattfindenden Editier-Schlachten.

Selektivität der Artikel

Das Fehlen von Kriterien, die die Auswahl von Informationen anleiten, schlägt sich in einer Vielzahl von Artikeln in der deutschen Wikipedia nieder, die nicht einmal rudimentäre Ansprüche an Verlässlichkeit, Fairness und Anstand erfüllen. Diese Artikel bestehen aus zusammengeklaubten Informationen, von denen nur der Autor weiß, warum er diese Informationen und keine anderen ausgewählt hat. In vielen Fällen sind diese Artikel ein Zerrbild der Realität, das bei denen, die es besser wissen, erst mit Lachen gutiert wird, bevor es der Anlass für Ärger über den Unsinn ist, der von der Wikipedia zugemutet wird. Diejenigen, die es nicht besser wissen, sind den Fehlinformationen in den entsprechenden Artikel schutzlos ausgeliefert und eine entsprechend leichte Beute für Ideologen aller Couleur. Was für die Reputation der Wikipedia schlecht ist, wenn z.B. in Beiträgen zu wissenschaftlichen Themen haarsträubende Falschdarstellungen enthalten sind, wird in seiner negativen Wirkung noch verstärkt, wenn im Text zitierte wissenschaftliche Autoren und deren Forschungsergebnisse oder deren theoretische Beiträge falsch dargestellt sind. Es wird fatal, wenn die Artikel Personen aus dem öffentlichen Leben zum Gegenstand haben. Dann wird die deutsche Wikipedia zum Boden, auf dem unfaire Behandlung, die an Hass grenzt oder die Grenze zur Gehäassigkeit längst überrschritten hat, dann wird die Wikipedia zum Schlachtfeld für ideologische Krieger.

Ideologische, feindliche Übernahme

Weil die Kriterien, die die Auswahl von Informationen anleiten, fehlen, ist es Ideologen ein Leichtes, Informationen, die ihre Weltsicht bestätigen, in einen Artikel einzufügen und andere Informationen, die der eigenen Weltsicht widersprechen, zu unterschlagen. Durch die Selektivität der Auswahl und Unterdrückung von Informationen machen diese Ideologen die deutsche Wikipedia zu einer Plattform der politischen Agitation und Propaganda. Um dabei möglichst erfolgreich zu sein, formen sie eine Art “geheime Gesellschaft”, die die Anonymität der Autorenschaft bei Wikipedia ausnutzt, um versteckt hinter Pseudonymen (z.B. “schwarze Feder” oder “Fiona Baine”) ideologische Kriegsführung zu betreiben und sich oftmals durch Nutzung multipler Pseudonyme gleich noch einen Startvorteil gegenüber Konkurrenten zu verschaffen.

Diese Ideologen nutzen Wikipedia als Plattform, um diejenigen, die sie als ideologische Feinde betrachten, mit Schmähungen, Beleidigungen und Verächtlichmachungen zu überziehen. Diese typische deutsche Form des Umgangs, ist für nicht-deutsche Beobachter schwer verständlich zu machen. Daher wollen wir Ihnen an dieser Stelle mit ein paar Beispielen aus Wikipedia-Artikeln einen “Gechmack” davon geben, was in der deutschen Wikipedia zwischenzeitlich normal ist. In Artikeln in der deutschen Wikipedia werden Menschen als “homophob” abgestempelt, ihre Arbeit wird als “Mist” diskreditiert, sie werden als Personen dargestellt, die ihre Großmutter verkaufen würden, wenn sie dadurch einen Vorteil erheischen könnten und vieles mehr, das die Grenze des Anstands und die Grenze des fairen Umgangs deutlich hinter sich lässt. Regelmäßig ist nicht die wissenschaftliche oder sonstige Lebensleistung von Autoren der Gegenstand von Artikeln in der Wikipedia, sondern deren politische Einstellung, die ebenso regelmäßig dann, wenn sie nicht der Einstellung des jeweiligen Wikipedia-Autoren entspricht, verächtlich gemacht wird. Mit andere Worten: Viele Wikipedia-Artikel sind recht gut darin ad-hominem Bewertungen abzugeben, aber ziemlich schlecht darin, dem Leser Informationen zu vermitteln.

Die beschriebene Behandlung von Menschen in Wikipedia-Artikeln ist nicht die Ausnahme, sondern die Regel. Wir wissen, dass diese Form von Fehlverhalten für Menschen, die sich außerhalb des deutschen Kulturraumes befinden, nicht nachvollziehbar ist, aber es beschreibt dennoch die Verhältnisse, wie sie in der deutschen Wikipedia herrschen, Verhältnisse, die sich in schriftlichen Äußerungen niederschlagen, die hart an der Grenze zum Straftatbestand, wie er in den entsprechenden Paragraphen für Verleumdung und üble Nachrede niedergelegt ist, verlaufen.

Abschreckung fähiger Autoren und Editier-Schlachten

Das für die Wikipedia typische Mentoren-System, die Art, wie Wikipedia funktioniert, wie Artikel zu Stande kommen, die Arbeitsweise, die in der Frühphase der Wikipedia Garant schnellen Wachstums und Verantwortlicher für den Erfolg von Wikipedia war, dieses System ist heute zur größten Gefahr für den Fortbestand der Wikipedia geworden. Vor allem in Ländern wie Deutschland, in denen die Regeln von Fairness und Anstand nicht wie im angelsächsischen Raum für den Umgang miteinander vorausgesetzt werden können, führt das entsprechende System direkt in den Abgrund. Das Fehlen von Kriterien, eine daraus sich ergebende Selektivität der Artikel, die feindliche Übernahme der Editier-Funktionen durch Ideologen schreckt fähige und motivierte Personen von einer Mitarbeit in Wikipedia ab. Wir wissen von Wissenschaftlern, die sich großer internationaler Bekanntheit erfreuen, die führende Kapazität in ihrem Feld sind, im Marquis Who is Who in the World aufeführt sind, und die auf Einladung von Wikipedia-Autoren Beiträge für die Wikipedia erstellt haben. Die entsprechenden Beiträge haben es nie bis zur Veröffentlichung in der Wikipedia geschafft, denn ihr Inhalt hat die Wirklichkeit beschrieben, wie sie wirklich ist und nicht das ideologische Zerrbild dargestellt, dass die entsprechenden Wikipedia-Autoren erwartet haben. Dass die entsprechenden Wissenschaftler nach ihren Erfahrungen von einer Mitarbeit in Wikipedia absehen, dürfte keiner weiteren Erwähnung bedürfen.

Der ideologische Krieg in der Wikipedia ist mittlerweile so alltäglich, dass es ein Leichtes wäre, wenn man es denn wollte, die dadurch verloren gehende Zeit in Hunderten von Arbeitsstunden zu quantifizieren. Um sich einen Eindruck davon zu verschaffen, was in der deutschen Wikipedia mittlerweile normal geworden ist, genügt es, sich eines der gesellschaftspolitischen Themen vorzunehmen und entweder den Reiter “Diskussion” oder “Versionengeschichte” anzuwählen. Selbst für hartgesottene Leser sind die Schimpftiraden und der öffentliche Umgang der Wikipedia-Autoren miteinander und mit Kritik noch etwas, das sie schockieren kann. Zudem zeigt ein Blick in die Versionengeschichte, dass der Krieg zwischen Ideologen und denen, die mehr an der ursprünlichen Idee der Wikipedia ausgerichtet sind, in vollem Gange ist. Beide Lager sind in ihren Positionen eingegraben und freuen sich daran, die Änderungen der jeweils anderen Seite innerhalb kürzester Zeit rückgängig zu machen – wer mehr Zeit und Pseudonyme hat, nicht wer mehr Wissen und Kenntnisse hat, gewinnt diesen Krieg.

Gibt es wirklich jemanden, der denkt, dass Prozesse, wie die beschriebenen der deutschen Wikipedia keinen erheblichen und vielleicht auch irreparablen Schaden zufügen? Gibt es wirklich jemanden, der denkt, die Grabenkriege, die die Wikipedia zur Zeit auszeichnen, sind nicht dazu geeignet, willige und fähige Mitarbeiter innerhalb kürzester Zeit von einer Mitarbeit Abstand nehmen zu lassen? Gibt es wirklich jemanden, der nicht glaubt, dass die beschriebenen Prozesse über kurz oder lang das Ende der deutschen Wikipedia bedeuten werden?

Nein.

Aus diesem Grund haben wir uns entschieden, diesen Offenen Brief zu schreiben. Die deutsche Wikipedia steht in höchster Gefahr die fünfte Kolonne welcher Ideologie auch immer zu werden. Es ist an der Zeit, dem Treiben Einhalt zu gebieten, und der beste Weg dazu, die deutsche Wikipedia aus den Klauen von Ideologen zu befreien, besteht darin, nur noch namentlich bekannte und mit ihrem Namen Verantwortung übernehmende Autoren Artikel für die Wikipedia schreiben und bearbeiten zu lassen. Derzeit ist es für anonyme Autoren ein Leichtes, andere mit ihrem Hass zu überziehen. Wären die enstprechenden Autoren namentlich bekannt, müssten sie für das, was sie schreiben, mit ihrem Namen einstehen, die Anzahl der Beleidigungen und Verächtlichmachungen in den Artikeln der Wikipedia würde in dem Maße sinken, in dem die Qualität der Artikel steigt, denn nicht nur macht es vorsichtiger, wenn man mit seinem Namen für etwas steht, die Verantwortungsübernahme mit dem eigenen Namen sorgt auch dafür, dass die Artikel, für die man verantwortlich zeichnet, besser recherchiert und somit qualitativ besser sind.

Wir hoffen, Sie nehmen diesen Offenen Brief in der Weise auf, in der er gemeint ist, als eindringlicher Ruf nach einschneidenden Maßnahmen bei der deutschen Wikipedia, als Ruf von zwei besorgten Menschen, die große Sympathien für den Geist haben, in dem die Wikipedia einst gegründet wurde.

Michael Klein
Arne Hoffmann

———–

Zuerst erschienen auf ScienceFiles am 29.7.2012




Tägliche Averages? Vorsicht, nicht so schnell…

Im Kommentarbereich meines jüngsten Beitrages zu den GAST (Global Average Surface Temperature)-Anomalien (und warum es ein Verfahren ist, mit dem die Klimawissenschaft sich selbst austrickst) kam (erneut) zur Sprache, dass das, was die Klimawissenschaft als die Tägliche Average Temperatur von irgendeiner Wetterstation angibt, nicht das ist, was wir denken, nämlich das Average der Temperaturen über den Tag (indem alle gemessenen Temperaturen addiert werden und die Summe durch die Anzahl der Werte dividiert wird). Stattdessen werden einfach die tägliche Maximum- bzw. Minimum-Temperatur addiert und durch zwei dividiert. Das kann man übersetzt in die Sprache der Mathematik so schreiben: (Tmax + Tmin)/2.

Jeder, der hinsichtlich der verschiedenen Formen von Averages versiert ist, wird erkennen, dass Letzteres in Wirklichkeit der Median von Tmax und Tmin ist – also die Mitte zwischen beiden Werten. Dies ist offensichtlich auch gleich dem Mean der beiden Werte – aber da wir nur ein tägliches Maximum bzw. Minimum für eine Aufzeichnung heranziehen, in welcher heutzutage viele Messungen einen Tagessatz bilden, finden wir einen Median, wenn wir alle Messungen nach ihrer Magnitude angleichen und den Mittelpunkt zwischen dem höchsten und dem tiefsten Wert finden (allerdings machen wir das unter Ignoranz aller anderen Messungen zusammen, und wir kommen auf den Median eines Datensatzes aus zwei Werten, der nur aus Tmax und Tmin besteht).

Das ist sicher kein Geheimnis und das Ergebnis der historischen Tatsache, dass Temperaturaufzeichnungen in irgendeiner entfernten Vergangenheit vor Einführung automatisierter Wetterstationen auf diese Weise erstellt wurden – beispielsweise mit einem Max-Min-Thermometer wie diesem hier:

Jeden Tag zu einer festgesetzten Zeit würde ein Beobachter zum Stevenson screen* gehen, ihn öffnen und darin befindliche Thermometer ablesen. Man würde die durch die Marker angezeigten Maximum- und Minimum-Temperaturen ablesen und dann den Reset-Schalter drücken (in der Mitte), um die Messung neu laufen zu lassen.

[*Einschub des Übersetzers: Mit ,Stevenson Screen‘ bezeichnen die Amerikaner eine simple Wetterhütte wie die unten Abgebildete, welche im DWD bis vor einigen Jahren in Gebrauch waren. Darin befinden sich links ein Thermo-/Hygrograph, rechts quer liegend ein Maximum- und ein Minimum-Thermometer, darunter noch ein weiteres Minimum-Thermometer, das abends vor der Hütte über dem Boden abgelegt wird, um das nächtliche Minimum in Bodennähe zu ermitteln. Dahinter befinden sich senkrecht zwei Thermometer, links zur Messung der Feuchttemperatur {bitte googeln, falls nicht bekannt}, rechts zur Messung der aktuellen Temperatur.

Abbildung: Schau-Wetterhütte, wie sie bis vor einigen Jahren im DWD gebräuchlich war. Bild: © der Übersetzer.

Es entzieht sich der Kenntnis des Übersetzers, ob der im Original vorgestellte, verlinkte ,Stevenson Screen‘, welcher ja nur mit Thermometern der Art aus Abbildung 1 bestückt ist, exemplarisch für alle Stationen in den USA oder ein hier vorgestellter Sonderfall ist.

Ende Einschub]

Mit lediglich diesen beiden aufgezeichneten Messwerten lässt sich nur die tägliche Average-Temperatur berechnen, die dem Median der beiden am nächsten liegt. Um heutige Temperaturwerte mit solchen aus der Vergangenheit vergleichen zu können, war es erforderlich, das gleiche Verfahren anzuwenden, um das tägliche Average von heutigen Temperaturen zu erhalten, obwohl von automatisierten Messpunkten alle sechs Minuten eine neue Messung vorliegt.

Nick Stokes schrieb einen Beitrag über die Verwendung von Min-Max-Thermometern nebst deren Problemen in Relation zu Adjustierungen bzgl. der Beobachtungszeit. In jenem Beitrag schreibt er:

Ab und zu erscheint ein Beitrag wie dieser, in welchem jemand entdeckt, dass die Messung der täglichen Temperatur mittels (Tmax + Tmin)/2 nicht genau dem entspricht, was man mit einer Integration der Temperatur über die Zeit erhält. Na und? Beides sind einfach Messungen, und man kann damit Trends abschätzen.

Und da hat er absolut recht – man kann jede Zeitreihe von irgendwas heranziehen, alle Arten von Averages finden – Means, Mediane, Modes – und deren Trends auffinden über verschiedene Zeiträume.

[Einschub des Übersetzers: Am Meteorologischen Institut der Freien Universität Berlin wurde seit seiner Gründung durch Prof. Richard Scherhag im Jahre 1953 ein Klimamittel errechnet, aber nicht nach der hier beschriebenen, vorsintflutlich anmutenden Methode. Es wurden jeweils täglich die Temperaturwerte von 7 Uhr, 14 Uhr und 2 x 21 Uhr (MEZ; MESZ 1 Stunde später) gemessen (das sind die sog. ,Mannheimer Stunden‘) und durch 4 dividiert. Vermutlich wurde dieses Verfahren auch beim DWD so durchgeführt. Wie es in anderen europäischen Ländern gehandhabt wird, ist nicht bekannt, zumindest in einigen Ländern ist es aber wohl das hier von Kip Hansen beschriebene Verfahren.

Seit den achtziger Jahren werden am Institut auch stündliche Temperaturwerte ermittelt und durch 24 dividiert. Seit Jahr und Tag werden die so gewonnen Mittelwerte mit dem der Mannheimer Stunden verglichen. Es ergeben sich Differenzen bis 1°C. Da wir es aber hier mit Zehntel oder sogar Hundertstel Grad (!) zu tun haben, ist das natürlich erheblich.

Weiteres hierzu kann man über die Website des Instituts erfahren.

Ende Einschub]

In diesem Falle müssen wir die Frage stellen: Was ermitteln sie eigentlich? Ich musste immer wieder diesen Beitrag heranziehen, wenn ich etwas über aktuelle wissenschaftliche Forschung schrieb, welche irgendwie einen bedeutenden ,roten Faden‘ wahrer Wissenschaft verloren zu haben scheint – dass wir extreme Vorsicht walten lassen müssen bei der Definition dessen, was wir erforschen – welche Messungen von welcher Eigenschaft welcher physikalischen Größe uns das zeigen wird, was wir wissen möchten.

Stoke schreibt, dass jedwede Daten von Messungen irgendwelcher Temperatur-Averages offenbar genauso gut sind wie jede andere – dass der Median von (Tmax+Tmin)/2 genauso brauchbar für die Klimawissenschaft als wahres Average ist wie häufigere Temperaturmessungen wie etwa heutige Messungen alle sechs Minuten.

Damit haben wir mindestens drei Frage aufgeworfen:

1. Was versuchen wir mit Temperaturaufzeichnungen zu messen? Wenn wir die Berechnungen monatlicher und jährlicher Means nebst deren Trends sowie den Trends von deren Anomalien berechnen – was werden wir daraus erkennen? (Mit Anomalien sind hier immer Anomalien von irgendwelchen klimatischen Means gemeint).

2. Was wird mit (Tmax+Tmin)/2 wirklich gemessen? Ist es quantitativ unterschiedlich zur Mittelung [averaging] von alle sechs Minuten (oder stündlich) gemessenen Temperaturen? Sind die beiden qualitativ unterschiedlich?

3. Erfüllt das derzeit gebräuchliche (Tmax+Tmin)/2-Verfahren alles, um Frage Nr. 1 beantworten zu können?

Ich werde diese Fragen im Folgenden beantworten. Jeder kann aber in Kommentaren seine eigenen Antworten kundtun.

Was versuchen wir zu messen?

Die Antworten auf Frage 1 sind davon abhängig, wer man ist und in welchem Bereich der Wissenschaft man arbeitet.

Meteorologen messen die Temperatur, weil es in ihrem Bereich ein Schlüsselparameter ist. Ihre Aufgabe ist es, Temperaturen der Vergangenheit zu kennen und diese dazu heranzuziehen, um zukünftige Temperaturen im Kurzfrist-Zeitraum vorherzusagen – Höchst- und Tiefstwerte für morgen, Wochenend-Wetter und Jahreszeiten-Prognosen für die Landwirtschaft. Vorhersagen von Extremtemperaturen sind ein wichtiger Bestandteil ihrer Aufgabe – und „vor Wetterereignissen zu warnen, die zu einer Gefahr für die öffentliche Sicherheit und Ordnung führen können“*

[*Das ist keine Übersetzung, sondern ein Original-Auszug aus dem deutschen Wetterdienst-Gesetz. Anm. d. Übers.]

Klimatologen befassen sich mit langzeitlichen Averages sich ständig verändernder Wetterbedingungen für Gebiete, Kontinente und den Planeten als Ganzes. Mit diesen langfristigen Averages wollen sie die verschiedenen Gebiete der Welt in die 21 Zonen der Klima-Klassifikation nach Köppen einteilen und nach Änderungen in diesen Regionen Ausschau halten. [Statt des Links lieber nach „Köppen Klimazonen“ googeln. Anm. d. Übers.] In Wikipdedia findet sich eine Erklärung, warum dieser Studienbereich schwierig ist:

Klimaforschung ist schwierig wegen der Größenordnung der Gebiete, der langen Zeiträume und der komplexen Prozesse, welche das Klima steuern. Klima wird gesteuert durch physikalische Gesetze, die man als Differentialgleichungen darstellen kann. Diese Gleichungen sind gekoppelt und nichtlinear, so dass angenäherte Lösungen nur erhalten werden können mittels numerischer Verfahren, um globale Klimamodelle zu konstruieren. Klima wird manchmal modelliert als ein stochastischer (Zufalls-)Prozess, aber es ist allgemein als eine Approximation von Prozessen akzeptiert, welche anderenfalls zu kompliziert sind, um analysiert werden zu können. (Hervorhebung von mir {dem Autor}).

Die Temperaturen der Ozeane und die verschiedenen Schichten der Atmosphäre sowie die Unterschiede zwischen Regionen und atmosphärischen Schichten sind zusammen mit einer langen Liste anderer Faktoren Treiber des Wetters, und die langfristigen Unterschiede der Temperatur folglich von Interesse für die Klimatologie. Der momentane Gleichgewichtszustand des Planeten hinsichtlich Ein- und Ausstrahlung ist gegenwärtig einer der Brennpunkte in der Klimatologie, und Temperaturen sind ein Teil davon.

Wissenschaftler der anthropogenen globalen Erwärmung (IPCC-Wissenschaftler) befassen sich mit der Beweisfindung, dass anthropogenes CO2 dazu führt, dass das Klimasystem der Erde zunehmend einfallende Solarstrahlung zurückhält, und berechnen globale Temperaturen allein aufgrund dieser Objektive. Folglich konzentrieren sich die AGW-Wissenschaftler auf regionale und globale Temperaturtrends sowie die Trends der Temperatur-Anomalien und anderer klimatischer Faktoren, die ihre Position stützen könnten.

Welche Aussagen erhoffen wir uns von Berechnungen monatlicher und jährlicher Means nebst deren Trends?

Meteorologen sind an Temperaturänderungen bzgl. ihrer Prognosen interessiert und verwenden „Means“ von Temperaturen der Vergangenheit, um eine zu erwartende Bandbreite der Temperatur-Variabilität zu erhalten und vorherzusagen, wenn es Temperatursprünge nach außerhalb dieser Bandbreite gibt. Temperaturunterschiede zwischen Örtlichkeiten und Regionen treiben das Wetter, was diese Aufzeichnungen für ihre Arbeit bedeutsam macht.

Klimatologen wollen wissen, wie sich das längerfristige Bild ändert – Erwärmt es sich in dieser Region wirklich, kühlt sie ab, gibt es immer mehr/weniger Regen? Und das alles über Zeiträume von Jahrzehnten oder auch 30 Jahren. Dafür brauchen sie Trends. (Anmerkung: Nicht einfach dümmliche, selbst generierte ,Trendlinien‘ in Graphiken, die von ihren Beginn- und Endpunkten abhängen – sie wollen reale Änderungen der Bedingungen mit der Zeit erkunden).

AGW-Wissenschaftler müssen in der Lage sein zu zeigen, dass sich die Erde erwärmt und ziehen Temperaturtrends heran – regional und global, als Absolutwerte und Anomalien – in dem Bemühen, die AGW-Hypothese zu beweisen, der zufolge das Klimasystem der Erde mehr Energie von der Sonne zurückhält infolge zunehmender CO2-Konzentrationen.

Was wird mit (Tmax+Tmin)/2 wirklich gemessen?

(Tmax+Tmin)/2, die tägliche Tmittel [Tavg] der Meteorologen, ist das Median der täglichen Höchst- und Tiefsttemperatur (man klicke auf den Link, falls man nicht so genau weiß, warum das der Median und nicht das Mean ist). Die monatliche Tavg ist tatsächlich das Median des Monatlichen Means täglicher Höchsttemperaturen und des monatlichen Means der Täglichen Tiefsttemperatur. Die Monatliche Tavg ist der grundlegende Eingangswert für alle daraus abgeleiteten Berechnungen regional, staatenweit, national, kontinental und global der Average-Temperatur (in 2 m Höhe auf dem Festland). Mit dieser Berechnung will man den Median der Means von Tmax und Tmin finden für den Monat an der Station, indem man all die täglichen Tmax und Tmins jeweils addiert und ihr Mean (arithmetisches Average) berechnet, um dann den Median jener zwei Werte zu finden. (Dies so zu definieren war nicht einfach – ich musste zu den Original-GHCN-Aufzeichnungen gehen und mich per E-Mail an den Customer Support von NCEI wenden, um Klarheit zu bekommen).

Wenn wir jetzt also wissen, wie die Zahl zustande gekommen ist, die wir die monatliche Tavg nennen, können wir jetzt einmal betrachten, was damit eigentlich gemessen wird.

Ist es eine Maßzahl für das Average der Temperatur für den Monat? Eindeutig nicht. Dieses würde man berechnen mittels Addition von Tavg für jeden Tag und Division der Summe durch die Anzahl der Tage des jeweiligen Monats. Dieses Verfahren könnte einen Wert ergeben, der überraschend nahe der aufgezeichneten monatlichen Tavg liegt – unglücklicherweise haben wir aber schon gesagt, dass die täglichen Tavgs nicht die Average-Temperaturen für ihre jeweiligen Tage sind, sondern die Mediane der täglichen Höchst- und Tiefsttemperatur.

Das in diesem Beitrag behandelte Problem illustriert das Bild ganz oben. Hier folgt es vergrößert:

Diese Abbildung stammt aus einem Beitrag, in welchem Means und Medians definiert werden. Man erkennt, dass falls die violetten Einzelschritte für die Temperatur über einen Tag stehen, wäre der Median für stark unterschiedliche Temperaturprofile identisch, aber das wahre Average, das Mean wäre sehr unterschiedlich. (Man beachte: das rechte Ende der Graphik ist abgeschnitten, aber beide Einzelwerte enden am gleichen Punkt rechts – das Äquivalent einer Höchsttemperatur für den Tag). Falls das Profil dicht an einer „Normalverteilung“ liegt, liegen Median und Mean dicht beieinander – falls nicht, sind beide ziemlich unterschiedlich.

Ist es quantitativ unterschiedlich zum Averaging der Temperatur des Tages alle sechs Minuten (oder stündlich)? Sind die beiden qualitativ unterschiedlich?

Um eine Antwort zu finden, müssen wir zu den täglichen Tavgs zurückkehren. Wodurch ändert sich die Tägliche Tavg? Jedwede Änderung der täglichen Höchst- oder Tiefsttemperatur, falls die tägliche Tavg 72 beträgt, können wir dann die Höchst- und Tiefsttemperatur daraus ablesen? Nein, können wir nicht. Die Tavg des Tages sagt uns wenig über diese beiden Tagesextrema. Auch erfahren wir durch die Tavg nicht viel darüber, wie sich die die Temperatur im Tagesverlauf entwickelt und geändert hat.

Tmax 73, Tmin 71 = Tavg 72
Tmax 93, Tmin 51 = Tavg 72
Tmax 103, Tmin 41= Tavg 72*

[*Das sind natürlich Grad Fahrenheit. Da es um das Prinzip und nicht um die Werte als solche geht, spare ich mir die Umwandlung. Anm. D.Übers.]

Der erste Tag wäre ein milder Tag und eine sehr warme Nacht, der zweite ein heißer Tag und eine Nacht mit normaler Temperatur. Dabei könnte es ein wolkiger warmer Tag gewesen sein, wobei eine Stunde purer Sonnenschein die Temperatur auf einen Momentanwert von 93 hätte steigen lassen oder auch ein durchweg sonniger Tag mit Erwärmung auf 93 Grad bis 11 Uhr und Verharren der Temperatur über 90 bis Sonnenuntergang mit einem nur sehr kurzen Zeitraum am frühen Morgen, in welchem es 51 Grad kühl geworden ist.

Unser drittes Beispiel, wie es für die Hochwüsten im Südwesten der USA typisch ist, zeigt einen sehr heißen Tag mit einer nachfolgenden kalten Nacht. Ich selbst habe Tage mit Temperaturwerten über 90°F [34°C] erlebt mit Frost während der folgenden Nacht. (Tmax+Tmin)/2 ergibt nur den Median zwischen zwei Temperatur-Extrema, von denen jedes Einzelne mehrere Stunden oder auch nur ein paar Minuten erreicht haben kann.

Die tägliche Tavg, der Median von Tmax und Tmin, sagt uns nichts über den „Wärmegehalt“ oder das Temperaturprofil des Tages. Wenn das so ist, weist die monatliche Tavg die gleiche Schwäche auf – ist sie doch der Median der Means der Tmaxs und Tmins.

Vielleicht hilft eine Graphik bei der Veranschaulichung des Problems:

Diese Graphik zeigt die Differenz zwischen der täglichen Tavg (mittels des (Tmax+Tmin)/2-Verfahrens) einerseits sowie dem wahren Mean der täglichen Temperatur Tmean andererseits. Man erkennt Tage mit einer Differenz von drei oder mehr Grad mit einem Augenschein-Average von einem Grad oder so, mit ziemlich vielen Tagen mit einer Differenz von ein oder zwei Grad. Man kann eine ähnliche Graphik für die monatliche TAVG und den wahren monatlichen Means plotten, entweder von tatsächlichen täglichen Means oder durch averaging aller Temperaturaufzeichnungen für den jeweiligen Monat.

Die gegenwärtig gebräuchlichen Tavg und TAVG (täglich und monatlich) sind nicht das Gleiche wie tatsächliche Means der Temperaturen über den Tag oder den Monat. Sie sind beide quantitativ und qualitativ unterschiedlich – und sagen uns unterschiedliche Dinge.

Also: JA, die Daten sind qualitativ und quantitativ unterschiedlich.

Erfüllt das derzeit gebräuchliche (Tmax+Tmin)/2-Verfahren die Zwecke jedweder Antwort auf Frage 1?

Betrachten wir dazu mal wieder die Forschungsbereiche:

Meteorologen messen Temperaturen, weil es einer der zentralen Bereiche ihrer Arbeit ist. Die Wetterleute sind zufrieden mit Temperaturmessungen nahe des nächsten ganzen Grads. Ein Grad mehr oder weniger war nicht groß von Belang (außer bei Temperaturwerten um den Gefrierpunkt). Average Wetter kann auch eine Unsicherheit von ein oder zwei Grad aushalten. Also denke ich, dass das Verfahren (Tmax+Tmin)/2 für die Wetterleute ausreichend ist – auch hinsichtlich des Wetters und der Wettervorhersage. Bzgl. Wetter weiß der Meteorologe, dass die Temperatur auf natürliche Weise um ein oder zwei Grad variiert.

Klimatologen befassen sich mit den langzeitlichen, sich immer ändernden Wetterbedingungen in Regionen, auf Kontinenten und den Planeten als Ganzes. Klimatologen wissen, dass Wetterbeobachtungen der Vergangenheit nicht gerade präzise waren – sie akzeptieren, dass (Tmax+Tmin)/2 keine Maßzahl der Energie im Klimasystem ist, sondern sie damit nur einen Hinweis von Temperaturen an einer Station, in einem Gebiet oder auf kontinentaler Basis bekommen, ausreichend um sich ändernde Klimate zu beurteilen – ein Grad mehr oder weniger der average Sommer- bzw. Wintertemperatur für eine Region ist möglicherweise keine klimatologisch bedeutende Änderung – es ist einfach jährliches oder vieljähriges Wetter. Die meisten Klimatologen wissen, dass nur Temperaturmessungen aus jüngster Zeit auf ein oder zwei Grad präzise sind.

AGW-Wissenschaftler (IPCC-Wissenschaftler) befassen sich damit zu beweisen, dass das Klimasystem der Erde durch menschliche CO2-Emissionen Energie von der Sonne zurückhält. Und hier kommen die Differenzen in den quantitativen und qualitativen Werten ins Spiel zwischen (Tmax+Tmin)/2 bzw. einer wahren täglichen/monatlichen Mean-Temperatur.

Es gibt Leute, die (korrekt) argumentieren, dass Temperatur-Averages (mit Sicherheit die GAST genannte Größe) keine genauen Indikatoren der Energie-Rückhaltung im Klimasystem sind. Aber bevor wir uns dieser Frage annehmen können, müssen wir korrekte quantitative und qualitative Messwerte der Temperatur haben, welche die sich ändernde Wärmeenergie an Wetterstationen reflektiert. Aus (Tmax+Tmin)/2 geht nicht hervor, ob wir einen heißen Tag und eine kühle Nacht hatten oder einen kühlen Tag und eine relativ warme Nacht. Temperatur ist eine intensive Eigenschaft (in diesem Fall von Luft und Wasser) und nicht wirklich geeignet für Addition, Subtraktion und Averaging im normalen Sinne – die Temperatur einer Luft-Stichprobe (wie etwa in einer automatischen Wetterstation ASOS) – steht in Beziehung zu, ist aber nicht das Gleiche wie die Energie (E) in der Luft an jener Stelle und steht in Relation zu, ist aber nicht das Gleiche wie die Energie im lokalen Klimasystem. Verwendet man (Tmax+Tmin)/2 bzw. TMAX und TMIN, um eine monatliche TAVG zu erhalten, reflektiert dies nicht einmal genau, wie die Temperaturen waren und kann und wird uns daher nicht (akkurat und präzise) informieren über die Energie im lokal gemessenen Klimasystem. Daher kann sie uns auch nicht, wenn man sie über Regionen und Kontinente kombiniert, (akkurat und präzise) über die Energie im regionalen, kontinentalen oder globalen Klimasystem informieren – nicht quantitativ in Absolutwerten und nicht in Gestalt von Änderungen, Trends oder Anomalie-Trends.

In der AGW-Wissenschaft geht es um das Zurückhalten von Energie im Klimasystem, und die gegenwärtig verwendeten mathematischen Verfahren – bis hinab zum Niveau des täglichen Averages – sind trotz der Tatsache, dass dies alles ist, was wir in der Historie klimahistorischer Aufzeichnungen haben, nicht geeignet, um eine sich eventuell ändernde Energie-Zurückhaltung zu berechnen bis zu irgendeinem Grad quantitativer oder qualitativer Akkuratesse oder Präzision.

Für die Wetterprognostiker mag es ausreichen, diese trügerische Größe als „ausreichend für die Wettervorhersage“ anzusehen. Die Vorhersage von Hurrikanen kann sehr gut mit Temperaturwerten innerhalb einer Genauigkeit von ein oder zwei Grad vorhergesagt werden – solange alles miteinander vergleichbar ist.

Selbst Klimawissenschaftler – jene, die nicht an den Klima-Kriegen interessiert sind – können gut mit Temperaturwerten plus/minus 1 Grad oder so leben – gibt es doch eine Fülle anderer Faktoren, von denen viele wichtiger sind als eine „Average Temperatur“ und die in Kombination das Klima jedweder Region ausmachen.

Nur AGW-Aktivisten bestehen darauf, dass die minimalen Änderungen, die sich aus langzeitlichen Klima-Aufzeichnungen der falschen Parameter ergeben, wahrlich signifikant sind für das Weltklima.

Unter dem Strich:

Die gegenwärtig angewandten Verfahren zur Berechnung sowohl der globalen Temperatur als auch globaler Temperatur-Anomalien stützen sich aus historischen Gründen auf einen Parameter, der in vielfacher Weise ungeeignet ist, um mit Präzision zu bestimmen, ob sich das Klimasystem der Erde infolge Zurückhalten von Sonnenenergie erwärmt oder nicht. Er ist ungeeignet zur Bestimmung der Größenordnung einer solchen eventuellen Änderung und womöglich nicht einmal dazu geeignet, überhaupt das Signal für eine solche Änderung auszumachen. Das gegenwärtige Verfahren misst nicht in angemessener Weise eine physikalische Eigenschaft, welche eine solche Berechnung gestatten würde.

Schlussbemerkungen des Autors:

Das diesem Beitrag zugrunde liegende Thema ist viel einfacher als es aussieht. Die Messungen zur Erstellung einer GAST (Anomalie) und GAST (absolut) – besonders (Tmax+Tmin)/2, egal ob täglich oder monatlich – sind nicht geeignet für eine Berechnung jener globalen Parameter in der Art, wie sie uns von den AGW-Aktivisten-Wissenschaftlern präsentiert werden. Sie werden oftmals herangezogen zu zeigen, dass das Klimasystem mehr Energie zurückhält und sich folglich erwärmt … aber die kleinen Änderungen dieser unpassenden Größe über klimatologisch signifikante Zeiträume können uns darüber nichts sagen, messen sie doch in Wirklichkeit nicht die average Temperatur, nicht einmal die an einer einzelnen Wetterstation. Die zusätzliche Unsicherheit dieses Faktors lässt die Gesamt-Unsicherheit der GAST nebst deren Anomalien bis zu einem Punkt unsicher werden, an dem sie über die gesamte Zunahme seit Mitte des 20. Jahrhunderts hinausgeht. Diese Unsicherheit wird nicht eliminiert durch wiederholtes Glätten und Averaging entweder von absolute Werten oder deren Anomalien.

Ich empfehle der Leserschaft dringend, die immer präsente Hypothese zurückzuweisen, die da lautet „falls wir immer weiter fortfahren, Averages zu mitteln [averaging averages] wird die Variation früher oder später so gering werden, dass sie keine Rolle mehr spielt – egal ob es Fehler, Unsicherheiten oder einfach schlechte Daten sind“. Das führt zu wissenschaftlicher Verrücktheit.

Die Argumentation wäre anders, falls wir tatsächlich genaue und präzise Temperatur-Averages von Wetterstationen hätten. Viele würden immer noch nicht dem Argument zustimmen, dass die Temperaturaufzeichnung allein eine Änderung der Zurückhaltung von Sonnenenergie anzeigen kann. Die in das System eintretende Energie wird nicht wie von Zauberhand automatisch in der Luft 2 Meter über Grund oder auch an der Oberfläche der Ozeane in fühlbare Wärme umgewandelt. Änderungen der fühlbaren Wärme, gemessen in 2 m Höhe und an der Oberfläche der Ozeane, reagieren nicht notwendigerweise sofort auf eine Zu- oder Abnahme zurückgehaltener Energie im Klimasystem der Erde.

Es wird Einwände gegen die Schlussfolgerungen dieses Beitrags geben – aber die Fakten sind so, wie sie sind. Einige werden diese Fakten unterschiedlich interpretieren, verschiedenen Werten verschieden starke Wichtigkeiten zuordnen und unterschiedliche Schlussfolgerungen ziehen. Aber genau das ist Wissenschaft.

Link: https://wattsupwiththat.com/2018/10/02/daily-averages-not-so-fast/




Das Hambach-Urteil: Zum Schaden des Volkes

Von Günther Leudinger

Der Paukenschlag kam am 5.10.2018 mit einer knappen Meldung der Deutschen Presseagentur dpa, in der es heißt: „Im Streit um die geplanten Rodungen im Hambacher Forst hat der Energiekonzern RWE nach Einschätzung des Oberverwaltungsgerichts (OVG) Münster die Notwendigkeit für die Versorgungssicherheit nicht belegt. Der Konzern und die Bezirksregierung Arnsberg als zuständige Behörde hätten nicht durch Tatsachen oder Unterlagen belegt, dass bei einem Rodungsstopp die Energieversorgung bundes- oder landesweit gefährdet sei, hieß es am Freitag in der Begründung der OVG-Entscheidung“.

 

Diese Entscheidung kam nach den zahllosen jahrelangen Rechtsstreitigkeiten, die mittlerweile so gut wie alle im Sinne von RWE und der Landesregierung entschieden worden waren, wie ein Blitz aus heiterem Himmel. Der Schaden für die RWE und die Landesregierung ist immens. Während die Fäkalienwerfer in den Baumhäusern und ihre aus ganz Deutschland zusammengeströmten Unterstützer ein Freudenfest feierten, musste RWE eilig eine Gewinnwarnung herausgeben und befürchtet, in nächster Zeit einen Teil seiner Stromerzeugungskapazitäten stilllegen zu müssen. In Zeitungsmeldungen war von zu erwartenden Verlusten in Höhe mehrerer Milliarden Eurodie Rede. Für die CDU-geführte Landesregierung war es ein PR-Desaster. Doch wie kam es überhaupt zu dieser unerwarteten Entscheidung?

 

Eine richterliche Retourkutsche?

Um dieses Urteil einordnen zu können, sollte man sich mit der Vorgeschichte beschäftigen. Denn erst vor kurzem gab es eine erbitterte Auseinandersetzung zwischen dem jetzt urteilenden Gericht und den NRW-Behörden, und zwar im Fall der Abschiebung des islamistischen Gefährders Sami Ben Mohamed A.Dieser hatte nach Zeugenaussagen Kontakte zu Al Quaida in Afghanistan und betätigte sich in Deutschland als sogenannter Hassprediger. Trotz jahrelanger Bemühungen um Abschiebung gelang es den Behörden aufgrund seiner ständigen juristischen Winkelzüge nicht, ihn loszuwerden. Letzte Stufe der Auseinandersetzung war ein Urteil des Verwaltungsgerichts Gelsenkirchen, welches die bevorstehende Abschiebung extrem kurzfristig untersagte. Dieses Urteil ging bei der Behörde erst ein, als der Flieger bereits weniger als eine Stunde von Tunesien entfernt war. Deshalb wurde der Flug fortgesetzt. Das Oberverwaltungsgericht für das Land Nordrhein-Westfalen verurteilte diese Behördenmaßnahme am 15. August als „offensichtlich rechtswidrig. Die folgende Fehde zwischen dem Oberverwaltungsgericht Münster und den zuständigen Behörden sowohl des Bundes als auch des Landes NRW wurde mit großer Erbitterung geführt. Sami A. konnte jedoch trotz richterlicher Weisung bisher nicht zurückgeholt werden. Es ist nicht auszuschließen, dass dies beim OVG Münster zu einem gewissen Groll gegenüber der Landesregierung führte. Immerhin waren die dort tätigen Richter seit Jahrzehnten unter einer SPD-geführten Regierung berufen worden, während die jetzige Regierung bekanntlich von der CDU geführt wird.

 

Sind unsere Richter wirklich unabhängig und neutral?

Im Prinzip sind Richter in unseren Rechtsstaaten nur dem Gesetz verpflichtet und verhalten sich parteipolitisch ebenso wie gesellschaftspolitisch neutral. Doch die Realität sieht offenkundig anders aus, wie nicht zuletzt die erbitterten Auseinandersetzungen in den USA um die Berufung von Brett Kavanaugh zum Richter im Obersten Gericht belegen. In Deutschland geht es zwar im Ton gesitteter, doch in der Sache dennoch knallhart ebenfalls um Einflussnahme der berufenden Gremien, in denen die jeweils führenden politischen Parteien das Sagen haben. Dies wird selbst von Richtern offen bemängelt, wie das folgende Wikipedia-Zitat belegt: „Das Richterwahlverfahren wird immer wieder kritisiert, insbesondere wird die mangelnde Transparenz des Verfahrens bemängelt und dass bei der Wahl neben der fachlichen Qualifikation auch die parteipolitische Ausrichtung der Kandidaten eine Rolle spiele. Dementsprechend forderten z. B. die Präsidenten der Oberlandesgerichte und des Bundesgerichtshofs auf ihrer Jahrestagung 2002 unter anderem, dass die Bundesrichter in einem transparenten Verfahren ausschließlich aufgrund ihrer persönlichen und fachlichen Eignung zu berufen seien. Der ehemalige BundesverfassungsrichterBöckenfördespricht von „Parteipatronage“ und „personeller Machtausdehnung der Parteien“. Der Einfluss der Exekutive ist sogar so stark, dass in der gleichen Qualle ausgeführt wird, dass: „Deutschland,…wäre es nicht schon Kernland der EU, ein problematischer Beitrittskandidat“ wäre. Und weiter: „Die Bundesvertreterversammlung des Deutschen Richterbundes(DRB) forderte am 27. April 2007, der Justiz die Stellung zu verschaffen, die ihr nach dem Gewaltteilungsprinzip und nach der im Grundgesetz vorgesehenen Gerichtsorganisation zugewiesen ist. Die Unabhängigkeit der Justiz werde zunehmend durch den Einfluss der Exekutive eingeschränkt“.

 

Missachtung wirtschaftlicher Aspekte

Juristen haben in unserer Gesellschaft das Privileg, sich nicht mit den wirtschaftlichen Konsequenzen ihrer Entscheidungen herumplagen zu müssen. Das geflügelte Wort hierfür lautet „Judex non kalkulat“ – der Jurist rechnet nicht. Worauf diese auch stolz sind. Was dann aber dazu führen kann, dass ein Gericht die Ausführungen eines Konzerns bezüglich der wirtschaftlichen Notwendigkeit einer Maßnahme wie der Abholzung des Hambacher Forsts souverän einfach beiseite wischt. Und sei es nur aus dem Grund, dass sie keine Vorstellung davon haben, was es heißt, eine so komplexe Unternehmung wie ein Kraftwerk mit direkt angeschlossenem Tagebau zu betreiben. Im Falle des oben angesprochenen Urteils ist es nicht auszuschließen, dass die zuständigen Richter in der Angelegenheit eine willkommene Gelegenheit gesehen haben könnten, einer ungeliebten neuen Landesregierung eins auszuwischen. Über die Konsequenzen für die Firma und das Bundesland braucht man sich in diesen Kreisen nicht den Kopf zu zerbrechen. Unterstellt man die bereits erwähnte Schadenshöhe von bis zu 5 Mrd. Euro, so könnte dieser Richterspruch jeden Einwohner von NRW – vom Säugling bis zur Greisin – rund 280,- Euro kosten. Von Arbeitsplatzverlusten gar nicht zu reden. Judex non kalkulat.

 




Deutschlands wirtschaftliches Rückgrat leidet unter steigenden Energiepreisen

Das ökonomisches Rückgrat in Deutschland, der so genannte Mittelstand, wird von Strompreisen, die nicht nur schon jetzt zu den höchsten in Europa zählen, sondern immer noch steigen, langsam aus dem Geschäft gedrängt (siehe Grafik).

Seit Jahrzehnten wird wirtschaftliche Hegemonie zugunsten Deutschlands vermutet. Die zerstörerischen Kosten der Energie bedrohen jetzt ernsthaft die Vorherrschaft als ein industriell starkes Land. Es hat bereits zu Armut an elektrischer Energie geführt, Hunderttausende von Deutsche, die sich keinen Strom mehr leisten können, wurden vom Netz getrennt.


Deutschlands wirtschaftliches Rückgrat leidet unter steigenden Energiepreisen

Bloomberg; William Wilkes und Brian Parkin; 24. September 2018

Ein Stahlhersteller in Nordwest-Deutschland hat die althergebrachte Beleuchtung zugunsten von LEDs gewechselt, Mitarbeiter basteln an ihren Maschinen, um sie effizienter zu machen und organisierten Schulungen, um den Arbeitern und Angestellten beizubringen, wie man Energie spart.

Durch das ganze Land machen tausende Unternehmen dasselbe, um die Auswirkungen der seit 2016 verdoppelten Stromkosten zu mildern. Diese kleineren, oft familiengeführten Unternehmen werden gemeinsam als Mittelstand bezeichnet und bilden entscheidende Glieder in den Lieferketten der größten deutschen Unternehmen. Sie bieten fast 20 Millionen Menschen Arbeit und Einkommen und produzieren mehr als die spanische Wirtschaft.

Handelspreise an der Strombörse

Wenn der Mittelstand leidet, hustet Deutschland. Und doch haben die kleineren Unternehmen zusammen mit den Haushalten die Hauptlast der Energiepolitik von Bundeskanzlerin Angela Merkel zu tragen, die ihnen höhere Stromrechnungen zur Rettung der Welt vor den CO2-Emissionen auferlegt hat. Während 2.000 Konzernriesen wie die Volkswagen AG und der Chemiekonzern BASF SE eigene Kraftwerke haben und von Umwelttarifen befreit sind, zahlen kleinere Unternehmen mehr, um diese Kosten zu tragen.

„Wir versuchen ständig, die Energieeffizienz zu verbessern“, sagte Klaus Schmidtke, Sprecher der Georgsmarienhütte GmbH, die 1.000 Mitarbeiter beschäftigt und Stahlteile an die Volkswagen AG liefert. „Aber um offen zu sein, wir können die steigenden Strompreise nicht ausgleichen.“

Großhandels-Stromtarife steigen in ganz Europa, und abgesehen davon, dass sie versuchen weniger zu verbrauchen, gibt es wenig, was Unternehmen dagegen tun können. Der Anstieg ist auf die sprunghaft gestiegene Nachfrage nach Kohle in China und Erdgas in Japan zurückzuführen. Und die Globalisierung des Energiemarktes, verzehrt die Unterstützung für Merkels Übergang von der Kohle zu sauberer Energie.

Die Energierechnungen für den Mittelstand stiegen bereits vor dem diesjährigen Anstieg der Großhandelspreise. Die Unternehmen, zusammen mit den Haushalten, mussten bereits mehrere hunderte Milliarden Euro aufbringen, um Merkels Übergang zu einer Wirtschaft zu finanzieren, die hauptsächlich aus Solar- und Windenergie besteht. Dadurch wurden sie gegenüber Konkurrenten von China bis USA und anderen europäischen Länder benachteiligt.

Die Subventionen für Solar- und Windprojekte sowie eine Reihe von Umweltsteuern zur Senkung der Emissionen haben die deutschen Strompreise für private und gewerbliche Verbraucher in der Europäischen Union zusammen mit Dänemark zu den teuersten gemacht.

Zum Vergleich können auch die Kosten für den Strom einer 10-Watt-Lampe an drei Stunden pro Tag auf ein Jahr dienen.

Die steigenden Kosten zwingen mittelständische Unternehmen, die fast alle einen Umsatz von weniger als 1 Million Euro haben, für teure, energieeffiziente Ausrüstung tief in die Tasche zu greifen und die Preise für Lieferanten für mehrere Jahre abzusichern. Einige fangen sogar an, ihren eigenen Strom zu produzieren, während andere die Produktion ins Ausland verlagern, um mit chinesischen, südkoreanischen und US-amerikanischen Konkurrenten mithalten zu können, welche viel weniger für Strom bezahlen.

„Die Beeinträchtigung der Wettbewerbsfähigkeit ist besonders schwerwiegend für kleine und mittlere Unternehmen“, sagte Eric Schweitzer, der Präsident der deutschen Handelskammer, per E-Mail.

Die steigenden Stromkosten drohen die Unterstützung für Merkels Energiewende zu unterminieren, wobei ihre Regierung verlorenes Terrain auf dem schleppenden Weg zu ihren Emissionsreduktionszielen für 2020 gut machen will. Nach einer Studie des Mittelstands der DZ Bank sind ein Drittel der Unternehmen der Meinung, dass die Strompreise eine Bedrohung für ihr Geschäft darstellen.

Vom Großhandelsmarkt gebeutelt, suchen die Mittelständler andere Wege zu gehen. Einige haben sich gegen höhere Energiekosten durch den Kauf von Futures-Kontrakten an der European Energy Exchange AG [EEX Strombörse] abgesichert, sagte Wolfgang Hahn, Gründer von ECG-Consulting, der deutsche Unternehmen bei der Senkung der Energiekosten berät.

Andere treten in die Fußstapfen des Osnabrücker Stahlwerks, indem sie kräftig in energieeffizientere Maschinen, Beleuchtung und Ausbildung investieren, sagte Hahn. Rund ein Drittel der Unternehmen hat steigende Kosten an ihre Kunden weitergegeben, aber damit die Nachfrage nach Made in Germany-Produkten reduziert, so die Handelskammer Leipzig.

„Das Problem ist oft, dass man so schnell keine Ergebnisse sieht“, sagte Hahn. „Unternehmen werden extrem nervös, dass sie nicht so schnell Geld sparen können, wie die Preise steigen.“

Die deutsche Interessenvertretung für Glasmacher hat den Mitgliedern geraten, „jedes Kilowatt“ Energie zu sparen. Trotzdem seien alle tief hängenden Früchte bereits gepflückt worden, sagte Generaldirektor Johann Overath. „Die Branche produziert jetzt an den Grenzen dessen, was in Sachen Stromsparen möglich ist.“

„Und wenn die Strompreise weiter steigen, könnten viele Unternehmen zur Schließung gezwungen werden“  sagte Utz Tillmann, Sprecher der Energie Intensiven Industrie Deutschlands: „Das würde die engmaschigen Lieferketten der deutschen Industrie zerstören“.

 ***

Dabei bedeuten steigende Preise nur einen Teil der Kopfschmerzen für den Mittelstand.

Der deutsche Inlandsgeheimdienst hat immer wieder davor gewarnt, dass das wertvolle geistige Eigentum von mittelständischen Unternehmen, Opfer von Hackerangriffen geworden ist und die Unternehmen dazu gezwungen waren, massiv in Cyber-Sicherheit zu investieren. Weiterhin hat der rekordhohe Wirtschaftsboom in Deutschland, auch zu einem Fachkräftemangel bei Ingenieuren geführt, was bedeutet, dass Unternehmen mehr Gehalt für ihre Mitarbeiter zahlen müssen, was ihre Wettbewerbsfähigkeit weiter schmälert.

Eine weitere Bedrohung ist Pekings Plan für „Made in China 2025″, zur Unterstützung seiner eigenen Staatsunternehmen zur Beherrschung von fortgeschrittenen Fertigungsbereichen.

Bloomberg

Gefunden auf Stopthesethings vom 04.10.2018

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2018/10/04/renewables-reckoning-german-business-being-throttled-by-rocketing-power-prices/




Wissenschaft­liche Korruption mit der Wurzel ausreißen

Jüngste Entwicklungen zeigen, dass Reformen in der Luft liegen, aber es bleibt noch viel zu tun, besonders bzgl. Klima.

Unzählige Dollar-Milliarden an Steuergeldern in Gestalt an Zuwendungen für Unternehmen (und folglich die Verbraucher) haben Forschung gefördert und Löhne aufgebläht, wobei Universitäten rund 40% abschöpfen für „Übersicht und Aufwand“. Anreize und Versuchungen allerorten.

Viel zu viele Forscher haben sich derartigen Praktiken viel zu lange verschrieben. Viel zu viele ihrer Kollegen führen schlampige, begünstigende oder verlogene Begutachtungen durch. Viel zu viele Universitäten und andere Institutionen sind diesem Weg gefolgt. Viel zu oft ernten jene, die diesen Weg gehen, Ruhm und Glück. Viel zu viele verdächtige Ergebnisse wurden herangezogen um Unternehmen anzugreifen oder gerichtlich zu belangen oder um kostspielige politische Maßnahmen auf den Weg zu bringen.

Ein gutes Beispiel hierfür ist Glyphosat.

Massenschäden-Klage-Industrie gewinnt den Jackpot

[Original: Mass-tort lawsuit industry hits the jackpot]

Es half der Mass-tort lawsuit industry, den Jackpot zu gewinnen, als eine Jury in San Francisco einem Platzwart im Ruhestand 289 Millionen Dollar Ausgleichs- und Schmerzensgeld zugesprochen hatte – wegen seiner Behauptung, dass seine Erkrankung des Lymph-Systems entstanden ist, weil er Glyphosat ausgesetzt war. Viele ähnliche Gerichtsverfahren stecken jetzt in der Pipeline.

Die potentiellen Auswirkungen auf die chemische Industrie und die konventionelle Landwirtschaft weltweit sind noch gar nicht abzusehen.

Aber noch viel schlimmere Auswirkungen zeitigen die Forschungen, um die These des „gefährlichen menschengemachten Klimawandels“ voranzutreiben – dienst diese doch als Grundlage für Forderungen an uns, fossilen Treibstoffen zu entsagen, welche 80% des Energiebedarfs in den USA und weltweit decken – und sie zu ersetzen durch teure, unzuverlässige, pseudo-erneuerbare Alternativen.

Die infame „Hockeyschläger“-Temperaturgraphik

Es ist eine positive Entwicklung, die vielleicht eine Aufarbeitung im Cornell-Stil [?] ankündigt, dass nach sieben langen Jahren des Mauerns und der begünstigenden Gerichtsurteile die University of Arizona schließlich entschieden hat, der Free Market Environmental Law Clinic die E-Mails und anderen, vom Steuerzahler finanzierten Aufzeichnungen zu übergeben, die man schon im Jahre 2011 angefordert hatte. Die Dokumente beziehen sich auf die infame Hockeyschläger-Temperaturgraphik, in welcher versucht wurde, die Mittelalterliche Warmzeit und die Kleine Eiszeit aus der Historie verschwinden zu lassen, in welcher Machenschaften zur Beeinflussung eines IPCC-Berichtes sowie Bemühungen aufgedeckt wurden, nicht-alarmistische Studien von wissenschaftlichen Journalen fernzuhalten, und andere raffinierte Tricks.

Während juristische Belange des öffentlichen Zugangs zu wissenschaftlichen Ergebnissen sehr ähnlich anderen Fällen nach dem FOIA im Jahre 2010 folgten, nahm das Gericht in der Causa Virginia/Penn State University eine ganz andere Wendung. Jener Gerichtshof fällte das absurde Urteil, dass der Alarmisten-Forscher Dr. Michael Mann seine Daten, Verfahren und E-Mails als sein persönliches, intellektuelles Eigentum behandeln darf – unerreichbar für jeden außerhalb des inneren Zirkels um Mann – obwohl seine Arbeiten ausschließlich vom Steuerzahler finanziert waren und obwohl diese Daten als Grundlage herangezogen wurden, das „endangerment finding” und den Krieg gegen die Kohle zu rechtfertigen, was in der Folge den Lebensstandard aller Amerikaner beeinträchtigte.

Engagement in fragwürdige, geheimniskrämerische, unverantwortliche Wissenschaft

Wissenschaftliche Debatten sollten ausschließlich in akademischen, wissenschaftlichen und öffentlichen politischen Arenen geführt werden und nicht vor Gericht, wie etwa 800 Wissenschaftler bei der Verteidigung der Mann’schen Wissenschaft vorbrachten. Allerdings ist das nicht möglich, wenn es die in Frage kommenden Wissenschaftler ablehnen, sich derartigen Debatten zu stellen; wenn sie ihre Daten, Computerprogramme, Algorithmen und Verfahren zurückhalten; wenn sie sich in fragwürdiger, geheimniskrämerischer, unverantwortlicher Wissenschaft engagieren.

Wir, die wir diese Forschung bezahlen und zum Opfer schlampiger, ungeeigneter oder betrügerischer Arbeit werden, haben das klare und unabdingbare Recht, darauf zu bestehen, dass Wissenschaft ehrlich und korrekt durchgeführt wird. Und dass die Daten, Verfahren und Arbeitsergebnisse der Wissenschaftler öffentlich sind und für Analysen und Kritik zur Verfügung stehen. Und dass sich die Forscher robusten Debatten stellen mit anderen Wissenschaftlern und Kritikern. Es gleicht dem fundamentalen Recht, Zeugen in einem Zivil- oder Strafprozess ins Kreuzverhör zu nehmen, Inkonsistenzen aufzudecken, Glaubwürdigkeit zu erlangen und die Wahrheit zu bestimmen.

Wissenschaftler, welche diese grundlegenden Prinzipien verletzen, sollten nicht weiter finanziell gefördert werden.

Stattdessen haben wir jetzt eine erneuerbare Energie/Klimakrise-Industrie im Wert von fast 2 Billionen Dollar pro Jahr. Diese achtet peinlich, eifernd und eifersüchtig auf ihr Territorium und attackiert jeden, der es wagt, heikle Fragen zu stellen – wie die Folgenden:

Welche wirklichen, nachvollziehbaren Beweise in der realen Welt gibt es, um überzeugend zu demonstrieren, dass…:

●… man jetzt relativ geringe menschliche Einflüsse von den vielen mächtigen natürlichen Kräften unterscheiden kann, welche immer Klimawandel getrieben haben?

●… Treibhausgase jetzt das Klima kontrollieren und dass die Sonne und andere Kräfte nur eine geringe Rolle spielen?

●… die Erde derzeit bedeutende und beispiellose Änderungen bzgl. Temperatur, Eiskappen, Meeresspiegel, Hurrikane, Tornados und Dürren erlebt?

●… diese Änderungen katastrophal sein werden und den Verbrauch fossiler Treibstoffe seitens der Menschheit als Ursache haben?

●… ihre Computermodelle die Bedingungen der realen Welt genau prognostiziert haben, die wir heute messen?

●… Wind, Solar und Biotreibstoffe fossile Treibstoffe ersetzen können, um moderne Industrie-Ökonomien zuverlässig mit Energie zu versorgen und den Lebensstandard erhalten, dass Güter ohne fossile Treibstoffe hergestellt, transportiert und installiert werden können, dass sie „nachhaltig“ sind bis in absehbare Zukunft und dass sie keine schädlichen Auswirkungen auf Wildnis, Habitate, Luft und Wasser haben?

Alarmistische Klimakrisen-Wissenschaftler fordern und/oder helfen zu rechtfertigen radikale, transformative, destabilisierende und destruktive Änderungen unserer Energie-Infrastruktur, unserer Ökonomie, unseres Lebensstandards – und sie hindern die Ärmsten der Erde daran, die Energie zur Verfügung zu haben, die sie zur Verbesserung ihres Gesundheitszustandes und Lebensstandards unabdingbar brauchen. Darum obliegt ihnen eine sehr hohe Beweislast, dass sie recht haben. Sie müssen gezwungen werden, solide Beweise vorzulegen und sich robusten Debatten stellen bis hin zu Kreuzverhören.

Man darf ihnen nicht länger erlauben, materielle Beweise, E-Mails oder Konversationen zurückzuhalten, welche Interessenkonflikte, geheime Absprachen, Korruption, Datenmanipulation oder -verfälschung sowie andere substantielle Probleme offenlegen.

Inzwischen ist ein Punkt erreicht, an dem fast alles, was passiert, fossilen Treibstoffen, Kohlendioxid, anderen Treibhausgasen und jenen in die Schuhe geschoben wird, welche „die Realität eines (katastrophalen, vom Menschen verursachten) Klimawandels in Frage stellen“.

Die Behauptungen reichen inzwischen von implausibel bis lächerlich: Die Erde ist zum Untergang verurteilt, falls entwickelte Länder nicht bis zum Jahr 2020drastisch ihre Emissionen reduzieren; das arktische Eis wird verschwinden; Buschbrände werden immer häufiger und tödlicher; mehr Menschen werden durch einen Herzschlag sterben; die Hurrikane Harvey und Irma haben menschliche Aktivitäten als Ursache; Präsident Trump verursachte mit seinem Rückzug aus dem Paris-Abkommen den Hurrikan Florence (hier); Pflanzen in der Arktis werden zu groß; der Kaffeeanbau wird in vielen Ländern unmöglich; die Erde wird zu einer zweiten Venus; Schweine werden immer dünner; schmackhafte Gerichte wie Fischsuppe (cioppino) werden ein Ding der Vergangenheit. Und es gibt eine scheinbar endlose Liste mit behaupteten weiteren, noch viel absurderen, vom Menschen verursachten Katastrophen.

Der Kongress und die Trump-Regierung wollen ordentliche Wissenschaft und eine informierte Gesellschaft sicherstellen, Betrug und Korruption ausmerzen sowie „den Sumpf trockenlegen“. Falls sie das ernst meint, wird sie alle notwendigen Schritte unternehmen sicherzustellen, dass keine Universitäten oder andere Institutionen auch nur noch einen Cent Steuergeld bekommen, solange sie die hier vorgeschlagenen Änderungen nicht implementieren. Die Klima-Krise-Korruption wäre ein sehr guter Anfang damit!

Paul Driessen is senior policy analyst for the Committee For A Constructive Tomorrow and other think tanks, and author of books and articles on energy, climate change and economic development.

Link: https://www.iceagenow.info/rooting-out-scientific-corruption/

Übersetzt von Chris Frey EIKE