Klimachaos-Behaup­tungen lösen weiter­hin Betroffen­heit aus

Die Vorwürfe lesen sich phasenweise, als ob sie von einem Monty Python Comedy Team und ein paar Jurastudenten im ersten Semester geschrieben worden sind. Die beklagten Unternehmen sollen „konspiriert“ haben, um gefährliche Treibstoffe herzustellen, heißt es in der Klageschrift, und sie sollen dabei „dem Drehbuch von Big Tobacco“ gefolgt sein, während sie „Leugner-Gruppen“ finanzieren, damit diese die „etablierte“ Klimawissenschaft in Frage stellen, die „beispiellosen“ Risiken der vom Menschen verursachten globalen Erwärmung „herunterspielen“ sowie „unbegründete Angriffe gegen die Integrität“ führender „Konsens“-Wissenschaftler führen.

Und weiter: „Farbige Personen“ und andere „sozial verwundbare“ Individuen werden am stärksten betroffen sein. (Dabei dürften diese Personen viel mehr durch die Klimapolitik geschädigt werden, treibt diese doch die Preise von Energie und Nahrungsmitteln hoch).

Die Anwälte von Oakland greifen scharf den Astrophysiker Wei Hock „Willie“ Soon an, weil er die unverzeihliche Sünde begangen hat zu fragen, ob nicht die Sonne irgendetwas mit Klimawandel zu tun hat. Sie bekamen nicht einmal seinen Ph.D. richtig hin. Sie nennen ihn „Raumfahrt-Ingenieur“ und behaupteten, dass er persönlich der Empfänger von 1,2 Millionen Dollar sei, die in Wirklichkeit an die Harvard University geflossen sind (dies geht eindeutig aus vielen, leicht zugänglichen Dokumenten hervor).

Sie erwähnen nicht einmal ansatzweise die Milliarden Dollars der Steuerzahler, welche Jahr für Jahr unter Forscher und Aktivisten aufgeteilt worden sind, welche die alarmistischen Standpunkte bzgl. globale Erwärmung und erneuerbare Energie vorantreiben.

Oakland und seine Mitstreiter erwarten, dass der Gerichtshof ihre Behauptungen eins zu eins akzeptiert als „etablierte“ Wissenschaft. Es bestehe ihnen zufolge kein Bedarf, Beweise aus der realen Welt als Stützung dieser Behauptungen zu präsentieren. Sie betonen allen Ernstes besonders, dass steigende Meeresspiegel und die daraus folgende „unmittelbare Bedrohung durch katastrophale Flutwellen“, welche von Computermodellen „projiziert“ werden, jetzt via fossile Treibstoffe der primäre oder alleinige Treiber des Klimawandels sind, welche die Sonne, kosmische Strahlen, Meeresströme und andere mächtige Naturkräfte ersetzt haben, welche „zuvor“ für Klimawandel verantwortlich waren.

In ihrer Klage gegen fünf große Ölunternehmen ignorieren sie die Tatsache, dass die Unternehmen nur sehr wenig des Treibstoffes verbrennen, den sie erzeugen. Es sind die Stadtregierungen der Kläger und deren Wähler, welche nur zu glücklich waren, seit über einem Jahrhundert Öl und Erdgas zu verbrennen, um ihre Autos zu fahren, um zu heizen, kühlen, beleuchten sowie ihre Büros und Wohnungen zu erleuchten und zu elektrifizieren – und überhaupt erst ihre Industrie, ihre Kommunikation, Gesundheit und Lebensstandards ermöglichten.

In dem Prozess sind sie es, die das Pflanzen düngende CO2 erzeugt haben, welches vermeintlich die Ursache der beispiellosen globalen Erwärmung sein soll, die Ursache schmelzender Eiskappen und steigender Meeresspiegel. Kohlenwasserstoffe befeuern auch die unabdingbaren Stromgeneratoren der Wind- und Solareinrichtungen in Kalifornien – und liefern Rohmaterialien für Stoffe, Plastik, Gemälde, Pharmaprodukte und zahlreiche andere Erzeugnisse, welche die Kläger jeden Tag nutzen.

Genauso problematisch für die Kläger ist, dass die „etablierte Konsens“-Wissenschaft, die sich wie ein roter Faden durch die gesamte Klageschrift und die Aussagen vor Gericht zieht, immer unsicherer und immer hitziger debattiert wird. Der Wissenschaftler am Heartland Institute Joe Bast weist darauf hin, dass selbst das IPCC höchstselbst inzwischen zahlreiche Zweifel und Unsicherheiten einräumt hinsichtlich der Rate des Meeresspiegel-Anstiegs, der Rolle von CO2, den Ursachen und der Dauer des „Stillstands“ der globalen Erwärmung, welcher inzwischen schon 23 Jahre andauert. Tatsächlich ist die Temperaturspitze des starken El Nino 2015/16 weitgehend wieder verschwunden, und Ozean und Atmosphäre kühlen sich wieder fortgesetzt ab.

Die Ölunternehmen haben sich entschlossen, gar nicht so viel Klimawissenschaft in dem Verfahren heranzuziehen. Allerdings haben Lord Christopher Monckton, Will Happer, Richard Lindzen und deren Kollegen Fragen angesprochen über Gleichgewichts-Klimasensitivität [auf Deutsch beim EIKE hier] und damit zusammenhängende Dinge, und zwar in Sachverständigen-Gutachten für das Gericht.

Die Behauptung von Oakland, der zufolge die Ölunternehmen „konspirierten“, um „die Wissenschaft“ zu globaler Erwärmung und Klimawandel zu verstecken und falsch darzustellen, steht auf sehr dünnem Eis. In einigen Berichten heißt es, dass Richter Alsup diese Behauptungen zurückwies oder urteilte, dass die Kläger keinen Beweis dafür erbringen konnten, dass es eine Konspiration gab. In jedem Falle wird es eine Entscheidung zu all dem geben, die verlierende Partei wird Revision einlegen, und der ganze Fall wird wahrscheinlich vor dem obersten US-Gerichtshof landen.

Inzwischen verursachen Klimachaos-Behauptungen in einigen Kreisen weiterhin Betroffenheit. Zu viel Geld, Macht, Prestige, Kontrolle und Wohlstands-Umverteilung steht auf dem Spiel, so dass kaum ein anderer Weg denkbar ist.

Tatsächlich nutzen Viele in dem Klima-industriellen Komplex im Wert von 1,5 Billionen Dollar pro Jahr diesen Fall (und gleichermaßen dehnbare Mantras von „Nachhaltigkeit“), um den Kapitalismus freier Märkte durch eine totalitäre Eine-Welt-Regierung zu ersetzen; fossile Energie und Kernkraft (welche zur Zeit 85% der verbrauchten Energie in den USA und global ausmachen) durch teure, Land fressende Wind-, Solar- und Bioenergie zu ersetzen sowie die Hoffnungen und Träume armer Menschen auf der ganzen Welt durch eine Politik zu zerschlagen, die es nur in sehr geringem Umfang gestattet, dass sich deren Lebensstandard verbessert.

Tatsächlich versteigen sich die Klimawandel-Chaoten dazu, nicht nur Kohlendioxid und Methan für eine runaway-globale Erwärmung verantwortlich zu machen, sondern auch Asthma-Inhalatoren und Fleischdiäten. Die Folgen hiervon sind nicht nur steigender Meeresspiegel, wärmeres und kälteres Wetter, nassere und trockenere Zeiten, Waldbrände, nicht existierendes Massenaussterben und anderen oftmals erwähnte Pseudo-Kataklysmen. Auch kleiner werdende Tiere, eine immer schlimmere Drogenkrise sind enthalten, ebenso wie die endlose Litanei oftmals erheiternder Beschwerden und Katastrophen, gelistet in The Warmlist und deren video counterpart.

Die „Lösung“ besteht nicht darin, die fossile Treibstoffe einfach im Boden zu lassen. Sie besteht auch in der Akzeptanz ausgeprägter Änderungen des Lebensstils sowie des Verzehrs klimafreundlicher Insekten (gilt nicht für die herrschenden Eliten, sondern nur für uns Normalverbraucher).

Und die wirklichen Auswirkungen der Furcht vor dem Klima-Kataklysmus sind nicht nur immer höhere Preise für immer weniger, unzuverlässigeren, das Netz destabilisierenden „grünen“ Strom. Darunter sind auch die Notwendigkeit Abenteurer zu retten, welche versuchen, über das vermeintlich schmelzende Eis in Arktis und Antarktis zu segeln, mit Motorschlitten zu fahren oder zu wandern – nur um dann gerettet werden zu müssen, weil sie gestrandet sind, Frostbeulen davontragen und ihre Schiffe in rapide gefrierendem Eis festsitzen.

Was also sollen die strammen Statthalter der Klimakatastrophe tun, wenn Temperaturen und Meeresspiegel es ablehnen, den Reden Al Gores sowie „Projektionen“ von Computermodellen und „Szenarien“ zu folgen? Oder wenn Vorhersagen über immer mehr Hurrikane eine rekordlange Zeit von 12 Jahren folgt, ohne dass irgendein Sturm der Kategorie 3 bis 5 auf das US-Festland übergreift?

Eine Strategie besteht darin, Diskussionen mit allen abzulehnen, welche die düsteren Hypothesen, Daten oder Schlussfolgerungen hinterfragen. Eine andere Strategie ist es, Originaldaten zu „homogenisieren“, zu „korrigieren“ und zu manipulieren, damit die Temperaturen der Dust Bowl-Ära [= die dreißiger Jahre im vorigen Jahrhundert in den USA, Anm. d. Übers.] nicht so warm daherkommen – und damit die langen und bitterkalten Winter der letzten Jahre nicht so kalt erscheinen. Zu diesem Zweck wurden Aufzeichnungen lokaler Temperatur-Messpunkte um bis zu 1,7 Grad Celsius adjustiert (hier).

Was die zahlreichen Artikel und Studien betrifft, welche bei WattsUpWithThat.com, DrRoySpencer.com, ClimateDepot.com, ClimateChangeReconsidered.org und anderen Sites veröffentlicht werden, welche sich auf Klimastudien und Forschungen auf der Grundlage von beweisen konzentrieren und welche Behauptungen wie jene in Frage stellen, auf welche sich die Klage von Oakland stützt – die immer häufiger ergriffene Strategie besteht darin, Algorithmen und andere Taktiken anzuwenden, um entsprechende Arbeiten ganz an das Ende von Suchmaschinen-Anfragen zu stellen. Lange Listen alarmistischer Behauptungen, Artikel und Perspektiven erscheinen zuerst, es sei denn, ein Student oder ein anderer Forscher gibt sehr spezifische Suchbegriffe ein. Selbst die großen Schwachpunkte von Windenergie [auf Deutsch beim EIKE hier] sind schwer zu finden, wenn man nicht ganz genau weiß, wonach man sucht.

Google, Facebook, You Tube und andere Such- und Sozialmedien scheinen sich zu Schiedsrichtern aufgeschwungen zu haben, zu welchen Fakten und Realitäten wir Zugang haben dürfen, was unsere Kinder lernen sollen. Sie helfen dabei, Wissenschaftler zu stigmatisieren und zu schikanieren, deren Forschungen oder Standpunkte nicht zu akzeptierten linken Perspektiven passen. Sie haben sogar professionelle Werbeträger engagiert, um die Reden politischer Gegner zu kontrollieren.

Und all das seitens der Champions der freien Rede, von Toleranz, Diversität und Inklusion. Nicht vergessen:

Es geht nicht darum, ob sich unser Planet erwärmt oder ob sich Wetter und Klima ändern. Es geht darum, welche Ursachen diese Fluktuationen haben, wie viel davon auf fossile Treibstoffe und wie viel auf natürliche Kräfte zurückgeht, und darum, ob irgendwelche kommenden Änderungen genauso katastrophal sind, wie es durch natürliche Kräfte in der Vergangenheit schon oft vorgekommen ist (man stelle sich einmal vor, wie es unseren Städten, Bauernhöfen und der Menschheit gehen würde, falls es zu einer weiteren Pleistozän-Eiszeit kommen sollte).

All dies unterstreicht wieder einmal, warum Amerika und die ganze Klimawissenschaft ein „Red Teams“ braucht, mehr Klima-Bildung auf der Grundlage von Beweisen und eine Umkehr der willkürlichen, von Obamas EPA in den Raum gestellten Behauptung, wonach Kohlendioxid-Emissionen irgendwie das menschliche Wohlergehen und den Wohlstand gefährden.

Paul Driessen is senior policy analyst for the Committee For A Constructive Tomorrow (www.CFACT.org) and author of books and articles on energy and environmental policy.
Link: https://www.iceagenow.info/climate-chaos-claims-continue-causing-consternation/
Übersetzt von Chris Frey EIKE




Das Märzen­veilchen blüht dieses Jahr erst im April – Wo ist die Klima­erwärmung?

Somit habe ich einen guten Erinnerungsvergleich. Eine Klimaerwärmung – gäbe es sie überhaupt – hätte zwangsläufig zu einer Verfrühung der Josefsveilchenblüte der letzten 60 Jahre führen müssen. Stellen wir uns die Frage: Wann haben diese auch Duftveilchen genannten blauen Frühlingsboten 2018 geblüht?
Als Vergleich wähle ich in meinem Heimatort jedes Jahr zwei Standorte, in meinem Garten am Ortsrand, und knapp außerhalb des Ortsrandes an einem stark geneigten Südhang.
(siehe Abbildung oben!)
Ergebnis: Am 30.März, also am Karfreitag erschienen blaue Knospen und vereinzelte Blüten, es kann somit keinesfalls in den letzten 60 Jahren wärmer geworden sein, denn auch letztes Jahr, im angeblich wärmsten März aller Zeiten in Deutschland, war die Blüte dieses Strauches auch erst am 24. März und nicht am 19. März.
Zur Geschichte: Dieses blaue Frühlings-Anzeige-Blümlein heißt seit 300 Jahren so, weil es seit 300 Jahren den März kennzeichnet. März ist, wenn die Märzenveilchen blühen. Wäre es vor 300 Jahren kälter gewesen als momentan, dann hätten es unsere Vorfahren Aprilveilchen oder Osterveilchen getauft. Das ist aber nicht so. Es blüht seit 300 Jahren, wenn der März kommt, mal früher oder später und deshalb wird es im Volksmund so genannt.
Und dieses Jahr 2018: Dieses Jahr ist es eindeutig ein Aprilveilchen. Nicht einmal Osterveilchen wäre gerechtfertigt. Denn außerhalb meines Gartens in der freien Landschaft blüht das blaue Veilchen noch später.
Was bestimmt den Blütenbeginn dieses und anderer Frühjahrsanzeiger ?
Nicht nur der Monat März allein ist entscheidend, sondern auch die Temperaturen des Februars wirken mit. Der Februar entscheidet, wie tief der Boden gefroren ist und die Erstblüher wie das Märzveilchen beziehen ihre Nahrungsgrundlage aus dem Wurzelstock.
Wir werfen einen Blick auf die Summe beider Monate und nennen Februar und März zusammen die Vorfrühlingsmonate, sie bestimmen in der Hauptsache den Blütentermin des Märzenveilchens.

Grafik 2: Der zusammengefasste Temperaturverlauf der beiden Vorfrühlingsmonate Februar/März zeigt noch vor der Jahrhundertmitte eine deutliche Abkühlung. Erst zwischen 1982 und 1988 wurde durch einen Temperatursprung das heutige Niveau erreicht. Derzeit befinden wir uns wieder auf dem Niveau wie zur Kaiserzeit des deutschen Reiches. Doch die Messstationen standen damals an ganz anderen, noch kälteren Stationen.


Ein etwas zeitigeres Anzeichen für den Erstfrühling ist der Laubaustrieb der Wilden Stachelbeere, welcher in Weimar seit 1990 am selben, unverändert gebliebenen Standort beobachtet wird. Da er im Mittel schon in den ersten Märztagen erfolgt, sind für ihn die Temperaturverhältnisse der Hochwintermonate Januar und Februar maßgebend:

Grafik 3: Auch der Laubaustrieb der Wilden Stachelbeere hat sich an einem unverändert gebliebenen Standort im Weimarer Schlosspark leicht verspätet, weil der Hochwinter (Januar und Februar) etwas abkühlte.


Wegen der Wärmeinseleffekte betrachten wir die letzten 30 Jahre, auch in diesem kürzeren Zeitraum wurde viel in Deutschland gebaut und der Mensch trägt mit nahezu allen seinen Maßnahmen zusätzlich Wärme in die Landschaft ein. Das gilt auch für Windkraftanlagen und Solarkollektoren. Eine Wärmeinselwärme, die sich stetig fortsetzt und sich in die freie Fläche wärmend reinfrisst. Umso erstaunlicher ist die Grafik für Deutschland.
Vorfrühling in den letzten 30 Jahren: Deutliche Abkühlung in Deutschland.

Grafik 4: Die beiden Vorfrühlingsmonate Februar und März wurden in den letzten 30 Jahren kälter, dabei stehen die Messstationen des Deutschen Wetterdienstes vielfach in ausgesprochenen Wärmeinseln. In der freien Fläche ist die Abkühlung noch stärker als die Trendlinie vorgibt. Deshalb beginnt der Frühling in den Wohnorten später wie 1988 – siehe Trendlinie – auf den Wiesen außerhalb der Städte deutlich später.


Vorfrühlingsverlauf auf dem Lande in den letzten 30 Jahren
Die Wetterstationen des Deutschen Wetterdienstes sind zwar gleichmäßig über Deutschland verteilt, sie stehen aber vorwiegend dort, wo der Mensch lebt und arbeitet, wo also zusätzlich Wärme erzeugt wird. Und kalte Tage im Vorfrühling werden einfach rausgeheizt, die Zeit des Frierens und das Warten auf wärmere Tage gehört aufgrund unseres Wohlstandes der Vergangenheit an.
Auf dem Lande und in der freien Landschaft ist es somit nicht nur kälter, sondern die Trendlinienschere geht immer weiter auseinander. Für Deutschland als Ganzes beträgt die Abkühlung der beiden Vorfühlingsmonate laut Trendlinie der Grafik 3 deutlich über ein Grad in den letzten 30 Jahren. Für das Land, wir wählen die Wetterstation in Neugersdorf in der Oberlausitz ist die Abkühlung der beiden Vorfrühlingsmonate deutlich stärker. Die armen Leute in der Oberlausitz. Ihr Frühling kommt immer später.

Grafik 5: Die beiden Vorfrühlingsmonate Februar/März zeigen in der Oberlausitz eine sehr deutliche Abkühlung. Laut Trendlinie 2 Grad. Logischerweise verspäten sich in Sachsen östlich der Elbe seit 30 Jahren alle Frühlingsblüher.


Ein vorsichtiger Ausblick Richtung April – bessert sich dieser bislang zu kalte Frühling noch?
Wer in Mecklenburg-Vorpommern wohnte, hatte bislang wenig Freude an diesem unterkühlten, schneereichen Frühling 2018. Näheres zum österlichen Schneechaos unter https://www.wetteronline.de/fotostrecken/2018-04-01-sm?part=single . Aber auch im übrigen Deutschland verlief der Lenz bislang zu kalt. Das hatte eine fast dreimonatige Blüte von Winterlingen und Schneeglöckchen zur Folge; beim Haselstrauch gar fast dreieinhalb Monate. Momentan überwiegen die Anzeichen für einen eher milden April, der möglicherweise auch gebietsweise relativ viel Sonnenschein bringt. Das Umfeld der Ost- und Nordsee scheint wegen der niedrigen Wassertemperaturen aber benachteiligt zu sein, denn gehäuft dürften Hochdruckgebiete über Skandinavien auftreten, bei denen dann die Luft von den kalten Meeresflächen landeinwärts weht. Einzelne Kälterückfälle oder Spätfröste sind nicht auszuschließen. Es wird jedoch mit einer merklichen Verringerung des aktuell je nach Region eine bis gut drei Wochen betragenden Vegetationsrückstandes gerechnet. Die Apfelblüte in Weimar dürfte also frühestens um den 25. April 2018 und damit um etwa 5 Tage verspätet beginnen; diese Schätzung ist aber noch sehr unsicher:

Grafik 6: Wegen des tendenziell wärmeren (und sonnenscheinreicheren) Aprils hat sich der Vollfrühlingsbeginn im Gegensatz zum Erstfrühlingsbeginn leicht beschleunigt; der Erstfrühling wurde also etwas kürzer. Die Prognose für den Einzug des Erstfrühlings (Beginn der Apfelblüte) in Weimar am 25. April 2018, das wäre ein mittelspäter Beginn, ist noch sehr unsicher und setzt einen zu warmen April voraus.


Fazit: Dieser Frühling 2018 ist in der freien Fläche stark verspätet im Vergleich zu den letzten 300 Jahren, denn das Märzenveilchen blüht diesmal im April. Entscheidend für das Blühverhalten der Bodenblüher und Gehölze sind die Temperaturen der Monate Februar und März. Wir nennen sie Vorfrühling. Das Märzenveilchen immer am gleichen Standort beobachtet, zeigt die Wahrheit und nicht die aufgewärmten Computerszenarien der Treibhausanhänger.
Zusammenfassung
1) Das Frühjahr 2018 ist vor allem in der freien Fläche stark verspätet. Viele Märzenblüher blühen erst im April.
2) Seit 300 Jahren ist der Frühlingsbeginn etwa gleich geblieben. Das Märzenveilchen blüht wie vor 300 Jahren – das war die kleine Eiszeit – entweder Ende März oder Anfang April wie dieses Jahr.
3) Nur in den Wärmeinseln der menschlichen Ansiedlungen wurde es weniger kälter. Da die Menschen dort wohnen und arbeiten, an kalten Tagen die Heizung aufdrehen, bekommen sie die tatsächliche Klimaabkühlung der beiden Vorfrühlingsmonate nicht mit.
Gesamtergebnis: Eine CO2-gemachte Klimaerwärmung gibt es nicht oder sie ist so unbedeutend, dass die Abkühlungsfaktoren bei weitem überwiegen. Das zeigen nicht nur die Grafiken des Artikels, sondern auch die eigentlichen Märzenblüher. Außer Märzenveilchen sind das noch Huflattiche, Anemonen, Scharbockskraut und Forsythien. Ihre Blütezeit rückt immer mehr in den April. Auch die Krötenwanderung findet inzwischen im April statt. Vor 30 Jahren war diese noch drei Wochen früher.
Es wird Zeit, dass endlich wieder Natur- und Umweltschutz in den Mittelpunkt des politischen Handelns gerückt werden und nicht die 10 oder noch mehr Gebote der Klimakirche mit bestens verdienenden Klimapäpsten und ihren computererzeugten Lügengeschichten.
Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher
Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Oh je – Analyse von GHCN-Klima­stationen zeigt, dass es keine statis­tische Erwärmung – oder Abkühlung – gibt

Man muss diese Studie buchstäblich als eine Begutachtung der Daten auf statistischer Grundlage verstehen. Ich habe eine Statistik entwickelt, um die Daten zu quantifizieren, einzuordnen und zu kategorisieren. Meine Statistik enthält keine Ecken und Kanten, sondern ist einfach die Gesamtänderung der Temperatur zwischen den ersten und den letzten 10 Jahren des Zeitraumes 1900 bis 2011 für jede Station.

Hier folgt zunächst eine Auflistung der Länder, welche die geringste bzw. die stärkste Gesamtänderung zeigen sowie die Anzahl der Stationen pro Land:

Dies ist ein altmodisches Histogramm, welches die Stationen in der Reihenfolge hinsichtlich der Gesamt-Temperatur listet. Diese zeigt die Daten in einer Glockenkurve. Die zugrunde liegende Verteilung ist sehr ähnlich einer Normalverteilung. Das bedeutet, dass die Anwendung normaler Verfahren sehr vernünftige Abschätzungen ergeben wird. Für einen Statistiker ist dies bedeutsam. Allerdings braucht man kein Hintergrundwissen in Statistik, um das Folgende zu verstehen.

Der Wert der Mittellinie liegt zwischen -0,5° und +0,5°. Die Anzahl der insgesamt eine Abkühlung zeigenden Stationen macht 40% aus. Etwas weniger als 60% zeigen eine Erwärmung. Die absolute Änderung ist an 74,6% aller Stationen statistisch nicht signifikant.

Die folgende Graphik zeigt eine normalisierte Darstellung jeder Kategorie: Keine signifikante Änderung, signifikante Erwärmung und signifikante Abkühlung. Der Graph zeigt gleitende Mittel über 10 Jahre. Jeder Plot ist so normalisiert worden, dass das Mittel des Zeitraumes 1900 bis 1910 Null beträgt.

Obwohl die Steigung jedes Plots signifikant unterschiedlich ist, ist der Verlauf der Kurven nahezu identisch. Eine Zufallssammlung individueller Stationsdaten zeigt, dass die Bedingungen für jede Station innerhalb der Bandbreite wahr bleiben. Zum Beispiel zeigt die dänische Grönland-Station, dass das Mittel der Jahre 1990 bis 2000 gleich ist dem Mittel von 1930 bis 1940.

Kurzfristige Änderungen wie etwa die Erwärmung bis in die dreißiger Jahre, sind bei einer Mehrheit der Stationen eindeutig erkennbar. Andere Beispiele hiervon sind der Temperatursprung der vierziger Jahre, die Abkühlung nach 1950 und der Temperatursprung zum Ende der neunziger Jahre.

Langfristige Änderungen variieren signifikant.

Aus dieser Analyse lässt sich eine ganze Reihe von Schlussfolgerungen ablesen:

Es gibt keinen statistisch signifikanten Unterschied zwischen Nordamerika und Europa. Die eine signifikante Abkühlung zeigenden Stationen machen nur 8% der Gesamtzahl aus. Bei dieser Statistik wäre die erwartete Anzahl von 17 eine Abkühlung zeigenden Stationen nur eine. Die Anzahl der eine signifikante Erwärmung zeigenden Stationen wäre 3. Vom Standpunkt der Stichprobenmenge aus sind 17 keine ausreichend große Stichprobe, um genaue Schätzungen zu erhalten.

Kurzfristige Änderungen, welche Stationen von Kanada über die USA bis Europa erkennbar sind, sind möglicherweise hemisphärische Änderungen. Allerdings gibt es keinen Hinweis darauf, dass diese Änderungen global sind, gibt es doch keine Anzeichen ähnlicher Änderungen in Australien. Tatsächlich unterscheidet sich die Gesamtverteilung in Australien offensichtlich von dem, was wir hier sehen.

Die Beweise zeigen eindeutig, dass die große Variation an den Gesamt-Temperaturtrends entweder regionalen oder lokalen Faktoren geschuldet ist. Wie in der Datentabelle oben gezeigt stammen alle Extreme dieser Variation aus den USA. Wie schon erwähnt reicht die Stichprobenmenge aus Europa einfach nicht aus, um genaue Schätzungen von Bedingungen mit kleiner Prozentzahl zu erhalten.

Weiter zeigt sich eindeutig, dass die meisten Differenzen der Gesamt-Temperaturänderung lokalen Faktoren geschuldet sind. In den USA erkennt man, dass extreme Erwärmung allgemein auf Gebiete mit starker Zunahme der Bevölkerung, Wachstum oder hohem Entwicklungsniveau beschränkt sind. Große Städte wie San Diego, Washington DC und Phoenix folgen dem verlauf signifikanter Änderung. Das gilt auch für Flughäfen. Allerdings folgen Städte wie New Orleans, St. Louis, El Paso und Charleston der Verteilung ohne signifikante Änderung.

Schlussfolgerung: Der Fall globale Erwärmung auf der Grundlage der verfügbaren langzeitlichen Daten ist sehr schwach. Es gibt Hinweise, dass eine hemisphärische Verteilung existiert. Weitere Beweise zeigen, dass es sich um eine zyklische Verteilung handelt, die in lokalisierten Temperaturspitzen während der dreißiger und der neunziger Jahre zum Ausdruck kommt. Allerdings scheinen Veränderungen der lokalen Umstände an den Stationen infolge menschlicher Entwicklungen der wichtigste Faktor zu sein, welcher die Gesamt-Temperaturänderungen beeinflusst. Extreme Erwärmungstrends sind fast mit Sicherheit auf vom Menschen vorgenommene lokale Änderungen zurückzuführen.

Unklar bis zu diesem Punkt ist die Bedeutung geringerer, vom Menschen induzierter Änderungen. Um dies abzuschätzen, bedarf es der Untersuchung individueller Stationsorte, um eine signifikante Stichprobe von Stationen zu erhalten, die keine Änderung zeigen. Unglücklicherweise hat man sich in den USA, in Kanada und Europa nicht einmal ansatzweise dieser Art von Informationen verschrieben wie in Australien. Ich muss zugeben, dass die Australier exzellente Arbeit geleistet haben, um Stationsinformationen verfügbar zu machen. Mit den aktuellen Koordinaten der tatsächlichen Teststationen war dies einfach. Ich schaute einfach bei Google Maps und war in der Lage, den Aufstellort und die Umgebung zu begutachten.

Mark Fife holds a BS in mathematics and has worked as a Quality Engineer in manufacturing for the past 30 years.
Link: https://wattsupwiththat.com/2018/04/01/uh-oh-analysis-of-ghcn-climate-stations-shows-there-is-no-statistically-significant-warming-or-cooling/
Übersetzt von Chris Frey EIKE




Milder April nach kaltem März 2018?

Es gibt außerdem einen besseren Hinweis auf die Apriltemperaturen – die Ausdehnung des Arktischen Meereises, in Millionen Km² vom Satelliten aus gemessen (Werte liegen seit 1979 vor). Zunächst fällt die sehr geringe Eisfläche von Januar bis März 2018 auf:

Die blaue Linie verläuft deutlich unter der des Mittelwertes von 1981 bis 2010 (grau). Was hat nun das Arktiseis mit den Apriltemperaturen in Deutschland zu tun? Hat das Eis eine große Ausdehnung, so schrumpft es auch im April nicht so schnell und generiert dann ein großes Kältereservoir, welches im April für Kälteeinbrüche aus Norden Richtung Deutschland zur Verfügung steht. Der Zusammenhang ist folglich negativ- eine große Eisfläche in den Vormonaten bedingt (meist) einen kälteren, eine kleine Eisfläche (wie 2018) eher einen milderen April. Das folgende Streudiagramm illustriert die signifikante Beziehung, welche freilich keine sichere Prognose der Apriltemperaturen ermöglicht:

Trotz dieser erfreulichen Nachricht bleibt ein Wermutstropfen, speziell für Norddeutschland, die aktuell unternormalen Wassertemperaturen in Nord- und Ostsee, erkennbar an der blauen Farbe:

Bei den Windrichtungen NW, N und NE wirken diese negativen Meeresoberflächentemperaturen kühlend, was man auch sehr gut an den prognostizierten Temperaturen für den Mittag des Ostermontags erkennen kann:

Während über Mittel- und Süddeutschland milde 10 bis 14 Grad herrschen, muss man im Norden bei kalten Null bis 4 Grad frieren. Sollte es, was im April nicht selten ist, Skandinavien- Hochs geben, so wäre wegen der niedrigen Wassertemperaturen die Nordhälfte Deutschlands vermutlich benachteiligt.
Höhere AMO- Werte- milderer April in Deutschland?
Der April ist der erste Monat im Jahresverlauf mit einem andeutungsweise vorhandenen, positiven Zusammenhang zwischen AMO und Deutschland- Temperaturen; allerdings ohne Signifikanz (diese besteht für die Monate von Juni bis November sowie für das Jahr insgesamt):

Im Einzelfall, so auch 2017, kann also trotz hoher AMO- Werte auch ein zu kalter April folgen; häufiger folgt aber ein eher milder.
Was prophezeien die Modelle?
Das CFSv2 sagt einen zu warmen April für Süddeutschland und einen zu kalten für Teile Skandinaviens vorher (Bezugszeitraum Aprilmittel 1981 bis 2010):

Die Ensemble- Modelle sagen für die erste Aprildekade häufige Süd- und Südostströmungen vorher, was eher warmes Wetter bedeuten würde. Am 10.04. soll eine Hochdruckzone von Skandinavien nach Osteuropa reichen:

Auch danach soll eher hoher Luftdruck dominieren; andere Modelle, hier stellvertretend das ENS für den 15. April, sehen das ähnlich:

Fazit: Momentan überwiegen die Anzeichen für einen eher milden April, der möglicherweise auch relativ viel Sonnenschein bringt. Das Umfeld der Ost- und Nordsee scheint wegen der niedrigen Wassertemperaturen benachteiligt zu sein. Einzelne Kälterückfälle oder Spätfröste sind dennoch nicht auszuschließen. Alle Gärtner und Landwirte dürfte es weniger freuen, dass zumindest eine leicht erhöhte Wahrscheinlichkeit für zu wenig Regen besteht, denn „ein trockener April, ist nicht des Bauern Will‘ “. Aber eventuell verhindern erste Gewitterschauer Schlimmeres.
Zusammengestellt von Stefan Kämpfe ohne Aprilscherz am 01. 04.2018.




Musterbei­spiel für Vertuschung: „Selbstfahren­des“ Uber-Auto: Tod durch Geldgier

Erst zwei Tage später wurde dann in Deutschland eine Videoaufzeichnung des Unfallhergangs öffentlich zugänglich gemacht [SPIE]. Im Zusammenhang mit dem kommentierenden Text ist diese hochinteressante Kreation der Deutschen Presseagentur (dpa) ein Lehrstück dafür, wie man seitens der Behörden und in den Medien „Tatsachen“ in manipulativer Absicht so darstellen kann, dass der gewünschte Eindruck – in diesem Fall im Sinne von Uber und den ganzen Vertretern des Hypes vom „selbstfahrenden Auto“ – entsteht. Schaut man nämlich genau hin, so geht selbst aus den kurzen verfügbaren Abschnitten des Videos eindeutig hervor, dass das „selbstfahrende“ Auto an diesem Unfall in erheblichem Umfang Schuld trug. Von „investigativen Journalisten“ hätte man eigentlich entsprechende Hinweise erwarten dürfen. Doch weit gefehlt: Es gab wieder einen hochpeinlichen Beweis dafür, wie sich sogenannte Spitzenmedien als willige Handlanger behördlich verbreiteter Tatsachenverfälschungen zugunsten dubioser Geschäftemacher hergeben, sofern diese nur der „richtigen“ Ideologie zuzuordnen sind.

Bild 2. Kommentar zum Film (siehe Bild 1 oben) im begleitenden Artikel [SPIE]

Medien und Behörden: Verharmlosung im Schulterschluss
Schon beim ersten Bericht über den Vorfall hatte der Spiegel-Redakteur Michael Kröger getitelt: „Unfall mit Uber-Roboterauto Der Computer ist trotzdem der bessere Fahrer“ [KROE]. Dieses Vor-Urteil zog sich als roter Faden durch seinen Beitrag.

  • „der Fall ist kein Beleg dafür, dass die Technologie ihre Versprechungen nicht erfüllen kann“
  • „Denn in diesem Punkt sind sich Ingenieure, Unfallforscher und Versicherungsmathematiker einig: Sensoren oder Software eines Roboterautos mögen bisweilen versagen, doch die Zahl der Fälle, in denen ein menschlicher Fahrer für einen Unfall verantwortlich ist, liegt dramatisch höher“
  • „Die Experten gehen davon aus, dass sich die Zahl der Unfälle um neunzig Prozent reduzieren ließe, wenn nur noch Computer die Autos steuerten“
  • „Der Computer-Pilot ist einem menschlichen Counterpart dermaßen überlegen, dass man eigentlich nicht fragen sollte, ob Computer Autos steuern sollten, sondern warum sie es immer noch nicht tun“, (Bild 3)

Bild 3. In Treue fest: Schon beim ersten SPON-Artikel stand das Fazit des Journalisten Michael Kröger fest [KROE]

  • „Auf dem Überwachungsvideo des Uber-Wagens ist die Frau offenbar erst in allerletzter Sekunde zu erkennen. Polizeichefin Sylvia Moir sagte dem „San Francisco Chronicle“, das Video zeige, dass die Frau „direkt aus dem Schatten auf die Fahrbahn getreten“ sei. „Es ist klar, dass dieser Zusammenstoß in jedem Modus, ob autonom oder manuell, schwer zu verhindern gewesen wäre““

Das „Beweis“-Video
Auf dem zwei Tage später bei „Spiegelonline“ [SPIE] veröffentlichten Video von der Bordkamera sieht man eine extrem dunkle Straße mit breiten Fahrspuren, einem ziemlich breiten Bürgersteig und einem ebenfalls sehr breiten Radweg. Lichter im Hintergrund lassen Gebäude und eine Kreuzung erahnen. Die Straße ist durch beidseits aufgestellte Laternen gut ausgeleuchtet. Die Kamera scheint jedoch so lichtschwach zu sein, dass nur die jeweils zwei oder drei nächstgelegenen Teilstreifen der unterbrochenen Mittellinie zu erkennen sind. Alles, was weiter hinten gelegen ist, wird von Schwärze verschluckt. Erst etwa anderthalb Sekunden vor dem Zusammenprall taucht „urplötzlich“ eine Gestalt auf, die von der anderen Straßenseite kommend mit ihrem unbeleuchteten Fahrrad die Straße überquert, Bild 4, Bild 5, Bild 6 und Bild 7.

Bild 4. Bei der Zeitmarke 3 s tauchen von links her schemenhaft die Schuhe der Fußgängerin im Scheinwerferlicht in einer Entfernung vermutlich ca. 25 m auf. Screenshots aus dem von der Polizei freigegebenen Video


Bild 5. Kommentar zum Film im begleitenden Artikel [SPIE]

Bild 6. Nur rund eine Sekunde später befindet sich die Fußgängerin lediglich noch etwa 10 m vor dem Auto. Screenshots aus dem von der Polizei freigegebenen Video [VIDE]

Den eigentlichen Zusammenprall zeigt das Video nicht, stattdessen wird die Szene davor nochmals wiederholt, wohl auch um den Eindruck der Plötzlichkeit zu unterstreichen. Dazu kommen folgende erklärende Texte im Video selbst:

  • „Laut Polizei hätte die Fahrerin das Unglück wohl nicht verhindern können“
  • „Die Frau taucht sehr spät im Lichtkegel des Fahrzeugs auf“
  • „Dennoch: Das Sensorsystem des Autos soll eigentlich weit entfernte Objekte erkennen können“
  • „Derzeit hat das Lidarsystem allerdings noch Probleme bei Dunkelheit“

Bild 7. Schon beim dritten Bild nach der Zeitmarke 4 s hat das Fahrzeug das Opfer fast erreicht. Screenshots aus dem von der Polizei freigegebenen Video


Bild 8. Die lächerliche Aussage der Polizeichefin Sylvia Moir [SPIE]

Aus dem Abstand der Zeitmarken im Video und der bekannten Geschwindigkeit des Fahrzeugs von ca. 17,8 m/s lässt sich berechnen, dass die Fußgängerin auf dem Video erst in einer Entfernung von rund 25 m vor dem Auto sichtbar wird. Dies ist angesichts der Mindest-Leuchtweite der Fahrzeugscheinwerfer von 90 m ein klarer Hinweis auf massive Manipulationen am Video.
Im Text des zum Film gehörenden Artikels finden sich ergänzend noch folgende Kommentare:

  • „Die Außenaufnahmen der Kamera auf dem Armaturenbrett zeigen, wie das Auto eine schlecht ausgeleuchtete Straße entlangfährt. Im Scheinwerferlicht des Fahrzeugs taucht unvermittelt von links eine Fußgängerin auf, die ihr Fahrrad über die Straße schiebt. Die 49-jährige war aus einem unbeleuchteten Bereich auf die Fahrbahn getreten. Zuerst sind nur die Füße der Passantin zu sehen, die Sekunden später vom Fahrzeug erfasst wird“
  • Ebenfalls findet sich dort folgendes Zitat der Polizeichefin Sylvia Moir: „Es ist klar, dass dieser Zusammenstoß in jedem Modus, ob autonom oder manuell, schwer zu verhindern gewesen wäre

Eine plumpe Vertuschung…
Diese Kommentierung ist so naiv, dass man sich wirklich fragen muss, wie man als Journalist ein solch offensichtlich getürktes Video so kritiklos durchgehen lassen kann. Jedem, der schon einmal nachts auf innerstädtischen Straßen unterwegs war, muss doch sofort auffallen, dass diese vorgeblich „miserablen Sichtverhältnisse“ nie und nimmer der Realität entsprechen können. Auf einer solchen beleuchteten innerstädtischen Straße liegt die Sichtweite bei Nacht und ohne Regen oder Nebel bei mehreren 100 Metern. Das wissen sogar Fußgänger oder Radfahrer, warum fällt Journalisten das nicht auf?
Zunächst hätte man sich die Frage stellen müssen, wieso der Lichtkegel der Scheinwerfer auf einer Stadtstraße mit vorhandener Straßenbeleuchtung anscheinend lediglich eine Strecke von vielleicht 20-25 m ausleuchten konnte. Diese Entfernung lässt sich leicht abschätzen, weil auf dem Film in der Regel nur zwei, selten drei Striche der unterbrochenen Mittellinie zu sehen sind. In Deutschland ist deren Abstand innerorts 9 m, bei 2,5 Strichen also 23 m [MARK]. Auch in den USA dürften diese Maße nicht um ganze Größenordnungen unterschiedlich ausfallen.
Zweifel an der Leuchtkraft der Scheinwerfer des Volvo XC 90 sind nicht angebracht. In Schweden gehören nächtliche Elchunfälle zum Alptraum jedes Autofahrers. Volvo legt seine Fahrzeuge deshalb so aus, dass man einen dunklen Elch in einer dunklen Landschaft auch im besonders dunklen arktischen Winter noch rechtzeitig genug erkennen kann, um einen Crash zu vermeiden. Der Blick in das Datenblatt des Fahrzeugs bestätigt dies. Die superhellen LED-Scheinwerfer heißen sicherlich nicht ohne Grund „Thors Hammer“. Selbst ihr Abblendlicht reicht rund 90 m weit, außerdem kann man das Fernlicht die ganze Zeit anlassen, da der Wagen die Leuchtweite bei Gegenverkehr automatisch anpasst, um Blendungen zu vermeiden [VOLVO]. Da auf dem Film keinerlei Gegenverkehr zu sehen ist, hätte die effektive Leuchtweite also mindestens 120 m statt der mickrigen 25 m auf dem Video betragen müssen. Dies lässt den Schluss zu, dass hier an einem primären Beweismittel für ein Verfahren wegen eines tödlichen Unfalls in erheblichem Umfang manipuliert worden ist. In den USA, wo man dem Vernehmen nach als Autofahrer bei Unfällen mit Todesopfern von Glück sagen kann, wenn man nicht im Knast landet, ist das ein sehr schwerwiegendes Vergehen.
Die Aussage der Polizeichefin Sylvia Moir: „Es ist klar, dass dieser Zusammenstoß in jedem Modus, ob autonom oder manuell, schwer zu verhindern gewesen wäre“, kann man demnach als Indiz für ihre Komplizenschaft bei der Manipulation zur Vertuschung der Angelegenheit auffassen. Dies zeigt, mit welcher Konsequenz die Behörden in den USA die Interessen ihrer eigenen Industrien schützen.
und die Realität
Dieses seltsame Video ist natürlich verschiedensten Leuten auch vor Ort aufgefallen. Im Internet sind inzwischen Bilder von Dashcam-Videos zu sehen, die am gleichen Ort und zu vergleichbaren Zeiten aufgenommen wurden, und dem „Beweisvideo“ gegenübergestellt worden, Bild 9.

Bild 9. Gegenüberstellung des von der Polizei veröffentlichten Videos mit einer Dashcam-Aufnahme aus dem Internet [VERGL]

Die im unteren Teilbild gezeigten Sichtverhältnisse können als realistisch gewertet werden und lassen erkennen, wie stark die „offizielle“ Aufnahme offensichtlich manipuliert wurde. Es ist kaum vorstellbar, dass bei einem derartigen Milliardenprojekt – allein der in Stückzahlen von mehr als 10.000 vorgesehene Volvo XC90 hat einen Basispreis von knapp 60.000,- € – derartig miserable Dashcams zum Einsatz gekommen sein sollten. Die unglaublich schlechten Lichtverhältnisse kann man fast nur so interpretieren, dass der Film mit geeigneter Software sehr kräftig nachbearbeitet wurde, um die von der Polizei verbreitete Version zu stützen. Ob dies von Uber selbst vorgenommen wurde oder ob die Polizei mitgetrickst hat, sei hier dahingestellt. Glaubhaft ist das Ergebnis jedenfalls in keinster Weise.
Eine klare Antwort sollte in jedem Fall auf die Frage gefordert werden, wo denn die sonstigen vom Uber-System aufgezeichneten Daten abgeblieben sind, wozu neben den Lidar- auch Videodaten gehören dürften, und zwar solche von höchster Qualität. Warum werden diese Daten und die entsprechenden Systeme nicht erwähnt, und warum hat anscheinend kein Journalist danach gefragt, ob darin nicht eventuell Antworten auf die drängenden Fragen zu finden sein könnten, die sich nach Vorlage dies dubiosen Dashcam-Videos geradezu aufdrängen. Eigentlich hätte die Polizei den Wagen beschlagnahmen und sicherstellen müssen. Wenn Uber nicht zu verbergen hat und, wie behauptet, mit den Behörden kooperiert, dann hätte man der Polizei unverzüglich unverfälschte Originaldaten zur Verfügung stellen müssen. Wo sind diese, und was lässt sich darauf erkennen?
Für die Redaktion von SpiegelOnline, die sich bei der Hetzjagd auf deutsche Autohersteller in enger Zusammenarbeit mit der US-gesponsorten Deutschen Umwelthilfe DUH mehrfach durch außergewöhnlichen „investigativen Eifer“ hervorgetan hat, ist das hier dokumentierte unkritische Nachplappern plumper Lügen und Vertuschungsversuche in jedem Fall ein ganz besonderes Armutszeugnis.
Ein Fall für den Staatsanwalt
Rund um den Fall ergeben sich jedenfalls etliche drängende Fragen, was die Sicherheit der getesteten Technologie und die offenkundig systematischen Gesetzesverstöße im vorliegenden Fall angeht. Dazu gehören neben den Fragen, welche die Manipulation des Films aufwirft, vor allem folgende Punkte:

  • Wer trägt die Verantwortung für die überhöhte Geschwindigkeit? Zum Zeitpunkt des Unfalls war das Fahrzeug nach Angaben der Polizei mit einer Geschwindigkeit von 64 Kilometern pro Stunde unterwegs (erlaubt waren 56 km/h (35 Mph), real 64,4 (40 Mph). Diese Überschreitung muss programmiert worden sein. Es ist davon auszugehen, dass dies nicht von einem subalternen Programmierer auf eigene Kappe gemacht wurde, sondern auf Anordnung des Managements erfolgte.
  • Warum gab es keine Warnung aufgrund des offensichtlichen Ausfalls der Kollisionswarnsysteme? Bei einem solchen Fahrzeug sollten mindestens zwei, besser drei derartiger Systeme parallel in Betrieb sein, da immer mit einem Ausfall zu rechnen ist. Sobald eines davon ausfällt, muss das Fahrzeug sofort und automatisch zu einem sicheren Stillstand gebracht werden. Dazu gehören z.B. Anhalten am Straßenrand, Warnblinkanlage, automatischer Notruf an die Firmenzentrale und ggf. an die Polizei.
  • Wer hat veranlasst, dass der Volvo-eigene Notbremsassistent ausgeschaltet wurde? Dieser bremst bei erkannten Hindernissen selbstständig ab [VOSI] und hätte dazu beitragen können, den Unfall zu vermeiden oder zumindest seine Folgen zu mindern.
  • Wieso durften Uber-Fahrzeuge überhaupt bei Nacht verkehren, wenn laut dem SpiegelOnline-Artikel das Lidarsystem bereits früher Probleme bei Dunkelheit hatte? Wer trägt die Verantwortung dafür, dass ein offensichtlich bereits früher als fehleranfällig aufgefallenes System nicht sofort und dauerhaft von der Straße genommen wurde, bis es mit dem erforderlichen Mindestmaß an Zuverlässigkeit funktioniert? Menschen dürfen nicht als Versuchskarnickel für unsichere Technologie missbraucht werden. Kein Pharmakonzern darf ein Medikament verkaufen, das nicht umfassende und extrem strenge Versuchsreihen erfolgreich absolviert hat. Das Gleiche sollte auch für Google und Uber gelten.

Angesichts dieser Gesamtumstände kann man die sonstigen Ablenkungsmanöver der Polizei, die das Opfer als „vermutlich obdachlos“ bezeichnete und sich zu der Behauptung verstieg, dass weniger passieren würde, wenn man die Zebrastreifen benutzen würde, nur als zynisch bezeichnen.
Die Gier nach dem ganz großen Profit…
Um die Hintergründe des Vorfalls zu verstehen, muss man wissen, dass sich große IT-Konzerne – wie Alphabet/Google mit Uber und Waymo, NVidia oder Qualcomm – sowie diverse Autohersteller derzeit ein wildes Match um den erhofften künftigen Markt der selbstfahrenden Autos liefern. Sie haben gesehen, wie mit der Idee der „Klimarettung“ gigantische Summen – die Billionengrenze ist inzwischen weit überschritten – in bestimmte Märkte gelenkt werden können. Ähnliches erhofft man sich von den sogenannten „selbstfahrenden“ Autos. Die Politik ermuntert dies nach Kräften, wie das Beispiel Deutschlands beweist. Schließlich ist dessen politische Führung bereit, sogar die eigene Autoindustrie zu zerstören, siehe die aktuelle Anti-Diesel-Kampagne. Ziel ist es, die Hersteller vom Verbrenner abzubringen und zur bedingungslosen Unterwerfung unter die Kanzlerinnenvision vom selbstfahrenden Auto zu „motivieren“, Bild 10.

Bild 10. Aus einem Bericht der „Welt“ über einen Vortrag von Bundeskanzlerin Merkel vor deutschen Studenten in Argentinien [WEME]

Nachrichtenfetzen in zahlreichen Börsenzeitschriften und Blogs lassen erkennen, was sich im Markt der künftigen „selbstfahrenden“ Autos derzeit abspielt. Beflügelt von den aktuellen politischen Signalen liefern sich insgesamt rund 20 „Elefanten“ ein erbittertes Wettrennen um die Führungsposition. Software- und Chiphersteller wetteifern mit allen Mitteln darum, wer sich als Technologieführer durchsetzen kann. Der Gewinner kann mit sagenhaften Gewinnen rechnen, den Verlierern droht der Absturz in die Bedeutungslosigkeit. Die Nase vorn hat derjenige, der am schnellsten den Markt mit seinen Ergebnissen überzeugen kann. Wichtig sind Kennziffern wie die Zahl der fahrerlos zurückgelegten Kilometer, (geringe) Anzahl der Unfälle und niedrige Quote der Zahl der erforderlichen Eingriffe durch Sicherheitsfahrer. Der Mitteleinsatz ist enorm: Firmen wie Uber oder Waymo kaufen teure Limousinen von z.B. Volvo oder Jaguar in Paketen a 10.000 oder 20.000. Mit hohen Summen für Niederlassungen und Errichtung von Fabriken lockt man auch jene US-Bundesstaaten, die bei der Zulassung solcher Fahrzeuge Sicherheitsbedenken „ein wenig“ weiter zurückstellen als andere.
Dies bildet auch den Hintergrund für den Vorfall in Arizona. Man hat bei Uber offensichtlich versucht, schnellstmöglich möglichst viele „ereignisfreie“ Kilometer abzuspulen. Als geeignet erschienen Nachtfahrten mit überhöhter Geschwindigkeit auf leeren Straßen, auf denen kein anderer Verkehr stört. Auf den Biorhythmus der Fahrer, die um halb vier Uhr morgens am Tiefpunkt ihrer Fähigkeiten angekommen sind, wurde dabei keine Rücksicht genommen. Ebensowenig auch auf Fußgänger wie die Ehefrau und Mutter einer Tochter Elaine Herzberg. Übermüdete Menschen verhalten sich um derartige Uhrzeiten manchmal äußerst unlogisch. Viele Sicherheitsbeauftragte in einem großen dreischichtig arbeitenden Industriebetrieb haben ein abendfüllendes Repertoire an Anekdoten, was zwischen Mitternacht und fünf Uhr morgens in ihren Unternehmen schon so alles an haarsträubenden Dingen vorgefallen ist und wie oft pures Glück Schlimmeres verhindert hat.
dürfte noch weitere Menschenleben fordern
Eine lesenswerte Analyse der Situation hat Raul Rojas, Informatikprofessor an der FU Berlin, in einem Interview mit SpiegelOnline am 23.03.2018 geliefert [ROJA]. Er zieht aus dem Vorfall unter anderem folgende Schlüsse:

  • „Aus dem Video, das die Polizei von Tempe veröffentlicht hat, wird klar, dass das Auto die Fußgängerin gar nicht erkannt hat. Der Wagen fährt ungebremst weiter, auch als die Frau im Bild erscheint“
  • „Selbst wenn das Lidar ausgefallen war, hätte der Computer allein aufgrund der Daten aus dem Videosystem bremsen müssen, und das ist nicht passiert. Ich gehe davon aus, dass das System zusammengebrochen war. Die Eingangsdaten waren zwar vorhanden, wurden aber vom Computer nicht ausgewertet“
  • „Die Programmierung hat versagt. Ich nehme an, dass die Sensoren alle aktiv waren, aber die Software die Daten nicht verarbeitet hat und das Auto deshalb nicht einmal versucht, abzubremsen“
  • „Es müssen Redundanzketten wie in der Luftfahrt eingebaut werden, das heißt, es muss immer ein System geben, das im Notfall übernehmen kann. In der Luftfahrt ist das Standard, bei autonomen Autos ist das entscheidend, um die Sicherheit zu garantieren, die Leute sind ja irgendwann nur noch Passagiere“

Prof. Rojas sieht die Schuld eindeutig bei Fa. Uber, die er als „Disruptionsfirma“ charakterisiert, Bild 11.

Bild 11. Aus Sicht von Prof. Rojas liegt die Schuld am Vorfall eindeutig bei der Firma Uber [ROJA]

Allerdings wären zusätzlich noch drei weitere Tatbeteiligte zu nennen. Das sind zum einen die Regierungen von US-Bundesstaaten wie Arizona, die bereit sind, ihre Bürger als Versuchskaninchen für derartige Windhunde zur Verfügung zu stellen. Dann die mit ihnen offenkundig kooperierenden Polizeibehörden. Jedem US-Sheriff, der heute standardmäßig mit Dashcams und ihren Bildern vertraut ist, hätte die unterirdische Qualität des Uber-Materials sofort ins Auge springen müssen. Die Polizeichefin Sylvia Moir gehörte von Rechts wegen eigentlich vor einen Untersuchungsausschuss. Allerdings ist man in solchen Dingen von US-Polizeibehörden ja schon einiges gewohnt. Und last but not least tragen die Verantwortung auch gewisse Politiker, die durch ihre realitätsfernen Visionen überhaupt erst das Goldfieber hervorgerufen haben, das solche Geschäftemacher wie Uber auf den Plan gerufen hat.
Ausblick
Die Visionen vom emissionsfreien (batterieelektrischen) Verkehr und die vom autonomen Fahren stammen aus dem gleichen politischen Umfeld wie die Klimahysterie und die „Dekarbonisierung der Volkswirtschaft“ nebst der Vorstellung, moderne Industrienationen mit Sonne und Windenergie betreiben zu können. Sie haben es geschafft, in ungeheurem Umfang Ressourcen für ihre Vorstellungen zu mobilisieren. Das hat entsprechende Goldgräber auf den Plan gerufen. Manche Firmen versprechen den Einstieg ins autonome Fahren bereits im laufenden Jahr, andere erwarten dies erst in den 2030er Jahren. Das, was bisher gezeigt wurde, entspricht zumeist Wunschdenken, und es wird vermutlich noch etliche Tote geben, wenn diese unausgereiften Systeme auf die Straßen losgelassen werden. Wann soll ein solches System beispielsweise imstande sein, Haltsignale eines nicht uniformierten Passanten richtig zu interpretieren, der vor einer abgerutschten Böschung hinter einer Biegung warnen will? Die zureichende Bewältigung der Mobilitätsanforderungen einer modernen Gesellschaft oder gar unseres Warenwirtschaftsverkehrs scheint im Moment – falls überhaupt jemals realisierbar – noch in weiter Ferne zu liegen.
Vordringlich sollte man darauf dringen, jeglichen Missbrauch der Bevölkerung als Versuchskaninchen für völlig unausgereifte Konzepte zu verhindern. Einige Leute in den USA gehören sicherlich vor den Kadi, und die Strafen sollten sich vom Mindestmaß her an dem orientieren, was man dort für den „kleinen Fisch“ der VW-Affäre, den deutschen VW-Mitarbeiter Oliver Schmidt, für angemessen hielt.
Fred F. Mueller
Quellen
[KROE] http://www.spiegel.de/auto/aktuell/uber-unfall-mit-roboterauto-computer-sind-trotzdem-die-besseren-fahrer-a-1199025.html
[MARK] https://www.dvr.de/publikationen/schriftenreihe/17-leitfaden-fahrbahnmarkierung/
[ROJA] http://www.spiegel.de/auto/aktuell/uber-unfall-die-software-war-laut-fu-berlin-professor-schuld-a-1199607.html
[SPIE] http://www.spiegel.de/auto/aktuell/toedlicher-uber-unfall-polizei-veroeffentlicht-unfallvideo-a-1199373.html

[VIDE] www.Topsvid.com

[VERGL] https://img1.picload.org/image/dacpdoll/screenshot386.png
[VOLVO] http://ipaper.ipapercms.dk/Volvocars/CH/XC90CHde/?page=22
[VOSI] http://www.spiegel.de/auto/aktuell/uber-standardsoftware-des-volvo-haette-fussgaengerin-entdeckt-a-1200349.html