Das „Ensemble” von Modellen ist statistisch vollkommen bedeutungslos

rgbatduke sagt:
Wenn man sagt, dass wir einen bestimmten Zeitraum lang warten müssen, um zu der Schlussfolgerung zu gelangen, dass „die Modelle falsch sind“, ist das aus zwei Gründen gefährlich und falsch. Erstens – und dieser Punkt wird erstaunlich stark ignoriert – gibt es sehr viele verschiedene Modelle, die alle für sich in Anspruch nehmen, auf  der Physik zu basieren. Und doch ergeben keine  zwei von ihnen etwa die gleichen Ergebnisse!
Dies spiegelt sich in den von Monckton veröffentlichten Graphiken, wobei die AR5-Trendlinie das Mittel all dieser Modelle ist. Trotz der Anzahl der hierzu beitragenden [Modelle] ist die Varianz gewaltig. Falls jemand einen „Spaghetti-Graphen“ der einzelnen Modellprojektionen veröffentlicht (wie es Roy Spencer kürzlich in einem anderen Beitrag getan hat), sieht er aus, wie das ausgefranste Ende eines Seiles und nicht wie eine kohärente Verteilung um ein bestimmtes, von der Physik gestütztes Ergebnis.
Man beachte den impliziten Schwindel in dieser Graphik. Wenn man ein Mittel und die Standardabweichung über die Modellprojektionen bildet und dann dieses Mittel als eine „sehr wahrscheinliche“ Projektion und die Varianz als repräsentativ für die Fehlerbandbreite darstellt, behandelt man die Differenzen zwischen den Modellen so, als ob sie nicht-korrelierte Zufallsvarianten wären, die sich in einer Abweichung um das wirkliche Mittel scharten.

Was soll denn das heißen?!

Es ist ein solch horrender Missbrauch von Statistik, dass man gar nicht so recht weiß, wo man am besten anfangen soll. Man möchte am liebsten dem Erzeuger dieser Graphik-Zusammenstellung – wer auch immer das war – eine runterhauen und dafür sorgen, dass diese Person niemals wieder etwas Wissenschaftliches oder Statistisches veröffentlicht. Man darf kein Ensemble unabhängiger und gleich verteilter Modelle erzeugen, die einen unterschiedlichen Code haben. Man kann eventuell ein einzelnes Modell erzeugen, das ein Ensemble von Vorhersagen erzeugt, indem man gleichartige Abweichungen (Zufallszahlen) verwendet, um „Rauschen“ (zur Repräsentation der Unsicherheit) in die Inputs mit eingehen zu lassen.
Was ich sagen möchte: die Varianz und das Mittel des „Ensembles” der Modelle ist vollständig bedeutungslos in statistischer Hinsicht, weil der Input nicht die wirklich grundlegenden Eigenschaften besitzt, die für eine bedeutungsvolle Interpretation erforderlich sind. Sie sind nicht unabhängig, ihre Unterschiede basieren nicht auf einer Zufallsverteilung von Fehlern, es gibt keinen wie auch immer gearteten Grund zu glauben, dass die Fehler oder Differenzen nicht auf Vorurteilen beruhten (unter der Voraussetzung, dass es nur eine einzige Möglichkeit für den Menschen gibt, etwas Vorurteilfreies zu erzeugen: nämlich die Verwendung eines Würfels oder anderer objektiver Zufallsgeneratoren).
Warum sollte man also diesen Unsinn hinnehmen und lineare Fits für eine Funktion – die globale Temperatur – anpassen, die niemals in ihrer gesamten Historie linear verlaufen ist, obwohl sie natürlich immer annähernd so glatt war, dass man jederzeit eine Taylor-Reihe in hinreichend kleinen Intervallen erzeugen und einen linearen Term erhalten kann, der – durch die Natur von Taylor-Reihen-Fits an nichtlinearen Funktionen – garantiert scheitern wird, wenn er extrapoliert wird, weil nichtlineare Terme höherer Ordnung sich draufsetzen und die Herrschaft übernehmen? Warum sollte man ein Lippenbekenntnis abgeben für die Vorstellung, dass R² oder p für eine lineare Anpassung oder für einen Kolmogorov-Smirnov-Vergleich der realen Temperaturaufzeichnung mit der extrapolierten Modellvorhersage irgendeine Bedeutung hätten? Sie haben keine.
Noch einmal: Es ergibt keine Bedeutung! Und ist unhaltbar in Theorie und Praxis der statistischen Analyse. Genauso könnte man ein Hexenbrett nehmen [siehe hier bei wikipedia, Bild oben rechts] als Basis für Behauptungen über die Zukunft des Klimas, und zwar als Ensemble-Mittel unterschiedlicher berechneter physikalischer Modelle, die sich nicht durch wirklich zufällige Variationen unterscheiden und die allen Arten von ausgelassenen Variablen unterworfen sind, dazu ausgewählten Variablen, der Implementierung und vorurteilsbefangener Initialisierung. Das Brett könnte uns die richtige Antwort liefern oder auch nicht, außer, dass es Glück bringen kann bei der Begründung einer Antwort auf irgendeiner vernünftigen Grundlage.
Wir wollen diesen Prozess einmal umkehren und tatsächlich die Verteilung der Modellergebnisse einer statistische Analyse unterwerfen. Zur Erinnerung: es geht um die Behauptung, dass sie alle nach den gültigen Gesetze der Physik korrekt implementiert sind. Zum Beispiel, wenn ich versuche, eine a priori-Berechnung der Feinstruktur – sagen wir – eines Kohlenstoff-Atoms durchzuführen, könnte ich damit so beginnen, dass ich ein Einzel-Elektronenmodell auflöse, wobei ich die Wechselwirkung zwischen den Elektronen unter Verwendung der Wahrscheinlichkeits-Verteilung des Einzel-Elektronenmodells bestimme, um eine sphärisch symmetrische „Dichte“ von Elektronen um den Kern zu erzeugen. Dann stelle ich eine in sich widerspruchsfreie Wiederholungs-Feldtheorie-Iteration auf  (indem ich das Einzel-Elektronenmodell für das neue Potential auflöse) bis es konvergiert. (Das ist als „Hartree-Approximation bekannt“).
Nun könnte jemand sagen „Moment mal, das ignoriert das Pauli-Ausschlußprinzip [Pauli exclusion principle]“ sowie die Forderung auf vollkommene Antisymmetrie der Elektronen-Wellenfunktion. Man könnte dann das (immer noch Einzel-Elektronen-)Modell komplizierter machen und eine Slater-Determinante [?] konstruieren, die man als vollständig antisymmetrische Repräsentation der Elektronen-Wellenfunktionen verwendet; sodann die Dichte erzeugen und die widerspruchsfreie Feldberechnung zur Konvergenz durchführen (das ist Hartree-Fock).
Jemand anders könnte dann darauf hinweisen, dass dies immer noch die „Korrelations-Energie“ des Systems unterschätze, weil das Behandeln der Elektronenwolke als kontinuierliche Verteilung die Tatsache ignoriert, dass einzelne Elektronen sich stark abstoßen und folglich nicht in die Nähe eines anderen kommen wollen. Beide frühere Herangehensweisen unterschätzen die Größe des Elektronen-Loches und machen das Atom folglich „zu klein“ und „zu stark gebunden“. Eine Palette von Schemata wird zur Behandlung dieses Problems vorgeschlagen – wobei die Verwendung einer semi-empirischen lokalen Dichtefunktion das wahrscheinlich erfolgreichste ist.
Und noch jemand könnte dann anmerken, dass das Universum wirklich relativistisch ist, und dass wir beim Ignorieren der Relativitätstheorie und der Durchführung einer klassischen Berechnung einen Fehler einführen in alles oben Gesagte (obwohl es in das halb empirische LDF-Verfahren heuristisch eingebracht werden kann).
Am Ende könnte man sehr gut ein „Ensemble” von Modellergebnissen in der Hand haben, die alle auf der Physik basieren. Tatsächlich basieren auch die Unterschiede auf der Physik. Die  von einem Versuch zum nächsten weggelassene Physik, oder die zur Annäherung und zur Einbringung der Physik verwendeten Methoden, können wir nicht in eine Berechnung der Grund-Prinzipien einschließen (man beachte, wie ich mit der LDF eine semi-empirische Note eingeschmuggelt habe, obwohl man Dichtefunktionen aus den Grund-Prinzipien ableiten kann (z B. Thomas-Fermi-Approximation), die normalerweise nicht besonders gut sind, weil sie nicht im gesamten Bereich der in wirklichen Atomen beobachteten Dichte gültig sind). Was ich hervorheben möchte, die Durchführung der präzisen Berechnung ist keine Option. Wir können das Vielkörperproblem in der Quantentheorie nicht mehr exakt lösen, wie wir auch nicht mehr das Vielkörperproblem in der klassischen Theorie exakt lösen können, auch nicht den Satz von offenen, nicht-linearen, gekoppelten, gedämpften, angetriebenen Navier-Stokes-Gleichungen in einem nicht-inertialen Bezugsrahmen, wie es das Klimasystem darstellt.
Wohlgemerkt: die Lösung der exakten, vollständig korrelierten, nichtlinearen Elektronen-Wellenfunktion des einfachen Kohlenstoffatoms – oder des weitaus komplexeren Uranatoms – ist trivial einfach (hinsichtlich der Berechnung) im Vergleich zum Klimaproblem. Wir können beides nicht berechnen, aber wir können einer konsistenten Annäherung an die Lösung von Ersterem viel näher kommen als bei Letzterem.
Sollten wir also das Ensemble-Mittel von „physikalisch fundierten” Modellen heranziehen, um die Quanten-Elektron-Struktur eines Kohlenstoffatoms zu bestimmen und dieses als die beste Vorhersage der Kohlenstoff-Quantenstruktur ansehen?
Nur wenn wir sehr dumm, oder geisteskrank sind, oder etwas glauben machen wollen. Wenn man das von mir Gesagte sorgfältig liest (was Sie vielleicht nicht getan haben – man überliest vieles, wenn ein Jahr oder mehr an Elektronen-Quantentheorie in einigen Sätzen zusammengefasst wird, dabei habe ich noch die Perturbations-Theorie, die Feynman-Diagramme usw. ausgelassen), merkt man, dass ich geschummelt habe – ich bin in eine semi-empirische Methode geraten.
Wer wird gewinnen? LDF natürlich. Warum? Weil die Parameter so angepasst sind, dass dabei der beste Fit für das wirkliche empirische Spektrum von Kohlenstoff herauskommt. Alle anderen unterschätzen das Korrelations-Loch, die Fehler werden systematisch vom korrekten Spektrum abweichen. Ihr Mittel wird systematisch abweichen. Durch die Gewichtung von Hartree (dümmster vernünftiger „auf der Physik beruhender Ansatz“) in gleichem Maße wie wie LDF beim „Ensemble“-Mittel wird garantiert, dass der Fehler in diesem „Mittel“ signifikant sein wird.
Nehmen wir mal an, wir wüssten nicht (ganz so, wie wir mal nicht wussten), welches Modell die besten Ergebnisse brächte. Nehmen wir weiter an, dass niemand das Spektrum von Kohlenstoff wirklich gemessen hätte, so dass dessen empirische Quantenstruktur unbekannt wäre. Wäre das Ensemble-Mittel dann sinnvoll? Natürlich nicht. Ich habe die Modelle in der Weise präsentiert, wie die Physik selbst eine Verbesserung vorhersagt – und habe später wichtige Details hinzugefügt, die von Hartree ausgelassen wurden. Man kann nicht sicher sein, dass das nachträgliche Hinzufügen dieser Details die Dinge wirklich verbessert, weil es immer möglich ist, dass die Korrekturen nicht monoton sind (und tatsächlich sind sie es in höheren Größenordnungen der Perturbations-Theorie mit Nahezu-Sicherheit nicht). Und doch würde niemand so tun, als sei das Mittel aus einer Theorie und einer verbesserten Theorie  „wahrscheinlich“ besser als die verbesserte Theorie selbst, weil das sinnlos wäre. Auch würde niemand behaupten, dass Ergebnisse der diagrammatischen Perturbations-Theorie notwendigerweise semi-heuristische Methoden wie LDF in den Schatten stellen könnten, weil das oft genug nicht der Fall ist.
Was man in der realen Welt tun würde wäre: das Spektrum von Kohlenstoff messen, dies mit den Vorhersagen des Modells vergleichen und erst dann dem Gewinner den Siegerkranz aushändigen. Niemals umgekehrt. Und da keiner der Gewinner exakt sein wird – tatsächlich war trotz jahrzehntelanger Forschung keiner der Gewinner auch nur in der Nähe beobachteter/gemessener Spektren, trotz des Gebrauchs von Supercomputern für die Berechnungen (zugegeben, die waren damals langsamer als Ihr Mobiltelefon heute) – würde man dann dennoch zurück am Zeichenbrett und der Eingabe-Konsole versuchen, es besser zu machen?
Können wir diese Art sorgfältigen Nachdenkens auf den Spaghetti-Knoten der GCMs und ihrer erheblich divergierenden Lösungen anwenden? Natürlich können wir das! Zuerst sollten wir aufhören so zu tun, als ob das „Ensemble“-Mittel und die Varianz irgendeine Bedeutung hätten und sie einfach nicht mehr berechnen. Warum sollte man eine bedeutungslose Zahl ausberechnen? Zweitens könnten wir wirkliche Klimaaufzeichnungen von einem beliebigen „Epochen-Startpunkt“ nehmen – der Startpunkt spielt langfristig keine Rolle, wir müssen den Vergleich über einen langen Zeitraum durchführen, weil für jeden beliebigen kurzen Zeitraum  von einem beliebigen Startpunkt aus ein vielartiges Rauschen die systematischen Fehler verschleiert – und wir können nur die Realität mit den Modellen vergleichen. Wir können dann die Modelle aussortieren, indem wir (mal angenommen) alle außer den oberen fünf in eine Art von „Fehler-Papierkorb“ legen und sie nicht mehr für irgendeine Art Analyse oder politische Entscheidungsprozesse heranzuziehen, es sei denn, sie fangen an, sich mit der Wirklichkeit zu vertragen.
Danach könnten sich echte Wissenschaftler hinsetzen und die fünf Gewinner betrachten – und darüber nachdenken, was sie zu Gewinnern gemacht hat – was sie dazu gebracht hat, der Realität am nächsten zu kommen – und den Versuch machen, sie noch besser zu machen. Zum Beispiel, wenn sie weit oben rangieren und von den empirischen Daten divergieren, könnte man überlegen, früher nicht beachtete physikalische Phänomene hinzuzufügen, semi-empirische oder heuristische Korrekturen oder Input-Parameter anzupassen, um den Fit zu verbessern.
Dann kommt der schwierige Teil – Abwarten. Das Klima ist nicht so einfach gebaut wie ein Kohlenstoffatom. Das Spektrum von Letzterem ändert sich nie, es ist immer gleich. Ersteres ist niemals gleich. Entweder ein dynamisches Modell ist niemals das Gleiche und spiegelt die Variationen der Realität, oder man muss sich damit abfinden, dass das Problem ungelöst und die unterstellte Physik falsch ist, wie „wohlbekannt“ auch immer diese Physik ist. Also muss man abwarten und sehen, ob ein Modell, das adjustiert und verbessert worden ist und das auf die Vergangenheit bis zur Gegenwart besser passt, tatsächlich einen Vorhersage-Wert hat.
Am schlimmsten ist, dass man nicht einfach mit Statistik entscheiden kann, wann und warum Vorhersagen scheitern, weil das verdammte Klima nicht-linear ist, nicht-Markovianisch, stattdessen chaotisch und offensichtlich auf nichttriviale Weise beeinflusst ist von einem globalen Wettbewerb von gegensätzlichen und manchmal sich aufhebenden, kaum verstandenen Faktoren: Ruß, Aerosole, Treibhausgase, Wolken, Eis. Dekadische Oszillationen, Störungen, entstanden aus dem chaotischen Prozess, die globale, anhaltende Änderungen der atmosphärischen Zirkulation auf lokaler Basis verursachen (z. B. blockierende Hochdruckgebiete über dem Atlantik, die dort ein halbes Jahr lang liegen bleiben). Diese Änderungen haben gewaltige Auswirkungen auf jährliche oder monatliche Temperaturen, Regenmengen und so weiter. Dazu orbitale Faktoren, solare Faktoren. Änderungen der Zusammensetzung der Troposphäre, der Stratosphäre, der Thermosphäre. Vulkane. Änderungen bei der Landnutzung. Algenblüten.
Und dann dieser verdammte Schmetterling. Jemand muss dieses blöde Ding zerquetschen, weil der Versuch, ein Ensemble aus einer kleine Stichprobe aus einem chaotischen System zu mitteln, so dumm ist, dass ich mich gar nicht damit befassen kann. Alles ist gut, solange man über ein Intervall mittelt, das kurz genug ist, um an einen bestimmten Attraktor gebunden zu sein, der schwingt und alles vorhersagbar macht – und dann mit einem Male ändern sich die Attraktoren und alles mit ihnen! All die kostbaren Parameter, empirisch fein eingestellt auf den alten Attraktor müssen nun durch neue Werte ersetzt werden.
Das ist der Grund, warum es tatsächlich unsinnig ist, der Vorstellung zuzustimmen, dass irgendeine Art p-Werte oder R², der aus irgendeinem Mittel im AR 5 abgeleitet ist, irgendeine Bedeutung hätte. Diese Vorstellung verliert ihren hohen Stellenwert (sogar dann noch, wenn man in guter Absicht zu argumentieren versucht, dass dieses „Ensemble“ elementare statistische Tests nicht bestünde). Statistisches Testen ist eine wahrhaft wackelige Theorie, offen für Datenmanipulation und horrende Fehler, vor allem, wenn sie von zugrunde liegenden IID-Prozessen [Independent and identically distributed processes] gesteuert wird („grüne Bohnen verursachen Akne“). Man kann nicht naiv ein Kriterium anwenden, wie z. B. „falsch, wenn P < 0,05“, und all das bedeutet im günstigsten Fall, dass die gegenwärtigen Beobachtungen unwahrscheinlich sind bei einer gegebenen Null-Hypothese von 19 zu 1. Auf solchem Niveau verlieren und gewinnen Spieler immer wieder ihrer Wetten.
Also möchte ich empfehlen – in aller Bescheidenheit – , dass die Skeptiker weiter hart bleiben, sich nicht auf dieses Feld locken lassen und durch Diskussionen über Fragen ablenken lassen, wie z. B. warum die Modelle in so erschreckender Weise untereinander abweichen, selbst wenn man sie auf identische Spiel-Probleme anwendet, die viel einfacher sind als die wirkliche Erde. Und ich möchte empfehlen, dass wir empirische Beweise nutzen (es werden immer mehr), um gescheiterte Modelle zurückzuweisen, und dass wir uns auf diejenigen konzentrieren, die der Realität am nächsten kommen. Dabei darf man keine Modelle benutzen, die offensichtlich überhaupt nicht funktionieren, und vor allem keine mit irgendwelchen Arten von Vorhersagen „durchschnittlicher“ zukünftiger Erwärmung …
Bei meiner verhältnismäßigen Ignoranz würde es mich fünf Minuten kosten, alle GCMs außer den besten 10 Prozent auszusortieren (auch diese divergieren noch hinsichtlich der empirischen Daten, liegen jedoch noch innerhalb der erwarteten Fluktuation des Datensatzes). Dann würde ich den Rest aufteilen in eine obere Hälfte mit den Modellen, die man eventuell behalten und möglicherweise verbessern könnte, und in eine zweite Hälfte, deren weitere Verwendung ich für Zeitverschwendung halte. Das würde sie natürlich nicht zum Verschwinden bringen, aber in die Mottenkiste. Falls sich das zukünftige Klima jemals magischerweise dazu aufraffen sollte, zu den Modellen zu passen, wäre es nur eine Frage weniger Sekunden, sie wieder hervorzuholen und zu benutzen.
Natürlich, wenn man das tut, fällt die von den GCMs vorhergesagte Klimasensitivität von den statistisch betrügerischen 2,5°C pro Jahrhundert auf einen wesentlich plausibleren und möglicherweise immer noch falschen Wert von etwa 1°C pro Jahrhundert. Dieser Wert – Überraschung! – stellt mehr oder weniger eine Fortsetzung des Erwärmungstrends nach der Kleinen Eiszeit dar mit einem möglicherweise kleinen anthropogenen Beitrag. Diese große Änderung würde zu einem großen Aufruhr führen, weil die Leute merken würden, wie sehr sie von einer kleinen Gruppe von Wissenschaftlern und Politikern ausgenutzt worden sind, wie stark sie Opfer von unhaltbarem statistischen Missbrauch geworden sind, indem man ihnen suggeriert hat, dass sie alle stimmen mit gewissen Unterschieden an den Rändern.
Link: http://wattsupwiththat.com/2013/06/18/the-ensemble-of-models-is-completely-meaningless-statistically/
Übersetzt von Chris Frey EIKE unter Mithilfe von Helmut Jäger




Vestas plant Medien – Kampagne für Windkraftanlagen!

Die "Danish Financial Daily Børsen" meldete vor einigen Tagen, dass Vestas Wind Systems Plc den Gegnern der Windkraft "den Krieg erklären" wolle.
Die dänische Windkraft-Firma startet derzeit eine Publikationsoffensive und einen Lobby-Feldzug mit dem Ziel, die "schweigende Mehrheit" für die Windkraft zu aktivieren, damit es Unterstützung für den weiteren Ausbau der Windenergie gibt.
Die Kampagne "Mit Faktenwissen agieren" wird in Australien gestartet, dort befindet sich laut Vestas ein Brutnest für die Anti-Winkraft-Bewegung. Vestas kooperiert mit der Windkraft-Entwicklungsfirma Infigen Energy, mit Australischen Universitäten und Grünen Pressure Gruppen.
"Die Anti-Winkraft-Bewegung stellt eine kleine, aber gut organisierte Minderheit dar, der es gelungen ist, einige ungeheuerliche Fakten über die Windkraft zu verbreiten", schrieb der Vestas Kommunikations- und Marketingchef Morten Albaeck in einer Presseverlautbarung.
Wenn die Kampagne im Pilotland Australien Erfolg hat, wird sie in anderen Ländern fortgesetzt.
Übersetzung und Einleitung: Helmut Jäger, EIKE




Interview mit Benny Peiser, Gründer der GWPF

Benny Peiser, Direktor der Global Warming Policy Foundation

Das scheiternde Modell grüner Energie in Europa hat eine grüne Elite immer reicher gemacht, während Millionen in die Energiearmut gefallen sind.
Frontier Centre (FC): Warum haben Sie eine Global Warming Policy Fondation ins Leben gerufen?
Benny Peiser (BP): Nun, das war wichtig, weil es einfach keinerlei Debatte irgendeiner Art in UK gab. Zur Zeit der Gründung im Jahr 2009 stimmten alle Parteien vollständig überein. Fast alle Bereiche der Medien stimmten vollständig überein. Wir hielten das für ungesund. Wir waren davon überzeugt, dass wir einer lebhaften Debatte bedürfen, und das ist das Hauptziel unserer Organisation.
FC: Warum aber haben Europa und UK den Gedanken einer vom Menschen verursachten Klimaänderung so umfassend begrüßt?
BP: Es ist nicht nur UK. Es ist ganz Europa. Die Angst vor der Klimaänderung ist aus einer ganzen Reihe von Gründen zu einer kollektiven Besessenheit geworden. Die Medien machten aus offensichtlichen Gründen einen Hype daraus, die Wissenschaftler auch. Dann nahm diese Angst die Vorstellung weiter Teile der Gesellschaft gefangen, aber niemand wollte sich die Mühe machen, die ureigene Grundlage dieser Angst genau zu untersuchen. Wir glaubten, dass wir beides machen müssen: a) Sehr sorgfältig auf die Behauptungen und die Vorhersagen schauen; nicht so sehr auf die Wissenschaft, sondern mehr auf die Art von Behauptungen, in denen es darum geht, was in der Zukunft passiert und b) im Besonderen, welche ökonomischen Kosten die politischen Maßnahmen nach sich ziehen, die eingeführt und gefördert worden sind.
FC: Sie haben in ihren Ausführungen erwähnt, dass die Politik die größte Umverteilung von Wohlstand von unten nach oben, von den Armen zu den Reichen involviert. Können Sie das näher ausführen?
BP: Wir sprechen über einen Wohlstands-Transfer in einer Größenordnung von etwa 600 Milliarden Euro während der letzten acht Jahre. An grüne Investoren, hauptsächlich Landbesitzer und sehr wohlhabende Familien, die große Solarpaneele auf ihre Dächer montiert haben, wurden umfangreiche Subventionen gezahlt. Diese 600 Milliarden Euro mussten von normalen Familien und kleinen bis mittleren Unternehmen aufgebracht und an die privilegiertesten Mitglieder der europäischen Gesellschaft gezahlt werden. Das ist der größte Wohlstands-Transfer im modernen Europa seit sehr, sehr langer Zeit, wenn nicht jemals.
FC: Sie beleuchteten die Ironie in den USA, in denen es keine Politik zur Klimaänderung gibt und der Ausstoß von Treibhausgasen trotzdem abnimmt, während in Europa die Emissionen steigen trotz der eigenen interventionistischen Politik.
BP: Nun, es ist sozusagen geologisches Glück für Amerika, dass all diese riesigen Reserven von Schiefergas entdeckt worden sind, und zwar nicht als Ergebnis der Politik der Regierung. Tatsächlich wäre die Regierung vielleicht sogar zögerlicher gewesen als der private Sektor bei der Ausbeutung der Schieferreserven, aber als eine direkte Folge der Funde dieser überaus ergiebigen Form von Erdgas wurde Gas so billig, dass sie im Wettbewerb mit Kohle bestehen konnte. Es gibt in den USA eine starke Bewegung von Kohle- zu Gaskraftwerken. Dies ist aus sich selbst heraus verantwortlich für den signifikanten CO2-Rückgang in den USA. In Europa war man dagegen bislang sehr gegen die Extraktion von Schiefergas und setzt auf Kohle. Daher das entgegen gesetzte Ergebnis.
FC: Es wurde gesagt, dass ‚grün das neue rot ist’. Tatsächlich hat ein Landsmann von Ihnen ein Buch über die Wassermelonen geschrieben. Es scheint auch eine Verbindung zu geben zwischen dieser Art der Bewegung und der Besessenheit von Planung. War dies Teil Ihrer Observierung als ein sozialer Wissenschaftler?
BP: Nun, es wäre für uns alle viel einfacher, wenn es lediglich um einen Fall für die Linken geht, die sich dieses Themas annehmen. Unglücklicherweise befürwortet in Europa aber leider jede Partei egal welcher politischen Überzeugungen die Planwirtschaft und ist grün geworden. Es ist überhaupt keine Angelegenheit der Linken in Europa. Es ist vollständig und total von allen Parteien begrüßt worden, und die rechten brennen genauso auf die Planwirtschaft wie die Linken. [Hervorhebung vom Übersetzer!]
FC: Bleiben wir noch einen Moment bei diesem Aspekt. Eine der vielen Dinge, die Sie in ihrem Vortrag angesprochen haben und die die Leute beeindruckt haben, war diese Analogie zur Religion. Sie sprachen über Kruzifixe und Schiefergas. Es weckt Assoziationen zu „The Pursuit of the Millennium” von Norman Cohn. Können Sie dazu noch etwas sagen?
BP: Offensichtlich gibt es viele Ähnlichkeiten zwischen der Hysterie um die globale Erwärmung einschließlich des salvationistischen Armes der Angst. Einerseits gibt es die Befürchtung, dass wir vor dem Untergang stehen. Andererseits lautet die salvationistische Lösung, Windparks zu errichten. Also gibt es sehr viele Ähnlichkeiten zwischen einer Bewegung über die Jahrtausende, die während ihrer gesamten Historie säkulare Bewegungen wie den Kommunismus einschließt, in dem ein Hype um die Angst erzeugt wird und eine salvationistische und utopische Lösung angeboten wird. In fast allen diesen Fällen ist es die Elite, die die Angst befeuert und die Lösung vorschlägt, und es ist die Elite, die von diesen Lösungen profitiert. Die einzigen Menschen in Europa, die wirklich riesige Profite daraus schlagen, sind grüne Investoren. Das sind weniger als 1%. Drückt man das in der Sprache der Wall Street aus, würde man sagen, dass es weniger als 1% der Bevölkerung ist, der riesige Summen Geldes auf dem Rücken dieser Angst verdient.
FC: Die Klimamodelle funktionieren nicht, und da gibt es diese schlimme Stille da draußen darüber. Sie sagen 2 Grad Erwärmung voraus, die nicht eintreten. CO2 steigt, aber wir haben sehr kaltes Wetter. Glauben Sie, dass die Medien eventuell einräumen werden, dass die Fakten einfach nicht zur Theorie passen?
BP: Die Medien in UK sind geteilt. Ich glaube nicht, dass irgendein anderes Land als UK eine so lebhafte Medienszene aufweist. Die Medien sind extrem geteilt. Es gibt die Mitte-Rechts-Medien, einige der nationalen Zeitungen, die Murdoch-Veröffentlichungen, die viel skeptischer sind und genau darüber schreiben, was Sie fragen zu den Diskrepanzen zwischen den Modellen und den Vorhersagen und der Realität. Dann gibt es da die Mitte-Links-Medien einschließlich der BBC, die immer sehr zögerlich waren, über irgendetwas zu berichten, was dem grünen Narrativ widersprach. Das meine ich mit geteilt, aber die Tatsache, dass man sehr signifikante Sektionen der Medien hat, die sehr kritisch sind, macht den ganzen Unterschied aus. Das hat die Parlamentsabgeordneten beeinflusst, sehr viele von ihnen, und diese sagen jetzt, dass man etwas hinsichtlich der Kosten unternehmen müsse.
FC: Wir haben in Kanada Politiker, die immer noch Kohlenstoffsteuern erheben und sogar einen Zertifikatehandel einführen wollen. Aber Ihrer Geschichte von Europa zufolge sind die dortigen Folgen nicht ermutigend. Was geschah mit dem Zertifikatehandel und Kohlenstoffsteuern in Europa?
BP: Nun, der ist im Wesentlichen zusammen gebrochen. Das ganze System des Emissionshandels ist vollständig zusammen gebrochen, und zwar inzwischen bis zu einem Ausmaß, dass das Europaparlament nicht länger gewillt ist, dieses System noch zu retten. Ein wichtiges Ereignis fand erst vor etwa vier Wochen statt – das war wie ein Alarmruf, dass Europa nicht länger gewillt ist, egal was es kostet, das sinkende Flaggschiff der europäischen Klimapolitik, nämlich den Emissionshandel zu unterstützen. Dieser ist vollständig und total gescheitert. Also lautet die Botschaft an das kanadische Publikum, wer immer dort es hören will, dass man sich anschauen muss, was in Europa passiert und nicht die gleichen Fehler wie dort zu wiederholen. Man sei vorsichtiger und stürze sich nicht in Risiken. Man warte ab und lerne seine Lektion aus dem Scheitern in Europa, das vollständige Scheitern der europäischen Klimapolitik.
FC: Wir haben einige Provinzen, besonders British Columbia, die eine Kohlenstoffsteuer eingeführt haben. Das ist politisch korrekt, und viele Politiker scheinen das zu begrüßen. Sind Sie skeptisch hinsichtlich der Idee einer Kohlenstoffsteuer?
BP: Nein, jedenfalls nicht aus Prinzip. Tatsächlich werden wir demnächst einen Bericht zu einer Kohlenstoffsteuer von Ross McKitrick veröffentlichen. Wenn man wirklich ernsthaft das Problem der globalen Erwärmung angehen will, würde man eigentlich die Steuer an die Temperatur koppeln und sagen: Wenn es wirklich ein reales Problem mit der globalen Erwärmung gibt, steigt die Steuer, und wenn das nicht der Fall ist, gibt es keine Steuer. Also können beide Seiten im Prinzip mit diesem Gedanken zufrieden sein. Offensichtlich würde keine Regierung jemals eine Steuer einführen, bei der die Temperatur anstatt des Finanzministers den Finger am Griff dieser Steuer hat. Aber eine solche Politik würde mit Sicherheit die grüne Lobby herausfordern und zeigen, dass deren politische Maßnahmen wenig sinnvoll sind und dass man tatsächlich eine kosteneffektive Lösung finden muss, um das Problem der globalen Erwärmung anzugehen. Kurz gesagt, ich bin nicht aus Prinzip gegen eine Kohlenstoffsteuer, aber sie muss auf eine Art und Weise eingeführt werden, die ökonomisch Sinn macht und es dabei tatsächlich um diese Angelegenheit geht. Man will etwas gegen die globale Erwärmung tun? Dann muss die Steuer a) mit dem Problem verknüpft werden und b), wenn es kein Problem gibt, soll es auch keine Steuer geben, und c) sie muss ggf. international kommen. Es ist nicht gut, das als Einzelner einzuführen. Was in Europa und speziell in UK im Wesentlichen passiert ist, dass wir unsere Emissionen via Industrieproduktion dort nach China exportiert haben. Von dort kommen jetzt alle CO2-Emissionen. Wir importieren dann die fertig hergestellten Produkte, haben aber die Emissionen exportiert. Wir haben die Emissionen ausgesondert, indem wir den Herstellungsprozess ausgesondert haben. Es gibt keine Auswirkungen auf die CO2-Emissionen, wenn man diese einfach woanders hin auslagert.
FC: Sie haben heute erwähnt, dass heute wegen dieser politischen Maßnahmen in England 30000 Menschen zusätzlich sterben.
BP: Nicht wegen dieser Maßnahmen. Sie sterben, weil ihre Wohnungen in England nicht mehr ordentlich beheizt sind. Das war zwar schon vor Einführung dieser Maßnahmen der Fall, aber nach der Einführung ist dieses Problem erheblich schlimmer geworden. Immer mehr Familien kämpfen mit enormen Anstiegen der Energiepreise, was es für diese Menschen immer schwieriger macht, ihre Wohnungen während kalter Winter ausreichend zu heizen. Dann gibt es Wintertote.
FC: Die kanadische Regierung arbeitet weiterhin mit dem Narrativ der Warmisten, nämlich dass CO2 ein Problem ist und dass wir unsere Emissionen reduzieren müssen. Wir nennen es eine Kopf-in-den-Sand-Strategie, denn man kann das nicht tun, wenn das Narrativ falsch ist. Haben Sie irgendwelche anderen Vorschläge an die Regierung?
BP: Der Schlüsselgrundsatz, dem die GWPF in UK folgt, lautet: Seht, es geht nicht um die Wissenschaft. Die Wissenschaft ist zweitrangig. Es geht hauptsächlich um Klimapolitik und die Kosten dieser Politik und deren Maßnahmen, die man einführt. Kurz gesagt, die Maßnahmen müssen sinnvoll sein. Wenn man also der globalen Erwärmung entgegen treten will, muss man zuallererst ein internationales Abkommen haben. Ist dieses nicht vorhanden, werden einseitige Maßnahmen keine Auswirkungen irgendwelcher Art auf CO2 oder Emissionen oder das Wetter haben. Folgen Sie also nicht einseitigen Zielen, die Sie einseitig schädigen. Wenn man umweltfreundliche Maßnahmen ergreifen will, mache man das so, dass die Menschen davon profitieren. Und nicht so, dass die Menschen geschädigt werden. Das ist eine ganz andere Vorgehensweise. Wir sagen nicht: lassen Sie das, weil die Wissenschaft zweifelhaft ist, weil kein politischer Entscheidungsträger das heute so sagen würde – mit nur sehr, sehr wenigen Ausnahmen. Es bedarf eines sehr, sehr exzentrischen Politikers, wenn dieser sagt: Sehen Sie, ich höre dem Wissenschafts-Berater und der wissenschaftlichen Gemeinschaft nicht zu, weil ich es besser weiß. Ich weiß, dass die Wissenschaft zweifelhaft ist, darum werde ich die Politik ändern. Das ist keine ausreichende Basis für einen rationalen Politiker. Man muss sehr logisch und ökonomisch einwandfrei klingende Argumente haben, warum man bestimmte Maßnahmen übernimmt und warum man andere Maßnahmen ablehnt – unabhängig vom Stand der Wissenschaft. Schließlich könnte es weitere zehn oder zwanzig Jahre dauern, bevor wir besser wissen, wie gut die Wissenschaft ist. Soweit ich weiß, kann es in beide Richtungen gehen. Ich sage nicht, dass die Skeptiker recht haben und das konventionelle Wissen falsch ist. Wer bin ich, dass ich eine solche Entscheidung treffen kann? Es kann sein, dass beide Seiten falsch liegen, aber wir sind noch nicht an einem Punkt, wo die Richtung eindeutig feststeht.
FC: Sie haben heute über Glaubenssysteme gesprochen und den Terminus ‚religiöser Kult’ benutzt sowie Parallelen zum Sozialismus gezogen. Können Sie das näher ausführen?
BP: Nun, die Parallele zum Sozialismus ist ziemlich geradlinig. Es ist, als ob es die Regierung am besten weiß, die Regierung wird dies oder das verwerfen, die Regierung wird im Voraus planen und sie wird Gewinner aussuchen. Es ist der Gedanke der Regierungs-Planung, und Regierungspläne und –ziele sind Lösungen eines komplexen Systems, und diese Planwirtschaft haben eine armselige Geschichte hinter sich, und ich sehe keinerlei Gründe, warum es diesmal besser laufen soll als die vielen Fiaskos, zu denen es dabei in der Vergangenheit gekommen war. Hier also kommt die Gleichartigkeit zur alten, sozialistischen Planwirtschaft ins Spiel. Ausgedrückt mit Termini eines religiösen Glaubenssystems ist es der Unwille zu Diskussionen; es ist wie ein Dogma, das man nicht in Frage stellen kann. In einer offenen Gesellschaft sollte es keine Dogmen geben, schon gar nicht in der Wissenschaft, der Wirtschaft oder bei politischen Entscheidungen. Die Tatsache, dass sie nicht willens sind, in eine offene Debatte einzutreten, ist ein Hinweis darauf, dass sie die ganze Sache von einer genauen Prüfung ausschließen wollen, und das ist ein typisches Anzeichen von Engstirnigkeit und ein religiöses Zeichen von Glaube oder einem Glaubenssystem.
Sie haben kurz den Schaden für den wissenschaftlichen Prozess gestreift. Können Sie dazu noch ein paar Worte sagen?
BP: Nun, meiner Ansicht nach hat die wissenschaftliche Gemeinschaft einen schlimmen Fehler gemacht, als sie eine starke und einseitige Sicht von einer hoch komplexen und umstrittenen Angelegenheit übernommen hat, die alles andere als settled ist. Ich sage nicht, dass ich die richtige Antwort kenne, aber ich bin ziemlich sicher, dass diese Debatte alles andere als abgeschlossen ist. Es gibt noch viel zu viele offene Fragen. Einige Fragen können gelöst sein, aber die sind irrelevant im Vergleich zu der über allem stehenden Frage hinsichtlich der nächsten 100 Jahre. Vor allem hinsichtlich der Frage, ob die Klimaänderung zu irgendwelchen signifikanten Katastrophen führt oder nicht. Nach allem, was ich weiß, wäre ein wenig Erwärmung sehr vorteilhaft und könnte viel Gutes bewirken. Ein wenig Erwärmung war während ihrer gesamten Geschichte für die Gesellschaft vorteilhaft. Es ist das Niveau und die Breite der künftigen Erwärmung – ich denke, dass es hier keinerlei Übereinstimmung irgendeiner Art gibt. Selbst wenn man die grundlegendsten physikalischen Phänomene akzeptiert, ist es alles andere als klar, was das langfristig bedeutet.
FC: Können Sie abschätzen, ob sich Europa jemals aus diesem selbst geschaffenen Loch herausziehen kann?
BP: Man scheint in Europa hinsichtlich einiger einseitiger politischer Maßnahmen zurückzurudern. Politische Entscheidungsträger überlegen sich jetzt, die grüne Dekarbonisierungs-Agenda zu verlangsamen. Aber wenn Europa auf diesem einseitigen Weg weiter vorangeht, dann, so glaube ich, haben sie dort kaum eine Chance im internationalen Wettbewerb des 21. Jahrhunderts.
FC: Vielen Dank!
View as PDF (3 pages)
Link: http://www.fcpp.org/publication.php/4586
Übersetzt von Chris Frey EIKE




Der Kollaps des Schwindels um die globale Erwärmung geht weiter

Dirigiert innerhalb der Kammern der korruptesten internationalen Organisation auf dem Planeten Erde, also den Vereinten Nationen, hat dieser Schwindel zum Kyoto-Protokoll im Dezember 1997 geführt, in dem Grenzen der Kohlendioxid-Emissionen festgeschrieben worden waren. Die Klima-Scharlatane der UN behaupteten, dass das CO2 zu einer dramatischen Erwärmung der Erde führen würde. Es war eine Lüge. Der US-Senat hat es einstimmig abgelehnt, das zu ratifizieren, und Kanada hat sich im Jahr 2011 daraus zurückgezogen.
Wie der geschäftsführende Direktor von CFACT Craig Rucker von den kürzlichen Klimaberatungen der UN in Bonn berichtet, hat Russland zusammen mit der Ukraine und Weißrussland die Übernahme der Agenda der „Tochtergesellschaft der Implementation“, Teil des Weges zu einem Klima-Abkommen im Jahr 2015 in Paris, blockiert. Teil dieses Abkommens ist ein System, um den Wohlstand der entwickelten Nationen zu den weniger entwickelten Nationen umzuverteilen.
Die Russen hatten von diesen normalerweise hinter verschlossenen Türen  stattfindenden Prozessen, die solche Verträge hervorbringen, die Nase voll, aber zweifellos waren sie sich bewusst, dass ein solches Abkommen den UN so viel Macht zukommen lassen würde, dass sie einen großen Teil der ökonomischen Aktivitäten auf der ganzen Welt kontrollieren könnten. Alle UN-Verträge verpflichten die Nationen, einen Teil ihrer nationalen Souveränität aufzugeben.
Es gibt ganz klar einen Rückschlag für den Schwindel der globalen Erwärmung, vor allem von Nationen, denen plötzlich die Kosten für ihre Ökonomien klar geworden sind, die die idiotischen Schemata „erneuerbarer“ Energie und der Reduzierung von Emissionen verursachen. In der realen Welt machen sie die Erfahrung längerer und strengerer Winter als Folge des Abkühlungszyklus’, in der sich die Erde seit etwa siebzehn Jahren befindet.
Trotz der unablässigen Behauptungen von Präsident Obama, dass sich die Erde erwärmt, haben Wissenschaftler sowohl in Russland als auch in China Daten von wissenschaftlichen Studien veröffentlicht, die die Große Lüge der globalen Erwärmung/Klimaänderung bloßstellen.
Die chinesische Academy of Sciences – 50000 Mitglieder stark – veröffentlichte vor Kurzem zwei Ausgaben mit den Titeln „Climate Change Reconsidered und Climate Change Reconsidered: 2011 Interim Report”. Sie enthalten über 1200 Seiten begutachteter Daten zur Klimaänderung, die vom Heartland Institute in den Jahren 2009 und 2011 veröffentlicht worden waren.
Im Mai hat Marc Morano, Herausgeber von ClimateDepot.com und ein ehemaliges Mitglied im Environmental & Public Works Committee des US-Senats dem Komitee eine schriftliche Aussage zukommen lassen [auf Deutsch bei EIKE hier].

Morano schrieb an den US-Kongress: „Die wissenschaftliche Realität lautet, dass sich hinsichtlich fast jeder Behauptung – von A bis Z – der Befürworter der vom Menschen verursachten Klimaängste diese als falsch herausstellen, und in vielen Beispielen bewegen sich die Behauptungen in die entgegen gesetzte Richtung. Die Bewegung der globalen Erwärmung erleidet den wissenschaftlichen Tod durch Tausend Schnitte!“
Und weiter: „Es gibt keine Beweise. Wir haben gegenwärtig kein ungewöhnliches Wetter“. Wetterereignisse wie der Tornado von Moore in Oklahoma oder der subtropische Sturm Sandy im Nordosten der USA sind normale Ereignisse, trotz der von ihnen verursachten Schäden.
Im Mai hat der Physiker und Geologe Dr. William Happer von der Princeton University, der auch im Rahmen einer NASA-Mission den Mond betreten hatte, im Wall Street Journal geschrieben: „Dank der einseitigen Dämonisierung dieses natürlichen und unabdingbar notwendigen atmosphärischen Spurengases seitens der Befürworter einer regierungsamtlichen Kontrolle der Energieerzeugung ist das konventionelle Wissen über Kohlendioxid das eines gefährlichen Verschmutzers. Und das stimmt einfach nicht!“
Buchstäblich tausende Wissenschaftler auf der ganzen Welt haben die „Wissenschaft“ des IPCC zurückgewiesen, und viele ehemalige „Warmisten“ haben ihre frühere Denkweise umgekehrt. Dr. Lennart Bengtsson, ein schwedischer Spitzen-Klimawissenschaftler, der früher auch mit dem IPCC verbunden war, sagte im Februar: „Wir erzeugen große Angst, ohne dass dies gerechtfertigt ist … es gibt keinerlei Hinweise, dass die Erwärmung so stark ausfällt, dass wir in Panik geraten müssen…
„Die Erwärmung, die wir während der letzten 100 Jahre erlebt haben ist so gering, dass wir sie ohne Meteorologen und Klimatologen, die sie gemessen haben, überhaupt nicht bemerkt hätten“.
Die Bedrohung, der die Amerikaner gegenüber stehen, stammt von der EPA, die fest an die Große Lüge über das CO2 glaubt und diese als Basis nutzt, um eine Flut von Regulationen zu erlassen, die unsere wirtschaftliche Erholung und Entwicklung schwer schädigen.
Das Gleiche gilt für das Energie- und das Innenministerium, die den Zugang zu den heimischen riesigen Reserven von Energieressourcen verwehrt und im Falle der Kohle alles tun, um den Bergbau und die Kraftwerke zu zerschlagen, die die Kohle zur Stromerzeugung brauchen.
Der Schwindel der globalen Erwärmung/Klimaänderung wird weiterhin weit verbreitet in den Schulen gelehrt, und das muss aufhören. Jetzt!
Er wird weiterhin als eine Wahrheit verkauft von den Mainstream-Medien und als Futter für Hollywood-Filme, ebenso wie für Fernsehprogramme wie den National Geographic-Kanal.
Trotz der Lügen um die globale Erwärmung/Klimaänderung liegt der Schwindel in seinen letzten Zügen, und das schon seit vielen Jahren. Das ist die gute Nachricht.
© Alan Caruba, 2013
Link: http://factsnotfantasy.blogspot.de/2013/06/the-continuing-collapse-of-global.html
Übersetzt von Chris Frey EIKE




Die Gefahren der Energie-Technokratie

Die Bewegung der Technokraten, die sich Anfang des 20. Jahrhunderts bildete, befürwortete den Übergang der Entscheidungsgewalt der Regierung auf Wissenschaftler, Ingenieure und andere „Technokraten“. Begründet wurde dies mit dem Expertenwissen der Technokraten, das zu besseren Entscheidungen führen würde als von privaten Unternehmen.
Der Gedanke der Technokratie war enthalten in dem Konzept der Planwirtschaft und war von Thorstein Veblen verkündet und von der Sowjetunion übernommen worden. In den frühen Jahren der Großen Depression erfreute sich die Bewegung erneuerter Popularität. Der Glaube, dass technische, rationale und unpolitische Erfahrung die Wirtschaft wiederbeleben kann, war groß.
Wie es der Zufall so wollte, war einer der Befürworter der Technokratie M. King Hubbert, der später seine Theorie von Peak Oil entwickelte. Hubbert schlug auch vor, Energiezertifikate auszugeben, die konventionelles Geld ersetzen sollen. Diese Zertifikate könnten allen Mitgliedern eines kontinentalen nordamerikanischen „Technikums“ [„technate“] in gleicher Zahl zuerkannt werden. Später wurde Hubbert Geowissenschaftler bei Shell Oil.
Ein Energie-Comeback
Das Interesse an der Technokratie-Bewegung schwächte sich Ende der dreißiger Jahre ab, feierte aber überraschenderweise im Bereich Energie ein Comeback. Der Glaube der Obama-Administration, dass sich die Regierung Spitzen-Energie-Technologien aussuchen kann, ist etwas, das sich in gerader Linie bis zur Technokratie-Bewegung zurück verfolgen lässt.
Trotz der Erklärung von F. A. Hayek, wie Märkte Informationen verarbeiten und Entscheidungen durch Individuen im privaten Bereich koordinieren, glauben viele in der gegenwärtigen Administration, zusammen mit seinen Unterstützern, dass Wissenschaftler, die den Nobelpreis gewonnen hatten wie z. B. Energieminister Steven Chu besser positioniert sind, um die Wirtschaft auf den „korrekten“ Weg in die Zukunft zu führen und dies schneller zu tun als der Markt.
Das Problem mit der Technokratie, dem sich die Planwirtschaftler gegenüber sehen, geht über das Hayek’sche Informationsproblem hinaus. Die Entscheidungsträger hinsichtlich regierungsamtlicher Investitionen haben „kein dickes Fell in diesem Spiel“. Sie riskieren nicht ihr Geld oder das Geld von Investoren, die freiwillig ein Risiko eingehen.
Vielmehr riskieren sie das Geld der Steuerzahler, weil diese unwissentlich gezwungen werden, Investoren bei Regierungsprojekten zu werden. Die Struktur der Anreize für die Entscheidungsträger der Regierung ist folglich eine andere als die, der private Unternehmen gegenüber stehen.
Die Investoren privater Unternehmen können das Risiko, dem sie gegenüber stehen abschätzen. Sie haben Zugang zu Investment-Analysen und Einschätzungen durch Rating-Agenturen wie Moody’s oder Standard & Poor. Wenn ein Unternehmen in öffentlicher Hand ist, können Investoren Maßzahlen des Risikos finden wie Betas [?] Was aber hat der Steuerzahler in der Hand? Er hat die Beteuerung, dass Steven Chu und andere Wissenschaftler besser in der Lage sind als private Unternehmen auszusuchen, welche Technologien man übernehmen kann.
Die Vergangenheit als Prolog
Die Regierung hat auch früher schon in den Energiemärkten interveniert. Neben Preis- und Zuteilungs-Kontrollen von Öl sowie Preiskontrollen bei Erdgas hat uns die Regierung das Power Plant and Industrial Fuel Use Act of 1978 [ etwa: Gesetz für Kraftwerke und den industriellen Treibstoffverbrauch 1978] gegeben, das auf der Meinung von Experten beruhte, wonach uns das Erdgas ausgehen würde und folglich dessen Verbrauch limitiert werden musste. Folglich hat das Fuel Use Act den Verbrauch von Erdgas in der Industrie und durch neue Kraftwerke zur Stromerzeugung begrenzt [Original: Thus, the Fuel Use Act restricted the use of natural gas for industrial uses and by new power plants for electricity generation]. Glücklicherweise wurde dieses Gesetz administrativ und legislativ abgeschwächt und schließlich im Jahre 1987 aufgehoben. Die Erdgasproduktion in den USA brach in der Folge im Jahr 2011 den bisherigen Rekordwert des Jahres 1973. Im Jahr 2012 wurde auch dieser Rekord gebrochen.
Die Regierung wählte eine andere „Gewinner”-Strategie, als sie die Synthetic Fuels Corporation im Jahr 1980 ins Leben rief, deren Ziel es war, innerhalb von fünf Jahren zwei Millionen Barrel flüssigen Treibstoff pro Tag zu erzeugen. Aber leider wurde diese Gewinner-Strategie durch den zwei Jahre später folgenden Rückgang der Ölpreise beeinträchtigt sowie durch eine Administration, die eine düsterere Sicht auf die von der Regierung ausgewählten Gewinner hatte. Die Corporation wurde 1985 abgeschafft.
Zurück zum (vorhersehbaren!) Scheitern
Ohne Rücksicht auf frühere Erfahrungen stieg die Regierung 2009 erneut in das Energie-Investment ein, und Einiges war regelrecht albern. Susan Kraemer schwärmte, dass Steven Chu schließlich „den Nagel in den Sarg derjenigen einschlug, die sagen, dass die Regierung Gewinner und Verlierer nicht aussuchen kann”:
Das Aussuchen von Gewinnern, um darin im Namen der Öffentlichkeit zu investieren, macht Sinn. Jetzt sieht es so aus, als ob unsere eigene Regierung genauso smart wird wie die japanische Regierung in den neunziger Jahren. Trommeln für unser neues DOE [Energieministerium]. Heute bin ich stolz, ein Amerikaner zu sein.
Diese Überschwänglichkeit kam, bevor Solyndra (Empfänger einer Zuwendung in Höhe von 535 Millionen Dollar) bankrott ging. Fisker Automotive (Zuwendung 529 Millionen Dollar) hat kürzlich 75 Prozent seiner Mitarbeiter entlassen und steht dem Vernehmen nach ebenfalls vor dem Bankrott. Tesla, ein anderer Hersteller von Elektroautos und Empfänger von 465 Millionen Dollar behauptet, einen Profit zu erzielen, wenn es Autos zu Preisen zwischen 49900 Dollar und 180000 Dollar verkauft. Während Tesla-Kunden wie Leonardo DiCaprio von der Regierungsunterstützung für Tesla profitieren, kann man sich fragen, ob diese Zuwendungen im öffentlichen Interesse sind.
(Übrigens kann man stattdessen ein Tesla auch für 500 Dollar pro Monat leasen. Unglücklicherweise für Tesla stellen Analysten die Realität dieser Leasing-Raten in Frage und sagen, dass die wirklichen Kosten viel höher sind. Auf der Haben-Seite von Tesla steht dem Unternehmen zufolge die „volle Profitabilität“ im letzten Quartal, allerdings wurde in diesem Statement nicht spezifiziert, was „voll profitabel“ heißt. Es scheint, dass Tesla die Grenze nach Gutdünken festlegte und den Sieg beanspruchte).
Marktdisziplin … eine politische Laune
Ein Privatunternehmen wählt seine Investment-Projekte so aus, dass ein Verdienst genauso groß oder größer ausfällt als die Hindernisgröße, die es als Filter festlegt. Hindernisgrößen werden typischerweise mit den gewichteten mittleren Kosten der Kapitalerhebung verbunden und schließen die Kosten des Aktienkapitals und der Schulden ein. Ein Risikofaktor kann den mittleren Kosten des Kapitals hinzugefügt werden, das das spezifische Risiko eines Projektes in Betracht zieht.
Unternehmen werden durch die Disziplin der Marktkräfte gezwungen, Investitionen, die sich nicht so rentieren wie gedacht, zurückzufahren oder den Stecker ganz zu ziehen. Wie Armen Alchian in seinem klassischen Artikel mit dem Titel „Uncertainty, Evolution and Economic Theory“ beschrieb, können Unternehmen, die nicht sofort reagieren, die Profite nicht maximieren und werden in der Folge eventuell sogar im Zuge des Wettbewerbs aus dem Markt gedrängt.
Der Ersatz für eine Subvention oder einen Niedrigzins-Kredit der Regierung ist keine Option für Unternehmen, die sich auf private Finanzierung verlassen. Außerdem haben diese Unternehmen keinen Schutz durch Wettbewerber, die in den Markt drängen und neue Produkte oder Technologien anbieten (Beispiele: Betamax vs. VCR; VCR vs. DVD; DVD vs. streaming, Apple iPhones vs. Samsung Galaxy or Nokia Lumia, etc., etc.).
Dies gilt nicht für Regierungs-Beteiligungen. Die Regierung ist in der Lage, in die Taschen der Steuerzahler zu langen, um ein Projekt am Laufen zu halten. Kraemer weist darauf hin, dass die Unterstützung der Regierung gebraucht werden könnte, „zumindest zu Anfang“, aber die Länge dieser Anfangsperiode wird jedermann’s Einschätzung überlassen. Wie Regierungsagenturen, die selten Gegen­stand des Scheiterns sind, kann ein regierungsamtlich gefördertes Projekt einfach dadurch am Leben gehalten werden, weil es im Interesse von Politikern ist, Projekte laufen zu haben, die Arbeitsplätze in ihre Amtsbereiche bringt.
Und schließlich gibt es keinen Beweis, dass Regierungs-Wissenschaftler und Ingenieure die Zukunft besser vorhersagen können oder besser wissen, was die Zukunft bereit hält, als die Wissenschaftler und Ingenieure in Privatunternehmen. Technokraten ignorieren die Tatsache, dass private Unternehmen ebenfalls Wissenschaftler und Ingenieure beschäftigen (nicht zu erwähnen die MBAs und Wirtschaftler) und Investitionen aufgrund ihrer Erwartungen an die Zukunft vornehmen.
Die Essenz an diesem Punkt lautet, dass Entscheidungen privater Investitionen von dem Profit-Motiv gelenkt werden. Aber was lenkt die von der Regierung angestellten Wissenschaftler und Ingenieure, die für Firmen arbeiten, die in Regierungshand sind? Ist es einfach das Vertrauen in ihre Visionen? Und gibt es irgendwelche Beweise, dass ihre Visionen von der Zukunft besser sind als die aus dem privaten Bereich Kommenden?
Link: http://www.masterresource.org/2013/05/the-perils-of-energy-technocracy/
Übersetzt von Chris Frey EIKE