Europas anti-wissen­schaftliche Seuche erreicht Afrika

Karte: FAO

Die rasch brütende Wüstenheuschrecke hat sich in Kenia, Somalia und Äthiopien ausgebreitet und dort den Ausnahmezustand erzeugt.

Die Schädlinge landeten in Djibouti, Eritrea, Oman und Jemen, auch Tansania und Uganda wurden von Schwärmen schon heimgesucht. Von allein wird die Plage nicht aufhören. Der FAO zufolge handelt es sich um die „schlimmste Lage seit 25 Jahren“.

Die Biester fressen jede Pflanze auf ihrem Weg und hinterlassen verwüstete Getreidefelder und Weideflächen. Sie können am Tag bis zu 150 km zurücklegen. In Kenia sind bereits eine Million Hektar betroffen ohne jedes Anzeichen einer Abschwächung.

Die Auswirkungen auf die Bevölkerung ist verheerend. 25 Millionen Menschen sind einer Schätzung von Oxfam zufolge bereits von Hunger betroffen.

Aber anstatt durch die afrikanischen Nationen zu touren und den Menschen in dieser Zeit großer Gefahr beizustehen, hatten von der EU finanzierte NGOs nichts Besseres zu tun als im kenianischen Parlament einzufallen und von den Abgeordneten zu fordern, dass die Regierung im Kampf gegen die Heuschrecken abrüstet. Sie wollen die kenianische Regierung dazu bringen, die gegen die Heuschrecken eingesetzten Pestizide zu verbieten, obwohl diese das einzige effektive Mittel sind, welche diese Insekten aufhalten und verhindern kann und dass die Krise noch weiter außer Kontrolle gerät. Experten zufolge kann ein Pestizid wie Fenitrothion eine Schlüsselrolle spielen, die Heuschrecken in Kenia und anderen afrikanischen Ländern zu eliminieren. Ordnungsgemäß angewendet können die Schwärme damit deutlich eingeschränkt werden. Aber Kenia fehlt es an den Mitteln, die es so dringend braucht.

„Das Pestizid Fenitrothion ist sehr effektiv. Es tötet Heuschrecken innerhalb von 40 Minuten bis zu 6 Stunden nach dem Versprühen“, sagte Salad Tutana, der Leiter des Northern Kenya Locust Control Coordination-Teams. Mr. Tutana sagt , dass es derzeit eine Verknappung dieses Pestizids gebe, dass aber soeben eine neue Ladung aus Japan angeliefert worden sein.

Man braucht auch mehr Flugzeuge zum Versprühen. Gegenwärtig verfügt man lediglich über fünf Flugzeuge, um die verfügbaren Insektizide auszubringen.

Kenia hat bereits 2,5 Millionen Dollar bereit gestellt, um die Heuschrecken durch Versprühen zu bekämpfen, aber das dürfte kaum reichen, spitzt sich die Lage doch immer weiter zu. Die FAO der UN gab kürzlich 70 Millionen Dollar frei für diesen Zweck, aber bisher sind davon lediglich 15 Millionen Dollar in der Region angekommen.

Die Verzweiflung in den betroffenen Gemeinden ist real, und noch viel mehr muss getan werden. „Wir haben zu verzweifelten Maßnahmen gegriffen wie Lärm, Reifen verbrennen und in Pfeifen zu blasen, um die Insekten zu verscheuchen“, sagte ein Anwohner der Ortschaft Meru im Osten von Kenia.

Die Landwirtschaft in Afrika taumelt immer noch unter der Invasion eines anderen üblen Schädlings, nämlich des Heerwurms [Fall Army Worm]. Er sorgte dafür, das kenianische Maisbauern in einem Jahr 70% ihrer Ernte verloren. Diese gefräßige Motte wird in beiden amerikanischen Kontinenten – wo sie herstammt – durch Pestizide und durch genetisch modifizierte Getreidesorten unter Kontrolle gehalten.

Aber auch dort versuchen die unseligen NGO-Aktivisten bereits, politische Maßnahmen durchzusetzen, welche der Insektenplage Tür und Tor öffnen würde.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/europes-anti-science-plague-descends-on-africa/

Übersetzt von Chris Frey EIKE




Greta weiß genau Bescheid … Der Meeres­spiegel könnte um 0,04 … 10 m steigen… … ist die etwas umformulierte Botschaft, welche ein Video mittels Aussagen des PIK vermittelt.

Herausgeber ist ein „Nürnberger Blatt“. Laut WIKIPEDIA eine Lokalzeitung
Das Nürnberger Blatt erscheint monatlich in einer gedruckten Version und wird 200.000 Haushalten im Einzugsbereich durch Einwurf in den Briefkasten zugänglich gemacht. Dabei handelt es sich nicht um ein Anzeigenblatt, sondern vielmehr um eine hochwertige journalistische Ausgabe mit exklusiven Interviews, gut recherchierten Geschichten und Informationen … Das Nürnberger Blatt versteht sich als qualitativ hochwertige Konkurrenz zur ansässigen Tageszeitung …

Wo die Konkurrenz zur Tageszeitung sein soll, erschließt sich dem Autor nicht. Denn die regional „herrschenden“, Nordbayerischen Nachrichten, sind längst eine bezahlpflichtige, GRÜN-Linke Parteipostille und dabei, das unterirdische Niveau der SZ [1] zu erreichen.
Die Inhalte unterscheiden sich demnach nicht, bis dass die „Nordbayerischen“ noch kein Klimaalarm-Video veröffentlicht haben. In ihren Leitkommentaren wird solches allerdings fast täglich getextet.

Nachdem dieses Video ein geradezu exemplarisches Beispiel für die mediale Verdummung, getrieben durch halbstaatliche Institutionen – hier das PIK Potsdam – darstellt, das Beispiel anbei ohne Kommentar:

Update vom 3.3.20:

Der Chefredakteur des Nürnberger Blattes André Raffi Gasser hielt es mit Schreiben vom 25.2.20 für angebracht, uns wegen der Überschriftenzitate, bis soeben auch als Screenshot gezeigt, der Urheberrechtsverletzung zu zeihen und forderte, neben einer Unterlassung, (also Löschung) auch eine Gebühr von 300 € für diese Sünde zu entrichten. In seinem Schreiben besteht er darauf, dass  „

..verfügen Sie durch Abklammerung aus dem Gesamtkontext und die rechtswidrige Wiedergabe von redaktionell gefertigten Texten, über unser alleiniges Urheberrecht. Das von Ihnen in Einzelteile zerlegte Video und die von uns verfassten Texte sind vollständig durch unser Urheberrecht geschützt“,

also allein sein geistiges Eigentum sei. Gleichzeitig weist Herr Gasser in seinem Abmahnschreiben darauf hin:..

“ Darüber hinaus erwähnen wir ausdrücklich, dass die redaktionellen Texten, einem wissenschaftlichen Bericht des Potsdam-Institut für Klimafolgenforschung entstammen. Der Vorwurf einer falschen Berichterstattung wird ausdrücklich zurückgewiesen. Diese Behauptung ist schlichtweg falsch.“

Nun widerspricht sich die erste Behauptung mit der zweiten. Entweder haben die Nürnberger den Text verfasst, oder die Leuten vom PIK. Beide geht logisch eigentlich nicht. Um des lieben Friedens willen, haben wir die Screenshots gelöscht.

Bildtext: „Bis 2100 soll der Meeresspiegel aufgrund der Eisschmelze in der Antarktis um bis zu 58 Zentimeter ansteigen“

Bildtext: „Grund dafür ist die globale Erwärmung. Innerhalb der letzten 100 Jahre hatte es einen Anstieg um insgesamt 19 cm gegeben“.

Bildtext: „Momentan würde der Meeresspiegel bei unvermindertem Treibhausgasausstoß zwischen sechs und 58 cm ansteigen“.

Bildtext: „Können die Emissionen rasch verringert werden, liege die Spanne dennoch weiterhin zwischen Vier und 37 cm, so eine Studie vom PIK“

Bildtext: „Wenn Grönland, die Gebirgsgletscher und die Ausdehnung der Ozeane mit einbezogen werden, kann dies sogar zu einem Anstieg von 150 cm führen“

Bildtext: „In den kommenden Jahrhunderten bis Jahrtausenden könnte das Abschmelzen des antarktischen Eisschildes den Meeresspiegel um mehrere Zehn Meter anheben“

Bildtext: „Durch den Anstieg sind vor allem Küstenmetropolen wie New York, Shanghai oder Hamburg bedroht … „

Bildtext: „ … Die Folgen wären dramatisch“

Bilder zum Meerespegel-Anstieg

Nicht jeder hat immer Daten zum Meerespegel parat. Deshalb informell ein paar Darstellungen aus einem Foliensatz des Autors:

Bild 10. Quelle: Foliensatz des Autors

Bild 11. Quelle: Foliensatz des Autors

Bild 12. Quelle: Foliensatz des Autors

Bild 13. Quelle: Foliensatz des Autors

Bild 14. Quelle: Foliensatz des Autors

Quellen

[1] kaltesonne 18. Februar 2020: Klimaanhörung im Bayerischen Landtag: SZ-Redakteurin Lisa Schnell muss dringend zum Optiker




Neues von Willis Eschenbach

Abbildung: Links: Mondtemperaturen vom Apollo 15 Landeplatz (WUWT). Rechts: WUWT-Abbildung mit der örtlichen hemisphärischen S-B-Gleichgewichtstemperatur (EIKE)

Aktuell hat Willis Eschenbach neue Temperaturdaten vom Mond (Williams et al. 2017) ausgegraben und seine eigenen Berechnungen dazu ebenfalls auf WUWT veröffentlicht, Zitat mit Abbildung: “Looking around, I found a study called “The global surface temperatures of the Moon as measured by the Diviner Lunar Radiometer Experiment“, which contained the following graphic of lunar surface temperature. This shows temperature around the moon at a single moment in time.

(Abbildung 5a und 5b aus der Veröffentlichung von Williams et al. 2017)

Original Caption: Global instantaneous temperatures of the Moon in (a) cylindrical equidistant projection (ϕss = 180°) and (b) orthographic projection (ϕss = 180°, 120°, and 0°).
Aus diesen Daten leitet Eschenbach dann eine neue Durchschnittstemperatur für den Mond ab und vergleicht sie mit der Durchschnittstemperatur aus seinem älteren Beitrag. Diese Daten von Williams et al. (2017) stellen nun wiederum eine hervorragende Gelegenheit dar, meinen hemisphärischen S-B-Ansatz erneut mit gemessenen Temperaturen vom Mond zu vergleichen. Dazu wurden zunächst einmal die S-B-Gleichgewichtstemperaturen für die Tagseite des Mondes bei äquatorialem Sonnenstand (@ 0° geographische Breite) im mittäglichen Zenit (@ 12h) berechnet, wie sie in der nachstehenden Abbildung dargestellt werden:

Abbildung: S-B-Gleichgewichtstemperatur für die Tagseite des Mondes bei einem äquatorialen Sonnenstand im mittäglichen Zenit (blaue Linie), unterlegt mit der Farbskala aus Abbildung 5 von Williams et al. (2017)

Berechnungsgrundlage: S0=1.367 W/m², Albedo=0,11, Seff=S0*(1-ALBEDO)=1217 W/m²
Hemisphärische S-B-Temperatur: TPHI=(Seff*cos(PHI)/SIGMA)1/4 mit PHI=(-90° bis +90°)
Und diese Temperaturverteilung können wir jetzt direkt mit den Temperaturdaten von Williams et al. (2017) aus dem Artikel von Willis Eschenbach vergleichen:

Abbildung: Qualitativer Temperaturvergleich für die Tagseite des Mondes Links: Montage aus der Abbildung 5A von Williams et al. (2017) für die Tagseite des Mondes. Rechts: S-B-Gleichgewichtstemperatur @12h, hinterlegt mit der Farbskala von Williams et al. (2017)

Wenn man über den Tagesverlauf die Temperaturen aus der Abbildung von Williams et al. (2017) mit der hemisphärischen S-B-Temperaturkurve vergleicht, ergibt sich eine sehr ordentliche qualitative Übereinstimmung. Die unterschiedlichen radialen Farbverläufe bei Williams et al. (2017) spiegeln dabei die Variabilität der örtlichen Mondalbedo und die Topographie wider, die in einem solchen pauschalen S-B-Ansatz nicht berücksichtigt werden können.

Und jetzt noch einmal zurück zu Willis Eschenbach, der seine Ergebnisse in seinem aktuellen Artikel folgendermaßen beschreibt, Zitat:

Once I’d converted it to temperature, I then converted each gridcell to the equivalent Stefan-Boltzmann radiation and averaged those. This gave me an average outgoing radiation of some 303.5 W/m2. And this let me check the accuracy of my figures. The lunar albedo is generally thought to be on the order of 11-12%. The results I have give an albedo of 10.7% … I’d call that confirmation.

Finally, to compare my results to those in my previous post, I have:

Previous Post This Post

Temperature by Direct Average -77°C -75°C

Temperature by Radiation Average -2.5C -2.7°C

Conclusion? Well, at last, I have some real numbers for the lunar temperature. And they confirm that the Stefan-Boltzmann equation does a good job of estimating the lunar temperature, whether we do it by averaging radiation and converting to temperature, or whether we average the temperature directly. And which of the two ways of averaging temperature is correct? Well, both, or neither. You can use either one, depending on your needs. The underlying problem is that you can’t average an “intensive” variable like temperature … but that’s a discussion for another day.”

Der neutrale Google-Übersetzer zum Fazit: Fazit? Nun, endlich habe ich einige reelle Zahlen für die Mondtemperatur. Und sie bestätigen, dass die Stefan-Boltzmann-Gleichung die Mondtemperatur gut abschätzen kann, ob wir dies durch Mittelung der Strahlung und Umrechnung in Temperatur tun oder ob wir die Temperatur direkt mitteln. Und welche der beiden Möglichkeiten zur Mittelung der Temperatur ist richtig? Nun, beides oder beides nicht. Sie können je nach Bedarf eine von beiden verwenden. Das zugrunde liegende Problem ist, dass Sie eine „intensive“ Variable wie die Temperatur nicht mitteln können … aber das ist eine Diskussion für einen anderen Tag.

Willis Eschenbach hat also die Mondtemperaturen direkt aus den Gridzellen entnommen und diese Temperaturen gemittelt. Und dann hat er die Temperaturen dieser Gridzellen mit dem S-B-Gesetz in eine spezifische Strahlungsleistung umgerechnet. Aus dem Durchschnitt dieser spezifischen Strahlungsleistungen hatte er ebenfalls eine Temperatur ermittelt. Zwischen diesen beiden, auf unterschiedlichen Wegen ermittelten Temperaturwerten, erhält Willis Eschenbach dann in seinen beiden Temperaturvergleichen (alt und neu) jeweils eine Differenz von über 70 Kelvin. Das ist kein Wunder, denn die Bildung eines Temperaturmittelwertes aus individuellen Ortstemperaturen ist physikalisch statthaft, während die Berechnung einer Durchschnittstemperatur aus einem Strahlungsdurchschnitt mit der T-hoch4-Funktion des Stefan-Boltzmann-Gesetzes keinen physikalischen Sinn ergibt. Der Widerspruch im Ergebnis von Willis Eschenbach beweist also eindeutig die physikalische Unvereinbarkeit dieser beiden Lösungswege, denn ein Körper kann nun mal nicht gleichzeitig zwei unterschiedliche Temperaturen annehmen.

Also irrt Willis Eschenbach mit seinem „Was-Ihr-wollt“-Argument, denn es gibt gar keine Stefan-Boltzmann-Gleichung. Und jeder, der dieses physikalische Gesetz als „Gleichung“ anwendet, geht fehl in der Annahme, wenn er links etwas Beliebiges einsetzt, würde rechts etwas physikalisch Richtiges herauskommen. Denn dieses physikalische Gesetz verbindet die konkrete Temperatur und die konkrete spezifische Strahlungsleistung eines Schwarzen Körpers in einer streng GLEICHZEITIGEN T-hoch4-Beziehung. Eine Berechnung über Mittelwerte oder eine Inversion unter Einbeziehung unbeleuchteter Flächen mit dem Stefan-Boltzmann-Gesetz ist daher physikalisch nicht statthaft. Denn das Stefan-Boltzmann-Gesetz ist nun mal Physik und nicht Shakespeare (Wie es Euch gefällt), was die miteinander unvereinbaren Ergebnisse von Willis Eschenbach eindeutig bestätigen.

Weiterhin hatte Eschenbach aus der Arbeit von Williams et al. (2017) eine durchschnittliche lunare Abstrahlung ermittelt. Wenn wir nun einmal die solare Nettostrahlungsleistung von 1217 W/m² aus dem hemisphärischen S-B-Ansatz auf die Fläche der Tagseite des Mondes herunterrechnen, dann kommen wir auf 608 W/m² für das durchschnittliche Mittel der spezifischen Strahlungsleistung. Und wenn wir den lunaren Durchschnitt von Willis Eschenbach von 303.5 W/m2 auf die Fläche der Tagseite beziehen, müssen wir diesen Wert verdoppeln und erhalten 607 W/m². Das ist schon mal eine ganz hervorragende Übereinstimmung dieser beiden Werte mit weniger als 0,2% Abweichung. Weiterhin beträgt die Abstrahlung des Mondes auf der Nachtseite (@80K) etwa 3 W/m². Damit haben wir in erster Näherung auf dem Mond eine Einstrahlung von durchschnittlich 608 W/m² sowie eine Abstrahlung von 604 W/m² (@ Tagseite) und 3 W/m² (@ Nachtseite); und um das fehlende 1 W/m² werden sich sicherlich die Herren Dzzzzz und Kzzzz kümmern. Die Abbildung 5B von Williams et al. (2017) beweist durch den relativ schmalen Übergangsstreifen zwischen der Tagestemperatur und einer relativ einheitlichen Nachttemperatur, dass diese Beschreibung tatsächlich eine gute erste Näherung darstellt:

Abbildung 5B von Williams et al. (2017)

Der Mond stellt ein stark vereinfachtes Modell unserer Erde ohne eine kombinierte Luft-Wasser-Heizung dar. Daher sind die Prozesse der tagseitigen Temperaturgenese und der Abstrahlung über die Gesamtoberfläche mit meinem hemisphärischen S-B-Ansatz am Beispiel unseres Erdtrabanten sehr viel einfacher zu beschreiben und nachzuvollziehen:

  • Der hemisphärische S-B-Ansatz: Die Temperaturgenese auf der Tagseite folgt dem hemisphärischen S-B-Ansatz, nach dem sich die konkrete Ortstemperatur aus der örtlichen spezifischen Strahlungsleistung der Sonne
    mit Ti=(S0*(1-ALBEDO)*cos(PHIi)/SIGMA)1/4 herleitet.
    Die individuelle Abstrahlung erfolgt nach der Umgebungsgleichung des S-B-Gesetzes
    DELTA Si = SIGMA * (Ti4 – T04),
    wobei die örtlichen Wärmespeicher die jeweilige Umgebungstemperatur T0 vorgeben.
  • Die Tagseite des Mondes: Die spezifische Strahlungsleistung der Sonne (Durchschnitt Tagseite 608 W/m²) wird auf dem Mond fast vollständig in Temperatur umgesetzt und daher gleichzeitig im IR-Bereich wieder abgestrahlt (Durchschnitt der Abstrahlung von der Tagseite etwa 604 W/m²). Damit folgt der Temperaturverlauf auf der Tagseite des Mondes ziemlich exakt der hemisphärischen S-B-Gleichgewichtstemperatur.
  • Die Nachtseite des Mondes: Durch die äußerst geringe Wärmespeicherung auf dem Mond fällt dessen Nachttemperatur sehr schnell auf etwa 80K, was einer durchschnittlichen spezifischen Abstrahlungsleistung DELTA S von etwa 3W/m² für die Nachtseite gegenüber dem Weltraum entspricht. Der Mond hat also sogar eine streng „hemisphärische“ Abstrahlung.

Einerseits können Temperaturen also nur „just in Time“ durch eine spezifische solare Strahlungsleistung erzeugt werden; andererseits kann auf der Nachtseite nur diejenige Wärme abgestrahlt werden, die vorher auf der Tagseite gespeichert worden war. Dieser Tag-und-Nacht-Ablauf sieht auf der Erde mit Ihrem globalen Wärmespeicher- und Wärmetransport-System (Atmosphäre und Ozeane) ganz anders aus als auf dem Mond. Denn auf der Erde erreicht die örtliche Tagestemperatur aufgrund von Wärmespeicherung, Verdunstung und Konvektion die S-B-Gleichgewichtstemperatur nicht. Allein die in den Ozeanen gespeicherte Wärmemenge beträgt nach konservativer Abschätzung 4,5*10^26 Joule, was einem Energieäquivalent von etwa 50.000 Tagen Sonneneinstrahlung entspricht. Und aufgrund dieser gespeicherten Wärmemenge sowie durch Kondensation und Advektion fällt die Nachttemperatur auf der Erde dann auch nicht auf dreistellige Celsius-Minustemperaturen wie auf dem Mond, sondern nur um einige Dekagrad.

Am Beispiel der Mond-Temperaturen von Williams et al. (2017) ist somit erneut der Nachweis gelungen, dass die Temperaturgenese auf der Tagseite eines passiv bestrahlten Himmelskörpers mit meinem hemisphärischen Stefan-Boltzmann-Ansatz korrekt beschrieben werden kann und dessen Abstrahlung der Umgebungsgleichung des S-B-Gesetzes folgt.

Anmerkung: Zum wiederholten Male stellt sich hier aber auch die Frage nach der Sinnfälligkeit von Durchschnittstemperaturen. Was soll beispielsweise eine Mittelwertbildung für zwei sehr unterschiedliche Mondhemisphären aussagen, von denen eine größtenteils eine Temperatur von über 250K hat und die andere im Wesentlichen nur 80K. Eine solche Mittelung leitet unmittelbar zu dem Bonmot über, „Keine Ahnung, warum die Kuh ertrunken ist, der Teich war doch im Mittel nur 20 Zentimeter tief“. Denn für eine einmonatige Mondmission sollte ein Astronaut weder auf winterliche (-3°C) noch antarktische (-75°C) Temperaturen vorbereitet sein, sondern auf einen Temperaturverlauf zwischen minus 200°C und plus 120°C…




Jüngste Klima-Warnung von NASA und NOAA beruhen auf absichtlich gefälschten Daten

Traurigerweise ist es so, dass im Bereich Klimaforschung und -politik gute Daten zunehmend zurecht gebogen werden – wenn sie nicht gleich ganz ignoriert werden – um dem Narrativ zu entsprechen, dass die Menschen eine Klima-Krise verursachen. Partisanen von Klimamaßnahmen, trachtend nach politischer Macht und ewig zunehmenden Ressourcen, fälschen Daten solange, bis diese dem Wahn genügen, dass die Menschen auf die moderne industrielle Zivilisation verzichten müssen, um die Menschheit und die Erde vom Klima-Tod zu erretten.

Dieses Problem wird grell beleuchtet im neuesten Report der National Aeronautics and Space Administration (NASA) und der National Oceanic and Atmospheric Administration (NOAA) zu globalen Temperaturtrends. Die beiden Agenturen betreiben das genaueste und umfassendste Temperatur-Messnetz der Welt. Aber anstatt auf die Daten ihrer besten Quellen zu verweisen, zogen NASA und NOAA es vor, in ihrem am 15. Januar veröffentlichten Report erheblich kompromittierte Daten von adjustierten Temperaturmessungen heranzuziehen – mittels eines Verfahrens, das sie „Homogenisierung“ nennen.

NASA und NOAA verkündeten, begleitet von großem Mediengetöse, dass 2019 das zweitwärmste Jahr seit Beginn aktueller Aufzeichnungen im Jahre 1880 gewesen sei, was auch dazu beitrage, dass die 2010er Jahre „zum wärmsten Jahrzehnt jemals“ wurden.

Diese Behauptungen basieren auf den absolut unzuverlässigen, adjustierten Temperaturmessungen, wie sie von über den gesamten Globus verteilten Temperatur-Messpunkten durchgeführt worden sind. Diese Messungen, zumindest die entsprechenden Rohdaten, sind normalerweise ausreichend genau, um lokale Anwohner über die Temperatur und Wetteranomalien in ihrem Wohngebiet an einem bestimmten Tag zu informieren, aber als Messung realer Trends, die uns etwas Wichtiges darüber sagen sollen, ob Menschen globale Erwärmung verursachen, sind die meisten dieser Messungen praktisch wertlos.

Wie der Meteorologe Anthony Watts schon seit vielen Jahren immer wieder hervorhebt, genügen viele der Messpunkte in den gesamten USA nicht den Standards, die von den Agenturen selbst festgelegt worden waren, um zuverlässige Datenmessungen zu erhalten. Watts erfasste hunderte von Stationen auf gepflasterten Flächen, an Flughäfen, wo sie den heißen Abgasen der Jets ausgesetzt waren, nahe bei künstlichen Quellen von Wärme und Kälte wie Air Condition-Systeme oder von kommerziellen Grillbuden. Viele dieser Messpunkte befanden sich einst in ländlichen Gebieten, sind inzwischen aber umgeben von Gebäuden. An anderen Messpunkten, die immer noch in ländlichen Gefilden stehen, werden die Daten nicht regelmäßig abgelesen und aufgezeichnet.

Nach den Enthüllungen von Watts im Jahre 2014 veröffentlichte das US-Büro des Generalinspekteurs einen von den Medien nahezu völlig ignorierten, vernichtenden Report, in welchem beschrieben wird, dass fehlende Übersicht, Regelverstöße und ein laxer Begutachtungsprozess im Netzwerk der Klimaaufzeichnungen nur die Schlussfolgerung zulassen, dass die Daten „nicht geeignet sind, zuverlässig als Grundlage für Entscheidungsträger“ zu dienen. In panischer, durch den Report des Generalinspekteurs ausgelöster Hast sonderte die NASA 600 ihrer problematischsten Wetterstationen aus.

Es liegen zahlreiche Berichte vor, aus denen hervorgeht, dass Datenmanipulationen nicht auf die USA beschränkt sind, sondern über den gesamten Globus vorgenommen werden. Daten von ursprünglich ländlichen Messpunkten in entlegenen Stellen wie Australien, Paraguay und der Schweiz wurden unerklärlicherweise homogenisiert dergestalt, dass Temperaturen der Vergangenheit nach unten, also zum kälteren, und jüngere Temperaturwerte nach oben, also zum wärmeren korrigiert worden waren. Logischerweise erscheint dadurch der Temperaturanstieg an diesen Stellen im Verlauf des vorigen Jahrhunderts steiler und größer als es aus den nicht adjustierten Daten hervorgeht.

Die NOAA verletzte ihre eigenen Vorschriften, als sie ein ähnliches Adjustierungs-Verfahren für Ozean-Temperaturen vornahm, mit Beginn im Jahre 2015. David Rose schrieb in der Daily Mail: „NOAA-Wissenschaftler zogen zuverlässige Messungen von Bojen im Ozean heran, ,adjustierten‘ diese dann aber nach oben – mittels Messungen von Seewasser zur Motorkühlung von Schiffen … obwohl schon lange bekannt ist, dass diese Werte viel zu hoch sind“. Wenn man schlechte Daten mit guten Daten vermengt, erhält man keine zuverlässigeren Ergebnisse, als wenn man schlammiges Flusswasser zu reinem Mineralwasser hinzufügt, um sicheres Trinkwasser zu bekommen.

Der neue Report von NASA und NOAA ist ein weiteres Beispiel für „garbage in, garbage out“, wobei deren Verwendung schlechter Daten falsche Ergebnisse erzeugt, die aller Erfahrung nach dann als Grundlage für schlechte Politik herangezogen werden.

NASA und NOAA betreiben gemeinsam das U.S. Climate Reference Network, also den goldenen Standard von Temperaturdaten der Erdoberfläche, globalen Satellitendaten und Wetterballonen. Die von diesen drei unabhängig operierenden Temperaturmess-Netzwerken aufgezeichneten Temperaturdaten zeigen während der letzten 40 Jahre eine minimale Erwärmung. Und doch ignorieren die Agenturen diese Daten in ihrem jüngsten Report – was deren dogmatischen Glauben an eine vom Menschen verursachte Klima-Katastrophe belegt.

Die Trump-Regierung sollte die Klima-Budgets von NASA und NOAA stark kürzen, bis die Führung und die Mitarbeiter verstanden haben, dass sie nicht dafür belohnt werden, wiederholt zu sagen „der Himmel fällt uns auf den Kopf“ und andere Klima-Angst-Stories zu verbreiten, wenn die Wahrheit schlicht und ergreifend lautet, dass Temperatur- und Klimatrends in Wirklichkeit weit davon entfernt sind, alarmierend zu sein.

[Originally Published at Breitbart]

Link: https://www.heartland.org/news-opinion/news/nasa-and-noaas-latest-climate-warning-is-a-result-of-purposefully-flawed-data

Übersetzt von Chris Frey EIKE




Wird der Westen die Kernenergie-Dominanz an Russland abtreten?

Aber seitdem hat sie Senator Bernie Sanders unterstützt, zu dessen Wahlprogramm ein Moratorium der Erneuerung von Lizenzen bzgl. Kernkraftwerken gehört – und der sagt, dass „wir aufhören müssen, neue Kernkraftwerke zu bauen und eine Lösung finden müssen für unser bestehendes Problem von Atommüll“.

Wahr ist, dass während die USA heutzutage sogar führend sind mit fast einhundert operationellen Kernkraft-Einrichtungen die Kernkraft kontrovers bleibt. Sollte eine von Sanders geführte US-Regierung dem deutschen Beispiel folgen, wo man führend ist bei der Aussonderung bestehender Kernkraftwerke ohne für Ersatz zu sorgen, könnte ein neuer Weltführer bzgl. Kernkraft sehr schnell die Bühne betreten.

Auch in China, das dafür bekannt ist Myriaden neuer Kohlekraftwerke zu bauen, ist man nicht untätig geblieben. In einem Artikel aus dem Jahr 2017 liest man, dass in China 38 Kernkraftwerke bereits operationell sind und weitere 19 im Bau. Dies macht China zur „sich am schnellsten entwickelnden Macht bzgl. Kernkraft weltweit“.

Aber es ist Russland, von wo in letzter Zeit der lauteste Lärm bzgl. Kernkraft zu vernehmen ist. Im Juli vorigen Jahres ging Präsident Putin in die Offensive gegen die Anti-Wachstum-Technokraten und Andere, welche Wind und Solar als Energiequellen der Zukunft favorisieren und die darauf bestehen, dass es „unmöglich und sinnlos ist zu versuchen, den menschlichen Fortschritt aufzuhalten“.

Auf einer Rede vor dem 2. Global Manufacturing and Industrialization Summit in Yekaterinburg in Russland proklamierte Putin stattdessen, dass „super-effiziente Ingenieurs- und Herstellungs-Lösungen dabei helfen werden, ein Gleichgewicht zwischen der Biosphäre (der Bereich Natur) und der Technosphäre (der Bereich kreative Vernunft) zu etablieren. Die Kernfusion wie in unserer Sonne ist ein Beispiel derartiger naturartiger Technologien“.

Putin pries die Arbeit des Kurchatov-Instituts in Russland, wo man bereits ein Projekt eines fission-fusion hybrid reactors auf den Weg gebracht hat, welcher noch in diesem Jahr operationell werden soll. Dessen Rolle soll die Steuerung der fortgeschrittenen Wissenschaft als kreative Kraft für das International Thermonuclear Experimental Reactor (ITER)-Programm in Frankreich sein. Das erste Plasma soll im Jahre 2025 online gehen.

Caroline Delbert erklärt, dass der russische fission-fusion hybrid reactor mit Thorium betrieben werde, welches viel weniger reaktionsfreudig als Uran und auch viel mehr als Rohstoff vorhanden ist. Sein „bodenständiges“ Design, bestätigt Delbert, verkürzt die Zeit bis zur Inbetriebnahme.

Russlands Kernkraft-Initiativen reichen weit über die Grenzen des Landes hinaus. Am 8. Februar verkündete der indische Botschafter in Russland, dass Russland während der nächsten zwei Jahrzehnte 20 weitere Kernkraftwerke in Indien errichten wird, aufbauend auf einer 18 Jahre langen Kooperation bzgl. Kernkraft zwischen den beiden Ländern.

Russland und Indien helfen auch Bangladesh bei der Konstruktion seines ersten Kernkraftwerkes und dürften ihre Zusammenarbeit noch ausbauen. Der indische Botschafter: „Russland hat bereits Abkommen in diesem Bereich mit einer Anzahl afrikanischer Länder. Äthiopien ist eines davon, und auch im Nahen Osten gehören einige Länder dazu. Es werden russische Projekte sein, aber mit indischer Kooperation“.

Derweil befinden sich die USA, große Gebiete Westeuropas und Japan nach Fukushima im besten Falle in einem Interessenkonflikt hinsichtlich der Rolle der Kernkraft bzgl. zuverlässiger und bezahlbarer Energie vor dem Hintergrund einer rasant steigenden Nachfrage. Einige EU-Staaten sind vehement gegen Kernkraft und haben ihre Strommärkte entsprechend den populistischen Forderungen bzgl. Wind und Solar umstrukturiert. Im nächsten Jahrzehnt wird es vermutlich eine Abnahme der Kapazität von Kernkraft geben, und nur in Frankreich, Finnland und der Slowakei werden neue Kernkraftwerke gebaut.

Aber trotz allem gibt es einige hoffnungsvolle Anzeichen, dass der Westen am Beginn einer neuen Ära der Kernkraft steht:

TerraPower verkündete eine Zusammenarbeit mit GE Hitachi Nuclear Energy, um den Versatile Test Reactor für das US-Energieministerium zu entwickeln und zu konstruieren.

● Das Princeton Plasma Physics Laboratory verkündete Pläne zur Wiederaufnahme des National Spherical Torus Experiment (NSTX) tokamak-Reaktors, die weitere Verpflichtung bzgl. ITER und den Bau eines kleineren und billigeren Prototyps eines Kraftwerkes.

● Ein Konsortium unter Führung von Rolls-Royce plant, 17 „revolutionäre Mini-Kernkraftwerke“ zu bauen und damit die acht alternden großskaligen Kernkraftwerke in UK zu ersetzen. Massenproduktion in neuen Fabriken kann zu kürzeren Bauzeiten und niedrigeren Kosten führen.

Wird der Westen dem offensichtlichen Eifer des Baus von Kernkraftwerken der neuen Art folgen? Vielleicht nicht. Der kanadische Journalist Matthew Ehret argumentiert, dass der Westen seit 50 Jahren dominiert wird durch eine neue „Wissenschaft der Begrenzungen“, welche als die größte Bedrohung der Menschheit ebendiese ansieht.

Ebenso beklagt Pieter Cleppe von Open Europe: „Während viele Befürworter von Erneuerbaren und Batterie-Technologien darauf verweisen, wie zukünftige technologische Entwicklungen die derzeit noch vorhandenen Schwächen ausmerzen werden, gehen nur sehr Wenige von technologischen Fortschritten der Kernkraft-Technologie aus. Im Gegenteil, Innovationen werden augenblicklich als gefährlich gebrandmarkt und gar nicht erst zugelassen“.

Westler sollten dem Geschäftsmann und Kernkraft-Befürworter Kazi Zahin Hasan aus Bangladesh zuhören, wenn er sagt: „Moderne Städte brauchen kontinuierlich Energie. Solar und Wind können dies ohne teure Batterie-Technologie nicht erreichen, doch genau diese zu kaufen war bisher noch kein Unternehmen und keine Stadt willens. Daher gibt es bis auf den heutigen Tag keine einzige große Stadt, die trotz Investitionen in Höhe von Milliarden Dollar ausschließlich durch Wind oder Solar mit Energie versorgt wird“.

Autor: Duggan Flanakin is the Director of Policy Research at the Committee For A Constructive Tomorrow. A former Senior Fellow with the Texas Public Policy Foundation, Mr. Flanakin authored definitive works on the creation of the Texas Commission on Environmental Quality and on environmental education in Texas. A brief history of his multifaceted career appears in his book, „Infinite Galaxies: Poems from the Dugout.“

Link: https://www.cfact.org/2020/02/13/will-the-west-cede-nuclear-energy-dominance-to-russia/

Übersetzt von Chris Frey EIKE