US-Bundesstaaten kämpfen gegen die Zwangstaktik der Umweltbehörde EPA

Bild rechts: Arkansas kämpft gegen Bevormundung und Arbeitsplatzverlust.Bild: CFACT

Arkansas schließt sich 18 anderen Staaten an, die den CPP auch nicht einführen wollen, darunter Texas und West Virginia – die beiden Staaten, die den Rechtsstreit gegen den CPP führen. Aber das ist nicht der einzige Händel von Arkansas gegen EPA. Der Leiter der DEQ des Staates argumentierte vor dem Kongress am Mittwoch, dass die Taktik der EP neue Regeln zu verhängen, eine Art "Zwangs Föderalismus" darstellen, anstatt eines "kooperativen Föderalismus".

"Allerdings ist das Genossenschafts Föderalismus-Modell, dass Arkansas‘s Beziehung mit der EPA Anfang der 1970er Jahren definiert hat, in etwas verwandelt, was besser als Zwangs Föderalismus bezeichnet werden kann" schrieb Becky Keogh, Leiter des DEQ, in einem Brief an den Kongress. "Wir erleben eine Abnahme des Zeitraums und der Toleranz für die Umsetzung staatlicher Programme [in den Bundesstaaten (SIPs)] und einem dramatischen Anstieg der Übernahme durch EPA oder durch den Bund [zentral gesteuerte Umsetzung (FIPs)]," schrieb Keogh in einem Brief, der am selben Tag veröffentlicht wurde, als sie vor einem Senatsausschuss zum Missbrauch der Autorität von EPA ausgesagten.

Ob es der CPP ist, die umkämpfte "Gewässer der Vereinigten Staaten" Vorschrift oder eine der neuen Ozonvorschriften, Keogh erklärte, dass die EPA in Durchsetzung ihrer Pläne zwingender geworden war und eher geneigt ist, Pläne des Bundes [~ der Zentralregierung] zu erlassen und das die Bedenken der Bundesstaaten ignoriert werden. Arkansas ist nicht der einzige Staat der sich über EPA "Zwangs" Taktik beschwert. Topbeamten der Umweltbehörden von South Dakota und West Virginia haben am Mittwoch [09.03.2016] auch gegen die Taktik der EPA ausgesagt, ausdrücklich in ihrem Anliegen, dass die EPA die Rechte der Staaten mit Füßen tritt. South Dakota’s Vertreter, zum Beispiel, ist besorgt über die Vorschriften, die die Lebensfähigkeit des einzigen Kohlekraftwerk des Staates bedrohen – der eine beträchtliche Menge des Strombedarfs erzeugt. " b

Ergänzung vom The Daily Caller

Amerikanische Arbeiter und ihre Familien, werden die Not von Arbeitsplatzverlusten aufgrund von Kraftwerksschließungen, höheren Strompreisen und allgemeine Verringerung der globalen wirtschaftlichen Wettbewerbsfähigkeit des Landes erleben. Beschlüsse dieser Art sind von Natur aus Entscheidungen des Kongresses, argumentieren die Abgeordneten in ihrer Stellungnahme.

Das Oberste Gericht hob eine Entscheidung durch eine Vorinstanz auf, die Umsetzung des CPP nicht zu stoppen. Die EPA und seine Verbündeten Umweltschützer argumentierten, die Niederschlagung des CPP könnte die internationalen Verpflichtungen, die Präsident Barack Obama gegen die globale Erwärmung einging, behindern.

Unterm Strich haben diese neuen Bundesanforderungen einen großen Einfluss auf unsere Bürger und Wirtschaft, werden aber wenig oder gar keine spürbaren Vorteile in South Dakota produzieren ", sagte Steve Pirner, Sekretär der Abteilung Umwelt und natürlicher Ressourcen, vor dem Kongress. South Dakota und West Virginia haben auch die Umsetzung des CPP ausgesetzt, bis die Bundesgerichte über die Regulierung entscheiden. Alle drei Staaten – Arkansas, South Dakota und West Virginia – verklagen die EPA wegen des CPPs. Einige der 27 Staaten gehen gerichtlich gegen die EPA vor, den CPP niederzuschlagen, der voraussichtlich die Zahl der stillzulegenden Kohlekraftwerke in den kommenden Jahren verdoppeln wird.

Republikanische Abgeordnete haben sich auf die Seite der Staaten gestellt, die vor kurzem eine Anklageschrift gegen den CPP der EPA eingereicht haben. Die Abgeordenten argumentieren, die Vorschrift ist illegal und wird keinen messbaren Nutzen für die Umwelt zur Folge haben.

"EPA kann zu keiner Aussage eine Genehmigung des Kongresses für die zentralen Funktionen [des CPP] vorzeigen, eben weil es keine gibt", schrieben 205 Abgeordnete in ihrer gerichtlichen Begründung. "Auch hat der Kongress EPA nicht ermächtigt, politische Entscheidungen zu treffen, die sich in den [CPP] niederschlagen -eine Vorschrift, die ohne sinnvolle Klimavorteile zu erreichen, den Bundesstaaten und der Öffentlichkeit enorme Kosten auferlegt."

Dieser Artikel erschien am 10. März ursprünglich in The Daily Caller, übernommen von Cfact

Übersetzt durch Andreas Demmig

http://www.cfact.org/2016/03/10/states-fight-back-against-epas-coercive-federalism/




Akademiker ,lügen regelmäßig, um Forschungsgelder zu ergattern‘

Ihre geringschätzigen Kommentare zu der „Scharade“ von Auswirkungs-Statements bringt ans Tageslicht, was in akademischen Kreisen ein offenes Geheimnis ist – dass Akademiker derartige Projekte einfach nicht ernst nehmen.

50 leitende Akademiker von zwei forschungsintensiven Universitäten wurden anonym für diese neue Studie interviewt – eine in UK, die andere in Australien – die Erfahrung hatten mit dem Beschreiben von „Pathways to impact“ (PIS), wie es in UK genannt wird, und in einigen Fällen haben sie ihre Statements auch selbst begutachtet.

Es war normal, Behauptungen bzgl. Auswirkungen zu sensationalisieren und auszuschmücken. Dies zeigt die Studie, die in Studies in Higher Education veröffentlicht worden ist.

In UK und Australien wurden die Akademiker nach Beweisen dafür gefragt, welche Auswirkungen ihre Forschungen haben könnten, wenn sie Gelder beantragen. Research Councils UK war es, die die Notwendigkeit von PIS im Jahre 2009 eingeführt hatte.

Die Antwortenden sagten, dass zukünftige Projektionen der Auswirkungen „Scharaden“ oder „aufgebrezelte Storys“ waren. Ein UK-Professor drückte es so aus: „Würde ich das glauben? Nein! Würde es mir bei der Geldbeschaffung helfen? Ja!“.

Akademiker hatten das Gefühl, zu Lügen hinsichtlich ihrer Auswirkungen-Statements gezwungen zu werden durch die Logik des wilden Wettbewerbs unter Akademikern. Ein Professor in Australien sagte: „Falls man mir einen einzigen Akademiker vorstellt, der nicht Mist erzählt, blufft, lügt oder alles ausschmückt, nur um Forschungsgelder zu bekommen, dann werde ich einen Akademiker präsentieren, der in Schwierigkeiten mit den Leitern ihrer Abteilungen steckt“.

Ein anderer in Australien ansässiger Akademiker sagte, dass Ausschmückungen für das „Überleben“ im Spiel der Erlangung von Forschungsgeldern unabdingbar sind.

Akademiker nehmen die Statements nicht ernst, weil sie das Gefühl hatten, dass die Vorhersage zukünftiger Auswirkungen schlicht unmöglich ist. Sie „scheinen PIS zu verhöhnen, indem sie zu verstehen geben, dass die Autoren über hellseherische Fähigkeiten verfügen müssten, um die Zukunft akkurat zu vermitteln“, hieß es in der Studie.

„Ich weiß nicht, was man sagen soll – etwa so etwas wie ,Mein Name ist Columbus, ich werde jetzt die Westindischen Inseln entdecken‘!“ sagte ein Professor in Australien.

Ein anderer Professor in UK beschrieb den gesamten Prozess als „unehrlich“, weil der Gedanke einer zuverlässigen Prophezeiung zukünftiger Auswirkungen „ein Schlag ins Gesicht der wissenschaftlichen Praxis“ ist.

Ein wieder anderer Professor in Australien sagte: „Es ist wirklich praktisch unmöglich, derzeit ein Schreiben an das Australian Research Council ARC zu richten ohne zu lügen“.

Mitautor Richard Watermeyer, leitender Dozent im Fachbereich Bildung an der University of Bath sagte, dass die Ergebnisse für ihn keine Überraschung seien, werden doch Auswirkungen-Statements schon jetzt oftmals als „nachträgliche Gedanken“ angesehen, wenn man Gelder beantragt. Er sagte, dass er eine Kultur der „öffentlichen Intellektuellen“ favorisieren würde, die ihre Ergebnisse in großem Rahmen kommunizieren. Aber das wäre nicht das Gleiche wie die Schaffung eines Systems, dass „Spielerchen“ in Auswirkungen-Statements befeuern würde.

Link: https://www.timeshighereducation.com/news/academics-regularly-lie-to-get-research-grants

Übersetzt von Chris Frey EIKE




Die Zunahme der Wärmeinseln brachte den Großteil des Temperaturanstieges der letzten 125 Jahre

Wo andere, auf unbewiesene Theorien zurückgreifen und alles, was mit dem Temperaturanstieg zusammenhängt, auf den sog. Treibhauseffekt (THE), basierend auf sog. Treibhausgasen (THG) fixieren, differenzieren wir und erkennen mehrere Ursachen, für die vom DWD ausgewiesene Temperaturerhöhung für Deutschland in den letzten 125 Jahren.

Ausgangspunkt unserer Betrachtungen ist die von Einstein in die Welt gebrachte Erkenntnis: Die Zeit ändert den Raum. Stimmt dies, dann ändert sie all seine Eigenschaften und eine seiner Eigenschaften ist die mittlere Bewegungsenergie seiner Gase. Die Wissenschaft hat dafür den Begriff „Temperatur“ eingeführt und misst diese Energie in °C oder °K.

Wäre die Welt und Deutschland genauso geblieben wie im Diagramm-Startjahr 1891 in Abb.1 (nach DWD-Daten):

– die gleiche Einwohnerzahl

– der gleiche, geringe Lebensstandard

– der geringe Energieverbrauch und würden die Temperaturmessstationen

– auch noch am gleichen Standort stehen wie damals, z.B. bei unbeheizten Klöstern, bei Forsthäusern am Waldrand, bei noch viel kleineren Ansiedlungen oder bei Fischerhütten am Fischteich, dann sehen die gemessenen Temperaturen des Deutschen Wetterdienstes ganz anders aus.

Wir wollen dem DWD damit nicht unterstellen, dass er falsch misst, sondern, dass seine Vergleichsbetrachtungen von heute zu früher falsch sind, weil der DWD sozusagen das o.g. Postulat Einsteins nicht berücksichtigt und Einsteins Erkenntnis nicht in die Temperatur- Vergleichsbetrachtungen mit einbezieht. Verstärkt wird der Fehler in den Vergleichsbetrachtungen durch geänderte Messwertsysteme, räumliche Verlagerung, sowie geänderte Erfassungszeiten und andere Datenmengen (wie oft wird z.B. gemessen = Basis des Mittelwertes). Ändert sich jedoch die Basis des Mittelwertes, so ändert sich auch der Mittelwert selbst. Diese Gegebenheiten sind in den Korrekturberechnungen von R. LEISTENSCHNEIDER enthalten.

Wird diese Berechnung vorgenommen und der flächenmäßige WI, in dem diese Veränderungen zusammengefasst sind, in den Vergleichsbetrachtungen berücksichtigt, so zeigt die folgende, grüne Temperaturkurve den korrekten Temperaturvergleich der letzten 125 Jahre.

Abbildung 1: Die WI-bereinigten Deutschlandtemperaturen. Die hier dargestellte WI- Bereinigung (Berechnung: R. LEISTENSCHNEIDER) entspricht der Vergleichsbetrachtung der DWD-Referenzstation Hohen Peißenberg (diese wird vom DWD selbst als Referenz ausgewiesen) mit den gemessenen Deutschlandtemperaturen des DWD. Es handelt sich also bei dem zu Grunde gelegten Datenmaterial um Original-DWD-Messwerte. Basis der Überlegungen von R. LEISTENSCHNEIDER bilden zwei fundamentale physikalische Gesetze:

– Strahlungsgesetz nach Plank

– Abkühlungsgesetz nach Newton

Die Berechnung ergibt eine Wärmeinselerwärmung für den DWD-Temperaturdatensatz Deutschland von 0,9°C – 1,2 °C für die letzten 125 Jahre, wobei sich ab ca. 1980 der WI-Anstieg beschleunigt. Folgende WI-Werte ergeben sich:

– 1881 – 1952 = +0,2°C

– 1953 – 1982 = +0,3°C

– 1983 – 2009 = +0,6°C

Der erhöhte WI ab 1983 deckt sich im Übrigen mit den Untersuchungen des Instituts für Meteorologie der Freien Universität Berlin in seiner Ausarbeitung: “Vor- und Nachteile durch die Automatisierung der Wetterbeobachtungen und deren Einfluss auf vieljährige Klimareihen“. Siehe hierzu (http://www.eike-klima-energie.eu/climategate-anzeige/sommerhitze-2015-klimawandel-oder-normales-wettergeschehen-teil-1/)

Die o.g. Bandbreite 0,9°C – 1,2°C hängt davon ab, inwieweit Raumveränderungen an der Referenzstation HPB berücksichtigt werden oder ob nicht. Wir geben den flächenhaften WI-Effekt daher mit einer Streubreite von 0,3°C an.

Das ständig wechselnde Auf und Ab der Temperaturen hat bekanntlich viele natürliche Gründe, wie Sonnenschein, Sonnenaktivität und Großwetterlagenänderungen. Der Anstieg in der DWD-Reihe ist indes größtenteils auf den flächenhaften zunehmenden WI-Effekt zurück zu führen.

Abbildung 2: Deutlich zu sehen, dass der größte Teil der vom DWD gemessenen Erwärmung der letzten 125 Jahre auf den stetig steigenden Wärmeinseleffekt zurückzuführen ist. Von der postulierten, angeblichen C02-Erwärmung ist nach der WI-Bereinigung nichts mehr übrig. WI-bereinigt wäre 1934 das wärmste Jahr und nicht 2014. Auch haben wir WI-bereinigt zwischen 1955 und 1980 ein Kälteloch. In dieser Zeit waren Politik und Medien übrigens schon einmal falsch unterwegs: Befürchteten sie doch eine beginnende Abkühlung.

Der DWD gibt auf Nachfrage mittlerweile zu, dass seine erhobenen Daten nicht wärmeinselbereinigt sind. Man erhebe die Daten vom heutigen Deutschland und vergleiche mit früher und da gäbe es nun mal eine Erwärmung, meinte der DWD. Alles richtig, nur darf man so nicht vergleichen, denn dann vergleicht man Äpfel mit Birnen (siehe auch die Aussage der TU Berlin, die in ihrem o.g. Artikel zur selbigen Aussage kommt).

Und weiter: Die Interpretation der Erwärmung überlasse man anderen. Wie unsere Abb.2 zeigt, kommt der Hauptteil der Erwärmung seit 1891 aus den immer weiter sich ausbreitenden Wärmeregionen, bzw. geänderte Messerfassung, in denen auch die DWD-Messstationen stehen/betroffen sind. R. LEISTENSCHNEIDER hat hierzu DWD-Stationen einem Belastungstest unterzogen, inwieweit diese für Vergleichsbetrachtungen (Messungen) geeignet sind, insbesondere Flughafenstationen (http://www.eike-klima-energie.eu/climategate-anzeige/was-sind-temperaturmessungen-auf-grossflughaefen-wert-oder-wie-das-zdf-mit-bewusst-falschen-temperaturaussagen-die-oeffentlichkeit-taeuscht-und-die-abkuehlung-in-deutschland-verschleiert/). Das Ergebnis: Gut 40% der DWD-Temperaturmessstationen sind für Vergleichsbetrachtungen zu früher nicht geeignet. Obwohl der DWD selbstverständlich korrekt misst, nur seine Vergleiche sind falsch oder, mit den Worten des DWD: Die Interpretation der Erwärmung überlasse man anderen und deren Aussage ist falsch.

Der Idealfall zur Überprüfung unserer ermittelten WI-Größe wäre natürlich eine Region, die sich seit 1891 in ihrem weiten Umland nicht verändert hätte. Das gibt es aber nach Einstein nicht. In den alten Bundesländern wurden wir dahingehend fündig, eine Station in Amtsberg, am Fuße des Erzgebirges zu finden, die seit 1982 eine Wetterstation, in einer fast gleich gebliebenen Umgebung hat, in 425 Metern Höhe und daher mit vergleichsweise geringen WI-Änderungen behaftet ist.

Eine weitere Station: Mitten im Erzgebirge auf 550m Höhe liegt die Kleinstadt Zwönitz, die im Vergleich zu westdeutschen Kleinstädten seit 1982 bis auf die letzten fünf, sechs Jahre noch keine übermäßig große Urbanisierung in der Fläche erfahren hat (Der Volksmund sagt dazu: Da ist die Zeit stehen geblieben). So dass die Station (ihr Standort) als eine Station, mit einem mäßigen flächenhaften Wärmeinseleffekt zu kategorisieren ist. Zur Erinnerung: Der flächenhaft sich entwickelnde WI betrachtet die Umgebungsveränderungen einer Station und vergleicht deren Messwerteentwicklung mit denen, vor den Änderungen, um Auffälligkeiten in den Temperaturgängen zu einer Referenzstation zu erkennen.

Folgend werden vier Standorte über die letzten 34 Jahre betrachtet (ab dem o.g. Jahr 1982). Als einen Standort mit dem höchsten WI-Effekt haben wir den Frankfurter Flughafen beschrieben (siehe http://www.eike-klima-energie.eu/climategate-anzeige/was-sind-temperaturmessungen-auf-grossflughaefen-wert-oder-wie-das-zdf-mit-bewusst-falschen-temperaturaussagen-die-oeffentlichkeit-taeuscht-und-die-abkuehlung-in-deutschland-verschleiert/).

Im Folgenden werden die Temperaturreihen dieser drei Standorte dargestellt, immer im Vergleich mit dem vom DWD erhobenen Deutschlandmittel. Wir wollen die Frage beantworten, wie sich die Temperaturreihen zueinander verhalten.

Abbildung 3: Vom Startjahr 1982 gehen die beiden Trendlinien leicht auseinander. Die Gesamtheit aller DWD-Messstationen hat zusammen einen etwas höheren WI-Effekt als die Kleinstadt Zwönitz. Auch die ermittelten Steigungsformeln zeigen dies.

Das folgende Diagramm vergleicht die Klimastation am Frankfurter Flughafen mit der fast WI-freien Station Amtsberg und mit dem Mittel der Deutschlandtemperaturen, erhoben vom DWD.

Abbildung 4: Auffällig ist die Entwicklung der Temperaturreihe des Frankfurter Flughafens im Vergleich zur weitgehend WI-freien Station Amtsberg. Die Spreizung ist deutlich und sie beträgt nach 34 Jahren etwa 1,1 °C Mehrerwärmung gegenüber dem Vergleichsjahr 1982. Die Trendlinie des DWD-Mittels liegt etwa in der Mitte.

Wir betonen nochmals, diese starke WI-Erwärmung des Frankfurter Flughafens ist auch eine menschengemachte Erwärmung, sie hat aber nichts mit einem CO2-Treibhauseffekt zu tun. Darin spiegelt sich vielmehr das erhöhte Flugaufkommen der letzten Jahre. Die Erwärmung basiert auf den heißen Triebwerksabgasen. Ob der DWD für diese Erkenntnis eine teure Messstation braucht oder das erhöhte Flugaufkommen auch hätte leichter erfahren können, darüber lässt sich gewiss streiten. Siehe hierzu auch unseren o.g. EIKE-Artikel und folgende Abb.5.

Abbildung 5 zeigt die Wetterstation auf dem Frankfurter Flughafen. Sie liegt nicht nur sehr nah am Rollfeld (ca. 70m), sondern in direkter Richtung zu den Abgasstrahlen der Jets, wie in der rechten Abbildung zu sehen. Das Bild erinnert frappierend an die Zustände auf dem Flughafen Rom, wie von Anthony Watts gezeigt wird (http://wattsupwiththat.com/2009/03/28/how-not-to-measure-temperature-part-86-when-in-rome-dont-do-as-the-romans-do/).

Beide Bilder sprechen für sich und bedürfen keiner weiteren Erklärung, was die Temperaturmesswerte dieser Stationen wert sind. Hält man sich vor Augen, dass über 50% aller globalen Messwerte, die das IPCC für seine globalen Temperaturreihen verwendet, von solchen Flughafenstationen stammen, wird schnell klar, was die globalen Temperaturaussagen des IPCC und seiner nahen Institute wert sind: Nichts!

Abbildung 6 zeigt alle vier Stationen zueinander:

Abbildung 6: Die Trendlinien der vier Standorte sind aufgrund der unterschiedlichen Zunahme an Wärmeinseleffekten seit 1982 auch unterschiedlich steigend. Zwönitz zeigt seit 2006 eine Erwärmungszunahme, sonst wäre die Trendlinienspreizung gegenüber der braunen DWD-Trendlinie noch größer.

Ergebnis: Die Trendlinien von Frankfurt (rot), DWD (braun), Amtsberg (dunkel) und Zwönitz (blau) spreizen sich immer mehr.

Fazit: Auch im fast WI-freien Amtsberg ist eine leichte Erwärmung in den letzten 34 Jahren festzustellen, die auf der Zunahme der solaren Aktivität beruht (Abb.7 und Abb.8).

Abbildung 7: (Quelle: http://bobtisdale.blogspot.com/2008/08/reference-graphs-total-solar-irradiance.html) zeigt die PMOD-TSI-Kurve von 1900 – 2007 (blau, vor 1980 rekonstruiert) und in rot die Satelliten-ACRIM-TSI-Kurve. Deutlich ist erkennbar, dass die solare Aktivität zum ausgehenden 20. Jahrhundert deutlich ansteigt und ihr Maximum erreicht. Dies wird noch mehr in der Abbildung rechts deutlich, wird jeweils der polynomische Trend angelegt. Anzumerken ist noch, dass der 23. Zyklus aufgrund der anderen Messcharakteristik von ACRIM III gegenüber ACRIM I im Vergleich zu seinen beiden Vorgängerzyklen gedämpft ist, also, würde auf ACRIM I normiert, nochmals höher ausfiele. Sie sehen, auch hier die Vergleichsproblematik aufgrund anderer Rahmenbedingungen,

Werden die NASA-Satellitenmessungen ab 1980 mit den rekonstruierten TSI-Werten zusammengefahren, so ergibt sich die nachfolgende Datenreihe links in Abb.8.

Abbildung 8: Die Datenreihe zeigt den TSI von 1850 bis 2007. Sie passt deutlich besser zur Protonenaktivität (Hochenergie: >10 MeV) der Sonne, die als Maß ihrer Gesamtaktivität gilt, Abbildung rechts, Quelle: NOAA Space Environment Center. Ebenso zum Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus, der in 2003 sein Maximum hatte und der den Schwabe-Zyklus unmittelbar beeinflusst, sowie zur Aussage der Max Planck Gesellschaft aus 2004, “Sonne seit über 8.000 Jahren nicht mehr so aktiv wie heute“.

Abb 7 und 8 zeigen: Mitte der 1970-Jahre lag die solare Aktivität auf einem vergleichsweise geringen Niveau, was nicht nur in Deutschland zu einem Kälteeinbruch bei den Temperaturreihen führte. In Abb.2 wird dies für im Temperaturgang deutlich. Ab 1987/88 zeigen alle Stationen einen Temperatursprung (siehe solare Aktivität) und bleiben dann auf einem höheren Niveau. Ab diesem Zeitpunkt hat Amtsberg eine fast ausgeglichene Trendlinie.

Abbildung 9: Die vergleichsweise WI-freie Station Amtsberg hat bereits seit 29 Jahren eine fast ausgeglichene Trendlinie. Das Klima ist seitdem recht stabil und die Berechnung von R. LEISTENSCHNEIDER zeigt, dass dies auch in Deutschland ohne die beschriebenen Veränderungen so ist – die Vergleichstemperaturen, aufgrund der Raumänderung, die sich im Flächen-WI widerspiegelt, anders sind, als der DWD dies in seinen statischen Messwerten und damit ungeeigneten Vergleichswerten zeigt. Die festgestellte WI-Erwärmung ist z.B. auf die geänderte Landnutzung, auf die Ausbreitung der Wärmeinseln zurückzuführen, sowie auf geänderte Messwerteerfassung (siehe Untersuchungen der TU Berlin).

Eingangs zeigten wir, dass der DWD anhand seiner Datenbasis zu einer Erwärmung für Deutschland von ca. 1,8°C für die vergangenen 125 Jahre kommt. Wir konnten belegen, dass davon ca. 1°C auf den flächenmäßigen WI zurückgeht. Wir wollen anhand der bereits erwähnten DWD-Referenzstation HPB noch zeigen, auf was die verbliebenen 0,8°C basieren.

Abbildung 10 links zeigt die Temperaturentwicklung am HPB von 1786 – 2006. Deutlich ist ein natürliches Schwingverhalten zu sehen, deren Periode bei ca. 206 Jahren liegt (Maxima der 5 und 10-Jahrestrends). Diese Schwingung stimmt exakt mit dem Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus überein, der in 2003 sein (im Mittel) 208-jähriges Aktivitätsmaximum hatte, als ganz Europa unter einem Jahrhundertsommer stöhnte.

Abbildung 10 rechts, Quelle: Hathaway et al. 1999 ”A synthesis of solar cycle prediction techniques", Journal of Geophysical Research, 104 (A10), zeigt den aa-Index (gilt als Maß für die solare Aktivität) und den Schwabe-Zyklus (gepunktete Linie). Deutlich ist dieser im aa-Index abgebildet. Im 20. Jahrhundert steigt dieser parallel zum de Vries/Suess-Zyklus stark an. Temperaturverlauf der DWD-Referenzstation HPB und solare Aktivität sind identisch.

Ergebnis

Die Zunahme der Wärmeinseln brachte Deutschland den Großteil des gemessenen Temperaturanstiegs von 1,8°C. Durch die Berechnung von R. LEISTENSCHNEIDE und den Stationsvergleichen konnten wir zeigen, dass der WI-Effekt mit rund 1°C der Haupttreiber der gemessenen Temperaturzunahme darstellt. Ohne die WI-Effekte wäre die gemessene (!) Erwärmung Deutschlands in den letzten 150 Jahren viel moderater ausgefallen. Nämlich nur um den durch die solare Aktivitätszunahme verursachten 0,8°C Temperaturanstieg.

Die tatsächliche Temperaturentwicklung Deutschlands zeigen die Messstationen, deren Umgebungs- und damit Raumveränderungen gering sind, denn:

Die Zeit ändert den Raum und damit alle seine Eigenschaften und eine seiner Eigenschaften ist seine Temperatur. Also müssen für Vergleichsbetrachtungen diese Raumänderungen herausgefiltert (gerechnet) werden.

Vor diesem Hintergrund sind alle Temperaturzeitreihen des DWD, für Vergleichsbetrachtungen ungeeignet und liefern falsche Aussagen und Schlussfolgerungen.

Fazit

Der Haupttreiber der gemessenen Erwärmung seit 1891 ist menschengemacht. Es handelt sich jedoch nicht um eine C02-Erwärmung (dessen Temperatursignal konnte noch nirgends gefunden werden, auch nicht von der IPCC), sondern um die seitdem anhaltende Urbanisierung in die freie Landschaft hinein und durch Messwerterfassungsänderungen. Diese Urbanisierung der Landschaft geht natürlich weiter, da sich die Menschen und Menschheit weiter entwickeln. Täglich werden in Deutschland etwa 110ha überbaut und weltweit etwa 50 km2 Regenwald täglich gerodet. Allein jedes zusätzliche (energetisch und damit volkswirtschaftlich unsinnige) Windrad zerstört 1ha freie Fläche.

Die politische Vorgabe einer CO2-Minderung ändert nichts am weiteren Temperaturverlauf, sondern führt vielmehr der Natur und der Menschheit erheblichen Schaden zu, sofern eine CO2-Minderung überhaupt durchsetzbar wäre. Direkt, durch ein falsches Lenkungsprinzip, hin, zu unsinnigen, allein nicht überlebensfähigen und damit hoch subventionierten Industriezweigen und zeitverzögert, wird dadurch das Wachstum aller Pflanzen behindert.

Denn deren Wachstum ist unmittelbar von CO2 abhängig. Diese haben ihr Optimum bei ca. der 2-3-fachen CO2-Menge in der Atmosphäre wie heute, was, würde tatsächlich der atmosphärische CO2-Gehalt verringert, zu Ernteausfällen führt. Zudem würden sich die Wüsten weiter ausbreiten. Ein Zusammenhang, den die NASA bereits vor mehr als 10 Jahren festgestellt hat. Eine CO2-Minderung wäre somit schädlich für das Leben auf der Erde.

In der CO2-Debatte in Politik und Medien geht es erkennbar nicht um die Aufklärung der Öffentlichkeit anhand belastbarer Fakten, sondern um Stimmungsmache, zum Erreichen diverser Ziele. Zu denen Sensationsmache, Abgabenerhöhung und Bauernfängerei, zugunsten eigener politischen Ziele gehören. Insbesondere Lobbyisten, wie die Partei, die vermeintlich die Umwelt in ihrem Namen trägt, versuchen damit auf Stimmenfang zu gehen. Unser Artikel zeigt jedoch einmal mehr, dass kein Raum für Sensationen, Panikmache oder zum Abkassieren vorhanden ist. Möge jeder selbst entscheiden, ob er politischen Gauklern auf den Leim geht oder sich stattdessen über die naturwissenschaftlichen Zusammenhänge und Fakten bei unabhängigen Naturwissenschaftlern informiert.

Raimund Leistenschneider – EIKE

Josef Kowatsch, Naturbeobachter und unabhängiger Klimaforscher

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher




Die lächerliche Idee, erneuerbare Energien sind oder werden irgendwann mal am kostengünstigsten sein

Bild rechts: Demmig: NIE werden nie wirtschaftlich

Umweltschützer sind sauer, anscheinend. Eine Sierra Club-Vertreterin, die in der Asheville Citizen-Times zitiert wurde, ist nicht nur aufgeregt, sie hat nachweislich Unsinn versprüht:

Emma Greenbaum, North Carolina‘s Vertreterin für den Sierra Club, sagte sie ist erfreut, dass die Kommission die dritte Turbine abgewiesen hat, aber auch niedergeschlagen, dass der genehmigte Plan dieses übergroße Erdgasprojekt ermöglicht.

"Es ist bedauerlich, dass wir gezwungen sind, weiter auf einem klimagefährdenden Pfad zu gehen, wenn die Energieeffizienz und erneuerbare Energien auch weiterhin für die Verbraucher und die Umwelt die beste, kostengünstigste Lösung sind. Wir werden auch weiterhin für den Ausbau von sauberer Energie in unsere Region und im ganzen Staat eintreten, als Übergang zu sauberer Energie, die allein eine "langfristige Lösung für unseren Energiebedarf darstellt“.

Nein, wirklich: ". Die beste, kostengünstige Lösung für die Verbraucher und die Umwelt" Lassen Sie uns das weiter untersuchen, da erneuerbare Energien nicht einmal in der Nähe zu wettbewerbsfähigen Kosten sind, geschweige denn zu "geringsten Kosten."

Preisliche Wettbewerbsfähigkeit ist die geheiligte Täuschung der erneuerbaren Energien Industrie. Sie sind sehr engagiert den Menschen irgendwie einzureden, dass erneuerbare Energien für die Verbraucher tatsächlich billiger wären. Aber das ist völliger Unsinn.

"Energieeffizienz" in die Gleichung zu werfen gehört dazu, wie sie es versuchen. Wie Ökonomen am Beacon Hill Institute in ihrem Gutachten des Berichtes der erneuerbaren Energielobby zeigten, der angebliche, große Gewinne [für den Verbraucher] aus dem Portfolio der erneuerbaren Energien vorgibt.

Versteckt in Text, Tabellen und Diagrammen ist wenig da, was zeigt, dass die erneuerbaren Energien sich selbst subventionieren [werden]. Die Kosteneinsparungen basieren allein auf "Energieeffizienz" und nicht auf erneuerbare Energien. Alles andere ist trivial. Aber sie wollen den Eindruck erzeugen, dass "keine Energie zu nutzen" [als Punkt] für die erneuerbaren Energien zählt und sie behaupten, erneuerbare Energie ist billiger.

Betrachten Sie es auf diese Weise. Es ist wie eine Kinderwerbung, die viel Zucker beinhaltenes Müsli als Teil eines gesunden Frühstücks anpreist. Das bedeutet, wenn Sie nur ein wenig davon mit einem gesunden Frühstück essen, wird es ein Teil davon sein. Aber selbst ist das ziemlich ungesund.

Erneuerbare Energie ist ein Teil von niedrigeren Energiekosten, wenn Sie nur wenig davon nutzen, noch besser, überhaupt keine Energie zu nutzen. Aber selbst ist das …

Lassen Sie uns überlegen:

Es ist nicht kostengünstig.

Wenn Sie nicht hinsehen, sagt die gleiche erneuerbare Energie Lobby der Politik und den Steuerzahlern, dass Ihre Stromrechnung "Better off mit REPS" und fordert die Energie Kommission auf, keine niedrigeren Preise zu genehmigen, da niedrigere Preise schlecht für erneuerbare Energien sein würden.

[Renewable Energy and Energy Efficiency Portfolio Standard (REPS) – soweit ich es verstanden habe; bekommen die EE Erzeuger einen Anteil an der Stromrechnung gutgeschrieben, der würde sich mit ändern; A.D.]

Durchschnittliche Haushaltsstrompreise in North Carolina, 1990-2012

Es können sicherlich nicht die geringsten Kosten entstehen, wenn Sie laufende Kohlekraftwerke schließen, um Ersatz durch erneuerbare Anlagen zu starten.

Es ist so, die Stromerzeugung aus neuen Anlagen ist teurer als Strom aus bestehenden Anlagen; das wird noch schlimmer, wenn Sie eine bestehende Anlage zur Stromerzeugung aus einer effizienten Quelle wie Kohle ersetzen, um auf erheblich unzuverlässigere Quellen angewiesen zu sein.

Es sind definitiv nicht den geringsten Kosten, wenn Sie in vollem Umfang auf die Realitäten nicht planbarer Energien setzen.

Das würde ihre bekannten Ineffizienzen und die Arbeitsunfähigkeit einschließen, wenn entweder die Sonne nicht genug scheint oder der Wind nicht weht. Natur, Wirtschaft, einfache Berechnung und Physik, alles arbeitet gegen die nicht planbaren erneuerbaren Energiequellen in Bezug auf, ob sie überhaupt wettbewerbsfähig gegenüber traditionellen Quellen sein können

Erneuerbare Energiequellen zu zeigen, die viel mehr Subventionen als andere Energiequellen bekommen, hilft auch nicht.

Sie können nicht einmal in der nahen Zukunft wettbewerbsfähig sein, geschweige denn mit den geringsten Kosten.

Erneuerbare Energien sind sicher nicht wettbewerbsfähig geworden, trotz vier jahrzehntelanger Versprechungen, sie werden in naher Zukunft wettbewerbsfähig sein. Vor sechs Jahren fühlte das Institut für Energieforschung sich aufgefordert zu fragen: "Werden die Kosten der erneuerbaren Energien zu irgend einer Zeit wettbewerbsfähig sein?" und fand, dass die "in Kürze" Subventions-fließende-Rhetorik in die 1970er Jahre zurückreicht.

Inzwischen befürwortet neue MIT Forschung eine [in der Höhe] einstellbare Kohlendioxid-Steuer, um die unausweichliche Realität zu berücksichtigen, dass die erneuerbaren Energien nie mit traditionellen Energiequellen wettbewerbsfähig sein werden. Sie wollen unbedingt wettbewerbsfähige erneuerbare Energien, dass sie bereit sind, die traditionellen Energiepreise künstlich zu verteuern, damit das quasi automatisch geschieht (schluck das, du armer Steuerzahler!).

Dieser Ansatz für den Wettbewerb ist, wie Commodus vorher heimlich Maximus in den Rücken sticht, da er denkt, dass dieses der einzige Weg sei, wie er das Duell gewinnen könnte [im Gladiator Film, feiger Commodus gegen gefesselten Maximus]

Darüber hinaus, berichtet der Daily Caller,

Grüne Energie ist so unzuverlässig und intermittierend, dass es das Versorgungsnetz zerstören kann, nach Experten aus Industrie und Regierung“

Die US-Federal Energy Regulatory Commission (FERC) untersucht derzeit, inwieweit grüne Energie die Zuverlässigkeit des Stromnetzes untergräbt . FERC glaubt, dass ein "signifikantes Risiko" von Elektrizität in den Vereinigten Staaten besteht, immer unzuverlässiger zu werden, weil "Wind und Sonne nicht die Dienste der bestehenden Kohlekraftwerke anbieten." Umweltvorschriften könnten Kohle oder Erdgas-Kraftwerk unrentabel machen, was die Zuverlässigkeit des gesamten Stromnetzes beeinträchtigen würde

Es ist weitab von geringsten Kosten, selbst wenn Sie versuchen, die Umwelt zu berücksichtigen.

Eine Brookings Institute Studie versucht, die "sozialen Kosten" der Kohlendioxid-Emissionen zusammen mit den Kosten der nicht planbaren, erneuerbaren Energien für Bedarf an Backup-Grundlast -Versorgung darzustellen. Die Studie fand heraus, dass "Solarenergie die bei weitem die teuerste Art ist, Kohlenstoff-Emissionen zu reduzieren" und "Wind ist die nächste teuerste."

Die Teilnehmer am gemeinsamen Forum Energiepolitik der John Locke-Stiftung und NC WARN werden sich daran erinnern, dass die Diskussionsteilnehmer alle (siehe Ende) zustimmten, dass es vergeblich war, ein Maß von "sozialen Kosten" für Kohlendioxid-Emissionen zu erzeugen.

Ganz zu schweigen davon, wenn es versucht würde, alle sozialen Kosten in Rechnung zu stellen, würde es ebenfalls erfordern, die vielen ökologischen Auswirkungen der hochflächenintensiven [EE-] Anlagen auch zu berücksichtigen und die gefährlichen Materialien die sie benötigen.

Erschienen am 02.03. 2016 auf John Locke Foundation

Übersetzt durch Andreas Demmig

http://www.johnlocke.org/newsletters/research/2016-03-02-4n7663n8ekok5jkov34l4qfrl4-regulation-update.html




Über den Meeresspiegel, seine Schwankungen und Messungen

1. Vorbemerkung

Seit langer Zeit treiben den Verfasser Fragen zum hier behandelten Thema um. Rein be­ruflich war er, wenn auch indirekt, bspw. mit der Geschichte der Verteilung von Land und Meer auf der Erde ständig konfrontiert. So beschäftigten ihn Fragestellungen z. B. solcher Art wie große Transgessions- und Regressionsereignisse („Große Quartärtransgression“) im Zusammen­hang mit mehrfachen Vergletscherungen (Kaltzeiten) besonders hinsichtlich der nördlichen He­misphäre und wie sie mit­einander in Einklang zu bringen gehen (Was in Wahrheit gar nicht so ein­fach ist!). Die Hauptmotivation zum Verfassen vorliegender Abhandlung bestand jedoch darin, dass man im Zusammenhang mit quantitativen An­gaben auf Satellitenmessungen basierten Da­ten über Meeresspiegelschwankungen bspw. in den Massenmedi­en mit schier unglaublicher mm-Genauigkeit hantiert. Diese Sachlage provozierte schon seit langem die natürliche Skepsis des Ver­fassers. Dieser Sache sollte also irgendwann einmal auf den Grund gegangen werden. Hinzu kommt bspw., dass besonders häufig in den genannten Medien über einen permanent verlaufen-d­en Meeresspiegelanstieg vorrangig als Folge des Abschmelzens der Polkappen berich­tet wird. In diesen Medi­en werden Meeresspiegelschwankungen (offensichtlich der einfachen Logik hal­ber) fast immer in Zusammenhang mit dem Schmelzen von Eis der Gletscher bzw. dem Gefrie­ren von Wasser in Zusammenhang gebracht. Auch aus der Sicht eines Geologen, dem schon von Hau­se aus noch ganz andere nicht weniger wichtige Einflussfaktoren auf das Niveau des Meeresspie­gels bekannt sind, bestand deshalb die Motiva­tion, vorliegende Abhandlung nieder­zuschreiben. Auch wenn es schwerfiel, war der Verfasser ständig bemüht, bei der Niederschrift des Tex­tes auf jegli­che Polemik zu verzichten. Außerdem ist beabsichtigt, hier weitgehend von der Darstellung sub­jektiv geprägter Sachverhalte Abstand zu nehmen. Geschieht es den­noch, wird die entsprechen­de Textpas­sage besonders gekennzeichnet (Kursivschrift) Für ein besseres Ver­ständnis des We­sens von Meeresspiegelschwankungen ist es nach Meinung des Ver­fassers not­wendig, et­was weiter „auszuholen“. Insofern mag die vorliegende Abhandlung auch als Auffri­schungskursus hinsichtlich des erdkundlichen Allgemeinwissens dienen. In diesem Zusammenh­ang bittet der Verfasser im Voraus um die Nachsicht des Le­sers, falls der Inhalt vorlie­gender Ab­handlung stel­lenweise allzu banal erscheinen mag.

 

2. Die Gestalt der Erdoberfläche

Die Form des Planeten Erde entspricht bei weitem nicht der Form einer Kugel und wird deshalb in den Erdwissenschaften (Geographie, Geodäsie, Geologie, Geophysik u.a.) als Geoid defi­niert. Mit dieser Bezeichnung wird die Einzigartigkeit des Planetenkörpers optimal gekennzeich­net. Geometrisch ist der Erdkörper der Form eines Rotationsellipsoids sehr nahe. Rein äußerlich kommt die Form der Erde eher der ei­ner rohen Kartoffel gleich. In Abb. 1a ist der Planet Erde als Zeichnung zur Verdeutli­chung dieser Aussage darge­stellt.

Abb. 1a: Die äußere Form der Erde

In Abb. 1a sind zum Vergleich die geometrischen Idealformen einer Kugel sowie die eines Rotationsellipsoids dargestellt. Etwas genauer ausgedrückt, wird durch die Oberfläche des Geo­ids eine Fläche gleicher Schwere­potentiale beschrieben. Jedoch ist auch die Geoidoberfläche kei­nesfalls deckungsgleich mit der tatsächlichen Oberflächenform der Erde. Im Be­reich der Ozeane kommt die Form der Wasseroberfläche der des Geoids relativ nahe (vgl. Abb.1d/s. auch Kap. 4).

Abb. 1b: Was sind eigentlich Höhen?

Abb.1c: Der Zusammenhang Geoid, Landoberfläche und Meeresspiegel

Letzteres hängt damit zusammen, dass das Schwerepotential* an jedem Ort auf der Ober-fläche des Geoids gleich ist. Die natürliche Lotrichtung und die Geoidoberfläche (vgl. Abb. 1b) stehen in jedem Punkt seiner Oberfläche senkrecht zueinander (Sie ist also die soge-nannte Nor­male einer Potentialfläche). Daher kann die Form des Geoids durch Mes­sung der lokalen Erdbe­schleunigungen bestimmt werden. Zwei beliebige Punkte auf der Geoidoberfläche ha­ben somit das gleiche Schwerepotential und deshalb die gleiche sogenannte dynamische (orthometrische) Höhe.

Der Thematik „Form der Erde“ sind hier insgesamt 5 Abbildungen gewidmet. Damit soll verdeutlicht werden, dass zu quantitativen Aussagen über Änderungen der äußeren Erdgestalt (Schwankungen des Meeresspiegels, Veränderung der Höhen der Landoberfläche), im Grunde ge­nommen, immer auch Angaben zur dementsprechenden Bezugsfläche erforderlich sind (Z. B. was ist bzw. wo liegt das Nullniveau?).

Die aufmerksame Betrachtung der Abbildungen 1a bis 1e verdeutlichen, wie wichtig es ist, bspw. im Zu­sammenhang mit Meeresspiegelschwankungen über fundierte Kenntnisse bezüg-lich der morphologischen Beson­derheiten der Erde zu verfügen. (Dementsprechend wichtig und verantwortungsvoll ist es so auch im Falle entsprechender Informationstätigkeit bspw. über die Massen­medien, eine korrekte Ausdrucksweise zu praktizieren.) In nachfolgender Abbil­dung ist die Abwei­chung des Geoids von der Idealform eines Referenzkörpers dargestellt.

Abb. 1d: Das Verhältnis des Geoids zum Idealkörper

Abb. 1e: Die zeitliche Veränderlichkeit der Oberlächenform des Geoids

Wie anhand von Abb. 1e erkennbar, ist der Erdkörper seiner Form nach bei weitem kein räumlich unveränderliches Objekt [9]. Die Zeitspannen, in denen Veränderungen von statten ge­hen, sind erstaunlich gering.

12. Résumé

Die Satellitenaltimetrie als ein inzwischen sehr wichtiges Instrument des Monitorings des globalen ökologischen Zustandes unseres Planeten birgt in sich einen enormen Erfahrungs­schatz, welcher innerhalb der letzten 40 Jahre angehäuft wurde. So blieb es nicht aus, dass die Sicherheit und die Möglichkeiten zu treffender Aussagen sich über die Raumfahrttechnik in un­geahntem Maß immens weiterentwickelt haben.

Im Laufe der Recherchearbeiten im Internet erwies es sich als sehr angenehm, dass die westlichen Raumfahrtorganisationen NASA und ESA im krassen Gegensatz zu russischen Einrich­tungen entsprechender Art sehr viele Daten der Öffentlichkeit zugänglich machen. Ebenfalls zeigte sich, dass das englisch- und russischsprachige Internet relativ reichhaltig an wissenschaft-li­cher Literatur zum gegebenen Thema sind. Wieder einmal glänzte das deutsch­sprachige Inter-net durch wenig Inhalte. Vor bspw. 10 Jahren, wäre es nicht möglich gewesen, ausschließlich mit Hilfe des Internets einen Artikel zu gegebenem Thema auf mehr oder weniger befriedigende Art und Weise zu erstellen.

Der Verfasser hat im Zuge der Bearbeitung vorliegenden Artikels auf intensive Weise er­fahren, dass es sich im Fall der Thematik „Meeresspiegel, seine Schwankungen und Messungen“ um eine hochkomplexe Materie handelt, die s. E. erst recht von Laien nicht vollständig über­schaubar sein kann. Im Verlauf der Erarbeitung vorliegenden Textes durchlief der Verfasser ei-nen gewissen Lernprozess. So wurde ihm auch klar, dass häufig vermittelte Informationen, wel­che bspw. bezüglich Ergebnissen der Erdbeobachtung aus dem All mit schier unglaublicher Ge­nauigkeit erfolgen und somit noch weitere Möglichkeiten (z. B. Erkennung von Gesichtern*, Auto-n­ummern sogar Briefmarken u. a.) suggerieren, ganz offensichtlich dem Reich der Mythen und Verklärung entstammen. Der Verfasser wünscht sich, dass der Leser bemerken konnte, wie wi­dersprüchlich der Umgang bspw. in den Medien mit aus kosmischen Beobachtungen gewonne­nen Um­weltdaten hinsichtlich ihrer Genauigkeit, die Art und Weise der Information und ihrer Vermitt­lung in Wirklichkeit ist. Es ist davon auszugehen, dass aus welchen Gründen auch immer, der Öf­fentlichkeit so Einiges vorenthalten, bewusst verschleiert wird. Für den Verfasser erwies es sich auch im genannten Zusammenhang als vollkommene Illusion, bei ihm aufgekom­mene Zweifel an der Genauigkeit von Angaben satellitenaltimetrisch basierter Meeresspiegelmessun­gen, auf zu­friedenstellende Art und Weise weder definitiv ausgeräumt noch bestätigt zu finden. Ungeach­tet dessen, kann sich der Verfasser jedoch des Gefühls immer noch nicht erwehren, dass mit den von Einrichtungen wie der NASA oder ESA stammenden Angaben äusserst hoher Genau­igkeiten u.a. auch in Verbindung mit Meeresspiegelmessungen „irgend etwas nicht stimme“.

Angesichts der im vorstehenden Text aufgeführten Fakten erscheint es sehr fragwürdig, von einem „globalen Meeresspiegel“ zu sprechen geschweige denn, seine Variabilität mit höchs­ter aktuell bekannter Genauigkeit auszuweisen.

Der Verfasser wäre dem Leser für jede Kritik und entsprechend konstruktive Hin­weise äußerst dankbar.


*      Weshalb ist das Schwerefeld der Erde so ausschlaggebend?: Z. B. vor jeder geodätischen Messung auf einem Festlandsstandort werden die Horizontalkreise der Geräte (Nivelliergeräte /Theodoliten) in die Horizontale justiert, was einer Parallelisierung der Vertikalachsen zu den Horizontalkreisen der Geräte mit der Lotlinie bzw. einer entsprechenden Ausrichtung zur Geoidoberfläche oder Äquipotentialfläche des Erdschwerefeldes gleichkommt.

*               Ganz sicher kann niemand von sich behaupten, dass er jemals Satellitenbilder mit z.B. erkennbaren Gesichtern zu sehen bekam.

Der gesamte Aufsatz kann als pdf im Anhang herunter geladen werden.

Related Files