News und Termine

Im südlichen Afrika lag der Meeresspiegel vor 5000 Jahren um 3 m höher als heute

Thema heute: Der Meeresspiegelentwicklung in Africa. Dort steigt der Meersspiegel wie auch anderswo. Bereits in der letzten Warmphase, der Mittelalterlichen Wärmeperiode (MWP) ist dort der Meeresspiegel angestiegen. Das macht auch Sinn, denn während Warmphasen schmilzt Eis an den Polen und Hochgebirgsgletschern. Wie war es aber während der Kleinen Eiszeit, als sich die Gletscher ausdehnten? Pegelmessungen gibt es nicht aus dieser Zeit, dafür aber geologische Rekonstruktionen. Und siehe da, an der Südküste Südafrikas sank der Meeresspiegel während der Kleinen Eiszeit, wie Scott & Lee-Thorpe 2004 berichteten:

There is good evidence for a number of environmental shifts during the last 2000 years, but the most noteworthy event may be the climatic fluctuation during the Little Ice Age (LIA) period. Evidence for a lower sea level on the southern coast during its earlier phase (1520 or 1570 AD) may be a reflection of widespread anomalous conditions during this phase (Marker 1997).

Auch an der Westküste Südafrikas erleben wir eine kleine Überraschung. Vor 5000 Jahren lag dort der Meeresspiegel um 3 m ( in Worten: drei meter) höher als heute. Schön dokumentiert von Carr et al. 2015 in ihrer Abbildung 7:

Abb. 1: Meeresspiegelentwicklung an der Westküste Südafrikas während der letzten 9000 Jahre (BP=years before present). Es gilt die durchgezogene Linie (nicht die gestrichelte). Quelle: Carr et al. 2015

 

Gehen wir nun nach Nordosten nach Mosambik. Von dort berichten Achimo und Kollegen, dass Maputo Bay bereits vor 7000-5000 Jahren vor heute das heutige Meeresspiegelniveau erreicht hat:

The complete picture of Maputo Bay patterns with its modern sedimentary environments including Inhaca Island may have evolved when the sea level has stood close to its present level around 7000 – 5000 years BP, after which the Maputo Bay became more or less stable.

Eine Meeresspiegelabsenkung zwischen 800-1300 n. Chr. aus Mosambik dokumentierten Sitoe et al. 2017 (deren Abb. 5). Seit 1300 n.Chr. steigt der Meeresspiegel wieder langsam an, hat aber das Niveau von 800 n.Chr. noch lange nicht erreicht.

 

RIAS Medienpreis für fragwürdige Alaska-Klimawandel-Doku

Aus Stroh Gold machen. Das kennen wir nur aus Märchen. In der realen Welt könnte dies aber schon bald beim CO2 Wirklichkeit werden. Forscher arbeiten derzeit an Verfahren, das CO2 in Plastik umzuwandeln. Wäre toll, wenn es klappt.

——————–

Jan Philipp Burgard, wurde für seine phoenix-Dokumentation „Alaska im Klimawandel“ mit dem RIAS Medienpreis am 17. Juni 2018 ausgezeichnet. In der Filmbeschreibung heißt es:

Auf den ersten Blick ist Alaska ein Abenteuerland, bekannt für seine Naturwunder. Doch auf den zweiten Blick ist Alaska auch ein US-Bundesstaat, der in besonderer Weise von den Folgen des Klimawandels herausgefordert wird. Die von Eskimos bewohnte Insel Shishmaref versinkt im wahrsten Sinne des Wortes nach und nach im Meer. Heftige Stürme und Erosion haben Häuser ins Meer stürzen lassen. Die Insel schrumpft jedes Jahr um mehrere Meter, in 30 Jahren wird sie voraussichtlich verschwunden sein. Der 19-Jährige Esau Sinnok ist in Shishmaref aufgewachsen und macht als Umweltaktivist auf das Schicksal seines Dorfes aufmerksam.

Bereits vor einem Jahr haben wir einen Kurzfilm des Autors zum selben Thema an dieser Stelle analysiert und kamen zu einem vernichtenden Fazit:

Jan-Philipp Burgard hat mit diesem Stück den seriösen Reportage-Journalismus verlassen und bietet Aktivisten und ihren fragwürdigen Interpretationen eine große Bühne. Burgard scheitert kläglich in der Disziplin Faktencheck. Wenn der Aktivist ihm erklärt hätte, dass auch das Ausbleiben des Weihnachtsmannes eine Folge des Klimawandels wäre, hätte er es sicher ebenso berichtet. Es fällt auf, dass Burgards Herangehensweise an das Thema leider kein Einzelfall in der ARD-Redaktion darstellt. Bereits mehrfach haben wir unkritische aktivisten-nahe Berichte an dieser Stelle bemängelt. Die ARD scheint dies nicht zu kümmern und fährt ihre plumpe Klima-Kampagne einfach stur weiter. Gegen eine beratungsresistente Redaktion ist kein Kraut gewachsen, insbesondere wenn es offenbar von ganz oben Rückendeckung für das Vorgehen gibt.

Ein Medienpreis von Aktivisten für Aktivisten. Eine Auszeichnung mit Geschmäckle…

——————–

Der WWF wies kürzlich mit einer musikalischen Aktion auf ein reales Problem hin, das sich nicht weiter verdrängen lässt und unsere Aufmerksamkeit erfordert:

Mit Musik gegen das Insektensterben
Eine gespenstische Stille legt sich über unsere Wälder und Wiesen. Denn die Zahl der Insekten geht dramatisch zurück. Neueste Studien aus Deutschland zeigen: 75 Prozent der fliegenden Insekten sind bereits verschwunden. Eine ökologische Katastrophe, gegen die wir gemeinsam protestieren müssen. Mit lauten Tönen. Mit leisen. Und mit ganz besonderen. Die Karajan Akademie der Berliner Philharmoniker gibt in Zusammenarbeit mit dem WWF das erste Konzert, bei dem Insekten gemeinsam mit einem Orchester musizieren. Alle Einnahmen aus dem Verkauf dieser einzigartigen Komposition fließen u.a. in WWF-Projekte zum Erhalt der Artenvielfalt und der Förderung nachhaltiger Landwirtschaft – einer Grundvoraussetzung für das Überleben der Insekten.

Weiterlesen und Video beim WWF.

 

Anfang 2018: Kälte sorgt für Zuwachs beim deutschen Energieverbrauch

Die AG Energiebilanzen e. V.  gab am 24. Mai 2018 eine Übersicht zum Energieverbrauch in Deutschland während der Monate Januar-März 2018 heraus:

Kälte sorgt für Zuwachs beim Energieverbrauch
Erdgas mit starkem Plus/Kräftiger Rückgang bei Steinkohle/Mehr Erneuerbare

Die im Vergleich zum Vorjahr deutlich kühlere Witterung hat für einen kräftigen Anstieg des Energieverbauchs in den ersten drei Monaten des laufenden Jahres gesorgt. Nach vorläufigen Berechnungen der Arbeitsgemeinschaft Energiebilanzen (AG Energiebilanzen) ergab sich gegenüber dem Vorjahreszeitraum ein Zuwachs von 5,7 Prozent auf insgesamt 3.856 Petajoule (PJ) beziehungsweise 131,5 Millionen Tonnen Steinkohleneinheiten (Mio. t SKE). Neben den kalten Monaten Februar und März hatten nach Ansicht der AG Energiebilanzen auch die anhaltend gute Konjunktur sowie die Bevölkerungszunahme einen positiven Effekt auf den Energieverbrauch. Am deutlichsten fiel der Verbrauchszuwachs beim Erdgas aus. Die AG Energiebilanzen geht davon aus, dass sich der für das 1. Quartal berechnete witterungsbedingte Zuwachs im weiteren Jahresverlauf deutlich abschwächen wird. Ohne den Einfluss der Witterung wäre der Energieverbrauch im ersten Quartal nur um rund 3 Prozent gestiegen, teilte die AG Energiebilanzen nach entsprechenden Schätzungen mit.

Der Verbrauch von Mineralöl verringerte sich insgesamt um etwas mehr als 1 Prozent. Während der Absatz an Ottokraftstoff zunahm, gab es beim Diesel sowie beim Flugkraftstoff Rückgänge, auch der Heizölabsatz lag im Minus. Der Erdgasverbrauch lag knapp 20 Prozent höher als im ersten Quartal des Vorjahres. Der außergewöhnliche Zuwachs spiegelt die große Bedeutung des Energieträgers für die Wärmeversorgung in Deutschland wider. Der Verbrauch an Steinkohle lag im ersten Quartal 2018 um knapp 12 Prozent unter dem Wert des Vorjahreszeitraumes, da erneut weniger Steinkohle in den Kraftwerken zur Strom- und Wärmeerzeugung eingesetzt wurde. Auch der Einsatz von Koks und Kohle in der Stahlindustrie war leicht rückläufig. Der Verbrauch von Braunkohle lag in den ersten drei Monaten ebenfalls im Minus und verringerte sich um 1,5 Prozent, da weniger Strom aus Braunkohle erzeugt wurde. Bei der Kernenergie kam es trotz der Außerbetriebnahme des Kernkraftwerks Gundremmingen zum Jahresende 2017 zu einer deutlichen Zunahme der Stromproduktion im ersten Quartal 2018 im Vergleich zum Vorjahreszeitraum, da im ersten Quartal 2017 der Betrieb der Anlagen wegen einer Häufung von Revisionen stark eingeschränkt war.

Die erneuerbaren Energien steigerten ihren Beitrag zum gesamten Energieverbrauch im ersten Quartal 2018 um knapp 9 Prozent. Zu dieser Entwicklung trugen, außer der Solarenergie, alle Formen der Erneuerbaren bei: Mit 34 Prozent war der Zuwachs bei der Wasserkraft infolge höherer Pegelstände an den Flüssen am stärksten. Bei der Windkraft gab es ein Plus von 22 Prozent und bei der Biomasse von 4 Prozent. Die Solarenergie verzeichnete dagegen ein Minus von 6 Prozent.

Anstieg der Heizkosten, kühlerer Winter. Passt auf den ersten Blick nicht ganz so gut zum Narrativ der Klimaerwärmung. Das wollen wir etwas genauer anschauen. Der Deutsche Wetterdienst (DWD) bietet auf seiner Webseitte einen “Zeitreihengenerator” an, der die Temperaturkurven für verschiedene Monate plottet. Der Januar war eigentlich ziemlich warm, an dem kann es nicht gelegen haben. Aber Februar und März waren dafür wirklich kalt. Hier beim DVD am besten selber mal kurz durchklicken.

————————

Stefan Laurin am 15. Mai 2018 auf ruhrbarone.de:

Windige Hinterlassenschaft

Fast 29.000 Windräder drehen sich in Deutschland. 2020 läuft für viele der Anlagen nach 20 Jahren die Förderung aus. Das Ende der Subventionen wird für viele Windenergieanlagen das Aus bedeuten.

In weit über 300.000 Haushalten ging in den vergangenen Jahre das Licht aus, in dem einen Jahr waren es ein paar mehr, im anderen ein paar weniger. Es kann mehrere Wochen oder Monate dauern, bis der Stromversorger die Leitung kappt, nachdem  die Rechnung nicht bezahlt wurde, aber sicher ist: Der Tag kommt. Strom ist teuer in Deutschland: Mit im Durchschnitt 30,5 Cent für die Kilowattstunde steht teilen sich Deutschland und Dänemark den Spitzenplatz in Europa. Zum Vergleich: In Frankreich kostet die Kilowattstunde nur  16,9, in Bulgarien 9,6 Cent. Wer auf Unterstützungsleistungen des Staates wie HartzIV oder die Grundsicherung angewiesen ist, hat kaum eine Chance, durch Einsparungen an anderer Stelle die steigenden Energiepreise aufzufangen und vom zur Verfügung gestellten Budget werden sie in der tatsächlichen Höhe ohnehin nicht abgedeckt, weswegen Sozialverbände wie die Caritas der Erhöhung der Regelsätze. Aber auch wer arbeiten geht, tut sich zunehmend schwer, die Stromrechnung zu bezahlen: Während die Löhne real in den vergangenen 20 Jahren im einstelligen Bereich wuchsen, hat sich der Strompreis von 15 auf 30 Cent pro Kilowattstunde (kWh) verdoppelt.

Weiterlesen auf ruhrbarone.de

 

Die Sonne im Mai 2018 und antarktische Alpträume

Von Frank Bosse und Fritz Vahrenholt

Unsere Sonne war auch im letzten Monat unterdurchschnittlich aktiv. Nicht ganz so ruhig wie im April 2018, aber die SSN (SunSpotNumber) im Monat erreichte nur einen mittleren Wert von 17,3  – und das sind nur 43% des mittleren Wertes für den Zyklusmonat 114, wenn man alle bisher systematisch beobachteten 23 Zyklen seit 1755 als Vergleichsbasis benutzt. An 10 der 31 Tage war die Sonne völlig fleckenlos. In der dritten Monatsdekade gab es dann etwas mehr Aktivität. Wiederum war die Nordhemisphäre der Sonne mehr an der Ausbildung der wenigen und kleinen Flecken beteiligt, sie steuerte 78% zur Gesamtaktivität bei. Wie wir bereits im März-Report  vermuteten, sehen wir weiterhin vornehmlich Flecken des aktuellen Zyklus, der bei Weitem noch nicht beendet ist anders als damals einige Stimmen orakelten.

Abb.1: Der Verlauf des SC ( Solar Cycle) 24 in rot im Vergleich mit einem mittleren Zyklus ( blau) und dem nunmehr seit 40 Monaten sehr ähnlichen SC5 (schwarz).

 

Sehr viel spricht dafür, dass über die nächsten 12-24 Monate die Aktivität auf sehr niedrigem Niveau dem Ende des SC 24 zusteuert. Da auch der nächste Zyklus Nummer 25 wohl unterdurchschnittlich aktiv sein wird, (vielleicht ein wenig  stärker als der gegenwärtige, wofür die etwas stärkeren polaren Felder nahe dem Minimum sprechen) könnte uns ein recht langes Minimum bevorstehen. Der Vergleich der Zyklen untereinander:

Abb.2: Die aufsummierten Anomalien( das sind die Differenzen zwischen den tatsächlich festgestellten Werten und dem Mittelwert, blau in Abb.1)  der monatlichen SSN jeweils bis zum Zyklusmonat 114 für alle 24 Zyklen.

 

Es hat sich nicht sehr viel getan seit dem letzten Monat, der aktuelle Zyklus steht auf einem gefestigten Platz 3 wenn man die Tabelle verkehrt herum liest. Der SC5 ist bei der geringen gegenwärtigen Aktivität nicht mehr einholbar, er hatte ca. 1000 Flecke weniger über die gesamte Laufzeit.  Platz 4 von hinten hält SC14, er wies ca. 860 Flecke mehr auf bis zum aktuellen Monat. Auch da wird sich an der Rangfolge kaum etwas ändern können. Es bleibt dabei: Seit dem Ende des SC6 in 1823 (also fast 200 Jahre her) sahen wir nicht so wenig Sonnenaktivität wenn man die Zyklen in ihrer Gesamtheit vergleicht. Das hat Folgen: Wie wir bereits berichteten, erhöht sich die Gamma-Strahlenbelastung in der Höhe wenn die galaktische Strahlung stärker zur Erde durchdringen kann, und das tut sie, wenn die Sonne sehr wenig Sonnenwind bei geringer Aktivität produziert, der diese Strahlung vom Inneren des Sonnensystems fernhält. Die kontinuierlichen Messungen in der Stratosphäre liefern weiterhin steigende Belastungsdaten:

 

Abb. 3: Die Gamma-Strahlenbelastung in der Stratosphäre seit dem Maximum des Zyklus 24 bis Mai 2017 (Quelle)

 

Vor Jahresfrist bekam man bei einem Flug in großer Höhe mit einem Verkehrsflugzeug ca. 13% mehr Gamma-Strahlung ab als noch vor 4 Jahren. Aber keine Angst deswegen: wer nicht mehr als 1 mal pro Woche länger in diese Höhe kommt, hat kein nennenswert größeres Risiko dadurch.

 

Alptraum Antarktis ?

Sie werden jetzt fragen: „Was ist an der Antarktis ein Alptraum?“ Ein solcher ist es vorrangig für die bekannten Klimamodelle. Sie rechnen dort eine Erwärmung, die wir nie beobachteten. Seit etwa 1955 gibt es mehr oder weniger verlässliche Daten vom 6. Kontinent und das Ergebnis stellt sich so dar:

Abb.4: Die beobachtete  jährliche Temperaturentwicklung in der Antarktis (65°S-90°S) in hellblau, eine 15-jährige Glättung (dunkelblau) und die Modellerwartungen (rot). Die linearen Trends sind als gestrichelte Linien vermerkt.

 

Die Modelle berechnen eine 3mal so hohe Erwärmungsrate als beobachtet. Der lineare Trend ist gerade so signifikant positiv, der Modelltrend  (des Modelmittels) hingegen sehr robust-aber falsch. Leider gibt es vor 1955 keine Daten (hier wurden GISS – Werte verarbeitet), denn die interne Variabilität wird von so kurzen Reihen nur ungenügend abgebildet. Man muss dazu wissen: die mittlere Temperatur der Antarktis beträgt -55°C! Die Antarktis erwärmt sich also viel weniger als von den Klimamodellen erwartet, und dies kann nicht zum Schmelzen führen.  Über die Alarm- Mitteillungen dort hatten wir erst im Vorjahr berichtet. Und trotzdem versucht man einen zweiten Alptraum zu schüren: das Eis der Antarktis (es ist auf Land) schmilzt durch den Klimawandel und das Wasser ergießt sich in das Meer. Der Meeresspiegel steigt katastrophal!

Der Eisschild ist also der Dämon. Was wissen wir über ihn? Er hat ein Volumen von etwa 30 Mio km³, und wenn er sich bei einem Kollaps gänzlich in Wasser verwandelte, würde er den Meeresspiegel um 58 m steigen lassen. Was also geschieht? Eine neue Arbeit von 40 (!) Autoren kommt zu dem Schluss: Die Massenbilanz aller Regionen in der Antarktis ist negativ, das Eis schmilzt zusehends mit einer Rate von 109 Gt/Jahr. Sowohl die östliche Antarktis als auch die westliche und die antarktische Halbinsel tragen dazu bei.

Die gesamten Eiskappe wiegt etwa 27,6 Mio Gt, da Eis ein wenig leichter ist als Wasser. Wenn alles schmelzen soll, so dauert dies bei dem Tempo von 1992…2017, das die Arbeit feststellt, sehr,sehr lange. In 1000 Jahren würde etwa 1% der antarktischen Kappe schmelzen.  Aber warum soll sie schmelzen, wenn es doch so kalt ist da und es sich so wenig erwärmt? Hier muss man beachten, dass die Gletscher der Antarktis auch auf dem Meeresboden unter Wasser aufsitzen. Entscheidend sind also Temperaturen deutlich unter der Wasserlinie, wird es da viel wärmer, werden die Ausläufer der Gletscher von unten angetaut und sie verlieren einen Teil des Halts. Rutschen sie jedoch ins Wasser tauen sie früher oder später mit Sicherheit. Lassen Sie uns also einen Blick werfen auf die mittlere Temperatur der Wässer um Antarktika herum, und zwar nicht nur an der Oberfläche sondern bis  zu der Tiefe bis zu 400m.

Abb.5: Die Wassertemperaturen um die West-Antarktis (die größte Schmelzquelle der Antarktis laut der Arbeit)herum, wie sie von den Argo Bojen seit 2004 festgestellt wurden. Quelle

 

Man erkennt sehr viel Saisonalität (die kalten Einbrüche bis in 150m Tiefe während des südhemisphärischen Winters) und kaum längerfristige Änderungen. Es gibt bei weitem nicht so verlässliche Daten seit 1955, und die besagen, dass sich die Wassersäule 0…700m Tiefe seither um etwa 3/1000 °C pro Jahr  erwärmt habe. Seit 2004 (vgl. Abb. 5)  ist nur noch 1/3 der Steigung wirksam, rund 1/1000 °C/ Jahr.  Ein Zusammenhang mit der steigenden CO2 -Emission ist so jedenfalls nicht zu konstruieren.

Es spielen also viele natürliche Schwankungen eine Rolle und es bleibt schwer verständlich, wo die langfristige Schmelzquelle denn nun genau liegt. Eine Vorläuferarbeit aus dem Jahre 2015 unter Jay Zwally von der NASA kam denn auch zu dem Schluss: Die Westantarktis verliert Eis, die Ostantarktis gewinnt jedoch mehr und die Eisbilanz der Antarktis ist positiv. Er nutzte dabei hochmoderne Verfahren der Lidar-Technik. Sie ist inzwischen übrigens auch in den meisten hochpräzisen mobilen Blitzern verbaut, die dem Einen oder Anderen auf den Straßen ungebetene Erleuchtung bringen. Natürlich werden die Ergebnisse in der Fachwelt diskutiert, so erklärte eine andere aktuelle Arbeit zum Thema die Resultate der Zwally (2015)-Arbeit  kurzerhand als falsch. Der aber gibt zurück, als er zur Sache Stellung nimmt: „Ich habe eine weitere Arbeit geschrieben, die meine Ergebnisse  aus 2015 bestätigt, sie erscheint demnächst.“

Was lernen wir also zur Sache: Die zweifelsfreie Bestimmung der Schmelze in der Antarktis ist sehr komplex und geht an die Grenze der Nachweisbarkeit  mit verfügbarer Messtechnik. Der Eisschild ist wohl sehr resistent, weder der westantarktische Schild kollabierte, noch der ostantarktische,  auch in langen wärmeren Klimaphasen als heute, wie zwei aktuelle Arbeiten zeigen. So also bleibt es dabei: Die Antarktis ist eine Eiswüste, sie ist unwirtlich und kalt. Kein Alptraum!

 

Klimamodelle liegen zu knapp 40% falsch: Gebt historischen Messdaten mehr Gewicht!

Alle politischen Klimaschutzmaßnahmen bauen auf den Prognosen von Klimamodellen auf. Und genau diese Modelle haben noch immer riesige qualitative Probleme. Eine Pressemitteilung der McGill-University vom 15. Mai 2018 weist darauf hin, dass die Modelle für knapp 40% der Welt falsch liegen. Nicht gerade sehr überzeugend. Die Forscher schlagen vor, historische Messungen verstärkt einzubauen. Eine gute Idee. Hier die Pressemitteilung:

New approach to global-warming projections could make regional estimates more precise
Computer models found to overestimate warming rate in some regions, underestimate it in others

A new method for projecting how the temperature will respond to human impacts supports the outlook for substantial global warming throughout this century – but also indicates that, in many regions, warming patterns are likely to vary significantly from those estimated by widely used computer models.

The new method, outlined by McGill University researchers in Geophysical Research Letters, is based on historical temperature increase in response to rising greenhouse gas concentrations and other climate influences. This approach could be used to complement the complex global climate models, filling a need for more reliable climate projections at the regional scale, the researchers say.

“By establishing a historical relationship, the new method effectively models the collective atmospheric response to the huge numbers of interacting forces and structures, ranging from clouds to weather systems to ocean currents,” says Shaun Lovejoy, a McGill physics professor and senior author of the study.

“Our approach vindicates the conclusion of the Intergovernmental Panel on Climate Change (IPCC) that drastic reductions in greenhouse gas emissions are needed in order to avoid catastrophic warming,” he adds. “But it also brings some important nuances, and underscores a need to develop historical methods for regional climate projections in order to evaluate climate-change impacts and inform policy.”

In particular, the new approach suggests that for over 39% of the globe, the computer models either overestimate or underestimate significantly the pace of warming, according to Lovejoy and his co-author, PhD student Raphaël Hébert (now at the Alfred-Wegener-Institut, in Potsdam.

These areas of significant difference are indicated by the x’s in the map above. For example, the map shows that the IPCC projections are expected to be too warm (red x’s) over vast parts of the Pacific Ocean, the North Atlantic Ocean, and the Indian Ocean, while the opposite is true for the South Atlantic Ocean and the part of the Indian Ocean south of Australia.  In contrast, the projected warming is expected to be underestimated (blue) over northwestern Canada and central Asia — and a seasonal analysis reveals that this is primarily due to an underestimate of the warming in winter months.  (Dark red indicates 3-degree Celsius model overestimate, dark blue 3-degree underestimate if CO2 is doubled).

“Global climate models are important research tools, but their regional projections are not yet reliable enough to be taken at face value,” Hébert and Lovejoy assert. “Historical methods for regional climate projections should be developed in parallel to traditional global climate models. An exciting possibility for further improvements will be the development of hybrid methods that combine the strengths of both the historical and traditional approaches.”

Paper: “Regional Climate Sensitivity and Historical Based Projections to 2100,” by Hébert, R., and S. Lovejoy is published in Geophysical Research Letters.

 

Mojib Latif beim Schummeln ertappt

Unser Leser Dr. Wilfried Schnelle stieß am 15. März 2018 auf ein Interview von Mojib Latif im Deutschlandfunk. Dort ging Latif anlässlich des 30. Geburtstags des IPCC seiner liebsten Beschäftigung nach und spann eifrig Klimaalarm:

30 Jahre Weltklimarat: Erreichen des 1,5-Grad-Ziels “so gut wie ausgeschlossen”
Vor 30 Jahren wurde der Weltklimarat ins Leben gerufen – der Grund: man verdächtigte den Menschen, Hauptverursacher des Klimawandels zu sein. Das gelte heute als erwiesen, sagte der Klimaforscher Mojib Latif im Dlf. Dennoch habe der IPCC eine Aufgabe zu erfüllen: die Prognosen immer genauer zu machen.

Dr. Schnelle entdeckte zwei besonders bemerkenswerte Stellen. Hier Nummer 1:

Enorme Übereinstimmung bei Computer-Simulationen

Ehring: Es gibt ja immer wieder alarmierende Meldungen über das Klima, dass zum Beispiel der Meeresspiegel schneller steigt, als man bisher gedacht hat. Hat der IPCC am Anfang die Entwicklung noch unterschätzt, oder ist es ungefähr so gekommen, wie man damals vermutet hat?

Latif: Ganz grob ist es schon ungefähr so gekommen, wie man vermutet hatte. Wenn man die ersten Computer-Simulationen hernimmt und vergleicht, was in den Jahrzehnten danach tatsächlich passiert ist, dann ist doch eine enorme Übereinstimmung zu erkennen – nicht nur was die Entwicklung der globalen Durchschnittstemperatur angeht, sondern vor allen Dingen auch, was die regionale Verteilung der Erwärmung angeht. Denn es gibt sehr starke regionale Unterschiede und die Region beispielsweise, die sich am stärksten erwärmt hat bisher, ist die Arktis. Dort verläuft die Erwärmung doppelt so schnell wie im globalen Durchschnitt.

Das ist schon ziemlich erschreckend, was Latif da erzählt. Denn in Wirklichkeit hat sich das Klima weit schwächer erwärmt als von den IPCC-Experten prognostiziert. Die reale Temperaturkurve bewegt sich am unteren Ende des Vorhersagespektrums. Eine der Hauptursachen ist der unerwartete “Slowdown” der Erwärmung seit 1998, der bis kurz vor dem kräftigen El Nino 2016 sogar ein regelrechter Hiatus (Erwärmungsstopp) war. Wir haben über die Prognosefehlschläge an dieser Stelle immer wieder berichtet (hier, hier, hier, hier). Latif schert sich nicht um die unbequemen Fakten, erzählt tolle Geschichten von “enormen Übereinstimmungen”, die wohl vor allem nur er selber gesehen hat.

Und hier auch schon das zweite Highlight des Interviews:

Szenario Erderwärmung auf zwei oder fünf Grad

Ehring: Der IPCC betreibt ja selbst keine Wissenschaft. Wie ist die Arbeitsweise?

Latif: Der IPCC trägt zusammen, was in dem Berichtszeitraum an wissenschaftlichen Studien erschienen ist, und bewertet das dann auch. Man spricht im Englischen vom Assessment. Das heißt, dass man die Dinge zusammenträgt und bewertet. Eigentlich muss man sagen, der IPCC gibt auch immer einen Unsicherheitsbereich an. Der wird aber meistens nicht wahrgenommen, denn eine große Unbekannte bleibt natürlich. Die wird auch nie weggehen. Das ist nämlich die Frage, wie werden wir Menschen uns eigentlich in der Zukunft verhalten. Wird es so etwas wie eine globale Energiewende geben oder nicht, und wenn ja, wie schnell wird sie erfolgen. Deswegen streuen die Ergebnisse auch – nicht nur deswegen, aber vor allen Dingen deswegen -, und dann liest man hin und wieder, dass die Erwärmung bis zum Ende des Jahrhunderts vielleicht zwei Grad beträgt oder möglicherweise fünf Grad, und dann wundern sich die Menschen, wie kann denn das eigentlich angehen. Das liegt nicht daran, dass das eine Modell zwei Grad sagt und das andere Modell fünf Grad. Das liegt einfach an den Annahmen, an dem Szenario, das wir annehmen für die zukünftige Entwicklung der Treibhausgase in der Luft.

Wieder haben wir Latif beim Mogeln ertappt. Er erweckt hier den Eindruck, als ob die für die Modellsimulationen entscheidende Größe
der CO2-Klimasensitivität genau bekannt wäre und die Unsicherheit der Temperaturprognosen vor allen Dingen bei den Emissionspfaden liegt. Großer Quatsch! Die Größe des Intervalls für die CO2-Klimasensitivität im letzten IPCC-Bericht (AR5) von 1,5 bis 4,5 °C steht dieser impliziten Annahme eindeutig entgegen. Die Unsicherheit der Erwärmungswirkung des CO2 beträgt Faktor drei! Das könnte zum Beispiel eine Spanne von 2°C bis 6°C Erwärmung locker alleine erklären. Von Latif wird dies im Interview verschwiegen. Ehring hakt nicht nach, vielleicht weil er es nicht besser weiß. Insgesamt eine bedenkliche Irreführung der Öffentlichkeit. Das Schema ist übrigens kein neues. Bereits im Online WWF-Klimakurs hat man es mit dieser Masche versucht. Und wer war bei der Erstellung des Kurses beteiligt? Dreimal dürfen Sie raten: Mojib Latif!

 

Wenn das Modell die Zukunft simulieren soll, muss es auch die Vergangenheit reproduzieren können

Im US-Bunfesstaat Oregon untersuchen Forscher jetzt, wie man den Windkraftanlagen das Vogelmorden abgewöhnen könnte. Nahezu unbemerkt von der Öffentlichkeit, schreddern die hohen Stahlkolosse alles was ihnen in die Rotoren fliegt. The Daily Caller berichtete:

Researchers Spend Hundreds Of Thousands To Stop Wind Turbines From Killing Eagles

Researchers in Oregon are using a federal grant of over half a million dollars to figure out how to stop wind turbines from killing thousands of birds every year.

Researchers at Oregon State University were awarded a 27-month, $625,000 grant from the Department of Energy Wind Technology Office i n May 2017 with one goal in mind: Develop a system that can prevent wind turbines from killing golden eagles and other birds. Wind energy technology — despite being touted as an environmentally-friendly source of renewable energy — is estimated to kill well over 100,000 birds every year. With new wind farms being built across the U.S., that number is only expected to rise.

Weiterlesen auf The Daily Caller

——————

Der Iran hat den Pariser Klimavertrag zwar 2016 unterzeichnet, jedoch nicht ratifiziert. Das mit Sanktionen belegte Land möchte von den Industrieländern für seine Bemühungen finanziell entschädigt werden. Ohne Klimaausgleichszahlungen wären die Maßnahmen gegen die nationalen Interessen. Nachzulesen in der Tehran Times (via WUWT).

——————

Im Pacific Standard erschien am 17. Mai 2018 ein interessanter Beitrag von Francie Diep zum Problem der Reproduzierbarkeit von Ergebnissen in den Klimawissenschaften und den noch immer recht unscharfen Zukunftsprognosen. Obwohl der Artikel dem bekennenden Klimaaktivisten Gavin Schmidt viel Raum gibt, schafft es die Autorin dennoch, einige wichtige Fragen unterzubringen. Unter anderem weist sie auf die wichtige klimahistorische Kalibrierung der Klimamodelle hin, die noch immer nicht richtig funktioniert. Zunächst müssen die Modelle für die vorindustrielle Vergangenheit klappen, erst dann besitzen sie den notwendigigen “Skill” für Zukuntsprognosen.

What a ‘Reproducibility Crisis’ Committee Found When It Looked at Climate Science
The scientific community is working to make its predictions more accurate, but there’s still a long way to go.

[...] Scientists have several ongoing strategies for improving climate change predictions. They compare results from different methods of estimating the Earth’s prehistoric climates. These methods include using present-day clues such as tree rings and deep slices of ice taken from the Arctic or Antarctic. They also share the data and computer programs used in climate studies online so other research groups can verify the findings and spot bugs. And they run past climate data on computer models built to predict the planet’s future—because if the model works for the future, then it should work for the past too.

Ganzen Beitrag im Pacific Standard lesen.

 

Donau-Eis: Alfred-Wegener-Institut schneidet offenbar klimahistorischen Kontext bewusst weg, um zu dramatisieren

Das Alfred-Wegener-Institut (AWI), Helmholtz-Zentrum für Polar- und Meeresforschung brachte am 21. Mai 2018 per Pressemitteilung einen schönen Klimaschocker:

Klimaveränderungen: Die Donau friert seit rund 70 Jahren kaum noch zu

Wärmer werdende Winter und die vom Menschen verursachten Flusseinträge verhindern seit den 1950er Jahren eine regelmäßige Eisbildung auf Europas zweitgrößtem Fluss.

Dass man früher in nahezu jedem Winter auf der unteren Donau Schlittschuh laufen konnte, wissen heute nur noch die älteren Bewohner der Donau-Delta-Region. Seit der zweiten Hälfte des 20. Jahrhunderts friert Europas zweitgrößter Fluss nämlich nur noch in Ausnahmefällen zu. Grund dafür sind die steigenden Winter- und Wassertemperaturen in Mittel- und Osteuropa, wie ein deutsch-rumänisches Forscherteam jetzt herausgefunden hat. Ihre Analyse erscheint jetzt im Onlinemagazin Scientific Reports.

In der rumänischen Hafenstadt Tulcea wird gründlich Eistagebuch geführt. Seit dem Jahr 1836 dokumentiert die Donau-Kommission des Ortes, wann im Winter die Donau zufriert, wie lange der Fluss über eine geschlossene Eisdecke verfügt und an welchem Tag das Eis wieder aufbricht. Bis vor rund 70 Jahren notierten die Eiswächter in nahezu jedem Winter eine Eisbedeckung. Seit der Mitte des 20. Jahrhunderts aber sind die Einträge in der Tabellenspalte „Eis“ selten geworden. Im Zeitraum von 1951 bis 2016 ist Europas zweitgrößter Fluss nur zehn Mal zugefroren. Rein rechnerisch entspricht dieser Wert nicht einmal jedem sechsten Winter. Dabei zeigt ein Vergleich mit Regionen weiter stromaufwärts, dass die Donau in Tulcea, dem Eingangstor in das Donau-Delta, deutlich häufiger und länger zufriert als zum Beispiel im ungarischen Budapest. Was also verhindert seit rund 70 Jahren, dass die Menschen in Tulcea auf der Donau Schlittschuh laufen können?

Dieser Frage ist nun ein deutsch-rumänisches Forscherteam nachgegangen. „Wenn Klimawissenschaftler von Eis und Erderwärmung sprechen, denken die meisten Menschen an die Gletscher Grönlands oder das Meereis auf dem Arktischen Ozean. Nur wenigen ist wirklich bewusst, dass die Menge des Wintereises auf europäischen Seen und Flüssen ein ebenso wichtiger Indikator für ein sich änderndes Klima ist“, sagt Dr. Monica Ionita, Klimaforscherin am Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI). Sie und ihre Kollegen haben die Eisaufzeichnungen aus Tulcea und anderen Orten entlang der Donau mit lokalen und überregionalen Wetter-Datenreihen verglichen. Die Ergebnisse zeigen, dass sich das Klima in Mittel- und Osteuropa in den zurückliegenden Jahrzehnten deutlich verändert hat. „In Europa hat es bereits Ende der 1940er Jahre einen deutlichen Anstieg der Wintertemperatur gegeben. Seitdem sind die Wintermonate in der Regel nicht mehr kalt genug und die Donau und andere große Flüsse können nicht mehr regelmäßig und langanhaltend zufrieren“, sagt Monica Ionita.

Im Vergleich zu früher sind die Winter in Osteuropa heute im Durchschnitt bis zu 1,5 Grad wärmer als noch im Zeitraum von 1901 bis 1950. Hinzukommt, dass sich seit den 1980er Jahren auch die Wassertemperatur des Schwarzen Meeres im Winter nicht mehr ganz so weit abkühlt und seine Wärme dazu beiträgt, dass die Winter im Osten Europas und im Westen Russlands milder und feuchter werden. Ein weiterer Grund, warum die Donau nicht mehr zufriert, ist der Eintrag von Abwässern und Wärme in den Fluss. „Im Zeitraum von 1837 bis 1950 musste es im Winter minus 0,54 Grad Celsius kalt werden, damit sich in Tulcea eine Eisdecke auf der Donau bildete. Seit Beginn der 1950er Jahre aber reicht so leichter Frost nicht mehr aus. Die Lufttemperatur muss heutzutage auf minus 1,05 Grad absinken, damit die Wasseroberfläche gefriert. Der Einfluss des Menschen ist also auch hier deutlich zu erkennen“, erklärt die Wissenschaftlerin. Die Binnenschiffer auf der Donau dürfte das Ausbleiben des Wintereises wenig stören. Wo keine Eisschollen treiben, haben Flussschiffe freie Fahrt. „Die Folgen für die Pflanzen und Tiere der Donau dürften weitreichender sein, vor allem, wenn man berücksichtigt, dass die Luft- und Wassertemperaturen im Zuge der Erderwärmung weiter ansteigen werden“, so Monica Ionita.

Paper: M. Ionita, C.-A. Badaluta, P. Scholz and S. Chelcea: Vanishing river ice cover in the lower part of the Danube basin – signs of a changing climate, Scientific Reports, DOI 10.1038/s41598-018-26357-w

———

Aufzeichnungen gibt es leider erst seit 1836. Das entspricht dem Ende der Kleinen Eiszeit, einer sehr kalten Sonderphase. Es verwundert kaum, dass es seit der Kleinen Eiszeit wärmer geworden ist, das war zu erwarten und zu erhoffen. Was wirklich verwundert, ist, dass das AWI den Begriff “Kleine Eiszeit” mit keiner Silbe erwähnt. Will man unbequeme Kontextinformationen vermeiden, die die Dramatik der Meldung mildern würden? Aber es kommt noch besser. Wir schauen in die Originalpublikation hinein. Die ist immerhin in Scientific Reports erschienen, einem Journal der Nature-Gruppe. Sind die Ergebnisse für solch ein hochkarätiges Blatt nicht etwas dürftig? Wir schauen in den Abstract:

Vanishing river ice cover in the lower part of the Danube basin – signs of a changing climate
Many of the world’s largest rivers in the extra tropics are covered with ice during the cold season, and in the Northern Hemisphere approximately 60% of the rivers experience significant seasonal effects of river ice. Here we present an observational data set of the ice cover regime for the lower part of the Danube River which spans over the period 1837–2016, and its the longest one on record over this area. The results in this study emphasize the strong impact of climate change on the occurrence of ice regime especially in the second part of the 20th century. The number of ice cover days has decreased considerably (~28days/century) mainly due to an increase in the winter mean temperature. In a long-term context, based on documentary evidences, we show that the ice cover occurrence rate was relatively small throughout the Medieval Warm Period (MWP), while the highest occurrence rates were found during the Maunder Minimum and Dalton Minimum periods. We conclude that the river ice regime can be used as a proxy for the winter temperature over the analyzed region and as an indicator of climate-change related impacts.

Potzblitz. In der Arbeit selber werden die Resultate der letzten 150 Jahre sogar in einen langfristigen Klimakontext gestellt. Während der Mittelalterlichen Wärmeperiode (MWP) gab es ebenfalls sehr wenig Eis auf der Donau. Im Übergang zur Kleinen Eiszeit ist das Eis dann sehr viel häufiger geworden. Besonders viel gab es während der solaren Minimumphasen Maunder und Dalton. Danach wurde das Eis dann wieder seltener.

Wären dies nicht wichtige Informationen gewesen, die das AWI in seiner Pressemitteilung aus unerfindlichen Gründen einfach verschwiegen hat? Eine Panne oder glatter Vorsatz? In der Folge haben viele Zeitungen die Pressemitteilung aufgegriffen und entsprechend verzerrt berichtet. In die Falle getappt sind z.B. Der Standard, Scinexx, Augsburger Allgemeine. Von Seiten der AWI-Presseabteilung scheint Sebastian Grote verantwortlich zu sein. Mit der Verkürzung der wissenschaftlichen Aussage und Dramatisierung der Ergebnisse hat sich das AWI keinen Gefallen getan und muss sich den Vorwurf des Klimaalarmismus gefallen lassen.

 

Dramatisch: Erderwärmung verändert Quaken der Frösche

Der neue NASA-Chef Jim Bridenstine ist kein Freund extremen Klimaalarms. Im NASA-eigenen GISS-Institut heißt es nun zittern: Werden sie dort weiter Klimaalarm schmieden können? In einer kürzlichen Rede stellte Bridenstine klar, dass er durchaus eine gewichtige Rolle des CO2 an der Klimaerwärmung anerkennt. Es ist gut zu sehen, dass hier jemand mit einer ausgewogenen Sichtweise Verantwortung übernimmt und die Vertreter der Extreme in die Schranken weisen wird.

—————

Der Korallenriff-Forscher Peter Ridd wurde von seiner Uni gefeuert, da er die Klimauntergangsszenarien nicht mittragen konnte. Nun klagt er dagegen. Hier gibt es den neuesten Stand.

—————

Klimaforscher werden immer kreativer. Jetzt will eine Wissenschaftlergruppe die Fließbewegung von Gletschern anhand von Eisgeräuschen bestimmen. Da können die lästigen Peilstangen getrost zuhause gelassen werden.

—————

Durchbruch in der zoologischen Klimaforschung: Experten konnten nun nachweisen, dass sich das Quaken der Frösche im Zuge der Erderwärmung verändert.

—————

Schade drum: Derzeit wird überlegt, ob aus Klimaschutzgründen Haustiere verboten werden sollten.

 

Klimaerwärmung kurbelt Waldwachstum an US-Ostküste an

Gute Nachrichten: Die Klimaerwärmung wird wohl das Waldwachstum an der US-amerikanischen Ostküste ankurbeln Pressemitteilung der Duke University vom 16. April 2018:

Warming climate could speed forest regrowth in eastern US
Faster takeover by trees could boost carbon sequestration on abandoned land

Climate change could speed the natural regrowth of forests on undeveloped or abandoned land in the eastern U.S., according to a new study.

If left to nature’s own devices, a field of weeds and grasses over time will be replaced by saplings, young trees and eventually mature forest. Earlier research has shown that this succession from field to forest can happen decades sooner in the southeastern U.S. than in the Northeast. But it wasn’t obvious why, especially since northern and southern fields are first colonized by many of the same tree species. Now, a study published Proceedings of the National Academy of Sciences points to temperature as the major factor influencing the pace at which trees take over.

The results suggest that as temperatures rise, faster-growing forests on lands that humans have left idle could play a bigger role in removing carbon dioxide from the atmosphere, say researchers from Duke University and Syracuse University. The team conducted the experiment at six sites up and down the eastern U.S., from New York to Florida. At each site, the researchers followed the early lives of four tree species that are common early arrivals in abandoned farm fields — loblolly pine, black cherry, red cedar and sweetgum. Using plastic wading pools as planters, they grew the trees from seed in plots with varying soil fertility, and with and without different mixes of early succession plants such as broomsedge and goldenrod. In each plot the researchers also measured light availability, soil moisture, nutrients and other variables known to affect plant growth. After two years, the tree seedlings grew faster at southern sites. But surprisingly, other plant species grew slower.

One possibility is that soil fertility is the main factor, said co-author Jason Fridley, associate professor of biology at Syracuse University. The thinking was that poorer southern soils produce a sparser carpet of weeds and grasses. This might in turn shade emerging tree seedlings to a lesser extent than in the north, and make it easier for them to grow up through the gaps. But statistical analyses weighing the relative effects of soil fertility and other factors revealed that temperature was the biggest driver of tree seedling growth. Part of the reason is that milder winters and earlier springs mean a longer growing season, said Justin Wright, associate professor of biology at Duke.

The results are important because average annual temperatures in the eastern U.S. are predicted to warm by five to nine degrees Fahrenheit by the end of the century. Rising temperatures could also bring more droughts, Wright cautions. But in the absence of drought stress, even minor warming will likely accelerate the transition from field to forest. This also means that northeastern meadows that normally persist for decades may become shorter-lived, Fridley said. The forests that replace them probably won’t mirror native forests, he added — especially if cold-intolerant trees that are common colonizers of southern fields find it increasingly easy to survive and take hold in the north. “Certainly in the next 100 years and maybe in the next 50 years, fields will likely transition much faster to woody vegetation,” Fridley said. “The double whammy is the trees themselves are going to change too.”

But young, rapidly growing trees can potentially absorb more carbon dioxide than weeds and grasses as they convert the heat-trapping gas to the sugar they need to grow. That means that undeveloped or abandoned land, if left undisturbed, could soon play a bigger role in offsetting human sources of carbon dioxide emissions. “Faster-growing forests on once-cultivated land aren’t going to solve the climate change problem,” Wright said. “But one of the reasons we care about these abandoned sites is they have really high potential for carbon sequestration.”

Paper: Jason Fridley and Justin Wright. Temperature Accelerates the Rate Fields Become Forests. Proceedings of the National Academy of Sciences, 2018 DOI: 10.1073/pnas.1716665115

 

Keine verlässlichen Temperaturtrends im Nordpazifik, Nordatlantik und südlichen Indik

Augenmaß statt Hysterie, das fordern immer mehr Wissenschaftler. Viel zu lange haben Medien und bestimmte Wissenschaftler gemeinsam die Alarmschiene bedient und damit Aufmerksamkeit und Geldmittel zu erzielen. Aber nicht jedes Problem muss als Drama dargestellt werden. Gibt es nicht auch einen Mittelweg, um Dinge wie vernünftige Menschen mit kühlem Kopf zu regeln? Stewart Brand übt auf AEON Kritik an der weit verbreiteten Hysterie zum angeblichen Massenaussterben:

Rethinking extinction: The idea that we are edging up to a mass extinction is not just wrong – it’s a recipe for panic and paralysis
[...] Viewing every conservation issue through the lens of extinction threat is simplistic and usually irrelevant. Worse, it introduces an emotional charge that makes the problem seem cosmic and overwhelming rather than local and solvable. It’s as if the entire field of human medicine were treated solely as a matter of death prevention. Every session with a doctor would begin: ‘Well, you’re dying. Let’s see if we can do anything to slow that down a little.’ [...] Many now assume that we are in the midst of a human-caused ‘Sixth Mass Extinction’ to rival the one that killed off the dinosaurs 66 million years ago. But we’re not. The five historic mass extinctions eliminated 70 per cent or more of all species in a relatively short time. That is not going on now. ‘If all currently threatened species were to go extinct in a few centuries and that rate continued,’ began a recent Nature magazine introduction to a survey of wildlife losses, ‘the sixth mass extinction could come in a couple of centuries or a few millennia.’ [...] The range of dates in that statement reflects profound uncertainty about the current rate of extinction. Estimates vary a hundred-fold – from 0.01 per cent to 1 per cent of species being lost per decade.

Ganzen Artikel auf auf AEON lesen.

Das gefiel den Hysterikern natürlich gar nicht. Sie bekamen in Science Platz, um weiter zu dramatisieren.

——————–

Zwischen 1980 und 2000 ist die Basis des heutigen Klimaalarmismus gelegt worden. Damals stiegen die globalen Temperaturen um ein halbes Grad an. Nicht auszudenken, wenn es so weitergegangen wäre. Aber die Erwärmung verlangsamte sich plötzlich, stoppte sogar teilweise. Hiatus, Slowdown. Heute weiß man: Ozeanzyklen von 60 Jahren Länge modulieren die Langzeittrends. Da wäre es falsch, die Flanken der Ozeanzyklen als Langzeittrend zu interpretieren – was aber genau passiert ist. Nun gilt es den Schaden zu begrenzen. Tia et al. veröffentlichten im Februar 2018 eine Arbeit, in der sie die Temperaturtrends der Meeresoberflächen während der letzten 130 Jahre analysieren:

Investigating the Uncertainty in Global SST Trends Due to Internal Variations Using an Improved Trend Estimator
A new criterion was proposed recently to measure the influence of internal variations on secular trends in a time series. When the magnitude of the trend is greater than a theoretical threshold that scales the influence from internal variations, the sign of the estimated trend can be interpreted as the underlying long‐term change. Otherwise, the sign may depend on the period chosen. An improved least squares method is developed here to further reduce the theoretical threshold and is applied to eight sea surface temperature (SST) data sets covering the period 1881–2013 to investigate whether there are robust trends in global SSTs. It is found that the warming trends in the western boundary regions, the South Atlantic, and the tropical and southern‐most Indian Ocean are robust. However, robust trends are not found in the North Pacific, the North Atlantic, or the South Indian Ocean. The globally averaged SST and Indian Ocean Dipole indices are found to have robustly increased, whereas trends in the zonal SST gradient across the equatorial Pacific, Niño 3.4 SST, and the Atlantic Multidecadal Oscillation indices are within the uncertainty range associated with internal variations. These results indicate that great care is required when interpreting SST trends using the available records in certain regions and indices. It is worth noting that the theoretical threshold can be strongly influenced by low‐frequency oscillations, and the above conclusions are based on the assumption that trends are linear. Caution should be exercised when applying the theoretical threshold criterion to real data.

Während die Erwärmungstrends im Südatlantik und tropischen Indik robst sind, konnten die Autoren keine statistisch verlässlichen Trends im Nordpazifik, Nordatlantik und südlichen Indik finden.

 

Niederländische Studie: Stränden der Welt geht es prinzipiell gut

Süddeutsche Zeitung am 27. April 2018:

Die Energiewende verschlingt massenweise Rohstoffe
Um die globale Erderwärmung einzudämmen, werden immer mehr Windräder und Solaranlagen gebaut. Eine Studie zeigt nun, was für enorme Mengen an Rohstoffen für den Bau solcher Anlagen notwendig sind. Um wirklich “sauberen” Strom zu liefern, müssen die Hersteller die Herkunft der Rohstoffe und die Bedingungen des Abbaus besser überprüfen.

Weiterlesen bei der Süddeutschen Zeitung

————————-

Alles wird immer schlimmer. Und am meisten Übel der Welt ist bekanntlich das CO2 Schuld. Das gilt auch für die Strände der Welt – hatte man zumindest gedacht. Ergebnisse einer niederländischen Studie fanden jetzt etwas Überraschendes: Es ist gar nicht so schlimm. Anhand von Satellitenbildern konnten Arjen Luijendijk und Kollegen feststellen, dass die Hälfte aller Strände der Erde stabil sind bzw. sogar wachsen. Zwar schrumpft ein Viertel der Strände, dafür wächst aber auch ein anderes Viertel. Der Sand bleibt in Bewegung. Von Katastrophe keine Spur. Genießen Sie Ihren Strandurlaub! Hier der Abstract von Luijendijk et al. 2018:

The State of the World’s Beaches
Coastal zones constitute one of the most heavily populated and developed land zones in the world. Despite the utility and economic benefits that coasts provide, there is no reliable global-scale assessment of historical shoreline change trends. Here, via the use of freely available optical satellite images captured since 1984, in conjunction with sophisticated image interrogation and analysis methods, we present a global-scale assessment of the occurrence of sandy beaches and rates of shoreline change therein. Applying pixel-based supervised classification, we found that 31% of the world’s ice-free shoreline are sandy. The application of an automated shoreline detection method to the sandy shorelines thus identified resulted in a global dataset of shoreline change rates for the 33 year period 1984–2016. Analysis of the satellite derived shoreline data indicates that 24% of the world’s sandy beaches are eroding at rates exceeding 0.5 m/yr, while 28% are accreting and 48% are stable. The majority of the sandy shorelines in marine protected areas are eroding, raising cause for serious concern.

————————-

20 Jahre Hockeystick, eigentlich kein Anlass zum Feiern. Eines der größten wissenschaftlichen Täuschungsmanöver sollte lieber in der Schublade bleiben. Spätere Generationen werden die Episode als abschreckendes Beispiel vorgeführt bekommen. Großer Profiteur der Aktion war damals der frischgebackene Doktorand Michael Mann. Er wurde für seine Studien raketenhaft befördert, von Aktivistengruppen, IPCC und Politikern hofiert. Karriere durch Lieferung von Klimaalarm. Ein dunkles Kapitel. Umso seltsamer, dass Mann nun glaubt, seine Ergebnisse wären bestätigt worden. Er sollte es besser wissen. Eine Temperaturanalyse des riesigen PAGES2k-Konsortiums fand 2013 für das erste Jahrtausend nach Christus ein Wärmeniveau, das den heutigen Temperaturen entsprach. Michael Mann lebt offenbar in seiner eigenen Welt, nimmt die neuen wissenchaftlichen Entwicklungen um ihn herum vielleicht gar nicht mehr wahr. Verständlich, denn wer möchte denn schon zugeben, dass er früher ziemlich daneben lag. Dabei liegen die Fehler nicht nur bei Mann. Damals vor 20 Jahren, als er seinen ersten Hockeystick zusammenbaute, gab es einfach noch kaum belastbare Temperaturrekonstruktionen für die letzten 2000 Jahre. Er hatte eigentlich keine Chance. Kaum ein Datensatz den er damals verwendete, befindet sich heute noch in den aktuellen globalen Rekonstruktionen.

 

Gavin Schmidt setzt sich für mehr Transparenz bei Klimadaten ein

Das Begutachtungssystem der Fachzeitschriften soll die Qualität von wissenschaftlichen Artikeln sicherstellen. Aber was passiert, wenn der Reviewer gleichzeitig persönliche Interessen verfolgt, die außerhalb der qualitativen Begutachtung liegen? Im Bereich der Klimawissenschaften sind es die beiden Lager der Klimadebatte. Wenn ein Gutachter fest davon überzeugt ist, dass die gesamte Erwärmung der letzten 100 Jahre anthropogenen Ursprungs sind, dann wird er keine Manuskripte gutheißen, die etwas anderes herausfinden, vielleicht differenziertere Zuweisungen wie 50% Natur und 50% Mensch. Da der Gutachter in den meisten Fällen anonym bleibt, kann er wie ein Heckenschütze aus dem Verborgenen agieren. Allein der Editor der Zeitschrift behält hier den Überblick, darf dies aber mit niemandem teilen. In Eos erschien am 9. Mai 2018 ein Beitrag, der diese Dilemma beleuchtet und Lösungen vorschlägt. Hier weiterlesen.

——————

Gavin Schmidt ist Klimaaktivist und Leiter des NASA GISS-Instituts. Oft haben wir uns an dieser Stelle über ihn aufgeregt. Nun gibt es jedoch endlich Anlass für positivere Worte. Schmidt setzte sich kürzlich für einen transparenten Umgang mit Klimadaten ein. Damit unterstützte er Scott Pruitt von der US-Umweltbehörde EPA, der dem jahrelangen Gemauschel dort ein Ende bereitete. Viele Forscher waren empört. Sie wollten weiter ihre Daten im Verborgenen halten, nur die Ergebnisse publizieren und dann in Politik umgesetzt sehen. Unter Obama eine übliche Vorgehensweise. Diese Zeiten sind jetzt zum Glück vorbei. Gavin Schmidt hat sich in dieser Frage richtig entschieden.

——————

Der Pariser Klimavertrag erfuhr zunächst eine grandiose Unterstützung. Es hagelte Unterschriften, alle wollten dabei sein. Das ist sicher auch darin begründet, dass nur wenige wirklich handeln mussten, während der Großteil der Länder durch hohe Klimaausgleichszahlungen profitieren würden. Auf einer kürzlichen Klimakonferenz in Bonn wurde dies wieder klar. China will nun doch nicht so stark die CO2-Emissionen drosseln. Sie hätten noch vieles aufzuholen, um auf einen ähnlichen industriellen Entwicklungsstand wie der Westen zu kommen. Daher würden die Einschnitte für China doch sicher nicht so richtig gelten. Genau dies hatten bereits Beobachter nach Paris vermutet. Das Abkommen ist zahnlos, Länder können kommen und gehen, taktieren, profitieren, aber wenn es dann um das Liefern geht, hängt es dann wieder nur an ein paar Nationen. Selbst wenn Deutschland seine Pläne eins zu eins umsetzt, würde der Umwelt damit kaum geholfen, denn die CO2-Einsparungen sind im weltweiten Maßstab nur ein Tropfen auf den heißen Stein. Trotzdem hätte dies einen Effekt, auf den sich viele Länder sicher schon freuen: Deutschland würde in vielen Industriebereichen den Anschluss verlieren und die Führungsrolle an andere Liefernationen abgeben. Deutschland deindustralisiert sich – und alle anderen klatschen und freuen sich.

Der Deutsche Arbeitgeberverband gab im April 2018 zu bedenken:

Die South China Morning Post berichtete in einem Artikel am 1. April, dass in den nächsten zwanzig Jahren mehr als 1.600 Kohlekraftwerke moderner Bauart in 60 Ländern durch chinesische Firmen gebaut werden sollen. Auch Japan möchte an dem wachsenden Markt für asiatische Kohlekraftwerke teilhaben und nach dem Bericht weitere 400 Kohlekraftwerke bauen und exportieren.

Lesetipp Lüning & Vahrenholt 2017 (kostenloses pdf des Artikels hier) zum Pariser Klimavertrag:

Paleoclimatological Context and Reference Level of the 2°C and 1.5°C Paris Agreement Long-Term Temperature Limits
The Paris Agreement adopted in December 2015 during the COP21 conference stipulates that the increase in the global average temperature is to be kept well below 2°C above “pre-industrial levels” and that efforts are pursued to limit the temperature increase to 1.5°C above “pre-industrial levels.” In order to further increase public acceptance of these limits it is important to transparently place the target levels and their baselines in a paleoclimatic context of the past 150,000 years (Last Interglacial, LIG) and in particular of the last 10,000 years (Holocene; Present Interglacial, PIG). Intense paleoclimatological research of the past decade has firmed up that pre-industrial temperatures have been highly variable which needs to be reflected in the pre-industrial climate baseline definitions. The currently used reference level 1850–1900 represents the end of the Little Ice Age (LIA). The LIA represents the coldest phase of the last 10,000 years when mean temperatures deviated strongly negatively from the Holocene average and which therefore are hard to justify as a representative pre-industrial baseline. The temperature level reached during the interval 1940–1970 may serve as a better reference level as it appears to roughly correspond to the average pre-industrial temperature of the past two millennia. Placing the climate limits in an enlarged paleoclimatic context will help to demonstrate that the chosen climate targets are valid and represent dangerous extremes of the known natural range of Holocene temperature variability.

——————

Fritz Vahrenholt analysierte vor kurzem an dieser Stelle die Zusammensetzung der neuen Kohlekommission. Dabei stieß er auf eine Vielzahl von Ökoaktivisten und Grüne. Eine Gesamtübersicht zu den Mitgliedern der Kommission finden Sie auch beim Klimaretter. Dort wird das ganze Ausmaß der fraglichen Besetzung deutlich. Eingesetzt wurden die Mitglieder von der Bundesregierung. Kanzlerin Merkel hat wieder einmal ganze Arbeit geleistet.

 

Zwei Studien mit überraschendem Ergebnis: Immer weniger Hitzetote, trotz Klimaerwärmung

Im Februar 2018 erschien im Fachblatt Environment International eine wichtige Studie zu den Auswirkungen des Klimawandels auf Todesfälle. Ein 22-köpfiges Autorenteam um Ana Vicedo-Cabrera untersuchte Trends bei Todesfällen im Zusammenhang mit Hitzewellen und Kältephasen an 305 Orten in insgesamt 10 Ländern. Das Resultat war überraschend: In fast allen Ländern gab es weniger Hitzetote. Bei den Kältetoten war das Ergebnis uneinheitlich: In einigen Ländern gab es mehr, in anderen weniger, in wiederum anderen blieb der Anteil konstant. Auszug aus dem Abstract:

Heat-related AFs [attributable mortality fractions] decreased in all countries (ranging from 0.45–1.66% to 0.15–0.93%, in the first and last 5-year periods, respectively) except in Australia, Ireland and UK. Different patterns were found for cold (where AFs ranged from 5.57–15.43% to 2.16–8.91%), showing either decreasing (Brazil, Japan, Spain, Australia and Ireland), increasing (USA), or stable trends (Canada, South Korea and UK). Heat-AF trends were mostly driven by changes in exposure-response associations due to modified susceptibility to temperature, whereas no clear patterns were observed for cold. [...]

Our findings suggest a decrease in heat-mortality impacts over the past decades, well beyond those expected from a pure adaptation to changes in temperature due to the observed warming. This indicates that there is scope for the development of public health strategies to mitigate heat-related climate change impacts. In contrast, no clear conclusions were found for cold. Further investigations should focus on identification of factors defining these changes in susceptibility.

Im Mai 2018 folgte dann noch eine Studie einer Gruppe um Daniel Oudin Åström im International Journal of Biometeorology. Die Forscher werteten Daten aus Stockholm für die letzten 100 Jahre aus und fanden ebenfalls trotz Klimaerwärmung einen Rückgang von Hitzetoten. Der Anteil der Kältetoten blieb jedoch über die Zeit stabil – trotz Temperaturanstieg im letzten Jahrhundert. Abstract:

Investigating changes in mortality attributable to heat and cold in Stockholm, Sweden
Projections of temperature-related mortality rely upon exposure-response relationships using recent data. Analyzing long historical data and trends may extend knowledge of past and present impacts that may provide additional insight and improve future scenarios. We collected daily mean temperatures and daily all-cause mortality for the period 1901–2013 for Stockholm County, Sweden, and calculated the total attributable fraction of mortality due to non-optimal temperatures and quantified the contribution of cold and heat. Total mortality attributable to non-optimal temperatures varied between periods and cold consistently had a larger impact on mortality than heat. Cold-related attributable fraction (AF) remained stable over time whereas heat-related AF decreased. AF on cold days remained stable over time, which may indicate that mortality during colder months may not decline as temperatures increase in the future. More research is needed to enhance estimates of burdens related to cold and heat in the future.

 

Fritz Vahrenholts Sonnenkolumne 5/18: Klimaempfindlichkeit gegenüber CO2 und die Kohlekommission

Hier schreibt Fritz Vahrenholt seine monatliche Kolumne. In allgemeinverständlicher Form berichtet er über neue Entwicklungen aus den Klimawissenschaften – und natürlich von unserer lieben Sonne.

11.6.2018
Die Sonne im April 2018: Klimaempfindlichkeit gegenüber CO2 und die Kohlekommission

Sehr geehrte Damen und Herren,

leider komme ich urlaubsbedingt erst jetzt dazu, Ihnen über den April 2018 zu berichten. Die Sonne war auch im vergangenen April sehr wenig aktiv. An 16 Tagen war die Sonne vollständig fleckenlos; die Sonnenfleckenzahl des Monats betrug weniger als ein Drittel des zu Erwartenden.

In unserem März-Bericht hatten wir die neuesten Forschungsergebnisse zur Klimaempfindlichkeit gegenüber CO2 vorgestellt. Danach ist die Klimaerwärmung bis zu 45 % geringer als uns das IPCC und der mainstream der Klimawissenschaftler glauben lässt. Das Interessante aber war die Reaktion des mainstreams darauf: die Methoden der Arbeit von Curry und Lewis werden nicht angezweifelt. Aber es könnte ja sein,- so der mainstream – dass die Erde in der Zukunft ganz anders, nämlich wärmer auf CO2 Emissionen reagiert. Das kann man eher spekulative Wissenschaft nennen, nämlich auf Modelle zu vertrauen, die in der Vergangenheit versagt haben und weder Meeresströmungen noch Wolken abbilden können.

Das Fundament des Pariser Abkommens ist also zusammengebrochen. Bis 2100 werden wir, was immer wir tun, die 2 Grad-Grenze nicht überschreiten. Was passiert nun mit der weltweiten Kohlenutzung? Außer in Europa und Kanada gibt es keinen Abschied von der Kohle. China und Indien dürfen nach dem Pariser Abkommen- wie alle Entwicklungsländer- die Kohlekraftwerkskapazitäten massiv ausweiten. In China kommen 280 000 MW hinzu in Indien 174 000 MW. Zum Vergleich: die gesamte Braunkohlenflotte Deutschlands hat eine Kapazität von 22 700 MW. 1600 Kohlekraftwerke werden weltweit in 62 Ländern gebaut, die meisten übrigens durch chinesische Kraftwerksbauer und mit Hilfe chinesischer Kredite. So etwa 15 300 MW in Pakistan, 16 000 in Bangladesh, selbst Myanmar 5100 MW. (Quelle : South China Morning Post). Insgesamt wird die Kohlekraftwerkskapazität weltweit um 43 % erweitert. Selbst Japan setzt auf Kohle, versucht allerdings mit Hilfe von CCS (Carbon Capture and storage), die CO2-Emissionen nicht weiter ansteigen zu lassen. Daher erscheinen die CO2-Verminderungsziele Japans auch eher bescheiden : 16 % bis 2030 und 25 % bis 2050. Zum Vergleich Deutschland 2030 40 % und 2050 80 bis 95 %.

Was andere Länder nicht schaffen, wollen wir mit Hilfe einer Kohlekommission erreichen, die eben nicht mit Energie-, Netz- und Technologieexperten besetzt ist, sondern mit Greenpeace, BUND und lokalen Bürgerinitiativen gegen Braunkohle. Dass allein in der Lausitz eine jährliche Wertschöpfung von 2 Milliarden € aufs Spiel gesetzt wird, werden die Wähler in diesem Raum im nächsten Jahr bei den Wahlen in Brandenburg und Sachsen nicht vergessen haben, zumal die ehemaligen Ministerpräsidenten von Brandenburg (SPD), Platzeck, und Sachsen (CDU), Tillich, der ehemalige Kanzleramtsminister Pofalla, flankiert von einer ehemaligen grünen Volkswirtin von AGORA an der Spitze der Kommission stehen. Aber was sind schon verlorene Landtagswahlen, wenn es doch um die Rettung der Welt geht ! Und dann sind ja noch die Grüne Gunda Röstel von der Stadtentwässerung Dresden und der Grüne Rainer Priggen, Vorsitzender des Lobbyverbandes Erneuerbare Energien in Nordrhein-Westfalen als Experten in der Kohlekommission. Auf die Idee auch Kritiker der alternativen Windenergie, die mittlerweile die grösste Naturzerstörung in Deutschland seit dem 2. Weltkrieg verursacht hat, ist kein Politiker der Bundesregierung gekommen. Dass die Verdreifachung der Windenergiekapazität in Deutschland zu einem durchschnittlichen Abstand der Windmasten von 2,7 km führt, interessiert die Bundesregierung nicht.

Am Parlament vorbei darf nun Prof. Schellnhuber seinen Traum von der “Grossen Transformation” ausleben. In einem Gutachten für die Bundesregierung hatte der von ihm geleitete Sachverständigenrat WBGU 2011 einen ” Gesellschaftsvertrag für eine Große Transformation” vorgelegt. Die Kernthese des WBGU ist folgende: das gegenwärtige Wirtschaftsmodell (“fossiler industrieller Metabolismus”) sei normativ unhaltbar. Der Umbau der Weltwirtschaft müsse schnell gehen, auf Kernenergie und Kohle sei gleichzeitig und kurzfristig zu verzichten. In Deutschland solle demnach der Klimaschutz allgemeines Staatsziel werden, an dem das Handeln von Legislative, Exekutive und Judikative ausgerichtet werde. “Um Zukunftsinteressen institutionell zu verankern, empfiehlt der WBGU zu erproben, das parlamentarische Gesetzgebungsverfahren um eine deliberative ‘Zukunftskammer’ zu erweitern. Um interessens- und parteipolitische Einmischung zu vermeiden, könnte die Zusammensetzung dieser Kammer beispielsweise durch Losverfahren ermittelt werden.”

Dem Losverfahren kommt die Besetzung der Kommission schon ziemlich nahe. Da es zur Zeit keine wirklich belastbare Alternative durch erneuerbare Energien weder hinsichtlich der Versorgungssicherheit noch der Wettbewerbsfähigkeit gibt, heißt Dekarbonisierung nichts anderes als  Deindustrialisierung. Die Chinesen kommen aus dem Grinsen nicht mehr heraus. Nach dem Motto Frechheit siegt und Dummheit verliert, haben sie nun verlauten lassen, dass ihr massives Kohlekraftwerksprogramm aus dem mit 100 Milliarden Dollar jährlich gespeisten Pariser Green Climate Fund finanziert werden soll. Die 100 Milliarden Dollar sollen von den Industrieländern getragen werden; Deutschland hatte 2016 einen Beitrag von 8,5 Milliarden € ab 2020 in Aussicht gestellt. Trump war clever genug, rechtzeitig aus diesen Pariser Schildbürgerstreichen auszusteigen.

Es grüßt Sie kopfschüttelnd
Ihr
Fritz Vahrenholt

——–

Frühere Kolumnen finden Sie hier.

Der kalifornische Blob. Und ein kleiner Denkanstoß für Volker Mrasek

Am 8. Juni 2018 brachte der Deutschlandfunk einen Bericht zum “Blob”, basierend auf Jacox et al. 2018:

Marine Hitzewelle: “The Blob”Todesurteil für Meeresbewohner
Fünf Jahre lang litt der US-Bundesstaat Kalifornien unter einer Rekorddürre. Auch der Pazifik vor der nordamerikanischen Westküste erlebte in dieser Zeit eine massive Hitzewelle, die schwerwiegende ökologische und ökonomische Folgen hatte – für Forscher ein Menetekel für die Zukunft.

Weiterlesen beim Deutschlandfunk

An und für sich handelt es sich dabei um eine interessante Zusammenfassung für das “Blob” Phänomen, das ja von Niemanden bestritten wird. Der Alarmismus-Spin kommt dann am Ende des Berichts mit diesem Zitat:

“Für die Forscher ist der Blob ein Menetekel für die Zukunft. Durch den Klimawandel heizen sich auch die Meere immer mehr auf, Windströmungen in der Atmosphäre verändern sich: Nach unseren Modellrechnungen wäre eine solche Hitzewelle vor – sagen wir - einhundert Jahren noch überhaupt nicht möglich gewesen. Doch jetzt wächst die Wahrscheinlichkeit für derartige Extreme.”

Zwei Gedanken dazu:

1) Es ist durchaus möglich, daß es solche Phänomene auch in den heißen 20er bis 40er Jahren an der Westküste der USA gegeben haben könnte – und dies ist ja auch schon fast 100 Jahre her. Satelliten zur flächendeckenden Temperaturmessung gab es damals noch nicht, so dass das Phänomen damals durchaus unbemerkt bzw. undokumentiert geblieben sein könnte.

2) Die richtige Vergleichsphase sind aber nicht letzten 100 Jahre, sondern ist die letzte ähnlich starke Wärmephase, also die Mittelalterliche Wärmeperiode (MWP). Damals gab es extrem strenge und langanhaltende Mega-Dürren im Südwesten der USA. Vieles spricht dafür, dass auch damals solche stabilen “Blob”-Situationen auf dem Ostpazifik existiert haben dürften. Folglich handelt es sich beim letzten “Blob” vermutlich um ein natürliches Ereignis, welches in jeder Warmphase auftreten kann und nicht unbedingt mit anthropogenen Faktoren zusammenhängen muss.

Ist es nicht seltsam, dass sich niemand diese Fragen stellt? Woher kommt diese klimatische Kurzsicht? Hat die Menschheitsgeschichte etwa erst um 1979 begonnen? Weshalb beschäftigen wir uns historisch mit der Römerzeit, in den Klimawissenschaften aber erst mit den letzten paar Jahrzehnten? Ein kleiner Denkanstoß vielleicht auch an Volker Mrasek, der den DLF-Beitrag gemacht hat.

 

Russische Arktis war 1920-1940 wärmer als heute

 

Thema heute: Die Temperaturentwicklung in der Arktis. Als erstes interessieren wir uns für die harten Fakten. Bei Climate4You finden wir die per Satellit gemessene Temperaturentwicklung (UAH) der Arktis:

 Abb. 1: Temperaturentwicklung der Arktis während der letzten 40 Jahre. Daten: UAH. Graphik: Climate4You

 

Wir sehen in den letzten 4 Jahrzehnten eine Erwärmung. Nach einer (El Nino-) Wärmespitze 2016 geht es nun aber wieder stetig bergab. Die kältesten Temperaturen gab es Ende der 1980er und Anfang der 1990er Jahre. Davor war es wärmer. Um 1980 wurden ähnliche Temperaturen gemessen, wie heute. Leider gibt es keine Satellitendaten aus der Zeit von vor 1979, daher ist noch  nicht einmal ein voller 60-Jahres-Ozeanzyklus abgedeckt, was die Zuordnung von anthropogenen und natürlichen Anteilen an der Erwärmung der letzten Jahrzehnte erschwert.

Aber es gab natürlich Wetterstationen vor 1979. Und die haben in der Arktis bereits in den 1930er und 40er Jahren eine Wärmephase aufgezeichnet, während der es ähnlich warm war wie heute. Beispiel: Opel et al. 2009 rekonstruierten die Temperaturgeschichte in der russischen Arktis für die letzten 100 Jahre anhand eines Eiskerns. Das Wärmemaximum ereignete sich in den 1930er Jahren, nicht etwa heute:

115 year ice-core data from Akademii Nauk ice cap, Severnaya Zemlya: high-resolution record of Eurasian Arctic climate change
From 1999 to 2001 a 724 m deep ice core was drilled on Akademii Nauk ice cap, Severnaya Zemlya, to gain high-resolution proxy data from the central Russian Arctic. Despite strong summertime meltwater percolation, this ice core provides valuable information on the regional climate and environmental history. We present data of stable water isotopes, melt-layer content and major ions from the uppermost 57 m of this core, covering the period 1883–1998. Dating was achieved by counting seasonal isotopic cycles and using reference horizons. Multi-annual δ18O values reflect Eurasian sub-Arctic and Arctic surface air-temperature variations. We found strong correlations to instrumental temperature data from some stations (e.g. r = 0.62 for Vardø, northern Norway). The δ18O values show pronounced 20th-century temperature changes, with a strong rise about 1920 and the absolute temperature maximum in the 1930s. A recent decrease in the deuterium-excess time series indicates an increasing role of the Kara Sea as a regional moisture source. From the multi-annual ion variations we deduced decreasing sea-salt aerosol trends in the 20th century, as reflected by sodium and chloride, whereas sulphate and nitrate are strongly affected by anthropogenic pollution.

Abb. 2: Temperaturentwicklung Severnaya Zemlya (russische Arktis) während der letzten 130 Jahre. Ausschläge nach oben=warm. Quelle: Opel et al. 2009

 

Ein Teil der Arktis-Erwärmung geht übrigens auf Maßnahmen zur Reinhaltung der Luft in Europa zurück. Die anthropogenen Sulfatpartikel hatten lange Jahre lang die Temperaturen der Arktis gekühlt wie die Universität Stockholm mitteilte (via Science Daily). Sollen wir aus Klimaschutzgründen jetzt wieder anfangen zu ferkeln?

European clean air policies unmask Arctic warming by greenhouse gases

The drastic cut in sulfate particle emissions in Europe partly explains the amplified Arctic warming since the 1980s, shows a new study published in Nature Geoscience.

The drastic cut in sulfate particle emissions in Europe partly explains the amplified Arctic warming since the 1980s, shows a new study published in Nature Geoscience. The team, which consists of scientists from Stockholm University and the Norwegian Meteorological Institute, say that their surprising finding highlights an even more urgent need for reducing greenhouse gas emissions to mitigate Arctic climate change. Human activities, such as industrial production, transport, power generation, and wood burning emit large amounts of tiny pollutant particles containing, for example, soot and sulfate, into the atmosphere. High airborne amounts of these particles, also known as aerosol particles, cause about 400,000 premature deaths every year in Europe and can be transported over long distances. Aerosol particles have different sizes, as well as chemical and physical properties, all of which determine their climate effects.

“Soot particles absorb solar radiation and warm the climate, in a similar way as greenhouse gases, such as carbon dioxide, do. Sulfate particles, on the other hand, reflect solar radiation and act as seeds for cloud droplet formation, cooling the climate as a result,” says Juan Acosta Navarro, PhD student at the Department of Environmental Science and Analytical Chemistry (ACES) and the Bolin Center for Climate Research, Stockholm University, and co-author of the study. He continues: “The overall effect of aerosol particles of human origin on climate has been a cooling one during the last century, which has partially masked the warming caused by the increase in greenhouse gas emissions.”

Sulfate emissions, which cause, for example, acid rain, peaked in the 1980s in Europe and North America, which led to the implementation of strict regulations to reduce them. The new study shows that these policies had a profound effect on the Arctic. “Using a numerical climate model we found that sulfate reductions over Europe between 1980 and 2005 could explain a significant fraction of the amplified warming in the Arctic region during that period due to changes in long-range transport, atmospheric winds and ocean currents. In other words, thanks to air quality regulations implemented in Europe, part of the masking effect of aerosol particles has been reduced, revealing the true warming of the Arctic by greenhouse gases,” says Annica Ekman, Professor at the Department of Meteorology (MISU) and Bolin Center for Climate Research, Stockholm University who also co-authored this study. The scientists expect further warming in the Arctic as levels of greenhouse gases will continue to increase and aerosol particle emissions will likely decrease to combat air pollution in different parts of the world.

J. C. Acosta Navarro, V. Varma, I. Riipinen, Ø. Seland, A. Kirkevåg, H. Struthers, T. Iversen, H.-C. Hansson, A. M. L. Ekman. Amplification of Arctic warming by past air pollution reductions in Europe. Nature Geoscience, 2016; DOI: 10.1038/ngeo2673

Aber auch nachträgliche Veränderungen der Messdaten lassen die Arktis heute wärmer erscheinen als sie wohl eigentlich ist (siehe hier und hier). Eine schöne Zusammenfassung zum Klimawandel in der Arktis kann man bei Judith Curry finden.

 

Prima Klima-Lesetipps: Michael Krüger und Andy May

Eine Langeooger Hotelfamilie klagt gegen den Klimawandel. Weitreichende Kenntnisse oder gar ein Studium der Klimawissenschaften bringen sie nicht mit. Daher geht bei den Medieninterviews gleich auch richtig was schief. Wir berichteten darüber in den Artikeln “Peinlich: Klimaklägerin aus Langeoog liegt beim Regen komplett daneben” und “Oberpeinlich: Frau Recktenwald liegt auch beim Westwind voll daneben“. Auch Michael Krüger hat sich im ScienceSkepticalBlog Gedanken über die Klimakläger der Nordseeinsel gemacht. Dabei geht er zunächst auf die spannende morphologische Entwicklung der Küste ein. Im Zuge des nacheiszeitlichen Meeresspiegelanstiegs hat sich die Küste jahrtausendelang landwärts geschoben. Dazu kommen noch vorindustrielle Sturmfluten und die ganz normale Eigendynamik der Sandinseln, bei der die stete Veränderung durch Strömung und Wellen zum normalen Alltag gehört. Krügers Artikel ist absolut lesenswert. Hier geht es zu seinem Beitrag.

——————-

Wo wir gerade beim Empfehlen spannender Artikel sind: Andy May hat auf WUWT zwei schöne Zusammenfassungen abgeliefert, in denen er die natürliche Klimadynamik plakativ schildert. Dort finden wir Altbekannte: Zyklen der Sonne, Zyklen der Ozeane und eine realistische Einordnung des CO2:

Climate Change, due to Solar Variability or Greenhouse Gases? Part A

Climate Change, due to Solar Variability or Greenhouse Gases? Part B

——————-

Handelsblatt am 3. Mai 2018:

Abnehmende Sonnenaktivität Unsere Sonne schwächelt
Unsere Sonne geht einem neuen Aktivitätsminimum entgegen. Größere Auswirkungen auf den Klimawandel dürfte das aber nicht haben, meinen Forscher.

Gemeint sind natürlich “einige Forscher”. Die müssen das aber auch sagen, denn sonst kriegen sie eins vom Instituts-Chef auf den Deckel. Natürlich darf auch Sami Solanki nicht fehlen. Der sagte noch vor ein paar Jahren, dass es gar nicht klar wäre, OB ein solares Minimum kommt. Jetzt hat er seine Strategie geändert und sagt, dass es gar nicht klar wäre, WANN das solare Minimum kommt. Dabei haben seine Kollegen es schon verraten: Um 2035 ist wohl mit dem Höhepunkt der Sonnen-Schwächephase zu rechnen. Das Handelsblatt schreibt:

Wie schnell sich ein großes Aktivitätsminimum anbahnt, ist jedoch alles andere als klar. „Das nächste große Minimum kommt bestimmt, aber wir können überhaupt nicht vorhersehen, wann“, sagt der Sonnenphysiker Sami Solanki, Direktor am Göttinger Max-Planck-Institut für Sonnensystemforschung. „Wir können keine Vorhersagen machen, die über einige Jahre hinausgehen.“

Ist das nicht putzig: Die Sonne bewegt sich im Verlauf der Jahre und Jahrzehnte in mehr oder weniger vorhersagbaren Zyklen. Und die wären jetzt nicht vorhersagbar? Beim Klima hingegen, das die Experten in den letzten 20 Jahren ständig verblüfft hat und auf dem falschen Fuß erwischt hat, für das können offenbar Vorhersagen gemacht werden, die über einige Jahre hinausgehen. Kurios.

 

Und Schwuppsdiwupps hatte das NASA-GISS-Institut ein halbes Grad dazugedichtet

Die Klimaerwärmung der letzten 100 Jahre besteht aus einem natürlichen und einem anthropogenen Anteil. Die genaue Quantifizierung der beiden Anteile ist schwierig. Der IPCC konnte sich im 5. Klimabericht nicht richtig entscheiden und schrieb gleich zwei Varianten in seinen Text. An einer Stelle behauptet man, dass wohl “mindestens die Hälfte” der Erwärmung menschengemacht wäre, an anderer Stelle, dass es 100% anthropogen seien. Viele Autoren, unterschiedliche Meinungen, Verwirrung. Bei den Skeptikern gibt es welche, die 0% anthropogen annehmen, aber der Großteil wird wohl darüber liegen. Sagen wir einfach mal “höchstens 50% anthropogen”.

Aber wie setzt sich der anthropogene Anteil weiter zusammen? Da wären zum einen die Treibhausgase und andere erwärmende Substanzen wie der Ruß. Zum anderen handelt es sich aber wohl auch schlichtweg um Datenmogelei. Das von Klimaaktivisten geleitete GISS-Institut hat es doch tatsächlich geschafft, mithilfe einer Salami-Taktik die archivierten Temperaturmesswerte wieder aufzuschnüren und die Erwärmung künstlich im Labor zu verschärfen. Datenveränderung, Manipulation, Fälschung? Da sollte wirklich mal jemand genau nachschauen, und zwar jemand, der ergebnisoffen vorgeht, unparteiisch ist, nichts zu verlieren hat.

Tony Heller hat jetzt zwei Temperaturversionen des GISS-Instituts in einem Graph dargestellt. Die blaue Linie zeigt die Version wie sie das Institut noch im Jahr 2000 in der Datenbank hatte. Die rote Kurve ist die händisch “geschärfte”, heute aktuelle:

 

Abb. 1: Globale Temperaturentwicklung der letzten 100 Jahre laut GISS-Daten. Blau=Version 2000, rot=Version 2017. Quelle: Tony Heller.

 

Svhwuppsdiwupps war ein halbes Grad dazugedichtet worden. Die Masche ist ziemlich klar: Alte Messdaten künstlich abkühlen, neue Messdaten künstlich erwärmen. Im Bereich des Sports heißt so etwas Doping und ist verboten. In den Klimawissenschaften ist das Alltag und offenbar erlaubt. Wie die Dopingsünder hat natürlich auch das GISS stets eine clevere Ausrede parat, wehalb das alles so sein muss. Der Drucker hatte früher das Papier schräg eingezogen, die Laborkatze hatte auf dem Computer ein Häufchen gemacht, man hatte früher einfach den Fudge-Faktor vergessen zu ergänzen, böse Kräfte hatten früher die falschen Daten untergejubelt, und so weiter und so weiter.

Auf WUWT hat Mark Fife weitere Kuriositäten der GISS-Temperaturen ausfindig gemacht.

 

Reto Knutti mag keine Skeptiker

Soeben berichteten wir über die unwissenschaftliche Diskussionsverweigerung von aktivistisch veranlagten Klimaforschern wie Gavin Schmidt oder Stefan Rahmstorf. Leider ist diese bedauerliche Mischung aus Selbstüberschätzung und Kritikunfähigkeit besonders bei den Klimaforschenden verbreitet, die genau wegen dieser Einstellung auch am häufigsten von den sensationslüsternen Mainstream-Medien interviewt werden, frei nach dem Motto “only bad climate news are good media news”. In der Schweiz gehört Prof. Reto Knutti zu dieser Kategorie und wurde am 1. Juni 2018 von Schweizer Radio SRF interviewt. In diesem Gespräch zeigt Knutti eine ähnliche antiwissenschaftliche Hybris, wie kürzlich von Schmidt und Rahmstorf exemplarisch demonstriert.

Im ersten Teil des SRF-Audios werden die vom IPCC vorgegebenen Szenarios für das Pariser Klima-Abkommen von 2015 wie eine absolut gesicherte Tatsache behandelt, obwohl die alles entscheidende Klima-Sensitivität des CO2 schon seit gut 30 Jahren nicht genau eingegrenzt werden kann, und viele neuere Studien auf einen signifikant tieferen Wert hindeuten, als vom IPCC bisher vorausgesetzt.

Weiter verneint Knutti kategorisch (ab Laufzeit 19:30), dass es überhaupt noch ernstzunehmende klimaskeptische Wissenschaftler gäbe, “die noch nicht ausgestorben wären” und versucht den Eindruck zu vermitteln, dass es sich bei Klimaskeptikern in der Hauptsache um senile Greise handeln würde, die ihm typischerweise mit “handgeschriebenen Briefen” widersprechen würden. Hiermit zeigt Knutti, wie schlecht er über die wissenschaftliche Literatur informiert ist und offenbar nur die Studien wahrnimmt, die seiner klima-alarmistischen Filter-Blase, in der er offenbar lebt, nicht gefährlich werden können. Vielleicht sollte er zwecks Horizonterweiterung einmal die folgenden Hinweise zur Kenntnis nehmen:

Gegen Ende des Interviews (ab Laufzeit 21:40) vergleicht Knutti klimaskeptische Wissenschaftler mit bibeltreuen Fundamentalisten oder den Anhängern einer flachen Erde und begründet damit seine faktische Diskussionsverweigerung. Ein sehr bequemes wenn auch extrem flaches Pseudoargument, dass man so schon öfters von Klima-Aktivisten dieser Art vernehmen konnte; erspart ihnen dieser billige Trick doch recht einfach zugeben zu müssen, dass sie auf viele Positionen der klima-skeptischen Forschung schlicht keine überzeugenden Antworten geben können.