Keine verlässlichen Temperaturtrends im Nordpazifik, Nordatlantik und südlichen Indik

Augenmaß statt Hysterie, das fordern immer mehr Wissenschaftler. Viel zu lange haben Medien und bestimmte Wissenschaftler gemeinsam die Alarmschiene bedient und damit Aufmerksamkeit und Geldmittel zu erzielen. Aber nicht jedes Problem muss als Drama dargestellt werden. Gibt es nicht auch einen Mittelweg, um Dinge wie vernünftige Menschen mit kühlem Kopf zu regeln? Stewart Brand übt auf AEON Kritik an der weit verbreiteten Hysterie zum angeblichen Massenaussterben:

Rethinking extinction: The idea that we are edging up to a mass extinction is not just wrong – it’s a recipe for panic and paralysis
[...] Viewing every conservation issue through the lens of extinction threat is simplistic and usually irrelevant. Worse, it introduces an emotional charge that makes the problem seem cosmic and overwhelming rather than local and solvable. It’s as if the entire field of human medicine were treated solely as a matter of death prevention. Every session with a doctor would begin: ‘Well, you’re dying. Let’s see if we can do anything to slow that down a little.’ [...] Many now assume that we are in the midst of a human-caused ‘Sixth Mass Extinction’ to rival the one that killed off the dinosaurs 66 million years ago. But we’re not. The five historic mass extinctions eliminated 70 per cent or more of all species in a relatively short time. That is not going on now. ‘If all currently threatened species were to go extinct in a few centuries and that rate continued,’ began a recent Nature magazine introduction to a survey of wildlife losses, ‘the sixth mass extinction could come in a couple of centuries or a few millennia.’ [...] The range of dates in that statement reflects profound uncertainty about the current rate of extinction. Estimates vary a hundred-fold – from 0.01 per cent to 1 per cent of species being lost per decade.

Ganzen Artikel auf auf AEON lesen.

Das gefiel den Hysterikern natürlich gar nicht. Sie bekamen in Science Platz, um weiter zu dramatisieren.

——————–

Zwischen 1980 und 2000 ist die Basis des heutigen Klimaalarmismus gelegt worden. Damals stiegen die globalen Temperaturen um ein halbes Grad an. Nicht auszudenken, wenn es so weitergegangen wäre. Aber die Erwärmung verlangsamte sich plötzlich, stoppte sogar teilweise. Hiatus, Slowdown. Heute weiß man: Ozeanzyklen von 60 Jahren Länge modulieren die Langzeittrends. Da wäre es falsch, die Flanken der Ozeanzyklen als Langzeittrend zu interpretieren – was aber genau passiert ist. Nun gilt es den Schaden zu begrenzen. Tia et al. veröffentlichten im Februar 2018 eine Arbeit, in der sie die Temperaturtrends der Meeresoberflächen während der letzten 130 Jahre analysieren:

Investigating the Uncertainty in Global SST Trends Due to Internal Variations Using an Improved Trend Estimator
A new criterion was proposed recently to measure the influence of internal variations on secular trends in a time series. When the magnitude of the trend is greater than a theoretical threshold that scales the influence from internal variations, the sign of the estimated trend can be interpreted as the underlying long‐term change. Otherwise, the sign may depend on the period chosen. An improved least squares method is developed here to further reduce the theoretical threshold and is applied to eight sea surface temperature (SST) data sets covering the period 1881–2013 to investigate whether there are robust trends in global SSTs. It is found that the warming trends in the western boundary regions, the South Atlantic, and the tropical and southern‐most Indian Ocean are robust. However, robust trends are not found in the North Pacific, the North Atlantic, or the South Indian Ocean. The globally averaged SST and Indian Ocean Dipole indices are found to have robustly increased, whereas trends in the zonal SST gradient across the equatorial Pacific, Niño 3.4 SST, and the Atlantic Multidecadal Oscillation indices are within the uncertainty range associated with internal variations. These results indicate that great care is required when interpreting SST trends using the available records in certain regions and indices. It is worth noting that the theoretical threshold can be strongly influenced by low‐frequency oscillations, and the above conclusions are based on the assumption that trends are linear. Caution should be exercised when applying the theoretical threshold criterion to real data.

Während die Erwärmungstrends im Südatlantik und tropischen Indik robst sind, konnten die Autoren keine statistisch verlässlichen Trends im Nordpazifik, Nordatlantik und südlichen Indik finden.

 

Niederländische Studie: Stränden der Welt geht es prinzipiell gut

Süddeutsche Zeitung am 27. April 2018:

Die Energiewende verschlingt massenweise Rohstoffe
Um die globale Erderwärmung einzudämmen, werden immer mehr Windräder und Solaranlagen gebaut. Eine Studie zeigt nun, was für enorme Mengen an Rohstoffen für den Bau solcher Anlagen notwendig sind. Um wirklich “sauberen” Strom zu liefern, müssen die Hersteller die Herkunft der Rohstoffe und die Bedingungen des Abbaus besser überprüfen.

Weiterlesen bei der Süddeutschen Zeitung

————————-

Alles wird immer schlimmer. Und am meisten Übel der Welt ist bekanntlich das CO2 Schuld. Das gilt auch für die Strände der Welt – hatte man zumindest gedacht. Ergebnisse einer niederländischen Studie fanden jetzt etwas Überraschendes: Es ist gar nicht so schlimm. Anhand von Satellitenbildern konnten Arjen Luijendijk und Kollegen feststellen, dass die Hälfte aller Strände der Erde stabil sind bzw. sogar wachsen. Zwar schrumpft ein Viertel der Strände, dafür wächst aber auch ein anderes Viertel. Der Sand bleibt in Bewegung. Von Katastrophe keine Spur. Genießen Sie Ihren Strandurlaub! Hier der Abstract von Luijendijk et al. 2018:

The State of the World’s Beaches
Coastal zones constitute one of the most heavily populated and developed land zones in the world. Despite the utility and economic benefits that coasts provide, there is no reliable global-scale assessment of historical shoreline change trends. Here, via the use of freely available optical satellite images captured since 1984, in conjunction with sophisticated image interrogation and analysis methods, we present a global-scale assessment of the occurrence of sandy beaches and rates of shoreline change therein. Applying pixel-based supervised classification, we found that 31% of the world’s ice-free shoreline are sandy. The application of an automated shoreline detection method to the sandy shorelines thus identified resulted in a global dataset of shoreline change rates for the 33 year period 1984–2016. Analysis of the satellite derived shoreline data indicates that 24% of the world’s sandy beaches are eroding at rates exceeding 0.5 m/yr, while 28% are accreting and 48% are stable. The majority of the sandy shorelines in marine protected areas are eroding, raising cause for serious concern.

————————-

20 Jahre Hockeystick, eigentlich kein Anlass zum Feiern. Eines der größten wissenschaftlichen Täuschungsmanöver sollte lieber in der Schublade bleiben. Spätere Generationen werden die Episode als abschreckendes Beispiel vorgeführt bekommen. Großer Profiteur der Aktion war damals der frischgebackene Doktorand Michael Mann. Er wurde für seine Studien raketenhaft befördert, von Aktivistengruppen, IPCC und Politikern hofiert. Karriere durch Lieferung von Klimaalarm. Ein dunkles Kapitel. Umso seltsamer, dass Mann nun glaubt, seine Ergebnisse wären bestätigt worden. Er sollte es besser wissen. Eine Temperaturanalyse des riesigen PAGES2k-Konsortiums fand 2013 für das erste Jahrtausend nach Christus ein Wärmeniveau, das den heutigen Temperaturen entsprach. Michael Mann lebt offenbar in seiner eigenen Welt, nimmt die neuen wissenchaftlichen Entwicklungen um ihn herum vielleicht gar nicht mehr wahr. Verständlich, denn wer möchte denn schon zugeben, dass er früher ziemlich daneben lag. Dabei liegen die Fehler nicht nur bei Mann. Damals vor 20 Jahren, als er seinen ersten Hockeystick zusammenbaute, gab es einfach noch kaum belastbare Temperaturrekonstruktionen für die letzten 2000 Jahre. Er hatte eigentlich keine Chance. Kaum ein Datensatz den er damals verwendete, befindet sich heute noch in den aktuellen globalen Rekonstruktionen.

 

Gavin Schmidt setzt sich für mehr Transparenz bei Klimadaten ein

Das Begutachtungssystem der Fachzeitschriften soll die Qualität von wissenschaftlichen Artikeln sicherstellen. Aber was passiert, wenn der Reviewer gleichzeitig persönliche Interessen verfolgt, die außerhalb der qualitativen Begutachtung liegen? Im Bereich der Klimawissenschaften sind es die beiden Lager der Klimadebatte. Wenn ein Gutachter fest davon überzeugt ist, dass die gesamte Erwärmung der letzten 100 Jahre anthropogenen Ursprungs sind, dann wird er keine Manuskripte gutheißen, die etwas anderes herausfinden, vielleicht differenziertere Zuweisungen wie 50% Natur und 50% Mensch. Da der Gutachter in den meisten Fällen anonym bleibt, kann er wie ein Heckenschütze aus dem Verborgenen agieren. Allein der Editor der Zeitschrift behält hier den Überblick, darf dies aber mit niemandem teilen. In Eos erschien am 9. Mai 2018 ein Beitrag, der diese Dilemma beleuchtet und Lösungen vorschlägt. Hier weiterlesen.

——————

Gavin Schmidt ist Klimaaktivist und Leiter des NASA GISS-Instituts. Oft haben wir uns an dieser Stelle über ihn aufgeregt. Nun gibt es jedoch endlich Anlass für positivere Worte. Schmidt setzte sich kürzlich für einen transparenten Umgang mit Klimadaten ein. Damit unterstützte er Scott Pruitt von der US-Umweltbehörde EPA, der dem jahrelangen Gemauschel dort ein Ende bereitete. Viele Forscher waren empört. Sie wollten weiter ihre Daten im Verborgenen halten, nur die Ergebnisse publizieren und dann in Politik umgesetzt sehen. Unter Obama eine übliche Vorgehensweise. Diese Zeiten sind jetzt zum Glück vorbei. Gavin Schmidt hat sich in dieser Frage richtig entschieden.

——————

Der Pariser Klimavertrag erfuhr zunächst eine grandiose Unterstützung. Es hagelte Unterschriften, alle wollten dabei sein. Das ist sicher auch darin begründet, dass nur wenige wirklich handeln mussten, während der Großteil der Länder durch hohe Klimaausgleichszahlungen profitieren würden. Auf einer kürzlichen Klimakonferenz in Bonn wurde dies wieder klar. China will nun doch nicht so stark die CO2-Emissionen drosseln. Sie hätten noch vieles aufzuholen, um auf einen ähnlichen industriellen Entwicklungsstand wie der Westen zu kommen. Daher würden die Einschnitte für China doch sicher nicht so richtig gelten. Genau dies hatten bereits Beobachter nach Paris vermutet. Das Abkommen ist zahnlos, Länder können kommen und gehen, taktieren, profitieren, aber wenn es dann um das Liefern geht, hängt es dann wieder nur an ein paar Nationen. Selbst wenn Deutschland seine Pläne eins zu eins umsetzt, würde der Umwelt damit kaum geholfen, denn die CO2-Einsparungen sind im weltweiten Maßstab nur ein Tropfen auf den heißen Stein. Trotzdem hätte dies einen Effekt, auf den sich viele Länder sicher schon freuen: Deutschland würde in vielen Industriebereichen den Anschluss verlieren und die Führungsrolle an andere Liefernationen abgeben. Deutschland deindustralisiert sich – und alle anderen klatschen und freuen sich.

Der Deutsche Arbeitgeberverband gab im April 2018 zu bedenken:

Die South China Morning Post berichtete in einem Artikel am 1. April, dass in den nächsten zwanzig Jahren mehr als 1.600 Kohlekraftwerke moderner Bauart in 60 Ländern durch chinesische Firmen gebaut werden sollen. Auch Japan möchte an dem wachsenden Markt für asiatische Kohlekraftwerke teilhaben und nach dem Bericht weitere 400 Kohlekraftwerke bauen und exportieren.

Lesetipp Lüning & Vahrenholt 2017 (kostenloses pdf des Artikels hier) zum Pariser Klimavertrag:

Paleoclimatological Context and Reference Level of the 2°C and 1.5°C Paris Agreement Long-Term Temperature Limits
The Paris Agreement adopted in December 2015 during the COP21 conference stipulates that the increase in the global average temperature is to be kept well below 2°C above “pre-industrial levels” and that efforts are pursued to limit the temperature increase to 1.5°C above “pre-industrial levels.” In order to further increase public acceptance of these limits it is important to transparently place the target levels and their baselines in a paleoclimatic context of the past 150,000 years (Last Interglacial, LIG) and in particular of the last 10,000 years (Holocene; Present Interglacial, PIG). Intense paleoclimatological research of the past decade has firmed up that pre-industrial temperatures have been highly variable which needs to be reflected in the pre-industrial climate baseline definitions. The currently used reference level 1850–1900 represents the end of the Little Ice Age (LIA). The LIA represents the coldest phase of the last 10,000 years when mean temperatures deviated strongly negatively from the Holocene average and which therefore are hard to justify as a representative pre-industrial baseline. The temperature level reached during the interval 1940–1970 may serve as a better reference level as it appears to roughly correspond to the average pre-industrial temperature of the past two millennia. Placing the climate limits in an enlarged paleoclimatic context will help to demonstrate that the chosen climate targets are valid and represent dangerous extremes of the known natural range of Holocene temperature variability.

——————

Fritz Vahrenholt analysierte vor kurzem an dieser Stelle die Zusammensetzung der neuen Kohlekommission. Dabei stieß er auf eine Vielzahl von Ökoaktivisten und Grüne. Eine Gesamtübersicht zu den Mitgliedern der Kommission finden Sie auch beim Klimaretter. Dort wird das ganze Ausmaß der fraglichen Besetzung deutlich. Eingesetzt wurden die Mitglieder von der Bundesregierung. Kanzlerin Merkel hat wieder einmal ganze Arbeit geleistet.

 

Zwei Studien mit überraschendem Ergebnis: Immer weniger Hitzetote, trotz Klimaerwärmung

Im Februar 2018 erschien im Fachblatt Environment International eine wichtige Studie zu den Auswirkungen des Klimawandels auf Todesfälle. Ein 22-köpfiges Autorenteam um Ana Vicedo-Cabrera untersuchte Trends bei Todesfällen im Zusammenhang mit Hitzewellen und Kältephasen an 305 Orten in insgesamt 10 Ländern. Das Resultat war überraschend: In fast allen Ländern gab es weniger Hitzetote. Bei den Kältetoten war das Ergebnis uneinheitlich: In einigen Ländern gab es mehr, in anderen weniger, in wiederum anderen blieb der Anteil konstant. Auszug aus dem Abstract:

Heat-related AFs [attributable mortality fractions] decreased in all countries (ranging from 0.45–1.66% to 0.15–0.93%, in the first and last 5-year periods, respectively) except in Australia, Ireland and UK. Different patterns were found for cold (where AFs ranged from 5.57–15.43% to 2.16–8.91%), showing either decreasing (Brazil, Japan, Spain, Australia and Ireland), increasing (USA), or stable trends (Canada, South Korea and UK). Heat-AF trends were mostly driven by changes in exposure-response associations due to modified susceptibility to temperature, whereas no clear patterns were observed for cold. [...]

Our findings suggest a decrease in heat-mortality impacts over the past decades, well beyond those expected from a pure adaptation to changes in temperature due to the observed warming. This indicates that there is scope for the development of public health strategies to mitigate heat-related climate change impacts. In contrast, no clear conclusions were found for cold. Further investigations should focus on identification of factors defining these changes in susceptibility.

Im Mai 2018 folgte dann noch eine Studie einer Gruppe um Daniel Oudin Åström im International Journal of Biometeorology. Die Forscher werteten Daten aus Stockholm für die letzten 100 Jahre aus und fanden ebenfalls trotz Klimaerwärmung einen Rückgang von Hitzetoten. Der Anteil der Kältetoten blieb jedoch über die Zeit stabil – trotz Temperaturanstieg im letzten Jahrhundert. Abstract:

Investigating changes in mortality attributable to heat and cold in Stockholm, Sweden
Projections of temperature-related mortality rely upon exposure-response relationships using recent data. Analyzing long historical data and trends may extend knowledge of past and present impacts that may provide additional insight and improve future scenarios. We collected daily mean temperatures and daily all-cause mortality for the period 1901–2013 for Stockholm County, Sweden, and calculated the total attributable fraction of mortality due to non-optimal temperatures and quantified the contribution of cold and heat. Total mortality attributable to non-optimal temperatures varied between periods and cold consistently had a larger impact on mortality than heat. Cold-related attributable fraction (AF) remained stable over time whereas heat-related AF decreased. AF on cold days remained stable over time, which may indicate that mortality during colder months may not decline as temperatures increase in the future. More research is needed to enhance estimates of burdens related to cold and heat in the future.

 

Fritz Vahrenholts Sonnenkolumne 5/18: Klimaempfindlichkeit gegenüber CO2 und die Kohlekommission

Hier schreibt Fritz Vahrenholt seine monatliche Kolumne. In allgemeinverständlicher Form berichtet er über neue Entwicklungen aus den Klimawissenschaften – und natürlich von unserer lieben Sonne.

11.6.2018
Die Sonne im April 2018: Klimaempfindlichkeit gegenüber CO2 und die Kohlekommission

Sehr geehrte Damen und Herren,

leider komme ich urlaubsbedingt erst jetzt dazu, Ihnen über den April 2018 zu berichten. Die Sonne war auch im vergangenen April sehr wenig aktiv. An 16 Tagen war die Sonne vollständig fleckenlos; die Sonnenfleckenzahl des Monats betrug weniger als ein Drittel des zu Erwartenden.

In unserem März-Bericht hatten wir die neuesten Forschungsergebnisse zur Klimaempfindlichkeit gegenüber CO2 vorgestellt. Danach ist die Klimaerwärmung bis zu 45 % geringer als uns das IPCC und der mainstream der Klimawissenschaftler glauben lässt. Das Interessante aber war die Reaktion des mainstreams darauf: die Methoden der Arbeit von Curry und Lewis werden nicht angezweifelt. Aber es könnte ja sein,- so der mainstream – dass die Erde in der Zukunft ganz anders, nämlich wärmer auf CO2 Emissionen reagiert. Das kann man eher spekulative Wissenschaft nennen, nämlich auf Modelle zu vertrauen, die in der Vergangenheit versagt haben und weder Meeresströmungen noch Wolken abbilden können.

Das Fundament des Pariser Abkommens ist also zusammengebrochen. Bis 2100 werden wir, was immer wir tun, die 2 Grad-Grenze nicht überschreiten. Was passiert nun mit der weltweiten Kohlenutzung? Außer in Europa und Kanada gibt es keinen Abschied von der Kohle. China und Indien dürfen nach dem Pariser Abkommen- wie alle Entwicklungsländer- die Kohlekraftwerkskapazitäten massiv ausweiten. In China kommen 280 000 MW hinzu in Indien 174 000 MW. Zum Vergleich: die gesamte Braunkohlenflotte Deutschlands hat eine Kapazität von 22 700 MW. 1600 Kohlekraftwerke werden weltweit in 62 Ländern gebaut, die meisten übrigens durch chinesische Kraftwerksbauer und mit Hilfe chinesischer Kredite. So etwa 15 300 MW in Pakistan, 16 000 in Bangladesh, selbst Myanmar 5100 MW. (Quelle : South China Morning Post). Insgesamt wird die Kohlekraftwerkskapazität weltweit um 43 % erweitert. Selbst Japan setzt auf Kohle, versucht allerdings mit Hilfe von CCS (Carbon Capture and storage), die CO2-Emissionen nicht weiter ansteigen zu lassen. Daher erscheinen die CO2-Verminderungsziele Japans auch eher bescheiden : 16 % bis 2030 und 25 % bis 2050. Zum Vergleich Deutschland 2030 40 % und 2050 80 bis 95 %.

Was andere Länder nicht schaffen, wollen wir mit Hilfe einer Kohlekommission erreichen, die eben nicht mit Energie-, Netz- und Technologieexperten besetzt ist, sondern mit Greenpeace, BUND und lokalen Bürgerinitiativen gegen Braunkohle. Dass allein in der Lausitz eine jährliche Wertschöpfung von 2 Milliarden € aufs Spiel gesetzt wird, werden die Wähler in diesem Raum im nächsten Jahr bei den Wahlen in Brandenburg und Sachsen nicht vergessen haben, zumal die ehemaligen Ministerpräsidenten von Brandenburg (SPD), Platzeck, und Sachsen (CDU), Tillich, der ehemalige Kanzleramtsminister Pofalla, flankiert von einer ehemaligen grünen Volkswirtin von AGORA an der Spitze der Kommission stehen. Aber was sind schon verlorene Landtagswahlen, wenn es doch um die Rettung der Welt geht ! Und dann sind ja noch die Grüne Gunda Röstel von der Stadtentwässerung Dresden und der Grüne Rainer Priggen, Vorsitzender des Lobbyverbandes Erneuerbare Energien in Nordrhein-Westfalen als Experten in der Kohlekommission. Auf die Idee auch Kritiker der alternativen Windenergie, die mittlerweile die grösste Naturzerstörung in Deutschland seit dem 2. Weltkrieg verursacht hat, ist kein Politiker der Bundesregierung gekommen. Dass die Verdreifachung der Windenergiekapazität in Deutschland zu einem durchschnittlichen Abstand der Windmasten von 2,7 km führt, interessiert die Bundesregierung nicht.

Am Parlament vorbei darf nun Prof. Schellnhuber seinen Traum von der “Grossen Transformation” ausleben. In einem Gutachten für die Bundesregierung hatte der von ihm geleitete Sachverständigenrat WBGU 2011 einen ” Gesellschaftsvertrag für eine Große Transformation” vorgelegt. Die Kernthese des WBGU ist folgende: das gegenwärtige Wirtschaftsmodell (“fossiler industrieller Metabolismus”) sei normativ unhaltbar. Der Umbau der Weltwirtschaft müsse schnell gehen, auf Kernenergie und Kohle sei gleichzeitig und kurzfristig zu verzichten. In Deutschland solle demnach der Klimaschutz allgemeines Staatsziel werden, an dem das Handeln von Legislative, Exekutive und Judikative ausgerichtet werde. “Um Zukunftsinteressen institutionell zu verankern, empfiehlt der WBGU zu erproben, das parlamentarische Gesetzgebungsverfahren um eine deliberative ‘Zukunftskammer’ zu erweitern. Um interessens- und parteipolitische Einmischung zu vermeiden, könnte die Zusammensetzung dieser Kammer beispielsweise durch Losverfahren ermittelt werden.”

Dem Losverfahren kommt die Besetzung der Kommission schon ziemlich nahe. Da es zur Zeit keine wirklich belastbare Alternative durch erneuerbare Energien weder hinsichtlich der Versorgungssicherheit noch der Wettbewerbsfähigkeit gibt, heißt Dekarbonisierung nichts anderes als  Deindustrialisierung. Die Chinesen kommen aus dem Grinsen nicht mehr heraus. Nach dem Motto Frechheit siegt und Dummheit verliert, haben sie nun verlauten lassen, dass ihr massives Kohlekraftwerksprogramm aus dem mit 100 Milliarden Dollar jährlich gespeisten Pariser Green Climate Fund finanziert werden soll. Die 100 Milliarden Dollar sollen von den Industrieländern getragen werden; Deutschland hatte 2016 einen Beitrag von 8,5 Milliarden € ab 2020 in Aussicht gestellt. Trump war clever genug, rechtzeitig aus diesen Pariser Schildbürgerstreichen auszusteigen.

Es grüßt Sie kopfschüttelnd
Ihr
Fritz Vahrenholt

——–

Frühere Kolumnen finden Sie hier.

Der kalifornische Blob. Und ein kleiner Denkanstoß für Volker Mrasek

Am 8. Juni 2018 brachte der Deutschlandfunk einen Bericht zum “Blob”, basierend auf Jacox et al. 2018:

Marine Hitzewelle: “The Blob”Todesurteil für Meeresbewohner
Fünf Jahre lang litt der US-Bundesstaat Kalifornien unter einer Rekorddürre. Auch der Pazifik vor der nordamerikanischen Westküste erlebte in dieser Zeit eine massive Hitzewelle, die schwerwiegende ökologische und ökonomische Folgen hatte – für Forscher ein Menetekel für die Zukunft.

Weiterlesen beim Deutschlandfunk

An und für sich handelt es sich dabei um eine interessante Zusammenfassung für das “Blob” Phänomen, das ja von Niemanden bestritten wird. Der Alarmismus-Spin kommt dann am Ende des Berichts mit diesem Zitat:

“Für die Forscher ist der Blob ein Menetekel für die Zukunft. Durch den Klimawandel heizen sich auch die Meere immer mehr auf, Windströmungen in der Atmosphäre verändern sich: Nach unseren Modellrechnungen wäre eine solche Hitzewelle vor – sagen wir - einhundert Jahren noch überhaupt nicht möglich gewesen. Doch jetzt wächst die Wahrscheinlichkeit für derartige Extreme.”

Zwei Gedanken dazu:

1) Es ist durchaus möglich, daß es solche Phänomene auch in den heißen 20er bis 40er Jahren an der Westküste der USA gegeben haben könnte – und dies ist ja auch schon fast 100 Jahre her. Satelliten zur flächendeckenden Temperaturmessung gab es damals noch nicht, so dass das Phänomen damals durchaus unbemerkt bzw. undokumentiert geblieben sein könnte.

2) Die richtige Vergleichsphase sind aber nicht letzten 100 Jahre, sondern ist die letzte ähnlich starke Wärmephase, also die Mittelalterliche Wärmeperiode (MWP). Damals gab es extrem strenge und langanhaltende Mega-Dürren im Südwesten der USA. Vieles spricht dafür, dass auch damals solche stabilen “Blob”-Situationen auf dem Ostpazifik existiert haben dürften. Folglich handelt es sich beim letzten “Blob” vermutlich um ein natürliches Ereignis, welches in jeder Warmphase auftreten kann und nicht unbedingt mit anthropogenen Faktoren zusammenhängen muss.

Ist es nicht seltsam, dass sich niemand diese Fragen stellt? Woher kommt diese klimatische Kurzsicht? Hat die Menschheitsgeschichte etwa erst um 1979 begonnen? Weshalb beschäftigen wir uns historisch mit der Römerzeit, in den Klimawissenschaften aber erst mit den letzten paar Jahrzehnten? Ein kleiner Denkanstoß vielleicht auch an Volker Mrasek, der den DLF-Beitrag gemacht hat.

 

Russische Arktis war 1920-1940 wärmer als heute

 

Thema heute: Die Temperaturentwicklung in der Arktis. Als erstes interessieren wir uns für die harten Fakten. Bei Climate4You finden wir die per Satellit gemessene Temperaturentwicklung (UAH) der Arktis:

 Abb. 1: Temperaturentwicklung der Arktis während der letzten 40 Jahre. Daten: UAH. Graphik: Climate4You

 

Wir sehen in den letzten 4 Jahrzehnten eine Erwärmung. Nach einer (El Nino-) Wärmespitze 2016 geht es nun aber wieder stetig bergab. Die kältesten Temperaturen gab es Ende der 1980er und Anfang der 1990er Jahre. Davor war es wärmer. Um 1980 wurden ähnliche Temperaturen gemessen, wie heute. Leider gibt es keine Satellitendaten aus der Zeit von vor 1979, daher ist noch  nicht einmal ein voller 60-Jahres-Ozeanzyklus abgedeckt, was die Zuordnung von anthropogenen und natürlichen Anteilen an der Erwärmung der letzten Jahrzehnte erschwert.

Aber es gab natürlich Wetterstationen vor 1979. Und die haben in der Arktis bereits in den 1930er und 40er Jahren eine Wärmephase aufgezeichnet, während der es ähnlich warm war wie heute. Beispiel: Opel et al. 2009 rekonstruierten die Temperaturgeschichte in der russischen Arktis für die letzten 100 Jahre anhand eines Eiskerns. Das Wärmemaximum ereignete sich in den 1930er Jahren, nicht etwa heute:

115 year ice-core data from Akademii Nauk ice cap, Severnaya Zemlya: high-resolution record of Eurasian Arctic climate change
From 1999 to 2001 a 724 m deep ice core was drilled on Akademii Nauk ice cap, Severnaya Zemlya, to gain high-resolution proxy data from the central Russian Arctic. Despite strong summertime meltwater percolation, this ice core provides valuable information on the regional climate and environmental history. We present data of stable water isotopes, melt-layer content and major ions from the uppermost 57 m of this core, covering the period 1883–1998. Dating was achieved by counting seasonal isotopic cycles and using reference horizons. Multi-annual δ18O values reflect Eurasian sub-Arctic and Arctic surface air-temperature variations. We found strong correlations to instrumental temperature data from some stations (e.g. r = 0.62 for Vardø, northern Norway). The δ18O values show pronounced 20th-century temperature changes, with a strong rise about 1920 and the absolute temperature maximum in the 1930s. A recent decrease in the deuterium-excess time series indicates an increasing role of the Kara Sea as a regional moisture source. From the multi-annual ion variations we deduced decreasing sea-salt aerosol trends in the 20th century, as reflected by sodium and chloride, whereas sulphate and nitrate are strongly affected by anthropogenic pollution.

Abb. 2: Temperaturentwicklung Severnaya Zemlya (russische Arktis) während der letzten 130 Jahre. Ausschläge nach oben=warm. Quelle: Opel et al. 2009

 

Ein Teil der Arktis-Erwärmung geht übrigens auf Maßnahmen zur Reinhaltung der Luft in Europa zurück. Die anthropogenen Sulfatpartikel hatten lange Jahre lang die Temperaturen der Arktis gekühlt wie die Universität Stockholm mitteilte (via Science Daily). Sollen wir aus Klimaschutzgründen jetzt wieder anfangen zu ferkeln?

European clean air policies unmask Arctic warming by greenhouse gases

The drastic cut in sulfate particle emissions in Europe partly explains the amplified Arctic warming since the 1980s, shows a new study published in Nature Geoscience.

The drastic cut in sulfate particle emissions in Europe partly explains the amplified Arctic warming since the 1980s, shows a new study published in Nature Geoscience. The team, which consists of scientists from Stockholm University and the Norwegian Meteorological Institute, say that their surprising finding highlights an even more urgent need for reducing greenhouse gas emissions to mitigate Arctic climate change. Human activities, such as industrial production, transport, power generation, and wood burning emit large amounts of tiny pollutant particles containing, for example, soot and sulfate, into the atmosphere. High airborne amounts of these particles, also known as aerosol particles, cause about 400,000 premature deaths every year in Europe and can be transported over long distances. Aerosol particles have different sizes, as well as chemical and physical properties, all of which determine their climate effects.

“Soot particles absorb solar radiation and warm the climate, in a similar way as greenhouse gases, such as carbon dioxide, do. Sulfate particles, on the other hand, reflect solar radiation and act as seeds for cloud droplet formation, cooling the climate as a result,” says Juan Acosta Navarro, PhD student at the Department of Environmental Science and Analytical Chemistry (ACES) and the Bolin Center for Climate Research, Stockholm University, and co-author of the study. He continues: “The overall effect of aerosol particles of human origin on climate has been a cooling one during the last century, which has partially masked the warming caused by the increase in greenhouse gas emissions.”

Sulfate emissions, which cause, for example, acid rain, peaked in the 1980s in Europe and North America, which led to the implementation of strict regulations to reduce them. The new study shows that these policies had a profound effect on the Arctic. “Using a numerical climate model we found that sulfate reductions over Europe between 1980 and 2005 could explain a significant fraction of the amplified warming in the Arctic region during that period due to changes in long-range transport, atmospheric winds and ocean currents. In other words, thanks to air quality regulations implemented in Europe, part of the masking effect of aerosol particles has been reduced, revealing the true warming of the Arctic by greenhouse gases,” says Annica Ekman, Professor at the Department of Meteorology (MISU) and Bolin Center for Climate Research, Stockholm University who also co-authored this study. The scientists expect further warming in the Arctic as levels of greenhouse gases will continue to increase and aerosol particle emissions will likely decrease to combat air pollution in different parts of the world.

J. C. Acosta Navarro, V. Varma, I. Riipinen, Ø. Seland, A. Kirkevåg, H. Struthers, T. Iversen, H.-C. Hansson, A. M. L. Ekman. Amplification of Arctic warming by past air pollution reductions in Europe. Nature Geoscience, 2016; DOI: 10.1038/ngeo2673

Aber auch nachträgliche Veränderungen der Messdaten lassen die Arktis heute wärmer erscheinen als sie wohl eigentlich ist (siehe hier und hier). Eine schöne Zusammenfassung zum Klimawandel in der Arktis kann man bei Judith Curry finden.

 

Prima Klima-Lesetipps: Michael Krüger und Andy May

Eine Langeooger Hotelfamilie klagt gegen den Klimawandel. Weitreichende Kenntnisse oder gar ein Studium der Klimawissenschaften bringen sie nicht mit. Daher geht bei den Medieninterviews gleich auch richtig was schief. Wir berichteten darüber in den Artikeln “Peinlich: Klimaklägerin aus Langeoog liegt beim Regen komplett daneben” und “Oberpeinlich: Frau Recktenwald liegt auch beim Westwind voll daneben“. Auch Michael Krüger hat sich im ScienceSkepticalBlog Gedanken über die Klimakläger der Nordseeinsel gemacht. Dabei geht er zunächst auf die spannende morphologische Entwicklung der Küste ein. Im Zuge des nacheiszeitlichen Meeresspiegelanstiegs hat sich die Küste jahrtausendelang landwärts geschoben. Dazu kommen noch vorindustrielle Sturmfluten und die ganz normale Eigendynamik der Sandinseln, bei der die stete Veränderung durch Strömung und Wellen zum normalen Alltag gehört. Krügers Artikel ist absolut lesenswert. Hier geht es zu seinem Beitrag.

——————-

Wo wir gerade beim Empfehlen spannender Artikel sind: Andy May hat auf WUWT zwei schöne Zusammenfassungen abgeliefert, in denen er die natürliche Klimadynamik plakativ schildert. Dort finden wir Altbekannte: Zyklen der Sonne, Zyklen der Ozeane und eine realistische Einordnung des CO2:

Climate Change, due to Solar Variability or Greenhouse Gases? Part A

Climate Change, due to Solar Variability or Greenhouse Gases? Part B

——————-

Handelsblatt am 3. Mai 2018:

Abnehmende Sonnenaktivität Unsere Sonne schwächelt
Unsere Sonne geht einem neuen Aktivitätsminimum entgegen. Größere Auswirkungen auf den Klimawandel dürfte das aber nicht haben, meinen Forscher.

Gemeint sind natürlich “einige Forscher”. Die müssen das aber auch sagen, denn sonst kriegen sie eins vom Instituts-Chef auf den Deckel. Natürlich darf auch Sami Solanki nicht fehlen. Der sagte noch vor ein paar Jahren, dass es gar nicht klar wäre, OB ein solares Minimum kommt. Jetzt hat er seine Strategie geändert und sagt, dass es gar nicht klar wäre, WANN das solare Minimum kommt. Dabei haben seine Kollegen es schon verraten: Um 2035 ist wohl mit dem Höhepunkt der Sonnen-Schwächephase zu rechnen. Das Handelsblatt schreibt:

Wie schnell sich ein großes Aktivitätsminimum anbahnt, ist jedoch alles andere als klar. „Das nächste große Minimum kommt bestimmt, aber wir können überhaupt nicht vorhersehen, wann“, sagt der Sonnenphysiker Sami Solanki, Direktor am Göttinger Max-Planck-Institut für Sonnensystemforschung. „Wir können keine Vorhersagen machen, die über einige Jahre hinausgehen.“

Ist das nicht putzig: Die Sonne bewegt sich im Verlauf der Jahre und Jahrzehnte in mehr oder weniger vorhersagbaren Zyklen. Und die wären jetzt nicht vorhersagbar? Beim Klima hingegen, das die Experten in den letzten 20 Jahren ständig verblüfft hat und auf dem falschen Fuß erwischt hat, für das können offenbar Vorhersagen gemacht werden, die über einige Jahre hinausgehen. Kurios.

 

Und Schwuppsdiwupps hatte das NASA-GISS-Institut ein halbes Grad dazugedichtet

Die Klimaerwärmung der letzten 100 Jahre besteht aus einem natürlichen und einem anthropogenen Anteil. Die genaue Quantifizierung der beiden Anteile ist schwierig. Der IPCC konnte sich im 5. Klimabericht nicht richtig entscheiden und schrieb gleich zwei Varianten in seinen Text. An einer Stelle behauptet man, dass wohl “mindestens die Hälfte” der Erwärmung menschengemacht wäre, an anderer Stelle, dass es 100% anthropogen seien. Viele Autoren, unterschiedliche Meinungen, Verwirrung. Bei den Skeptikern gibt es welche, die 0% anthropogen annehmen, aber der Großteil wird wohl darüber liegen. Sagen wir einfach mal “höchstens 50% anthropogen”.

Aber wie setzt sich der anthropogene Anteil weiter zusammen? Da wären zum einen die Treibhausgase und andere erwärmende Substanzen wie der Ruß. Zum anderen handelt es sich aber wohl auch schlichtweg um Datenmogelei. Das von Klimaaktivisten geleitete GISS-Institut hat es doch tatsächlich geschafft, mithilfe einer Salami-Taktik die archivierten Temperaturmesswerte wieder aufzuschnüren und die Erwärmung künstlich im Labor zu verschärfen. Datenveränderung, Manipulation, Fälschung? Da sollte wirklich mal jemand genau nachschauen, und zwar jemand, der ergebnisoffen vorgeht, unparteiisch ist, nichts zu verlieren hat.

Tony Heller hat jetzt zwei Temperaturversionen des GISS-Instituts in einem Graph dargestellt. Die blaue Linie zeigt die Version wie sie das Institut noch im Jahr 2000 in der Datenbank hatte. Die rote Kurve ist die händisch “geschärfte”, heute aktuelle:

 

Abb. 1: Globale Temperaturentwicklung der letzten 100 Jahre laut GISS-Daten. Blau=Version 2000, rot=Version 2017. Quelle: Tony Heller.

 

Svhwuppsdiwupps war ein halbes Grad dazugedichtet worden. Die Masche ist ziemlich klar: Alte Messdaten künstlich abkühlen, neue Messdaten künstlich erwärmen. Im Bereich des Sports heißt so etwas Doping und ist verboten. In den Klimawissenschaften ist das Alltag und offenbar erlaubt. Wie die Dopingsünder hat natürlich auch das GISS stets eine clevere Ausrede parat, wehalb das alles so sein muss. Der Drucker hatte früher das Papier schräg eingezogen, die Laborkatze hatte auf dem Computer ein Häufchen gemacht, man hatte früher einfach den Fudge-Faktor vergessen zu ergänzen, böse Kräfte hatten früher die falschen Daten untergejubelt, und so weiter und so weiter.

Auf WUWT hat Mark Fife weitere Kuriositäten der GISS-Temperaturen ausfindig gemacht.

 

Reto Knutti mag keine Skeptiker

Soeben berichteten wir über die unwissenschaftliche Diskussionsverweigerung von aktivistisch veranlagten Klimaforschern wie Gavin Schmidt oder Stefan Rahmstorf. Leider ist diese bedauerliche Mischung aus Selbstüberschätzung und Kritikunfähigkeit besonders bei den Klimaforschenden verbreitet, die genau wegen dieser Einstellung auch am häufigsten von den sensationslüsternen Mainstream-Medien interviewt werden, frei nach dem Motto “only bad climate news are good media news”. In der Schweiz gehört Prof. Reto Knutti zu dieser Kategorie und wurde am 1. Juni 2018 von Schweizer Radio SRF interviewt. In diesem Gespräch zeigt Knutti eine ähnliche antiwissenschaftliche Hybris, wie kürzlich von Schmidt und Rahmstorf exemplarisch demonstriert.

Im ersten Teil des SRF-Audios werden die vom IPCC vorgegebenen Szenarios für das Pariser Klima-Abkommen von 2015 wie eine absolut gesicherte Tatsache behandelt, obwohl die alles entscheidende Klima-Sensitivität des CO2 schon seit gut 30 Jahren nicht genau eingegrenzt werden kann, und viele neuere Studien auf einen signifikant tieferen Wert hindeuten, als vom IPCC bisher vorausgesetzt.

Weiter verneint Knutti kategorisch (ab Laufzeit 19:30), dass es überhaupt noch ernstzunehmende klimaskeptische Wissenschaftler gäbe, “die noch nicht ausgestorben wären” und versucht den Eindruck zu vermitteln, dass es sich bei Klimaskeptikern in der Hauptsache um senile Greise handeln würde, die ihm typischerweise mit “handgeschriebenen Briefen” widersprechen würden. Hiermit zeigt Knutti, wie schlecht er über die wissenschaftliche Literatur informiert ist und offenbar nur die Studien wahrnimmt, die seiner klima-alarmistischen Filter-Blase, in der er offenbar lebt, nicht gefährlich werden können. Vielleicht sollte er zwecks Horizonterweiterung einmal die folgenden Hinweise zur Kenntnis nehmen:

Gegen Ende des Interviews (ab Laufzeit 21:40) vergleicht Knutti klimaskeptische Wissenschaftler mit bibeltreuen Fundamentalisten oder den Anhängern einer flachen Erde und begründet damit seine faktische Diskussionsverweigerung. Ein sehr bequemes wenn auch extrem flaches Pseudoargument, dass man so schon öfters von Klima-Aktivisten dieser Art vernehmen konnte; erspart ihnen dieser billige Trick doch recht einfach zugeben zu müssen, dass sie auf viele Positionen der klima-skeptischen Forschung schlicht keine überzeugenden Antworten geben können.