Bron:  ScienceNews

Een gastbijdrage van Rob de Vos.

De website ScienceNews stuurde bovenstaand bericht rond. Vertaald:

“Klimaatmodellen zijn het erover eens dat de dingen slecht gaat worden. Vaststellen hóe slecht is lastig. Wetenschappers weten nog steeds niet zeker hoe het worst-case scenario voor het toekomstige klimaat van de aarde eruit ziet.”

Ik dacht meteen: als wetenschappers dat laatste niet weten, hoe aannemelijk is het dan dat het in ieder geval ‘slecht’ gaat worden?

Toekomstscenario’s worden beschreven op basis van de uitkomsten van klimaatmodellen. Er is veel discussie over de vraag hoe goed die modellen zijn. Blijkbaar vinden wetenschappers dat ze niet goed genoeg zijn om een worst-case scenario te beschrijven. Maar waarom zouden ze dan wel geschikt zijn om een ‘minder-dan-worst-case-scenario’ goed te beschrijven?

Een model is een vereenvoudiging van de werkelijkheid. Een klimaatmodel is dus een vereenvoudiging van het extreem complexe aardse klimaat. Die modellen zijn de afgelopen decennia geëvolueerd tot ‘state-of-the-art’ programma’s, althans daar gaat men van uit. Is men tevreden over de fysische opbouw van een model dan gaat men aan hindcasting doen. Daarmee tuned men het model. Daarna kan men het model in een aantal runs een voorspelling (forecasting) laten doen over bijvoorbeeld de temperatuur in de toekomst.

Bron:  Wikipedia

Hindcasting omvat het voorspellen van de onbekende waarden van onafhankelijke variabelen die mogelijk hadden bestaan, om de bekende waarden van de afhankelijke variabele te verklaren. Een belangrijke afhankelijke variabele is de globale temperatuur aan het aardoppervlak. Daarvan is bekend wat we gemeten hebben (waarnemingen). In het model zitten allerlei onafhankelijke variabelen, forcings, waarvan we deels wel en deels niet weten wat hun waarden waren in het verleden. Denk aan de invloed van zeestromen, wolken, CO2-gehalte, waterdamp, vulkaanuitbarstingen en aerosolen. Het model wordt nu zo getuned (parameteriseren), dat het adequaat het verloop van de globale temperatuur van bijvoorbeeld 1960 tot 2000 kan voorspellen.

Daarna is het model gereed om met behulp van de ingebouwde algoritmen een voorspelling te doen over bijvoorbeeld die globale temperatuur de komende decennia. Die ‘forecasting’ omvat de voorspelling van de toekomstige (onbekende) waarden van de globale temperatuur op basis van bekende waarden van de onafhankelijke variabelen. Die ‘bekende’ waarden bestaan voor een deel uit waargenomen waarden en deels uit de parameters gebruikt bij het tunen van het model. Maar hoe goed zijn die parameters? Misschien dat we beter kunnen spreken van ‘bekend veronderstelde waarden’ totdat duidelijk is dat ze o.k. zijn.

Hoe doen de klimaatmodellen het? Volgens ScienceNews best wel goed, maar nog niet perfect. Opmerkelijk was dat wetenschapsjournalist Maarten Keulemans van de Volkskrant op 8 december 2019 welhaast triomfantelijk schreef dat de klimaatmodellen accuraat waren en al 50 jaar goed blijken te zitten:

Bron: Volkskrant

Keulemans baseerde zich op een publicatie van Hausfather et al van enkele dagen eerder in het tijdschrift Geophysical Research Letters. De link zit achter een betaalmuur maar is via de NASA website (hier) toch gratis te lezen.

Keulemans schrijft in het Volkskrantartikel:

“Van de zeventien prognoses blijken er tien de opwarming accuraat te hebben voorspeld, schrijft Hausfather. Van de modellen die ernaast zaten, hadden er vier alsnog goed gezeten als men destijds maar de juiste CO2-gegevens had ingevoerd. Veel oude voorspellingen blijken de hoeveelheid broeikasgassen die we uitstoten te somber hebben ingeschat. Eind vorige eeuw gingen experts ervan uit dat de CO2-concentratie zou oplopen tot 450 ppm (‘deeltjes per miljoen’) vandaag. In werkelijkheid staat de teller op 410.

Een invloedrijk klimaatmodel, van Nasa-wetenschapper James Hansen uit 1988, kwam om die reden een halve graad te hoog uit. Had Hansen vooraf geweten dat de internationale politiek drijfgassen zou uitbannen, en dat de permafrost van Siberië minder broeikasgas zou uitstoten dan men destijds verwachtte, dan zou ook zijn model zijn uitgekomen op de 1 graad opwarming die het klimaat tot dusver in werkelijkheid heeft ondergaan.”

Dus de modellen hebben het goed gedaan, en als de modellenmakers van tevoren hadden geweten wat er zou gebeuren met diverse forcings zoals het CO2-gehalte zouden de voorspellingen nog beter zijn geweest.

Die eerste conclusie is strijdig met wat ik de afgelopen jaren gezien heb bij vergelijkingen tussen modellen en waarnemingen. De tweede conclusie is ook raar: omdat de modelbouwers verkeerd hadden ingeschat hoe groot diverse forcings zoals CO2-gehalte in de toekomst zouden worden werden de uitkomsten slecht. Zouden ze die waarden wél van tevoren hebben geweten dan zouden de modellen het goed gedaan hebben. Dat wijst er volgens Keulemans op dat het fysische deel van het model deugt, maar de voorspellingen met betrekking tot de waarden van de forcings (m.n. CO2 gehalte) mank gaat. Waarmee natuurlijk ook de uitkomsten van de modellen mank gaan.

Bron: Hausfather et al

Ik was benieuwd naar de publicatie waarop Keulemans zijn hosannaverhaal baseerde. Hausfather et al gebruikten 11 oudere modellen daterend van 1970 tot 1993 met 14 outputs en de eerste drie IPCC rapporten. Dat waren in totaal 17 voorspellingen waarvan de output van GMST (global mean surface temperature)  tot eind 2017 vergeleken werden met waarnemingen. Volgens Hausfather et al waren vielen 10 voorspellingen binnen  onzekerheidsmarges van de forcings. De 7 overige gebruikten forcings die sterk afweken van de waarnemingen. Daarom werd niet alleen gekeken naar wat de temperatuur deed in de gegeven periode, maar werd ook gebruik gemaakt van een model ‘implied’ TCR) dat gebaseerd is op verandering in temperatuur vanwege verandering in ‘radiative forcing’. Ik moet zeggen dat ik dat laatste moeilijk kon volgen, ook al omdat de uitleg niet in de paper staat.

Als de modelinvoerfouten  van de external forcings worden vervangen door de recente waarnemingen zijn 14 van de 17 modellen ‘consistent with observations’, zoals de auteurs stellen. Ik vind de gehanteerde methode van Hausfather aanvechtbaar omdat de modelinvoerfouten van external forcings zoals het atmosferisch CO2 mijns inziens deel uitmaken van het model. De fundamentele fysica die in de modellen gebruikt wordt kan dan wel acceptabel zijn, maar als toekomstige forcings (antropogene gassen en aerosolen, vulkanische aerosolen, zonne-input en ozon) verkeerd worden ingeschat zijn de uitkomsten van de projecties onbetrouwbaar en dus onbruikbaar.

Bovendien zijn er altijd fouten in de temperatuurwaarnemingen en verschillen tussen temperatuurreeksen. De keuze van de Hausfather et al bijvoorbeeld om geen gebruik te maken van temperatuurwaarnemingen van satellieten  (UAH en RSS) is al van invloed op de uitkomsten van hun onderzoek.  Ook de interne klimaatvariabiliteit in de modellen verschilt van wat zich in de echte wereld voordoet.

Conclusie: de paper van Hausfather et al heeft betrekking op 11 oude modellen van voor 1993. Veel van die oude modellen deden het eigenlijk helemaal niet goed. Het bekendste van die modellen, dat van Hansen, deed het zelfs bijzonder slecht. Het onderzoek van Hausfather et al zegt ook helemaal niets over de accuratesse van de huidige generatie modellen. De kop, “Klimaatmodellen blijken al 50 jaar goed te zitten”, lijkt me misleidend.

Overigens is het nog maar de vraag of het met die modelfysische fouten wel meevalt. Ook bijdetijdse klimaatmodellen hebben nog steeds last van te warme voorspellingen, zoals een aantal recente vergelijkingen laat zien. Er is maar één manier om een model te testen op zijn waarde en dat is door de uitkomsten van de voorspelling te toetsen aan waarnemingen. Dus je doet een aantal runs met een model en laat het model de globale temperatuur vanaf 2000 tot bijvoorbeeld 2019 voorspellen. Daarna kijk je wat het model gebakken heeft van de voorspelling van 2000 t/m 2019 door de uitkomsten te vergelijken met de waarnemingen.

Die toets is al een aantal malen gedaan en de moderne modellen kwamen er ook niet goed van af. Ross Mckitrick en John Christy hebben in juni 2018 een publicatie het licht laten zien waarin ze in 102 runs CMIP5 klimaatmodellen op hun betrouwbaarheid hebben getest. CMIP5 betreffen de jongste generatie modellen. De publicatie is hier te downloaden.  John Christy is klimaatwetenschapper aan de University of Alabama Hunstville, McKitrick is professor aan de universiteit in Guelph, Canada en is statisticus.  Ze hebben de uitkomsten van een van die 102 runs  vergeleken met de gemeten temperatuur. Dat deden ze op enige hoogte in de troposfeer in de tropen.

Bron: Mckitrick en Christy.

Links staan de temperatuur-anomalieën. Die roze vlekjes zijn de uitkomsten van die modellen, per jaar 102 puntjes. De rode lijn is het gemiddelde van al die modellen. De blauwe stipje zijn de metingen in de bovenlucht. De blauwe lijn is daar het gemiddelde van. Die metingen gebeuren met weerballonnen. Wat u nu in deze grafiek ziet is dat de modellen de opwarming veel hoger voorspelden dan de werkelijke opwarming. De modellen overdrijven de werkelijke gang van de temperatuur met bijna een factor 2.Bron:  Curry.

McKitrick toonde in een bijdrage op de website van Judith Curry aan dat ook vergeleken met de temperatuurreeksen van satellietmetingen door RSS en UAH tussen 1979 en 2017 de waarnemen sterk achterblijven bij de voorspellingen door modellen (grafiek hierboven).

Bron: Tuel

Bovenstaande grafiek is afkomstig van een recente paper van Tuel over de discrepantie tussen een aantal CMIP5 modellen en een viertal TLT (temperature lower troposphere) temperatuurreeksen op basis van MSU/AMSU satellietdata. De anomalieën  werden voor elke serie gedefinieerd ten opzichte van het gemiddelde van 1979–2018. Daardoor lijken de afwijkingen tussen modellen en waarnemingen minder dramatisch omdat de waarnemingen door de keuze van de referentieperiode grotendeels binnen de bandbreedte van de modellen liggen. Was echter 1979 als referentie gekozen dan waren de waarnemingen onder de band van de modellen gezakt.

Overigens laat de rechter grafiek goed het verschil in lineaire trend zien tussen het gemiddelde van de modellen en de 4 temperatuurreeksen. De opwaartse trend van de modellen is 1,7x tot bijna 3x groter dan die van de 4 waarnemingsreeksen.Bron: REMSS

Bovenstaande grafiek toont de uitkomst van 19 CMIP5 klimaatmodellen en de datareeks van RSS V4.0 satellietdata van TLT tussen 70° ZB en 80° NB tussen 1979 en 2017. Dezelfde grafiek als de vorige , maar dan voor de tropen (30° ZB – 30° NB). Ook hier tonen  de modellen een veel sterkere stijging van de temperatuur dan waargenomen:

Bron: REMSS

Roy Spencer is onderzoeker aan de Universiteit van Alabama in Huntsville en de leider van het Amerikaanse wetenschapsteam voor de Advanced Microwave Scanning Radiometer op de Aqua-satelliet van NASA. Hij toonde op de Heartland-conferentie van  2019 onderstaande grafiek die de trends weergeeft van 102 CMIP5 klimaatmodelruns en enkele temperatuurdatasets.

Spencer op Heartlandconferentie.

Die temperatuur-datasets zijn de twee reeksen op basis van satellietmetingen (UAH en RSS) en het gemiddelde van een viertal reanalyses van 1979 t/m 2018. Reanalyses zijn datasets waarin alle waarnemingen zitten die voorhanden zijn, zoals van satellieten, thermometers, weerballonnen, schepen, vliegtuigen en boeien. Op basis daarvan wordt met toepassing van fysische modellen de globale temperatuur berekend.

Data: Roy Spencer.

De zwarte lijn geeft de gemiddelde trend weer van de 102 modelruns, die ongeveer 2x zo snel stijgt als de waarnemingen.

Voor de tropen (20° ZB – 20° NB) ziet het beeld er zo uit:

Bron: Roy Spencer.

De trendafwijking van de 102 modellen is hier zelfs 2,4x die van de waargenomen temperaturen. De 102 gebruikte runs en de 4 temperatuurreeksen op basis van waarnemingen zijn in onderstaande grafiek gerangschikt op basis van de trend/decennium in °C tussen 1979 en 2018:

Bron:  Roy Spencer.

De grafiek laat niets aan duidelijk te wensen over lijkt me. Het Russische model INMCM4 geeft de laagste trend te zien en slechts 2 van de 102 modelruns leveren een trend die lager is dan die van de 4 reanalyses.

Kortom, veel bronnen tonen aan dat ook de huidige generatie klimaatmodellen te hoge temperaturen voorspelt als ze vergeleken worden met de metingen. Ongetwijfeld zijn de huidige modellen verfijnder dan die van de oudere generatie, maar zolang ze niet betrouwbaar de temperatuur kunnen voorspellen lijkt het me beter ze niet te gebruiken als basis voor vergaande politieke besluitvorming.

Bron hier.