Beperkingen van klimaatmodellen alleen computermodellen de gevoeligheid van de mondiale temperatuur voor kooldioxide in de atmosfeer bepalen.

William Kininmonth.

Auteur: William Kininmonth (Australië).

Wetenschappers van het Intergovernmental Panel on Climate Change (IPCC) stelden in hun eerste evaluatierapport uit 1990 dat de complexiteit van het klimaatsysteem zodanig is dat alleen computermodellen de gevoeligheid van de mondiale temperatuur voor toenemende kooldioxide in de atmosfeer kunnen bepalen.

Tegen deze achtergrond is het belangrijk om de ontwikkeling van klimaatmodellen te herzien, omdat recente gebeurtenissen er op wijzen dat de modellen de invloed van stijgende kooldioxide-emissies overdrijven.

De kern van klimaatmodellering wordt gevormd door vergelijkingen die de ontwikkeling van de atmosfeer en de oceanen beschrijven. De vergelijkingen waren al in de jaren twintig ontwikkeld. Het aantal individuele berekeningen dat nodig was, zelfs voor een korte weersvoorspelling, was in die pre-computertijd overweldigend. Zelfs met een groot team zou het weer sneller evolueren dan de berekeningen door hen konden worden uitgevoerd.

Tegen het begin van de jaren zestig waren computers ontwikkeld en waren ze voldoende snel dat het simuleren van weersystemen mogelijk werd. Er werden modellen ontwikkeld voor weersvoorspellingen.

Al snel werden weersvoorspellingsmodellen aangepast om processen op te nemen die belangrijk zijn om seizoens- en jaarlijkse klimaatstatistieken te produceren. Aanpassingen omvatten de weergave van zonne- en langgolvige stralingsstromen (de bron en de afvoer van energie naar het klimaatsysteem); wolken en regen; uitwisseling van warmte, vocht en de ontwikkeling van de oppervlakte-atmosfeer-interactie; en een ondiepe waterlaag met variabele temperatuur om de warmteopslag en -uitwisseling van de oceanen weer te geven.

Eerdere klimaatmodellen waren in staat om in grote lijnen de belangrijkste kenmerken van het seizoens- en jaarklimaat te reproduceren, inclusief drukpatronen, windvelden en wereldwijde temperatuurverdeling. De lage resolutie van het rekenraster en de relatief lange tijdstappen betekenden echter dat klimatologische kenmerken vaak niet nauwkeurig genoeg waren en er waren globale en regionale afwijkingen.

De potentiële impact op het klimaat van toenemende industriële uitstoot van kooldioxide was de aanleiding om de evoluerende klimaatmodellen te gebruiken om het effect van verhoogde atmosferische kooldioxideconcentraties op het klimaat te onderzoeken.

Een stijging van de mondiale gemiddelde jaartemperatuur werd aanvaard als een primaire indicator van de impact. Deze index kan worden vergeleken met reconstructies van historische wereldwijde jaartemperaturen op basis van instrumentele waarnemingen vanaf de jaren 1850.

Een tekortkoming van de vroege modellen was het onvermogen om de heersende mondiale gemiddelde temperatuur nauwkeurig te reproduceren. Elk model had zijn eigen kenmerken en het verschil met de waargenomen temperatuur op aarde was meer dan drie graden Celsius, ongeveer dezelfde waarde als de verwachte impact van een verdubbeling van de concentratie van atmosferische kooldioxide.

Om dit euvel te verhelpen, werd de impact van kooldioxide genomen als het verschil in wereldgemiddelde temperatuur tussen een modelsimulatie met verhoogde kooldioxide en die van een controlesimulatie met heersende kooldioxide. Modellen ontwikkeld in verschillende onderzoeksinstituten gaven aan dat een verdubbeling van de kooldioxideconcentratie de wereldgemiddelde temperatuur tussen 1,5 en 4,5 graden Celsius zou kunnen verhogen.

Niet alle wetenschappers waren het erover eens dat de modelprojecties realistisch waren. De Verenigde Naties erkennen het potentieel voor schadelijke milieu- en maatschappelijke gevolgen van dergelijke temperatuurstijgingen en hebben het IPCC opgericht om de wetenschap te beoordelen, om na te gaan hoe menselijke activiteiten het klimaat op aarde kunnen veranderen door het broeikaseffect, en om een gemeenschappelijke gids te bieden voor beleidsmakers over de hele wereld .

Het eerste beoordelingsrapport van het IPCC (in 1990) was gebaseerd op modellen met een vergelijkbare constructie als hierboven beschreven. Door de ontwikkeling van nog snellere computers konden modellen met een hogere resolutie worden gebruikt. Regionale kenmerken van het klimaat werden beter gedefinieerd en sommige afwijkingen konden worden beperkt.

Wetenschappers erkenden ook dat oceaancirculatie belangrijk was voor het transporteren van een deel van de overtollige warmte van de tropen naar de poolgebieden. Het tweede IPCC-rapport (1995) bevatte de output van modellen waarin circulerende oceanen de in wezen statische ondiepe oceanen van eerdere modellen vervingen.

Er zijn inherente problemen bij de koppeling van oceaan- en atmosfeercomponenten. De massa van de atmosfeer is gelijk aan alleen de bovenste 10 meter van de oceaan; de oceanen hebben veel meer traagheid dan de relatief snelle atmosfeer. Ook is de warmte-inhoud van de atmosfeer gelijk aan die van de bovenste vier meter van de oceaan; de oceanen reageren thermisch minder goed dan de atmosfeer.

Een resultaat van de traagheids- en thermische verschillen was dat er in de vroegste gekoppelde klimaatmodellen een energieonbalans was die met de tijd een afwijking van de wereldgemiddelde temperatuur veroorzaakte. De snelheden van warmte- en zoetwateruitwisseling tussen de oceaan- en atmosfeercomponenten van de modellen zijn aangepast om de mondiale en regionale temperaturen te stabiliseren. Deze aanpassingen zijn gedaan om ervoor te zorgen dat eventuele effecten als gevolg van verhoogde kooldioxide worden beoordeeld aan de hand van een redelijk stabiele klimaatbasis. De modelbouwers noemden deze aanpassingen “fluxaanpassingen”.

Dergelijke voor flux gecorrigeerde modellen vormden de basis van het derde evaluatierapport van het IPCC van 2001. De gevoeligheid voor verdubbelde kooldioxideconcentratie van deze oceaan-atmosfeer gekoppelde modellen was in hetzelfde bereik als die van de eerdere modellen.

Gedwongen stabiliteit door fluxaanpassing betekende dat wetenschappers de modellen continu konden gebruiken om het veranderende klimaat gedurende 1000 jaar en langer te simuleren. Het gebrek aan periodieke variabiliteit in deze lange simulaties bracht de IPCC-wetenschappers ertoe te concluderen dat het klimaatsysteem zelf weinig interne variabiliteit heeft. Dit is een controversiële conclusie, aangezien de modellen waaruit de conclusie is afgeleid, kunstmatig zijn gestabiliseerd om temperatuurafwijkingen te voorkomen.

De modellen, met passend voorgeschreven “stralingsforcering” (een aanpassing aan de netto straling aan de bovenkant van de modelatmosfeer die naar verwachting een oppervlaktetemperatuurrespons zal forceren), werden ook gebruikt om de veranderende wereldtemperatuur van de 20ste eeuw te simuleren.

“Stralingsforcering” is de technische term die wordt gebruikt om uit te leggen hoe koolstofdioxide de planeet opwarmt. De langgolvige emissie naar de ruimte neemt af naarmate de kooldioxideconcentratie toeneemt, waardoor de oppervlaktetemperatuur naar verwachting zal stijgen. De grootte van de langegolfreductie voor een gegeven concentratietoename is de “forcering”.

Er is ook een verandering in de oppervlaktetemperatuur als de zonne-intensiteit toeneemt, of als de deeltjesdichtheid toeneemt om meer zonnestraling naar de ruimte te reflecteren. Zo werd de opwarming in de periode vóór 1940, toen er weinig toename van kooldioxide in de atmosfeer was, toegeschreven aan een toename van de zonne-intensiteit. Met geschikte “stralingsforcering” om de toenemende zonne-intensiteit weer te geven, warmde de modeltemperatuur op.

De moeilijkheid is dat, hoewel er blijkbaar een toename van de zonne-intensiteit was tussen 1900 en 1940, de omvang van de verandering niet goed gespecificeerd is.

De concentratie koolstofdioxide in de atmosfeer begon na 1940 snel te stijgen, maar tot het midden van de jaren zeventig steeg de temperatuur op aarde niet verder. Dus de modelbouwers verminderden de zonne-intensiteit voor de periode 1945-1975 en rationaliseerden de vermindering als het gevolg van toenemende industriële deeltjes (aerosolen) die meer zonne-energie naar de ruimte reflecteerden.

De modellen waren in staat om de relatief constante temperatuur gedurende de periode te reproduceren omdat het geclaimde koeleffect van de industriële deeltjes het opwarmende effect van het toenemende kooldioxide in de atmosfeer compenseerde.

Verder werd aangenomen dat de maatregelen om luchtvervuiling tegen te gaan, die in de meeste geïndustrialiseerde landen wettelijk zijn vastgelegd, de deeltjes en hun verkoelende effect na ongeveer 1970 grotendeels zouden hebben geëlimineerd. Onder de nu dominante invloed van toenemende kooldioxideconcentratie toonden de modellen de waargenomen stijgende temperaturen tot het einde van de eeuw.

Er is echter, ondanks dat de wetenschap “vaststaat”, maar weinig inzicht in de relatie tussen fijnstofconcentraties en stralingsforcering.

Het vermogen om de wereldwijde gemiddelde temperatuur van de 20ste eeuw te simuleren, onder zogenaamd realistische historische stralingsforcering, gaf wetenschappers vertrouwen in de klimaatmodellen. Het IPCC vertrouwde in zijn derde evaluatierapport van 2001 op dergelijke “flux-adjusted” modellen om te concluderen dat het grootste deel van de opwarming van de afgelopen 50 jaar waarschijnlijk te wijten was aan de toename van de concentraties van broeikasgassen.

De “fluxaanpassing” werd als kunstmatig erkend en is vervangen door andere, waarschijnlijk niet minder kunstmatige, modelstabilisatie.

Wetenschappers verwachtten toen dat de modellen de toekomstige wereldwijde temperatuurstijging realistisch zouden voorspellen naarmate de industriële uitstoot van kooldioxide toenam. Aan deze verwachting is niet voldaan. In de eerste twee decennia van de 21e eeuw hebben modellen consequent hogere temperaturen voorspeld dan waargenomen. Bovendien is de discrepantie tussen de projecties en de waargenomen temperaturen met de tijd toegenomen. Om nog maar te zwijgen van het feit dat de spreiding van de modelprojecties ook met de tijd is toegenomen.

De divergentie tussen modellen was een van de belangrijkste punten van kritiek van Steven Koonin in zijn recente boek, Unsettled. Zie o.a. hier.

Er zijn verschillende mogelijke verklaringen aangedragen voor de overdreven opwarming van de modelprojecties. Een daarvan is dat het klimaatsysteem misschien een aanzienlijke interne variabiliteit heeft op multi-decadale tijdschalen die niet door de modellen wordt opgepikt. Het bestaan van interne variabiliteit, met zijn oorsprong in de langzaam variërende oceaancirculatie, verzwakt de stelling dat stralingsforcering de dominantie factor is bij klimaatverandering.

Van meer belang zijn afwijkende veranderingen die in de loop van de tijd in de modelatmosfeer optreden. Deze wijzen op tekortkomingen in de modelbouw. Als bijvoorbeeld de verwachte oppervlaktetemperatuur stijgt, neemt zowel de stabiliteit als de relatieve vochtigheid van de luchtlaag van het model aan het oppervlak (de atmosferische grenslaag) toe. Uit natuurkundige principes kan worden aangetoond dat deze afwijkende kenmerken de neiging zouden hebben om de toename van de verdamping in het model te onderdrukken. Dat wil zeggen, er wordt minder latente warmte van het oppervlak naar de atmosfeer geleid en ter compensatie stijgt de oppervlaktetemperatuur meer dan anders het geval zou zijn.

De neiging tot een toename van de stabiliteit van de grenslaag en de stijging van de relatieve vochtigheid is duidelijk abnormaal en in tegenstelling tot wat elke dag kan worden waargenomen. Na zonsopgang, als de oppervlaktetemperatuur stijgt, wordt de atmosfeer onstabieler en neemt de relatieve vochtigheid af. In de late namiddag, als de oppervlaktetemperatuur afkoelt, wordt de atmosfeer stabieler en neemt de relatieve vochtigheid toe. Deze waargenomen patronen zijn het tegenovergestelde van modelreacties, aangezien hun temperaturen stijgen met toenemende koolstofdioxide.

De aarde is een waterplaneet: 70 procent van het oppervlak is bedekt met oceaan. Verdamping beperkt de stijging van de oppervlaktetemperatuur. Elke beperking van verdamping in het model zal de oppervlaktetemperatuur verhogen. De neiging om de verdamping van modellen te beperken veroorzaakt ook onzekerheid ten aanzien van de projecties van regionale regenpatronen als klimaatveranderingen.

Klimaatmodellen blijven, ondanks hun ontwikkeling in de afgelopen decennia, rudimentair in vergelijking met de complexiteit van het klimaatsysteem. De replicatie van het klimaat uit het verleden door de modellen is problematisch en geprojecteerde toekomstige scenario’s moeten met de nodige voorzichtigheid worden behandeld.

Opwarming van de aarde heeft plaatsgevonden in de afgelopen eeuwen. In hun huidige staat van ontwikkeling laten de modellen ons echter niet toe om de rol van koolstofdioxide te scheiden van natuurlijke variabiliteit. Speculatie dat toekomstige opwarming als gevolg van aanhoudende uitstoot van kooldioxide gevaarlijk zal zijn en zal leiden tot wijdverbreide uitsterving van soorten is ongegrond.

***

William Kininmonth heeft een carrière van meer dan 40 jaar in meteorologische wetenschap en beleid. Gedurende meer dan een decennium (1986-1998) leidde hij het Australische National Climate Centre. Hij was daar verantwoordelijk voor het monitoren van het veranderende klimaat in Australië en het adviseren van de Australische regering over de omvang en ernst van weersextremen, waaronder de terugkerende droogteperiodes van de jaren negentig. Hij was tevens leider van de Australische afvaardiging naar het IPCC.

***

 

Naschrift van de redactie

Waar blijft nu toch die verschrikkelijke klimaatcrisis?

Opnieuw daling temperatuur

Beperkingen van klimaatmodellen alleen computermodellen de gevoeligheid van de mondiale temperatuur voor kooldioxide in de atmosfeer bepalen.