Autore: Donato Barone
Data di pubblicazione: 22 Luglio 2016
Fonte originale: http://www.climatemonitor.it/?p=41859
Uno dei cavalli di battaglia dei sostenitori della tesi del riscaldamento globale di origine antropica (AGW) è costituito dalla simulazioni modellistiche che, sotto diversi scenari di emissione, forniscono i valori delle temperature medie globali, delle precipitazioni e di altri parametri di interesse climatico che dovrebbero misurarsi in un futuro più o meno prossimo. Come ben sanno i lettori di CM non si tratta solo di meri studi scientifici in quanto i risultati di tali studi incidono pesantemente nella nostra vita quotidiana ed su quella delle future generazioni: su di essi sono basate le politiche di mitigazione e di adattamento che vengono decise nelle trattative che da oltre un trentennio coinvolgono i decisori politici di mezzo mondo. E’ di oggi la notizia che l’UE ha stabilito che nel 2030 le emissioni dell’Italia dovranno essere ridotte del 33% rispetto al 2005 e per raggiungere l’obiettivo tutti i settori economici saranno chiamati a scelte che comporteranno lacrime e sangue.
Un recente studio, segnalatomi dall’amico M. Pagano, ha gettato un fascio di luce sinistra su questi studi e su queste metodologie ed ha confermato molti dei timori che tante volte ho manifestato su queste pagine.
Lo scorso mese di giugno sul Bulletin of the American Meteorogical Society è stato pubblicato l’articolo
Connecting climate model projections of global temperature change with the real world
a firma di E. Hawkins e R. Sutton (da ora Hawkins et al., 2016) in cui gli autori dimostrano che i risultati dei modelli climatici sono molto sensibili al periodo di riferimento che viene preso in considerazione.
Per comprendere meglio la portata dell’articolo è necessaria qualche premessa. I modelli climatici simulano il clima terrestre sulla base di complicati sistemi di equazioni che tengono conto della dinamica dei fluidi atmosferici ed oceanici e dell’equilibrio degli scambi energetici al limite superiore dell’atmosfera (TOA). La definizione di TOA è piuttosto delicata e complessa, ma per i fini del nostro discorso supponiamo, come la maggior parte degli studiosi della materia, che TOA coincida con una superficie sferica ideale che si colloca a circa 20 chilometri di distanza dalla superficie terrestre. In corrispondenza di questa superficie gli scienziati studiano l’entità dei flussi energetici in entrata nel sistema (radiazione solare) e di quelli in uscita (radiazione solare riflessa e flusso energetico infrarosso emesso dalla superficie terrestre, compresi gli oceani, riscaldata dalla radiazione solare), cioè il bilancio energetico terrestre. I modelli climatici sono sintonizzati in modo tale da simulare gli effettivi valori dei flussi energetici in corrispondenza del TOA e tutto il resto è una conseguenza di questo dato. La temperatura media globale, pertanto, è un sottoprodotto di questo bilancio energetico così come la sensibilità climatica all’equilibrio o quella transitoria.
L’accuratezza dei modelli climatici viene testata, però, sulla base della loro capacità di replicare il clima del passato e qui cominciano i problemi. Poiché nessuno si è mai curato fino all’avvento dei satelliti, di andare a misurare i flussi di energia in corrispondenza del limite superiore dell’atmosfera, è stato necessario individuare una grandezza che potesse rappresentare il clima del passato: questa grandezza è la temperatura media globale stimata con varie analisi e rianalisi da diversi studiosi. Il risultato di tali studi basati sulle temperature superficiali terrestri e su quelle oceaniche, è costituito da una manciata di serie storiche di cui una delle più note è HadCRUT4.3 elaborata dall’Unità di ricerca climatica dell’Hadley Center e dall’East Anglia University. Un modello climatico che si rispetti deve, per esempio, essere in grado di replicare le temperature del passato per poter sperare che esso sia in grado di prevedere quelle del futuro. Il clima non è, però, solo la temperatura media globale, ma è l’insieme di una serie piuttosto ampia di variabili climatiche come le precipitazioni, le distribuzioni di masse atmosferiche, le masse glaciali e via cantando. Prevedere l’andamento di tutte queste variabili climatiche è, però, molto difficile, per cui i climatologi si concentrano sulla temperatura media globale quale dato di prossimità del clima globale. Personalmente non condivido questa scelta, ma essa rappresenta lo stato dell’arte della scienza del clima e c’è poco da fare: bere o affogare.
Tutto ciò premesso entriamo nel vivo delle problematiche affrontate da Hawkins et al., 2016. Dato che i modelli climatici vengono sintonizzati per rispettare i bilanci energetici al TOA, le temperature globali che ne derivano risultano essere affette da un certo grado di incertezza. Seguendo l’insegnamento di Hansen et al., 1988, nella comunità dei climatologi si fa riferimento non ai valori assoluti delle temperature globali, ma alle anomalie cioè alla differenza tra le temperature assolute, espresse in funzione del tempo, ed una temperatura media relativa ad un periodo riferimento. Le ragioni per cui i climatologi preferiscono le anomalie alle temperature assolute sono molteplici: non servono molte stazioni (una ogni mille chilometri è più che sufficiente), ciò che interessa per stabilire se il clima cambia è la variazione di temperatura e non il suo valore assoluto, ecc..
Secondo Hawkins eta al., 2016 una delle maggiori fonti di incertezza che caratterizza le anomalie di temperatura e le simulazioni storiche delle temperature è la scelta del periodo di riferimento. Come tutti sappiamo le temperature non sono costanti, ma variano nel tempo ed in particolare esistono dei periodi in cui esse sono mediamente più basse (gli anni ’70 del secolo scorso, per esempio) e dei periodi in cui esse sono più alte (il periodo attuale, per esempio). L’Organizzazione Meteorologica Mondiale fin dal 1935 ha individuato in 30 anni un periodo rilevante dal punto di vista climatico e, in quell’epoca, si assunse come periodo di riferimento quello compreso tra il 1901 ed il 1930. Nel corso degli anni questi periodi di riferimento trentennali sono cambiati. Oggi come oggi si considera quale periodo di riferimento quello che va dal 1961 al 1990 in quanto tale periodo è caratterizzato da un numero molto elevato di osservazioni. Possiamo, pertanto, dire che la maggior parte delle anomalie di temperatura utilizzate nei vari studi sono calcolate rispetto a questo periodo di riferimento.
Buona parte di Hawkins et al., 2016 è dedicato alla dimostrazione del perché la scelta del periodo di riferimento introduce incertezza nelle simulazioni storiche delle serie di temperature. Gli autori per far comprendere meglio il concetto hanno fatto riferimento ad un esempio didatticamente molto significativo. Immaginiamo che le serie di temperature siano costituite da fili di ferro a forma di sega, cioè contorti. Prendiamone un certo numero e facciamoli passare all’interno di un tubo di data lunghezza e dato diametro. Stante la rigidezza dei fili di ferro si intuisce che facendo scorrere il tubo orizzontalmente, la distanza tra i fili varia al variare della posizione del tubo, al variare della sua lunghezza e del suo diametro. Qui gli autori hanno realizzato una splendida animazione che rappresenta in modo esaustivo il concetto espresso.
Detto in altri termini scegliere un certo intervallo di riferimento determina in modo significativo i risultati delle analisi: un certo periodo storico può apparire meno caldo o più caldo a seconda del periodo di riferimento che si prende in considerazione, della sua lunghezza e del suo “diametro” ossia delle oscillazioni della temperatura media globale in quel particolare periodo. Hawkins et al., 2016 non si è limitato, però, a semplici anche se efficaci analogie, ma ha dimostrato, dati alla mano, che a seconda del periodo di riferimento preso in considerazione cambia sia il valore delle anomalie misurate che quello delle simulazioni. Nella figura 1 di Hawkins et al., 2016 (che si riporta qui sotto) sono rappresentate le serie storiche a confronto con le simulazioni generate da 42 modelli climatici. Molto più interessanti, a mio parere, i due pannelli inferiori in quanto essi fanno vedere chiaramente come le anomalie cambino vistosamente se il periodo di riferimento è 1979/1988 o 1996/2005 e, cosa ancora più importante, come le stime storiche si differenzino, a seconda del periodo di riferimento considerato, rispetto alle simulazioni storiche (si tenga presente che il periodo di riferimento è lo stesso tanto per le serie storiche che per le simulazioni). In particolare il periodo 1980/2005 appare “caldo” o “freddo” a seconda del periodo di riferimento preso in considerazione (pannelli inferiori). Ad onor del vero è indubbio, però, che qualunque periodo di riferimento si consideri, le temperature sono in aumento tra l’inizio e la fine del periodo considerato.
Quanto visto dimostra che, nel lungo periodo, le anomalie riescono a dare informazioni abbastanza precise circa la tendenza climatica generale. Nel breve periodo, invece, sono evidenti differenze piuttosto sensibili tra le varie serie di misure e tra le serie di misurazione e le simulazioni storiche generate dai modelli matematici.
Altro aspetto critico della sintonia delle simulazioni delle serie storiche con quelle misurate che Hawkins et al., 2016 mette in evidenza è la difficoltà di definire le temperature dell’epoca pre-industriale. La prima criticità consiste nel fatto che per quell’epoca lontana non disponiamo di dati di qualità, per cui non siamo in grado di definire con certezza una temperatura media globale. Un’altra criticità è legata alla variabilità naturale interna al sistema ed alla non stazionarietà delle serie di temperatura. Una terza fonte di incertezza è la stima della forzante radiativa in epoca pre-industriale. IPCC nel suo AR5 ha individuato la temperatura del periodo 1850/1900 come la temperatura pre-industriale. Ciò è fonte di grande incertezza in quanto nessuno può garantire, data la variabilità naturale interna del sistema e la non stazionarietà delle serie di temperature, che le temperature di tale periodo siano in linea con quelle degli anni precedenti. I GCM vengono addestrati, però, a simulare le temperature del periodo pre-industriale sulla base del periodo successivo al 1850 e ciò è fonte di elevata incertezza nelle serie storiche simulate dai modelli climatici anche a causa di notevoli incertezze circa il valore della forzante radiativa dell’epoca.
Tutte queste considerazioni, ed anche altre svolte nel corpo dell’articolo e che ometto per brevità, portano alla logica conclusione che le simulazioni climatiche sono fortemente influenzate dal periodo di riferimento preso in considerazione. In particolare questa circostanza ha grosse implicazioni anche per la definizione delle politiche di mitigazione degli effetti del cambiamento climatico. Prendendo in considerazione 4 modelli climatici, gli autori hanno concluso che, a seconda del periodo di riferimento assunto, la data in cui si supererà la fatidica soglia dei 2°C di aumento delle temperature rispetto a quelle pre-industriali varia in un intervallo di ben 15 anni: 2049 o 2063. Il che non è poco considerando anche le incertezze circa la definizione di temperatura pre-industriale.
Questo per le temperature medie globali. Se il discorso si sposta alle altre variabili climatiche ed alle temperature regionali, le cose diventano molto più complesse e gli autori concludono che i GCM sono del tutto inetti a prevedere in modo efficace le variazioni delle variabili climatiche diverse dalle temperature e delle temperature a scala regionale. Ciò in quanto non abbiamo a disposizione serie di misurazioni che si sviluppino per periodi molto lunghi. Poiché il clima globale è la somma di quelli regionali, mi sembra che ognuno possa trarre le conclusioni che vuole, ma, per quel che mi riguarda, i forti dubbi che mi attanagliano circa l’affidabilità degli scenari delineati dai modelli di circolazione globali, non sono stati affatto eliminati da questo studio. Anzi posso dire che sono stati rafforzati.
Un cenno meritano le conclusioni di Hawkins et al., 2016. Quando si opera con le serie di temperature simulate è necessario che il periodo di riferimento sia il più lungo possibile per escludere la variabilità naturale intrinseca al sistema; che la copertura dei dati sia la più estesa possibile (idealmente l’intero globo terrestre) e che sia noto con la maggior precisione possibile il valore della forzante radiativa. La mancanza di uno o più di uno dei requisiti elencati, non può che ingenerare forti incertezze nei risultati finali delle analisi e delle elaborazioni numeriche. E, aggiungo io, possibili errori da parte dei decisori politici che si tradurranno in problemi per l’intero genere umano.
E per finire una chicca che ho trovato nell’appendice C dell’articolo. Si parla della pausa nel riscaldamento globale e gli autori non possono fare a meno di proporci una loro spiegazione. La pausa potrebbe essere un artefatto di calcolo legato in massima parte all’incompletezza della rete di misurazione globale delle temperature che avrebbe sottovalutato il riscaldamento in alcune zone del pianeta. I modelli avrebbero, pertanto, individuato in modo corretto il riscaldamento planetario, ma i dati non lo avrebbero evidenziato a causa di una carenza nella distribuzione dei termometri e nel fatto che le temperature marine che determinano quelle medie globali, sono inferiori a quelle atmosferiche a causa della forte inerzia termica degli oceani.
Detto sinceramente, potevano risparmiarsela. Mi sembra che questa spiegazione della pausa contraddica un po’ tutto il senso dell’articolo. Dopo aver individuato tutti i limiti dei modelli, prendere per oro colato i loro risultati mi sembra un’esagerazione. E’ necessario, però, conciliare il mondo reale con quello virtuale, a scapito del primo, ovviamente.
La scienza del clima è definita, bisogna solo definire i dettagli, ha scritto qualcuno, ma ho l’impressione che quel qualcuno si sia sbagliato e me ne convinco ogni giorno che passa.