14643533363802

 

Ronald Bailey 27 Maggio

I modelli climatici possono aver amplificato le previsioni da 2 a 4 volte il calore in eccesso.

Lo scorso anno sarebbe stato l’anno con la temperatura superficiale più alta mai registrata secondo il National Oceanic and Atmospheric Administration (NOAA). Al contrario, secondo le misurazioni delle temperature satellitari il 2015 è stato il terzo anno più caldo mai registrato. Sempre secondo il NOAA, il 2016, ha ora una concreta possibilità pari al 99% di diventare l’anno più caldo mai registrato – di circa 1,5 gradi al di sopra della media 1891-1910. L’aumento di 1,5 gradi è significativo perché lo scorso dicembre molte nazioni mondiali hanno trovato l’accordo, alla Conferenza sui cambiamenti climatici delle Nazioni Unite a Parigi, per cercare di mantenere in futuro le temperature medie al di sotto di tale soglia.

Un forte fenomeno di El Nino sappiamo riscalda notevolmente l’Oceano Pacifico orientale, quindi risulta il diretto responsabile dell’incremento delle temperature medie globali nel corso dello scorso anno. Questo fenomeno sta ormai scemando e potrebbe presto essere sostituito dal fenomeno opposto de La Nina, un fenomeno che ha la capacità si raffreddare drammaticamente le acque del Pacifico orientale e trascinare la media delle temperature globali verso una diminuzione. Chiaramente naturali variazioni della temperatura possono guidare le tendenze nel breve periodo, ma per quanto riguarda il lungo periodo?

Due nuovi studi osservano le proiezioni di lungo periodo dei modelli climatici al computer e suggeriscono che i loro risultati sono troppo estremi, quindi risultano troppo alti. Un parametro critico è l’equilibrio della sensibilità climatica, che può essere definita convenzionalmente come la quantità di riscaldamento che può essere previsto dal raddoppio dell’anidride carbonica atmosferica. In questo numero della rivista, Earth and Space Science, mathematician J. Ray Bates, da Meteorology and Climate Centre at the University College Dublin, gli autori calcolano la sensibilità climatica concentrandosi in particolare sulle dinamiche meteorologiche nei tropici che sono per lo più ignorati dai modelli climatici. Fondamentalmente, risulta che i tropici risultano più efficaci nell’espellere il calore in eccesso presente nello spazio rispetto alle previsioni modellistiche.

Il gruppo di esperti intergovernativo sui cambiamenti climatici ha ampliato la propria gamma di sensibilità climatica stimata a 1,5 e 4,5 gradi Celsius nel suo ultimo rapporto, lasciando cadere il limite inferiore di 2 gradi. Il nuovo studio suggerisce che la sensibilità del clima potrebbe essere molto più bassa, di circa 1 grado per il raddoppio dell’anidride carbonica atmosferica. Se questo risultasse vero, allora i modelli climatici sono proiettati su futuri aumenti della temperatura che risulterebbero da 2 a 4 volte più calde rispetto al probabile trend attuale. Vale la pena ricordare che i dati satellitari trovano che il tasso globale di aumento della temperatura dal 1979 è stato di 0,12 gradi per decennio, il che suggerisce che le stime più basse di sensibilità del clima possono essere corrette.

Un altro studio pubblicato su Nature dai ricercatori del Centro Europeo per la Ricerca Nucleare, (CERN) ha scoperto che il nostro pianeta aveva una presenza maggiore di nuvolosità in età pre-industriale di quanto si pensasse. I ricercatori suggeriscono che il nostro pianeta con la presenza di una maggiore nuvolosità risultava un pianeta più fresco. I modelli climatici al Computer assumono anche inquinanti artificiali atmosferici come il biossido di zolfo che hanno aumentato la nuvolosità moderna, proteggendo ulteriormente il nostro pianeta dalle temperature più elevate. Se si scopre inoltre che le prime epoche avevano una presenza nuvolosa maggiore di quanto hanno rappresentato i modelli, questo significa che il futuro riscaldamento globale è stato ulteriormente sovrastimato.

Ma ricordate sempre: La scienza è risolta!

Fonte: HIT & RUN

Enzo
Attività Solare