00:00 15 Settembre 2014

CO2 e temperature: dinamiche sempre più lontane

L'analisi dei nuovi dati strumentali sempre più aggiornati, dovrebbe indurre ad una rivalutazione complessiva del peso che le varie cause hanno nel governare il clima nel breve e nel lungo periodo.

Più gli anni passano e più i dati suggeriscono che forse la tesi di una quasi totale dipendenza dell’andamento delle temperature superficiali del nostro pianeta dalla concentrazione di CO2 presente in atmosfera potrebbe rivelarsi oramai insufficiente.

É vero che per più di vent’anni (anni ottanta e novanta del secolo scorso) infatti, le curve che rappresentano le dinamiche di questi due parametri si sono avvicinate in modo significativo fino quasi a sovrapporsi, inducendo inevitabilmente a pensare ad una stretta correlazione tra di loro. Il problema però, è che questa apparente coincidenza ultimamente sta dando segnali di estrema debolezza.

Da un’analisi dei dataset disponibili e divulgati dai più prestigiosi istituti climatologici mondiali, aggiornati al 2013, è sempre più evidente la fase di stasi pressochè completa del global warming che si prolunga oramai dal 1998.

In tale lasso di tempo per capirci, le temperature medie globali oscillano di anno in anno in ordine sparso, entro una forbice che si avvicina molto al limite di tolleranza imposto per questo tipo di misurazioni e che è pari a circa un decimo di grado. Ciò significa che in termini statistici non è più riconoscibile già da tempo alcun trend orientato all’aumento. Se consideriamo poi solo le temperature satellitari della media troposfera, sempre degli ultimi dodici anni, si nota addirittura una leggera tendenza alla diminuzione.
 
Passando invece all’analisi della concentrazione di CO2 in atmosfera, il discorso cambia. Se si prendono in considerazione infatti i dati di diverse stazioni di rilevamento e in particolare quelli derivanti dalla stazione di Mauna Loa alle isole Hawaii, che è in genere considerata come riferimento, si evince che la curva che ne rappresenta la dinamica è in progressiva e costante ascesa fin dal 1958 (anno di inizio dei rilevamenti).

In particolare negli ultimi anni si è passati da un valore di circa 370 ppm (parti per milione) dell’anno duemila, ad un valore attuale prossimo oramai a quota 395 ppm, registrando un incremento medio, costante e lineare, di circa 2 ppm all’anno.

Ora, limitandoci a considerare questi dati, che sono poi quelli ufficiali, e tralasciando eventuali aspetti legati alla loro reale rappresentatività, si nota chiaramente come le due curve che per diversi anni sono cresciute più o meno allo stesso modo, recentemente siano caratterizzate da dinamiche completamente differenti.

Questi elementi, certamente inattesi, costituiscono quindi una nuova evidenza scientifica che in linea di principio dovrebbe comunque essere considerata.

Ma allora, come sta reagendo la comunità scientifica di fronte a questa nuova prospettiva?
I due enti americani GISS e NCDC non fanno una piega: gli anni duemila sono pur sempre i più caldi da quando esistono le misurazioni strumentali e le variazioni nel breve periodo non vanno ad incidere su quello che è il trend in atto nel lungo periodo.

Addirittura, il sempre più convinto sostenitore della teoria del riscaldamento globale antropico, il climatologo James Hansen del GISS, pubblica una nuova simulazione video ad effetto, rincarando semmai la dose su un mondo sempre più surriscaldato.

Più cauto il Met office, servizio meteorologico inglese, che si affretta invece ad emanare un interessante documento in cui si rivedono decisamente al ribasso le proiezioni di crescita delle temperature globali per i prossimi dieci anni.

Tutto quindi induce a pensare che la questione, naturalmente, sia come sempre molto più complessa di come appare.

Ecco perchè in climatologia, così come in altre discipline scientifiche evolutive, occorre essere sempre molto cauti nello stabilire dogmi, nel creare paradigmi. La ipercomplessità del sistema climatico è tale infatti, che basta un niente a mettere in crisi le conoscenze e le teorie dominanti: un piccolo dettaglio concettuale, un errore misurativo latente, l’intervento di una nuova interconnessione tra gli elementi del sistema non ancora considerata, lo stabilirsi di processi di feedback imprevisti o sconosciuti, o semplicemente come abbiamo visto l’emergere di nuovi dati inattesi.
 

D’altra parte lo sappiamo, il mondo è imprevedibile, indeterminato, caotico, instabile e non lineare, e l’apparentemente insignificante farfalla di Lorenz è sempre lì, pronta a battere le ali in Amazzonia scatenando come conseguenza di un effetto a cascata, una tempesta nel Texas.

Autore : Fabio Vomiero