Da giugno 2024 è disponibile sul mercato il nuovo libro del giornalista Nicola Porro intitolato La grande bugia verde (Liberilibri). Si tratta di un pamphlet critico sul cambiamento climatico che ospita una decina di articoli divulgativi di ricercatori e professori universitari. La tesi generale del libro è che non esista un vero consenso scientifico sulla natura antropica della crisi climatica in corso e che, anche se esistesse, sarebbe un consenso infondato: i modelli climatici adottati dall’Intergovernmental Panel on Climate Change (IPCC) e dai maggiori centri di ricerca che lavorano sull’argomento sarebbero molto limitati e darebbero luogo a previsioni sbagliate.
Molte delle tesi principali di Porro non reggono alla prova dei fatti. Il libro in buona parte ricicla argomentazioni scettiche sul clima vecchie di anni, talvolta decenni, sforzandosi di adattarle ai tempi. Quasi tutte le tesi riportate da Porro circolano da tempo nel dibattito internazionale e sono già state smentite numerose volte da scienziati e fact-checker indipendenti. Tra queste vi è l’idea che i dati satellitari contraddicono le previsioni dei modelli climatici, che i ghiacciai non si stanno ritirando (ma anzi crescono a vista d’occhio!), che le rilevazioni di temperatura della superficie terrestre sono falsate dalla vicinanza di aree urbane, e altre ancora.
Il pamphlet di Porro è diviso in tre parti che corrispondono a tre diversi nuclei tematici. La prima parte è dedicata ai modelli climatici e alla loro presunta limitatezza. La seconda intende dimostrare che non c’è correlazione tra aumento di anidride carbonica (CO2) nell’atmosfera e occorrenza di fenomeni allarmanti, come la fusione dei ghiacciai e l’aumento di eventi climatici estremi. La terza, infine, è una critica delle politiche di transizione ecologica.
Non è possibile, per ragioni di spazio, riportare qui tutte le imprecisioni del libro di Porro. Ci limitiamo quindi a una selezione di alcune tesi problematiche contenute nel pamphlet. Non tutte le affermazioni riportate ne La grande bugia verde sono false. Ma le informazioni corrette si perdono in un calderone di errori, omissioni, critiche poco solide.
I numeri del consenso scientifico
Nell’introduzione a La grande bugia verde, Porro critica l’idea che esista un consenso ampio e misurabile tra gli studiosi del clima sull’origine antropica del cambiamento climatico (che indichiamo da ora in poi con la sigla “OACC”). In particolare il giornalista nega che questo consenso sia del 97 per cento sul totale della comunità scientifica. Quella del 97 per cento è una cifra che ritorna spesso nelle discussioni pubbliche sul cambiamento climatico e, secondo l’autore, viene usata «come una tagliola per troncare sul nascere ogni dibattito sul clima» (p. 25). Ma da dove viene questa percentuale? Secondo Porro da un unico lavoro:
Questa statistica [il 97%] così impattante nella comunicazione di tutto il mondo sul cambiamento climatico non è frutto di una qualche approfonditissima ricerca di un premio Nobel ma, tenetevi forte, nasce da un progetto di dottorato. Sì, lo studio che presumibilmente mostra il consenso degli scienziati sul clima al 97% è stato condotto nel 2009 da una studentessa, Maggie Zimmerman, e dal suo docente, Peter Doran (p. 25).
Porro poi prosegue a criticare il metodo usato nello studio in questione. Fa notare come dei 10.257 esperti a cui è stato richiesto di partecipare al sondaggio «hanno risposto in 3.146, quindi 7 esperti su 10 non hanno partecipato, si sono tirati fuori». Per Porro si tratterebbe di un campione non rappresentativo della popolazione di interesse (gli scienziati). Inoltre, il giornalista ritiene che le domande del sondaggio di Zimmerman e Doran non siano soddisfacenti. Ecco le due domande dello studio per come sono state riportate nel libro di Porro:
Rispetto ai livelli precedenti all’Ottocento, pensi che le temperature globali medie siano generalmente aumentate, diminuite o siano rimaste relativamente costanti?
Pensi che l’attività umana sia un fattore che contribuisce al cambiamento delle temperature globali medie? (p. 26)
Subito dopo, Porro procede a spiegare che la prima domanda è troppo «ampia e ambivalente», mentre la seconda è vaga, perché non specifica quanto le attività dell’uomo abbiamo effettivamente contribuito al cambiamento delle temperature. Ma ci sono diversi problemi nella ricostruzione del giornalista.
Per prima cosa, non si può decidere a colpo d’occhio se un sondaggio è stato compilato da un numero sufficiente di persone oppure no. Ci sono stime sperimentali che indicano, in base al formato e alla modalità di somministrazione del sondaggio, se il numero di partecipanti effettivi raggiunto dagli autori di uno studio è sufficiente e significativo a fini statistici. E questo è proprio il caso del sondaggio di Zimmerman e Doran. Come scrivono infatti gli stessi autori: «il tasso di risposte del sondaggio è stato del 30.7%. Si tratta di un tasso tipico per i sondaggi fatti via Web» (p. 22). In altre parole, stando a come vanno di solito i sondaggi fatti via Web, un tasso di risposte al 30 per cento rientra nella norma ed è accettabile.
In secondo luogo, la traduzione in italiano, fatta da Porro, delle domande del sondaggio non è fedele all’originale. Di seguito la domanda (2) nello studio di Zimmerman e Doran (p. 22):
Do you think human activity is a significant contributing factor in changing mean global temperatures?
Nella traduzione di Porro vista sopra il “significant” viene omesso, perciò nella domanda resa in italiano si crea quella vaghezza denunciata dal giornalista, ma che è dovuta unicamente a un suo errore (volontario?) di traduzione. In realtà, ai partecipanti al sondaggio è stato quindi chiesto se l’impatto dell’attività umana sulle temperature è stato significativo, e la stragrande maggioranza ha risposto di sì (80 per cento). Non solo: Zimmerman e Doran spiegano che al crescere della competenza del partecipante su questioni climatiche, cresce anche la probabilità di una risposta affermativa. Perciò, se si isolano gli specialisti del clima fra tutti i partecipanti al sondaggio si troverà che il 97,4 per cento di questi risponde “sì” alla seconda domanda. Da qui la famosa percentuale del 97 per cento.
È importante ricordare che questo numero non viene solo dalla ricerca di Zimmerman e Doran, come sembra suggerire Porro. Al loro studio del 2009 ne sono seguiti altri che hanno di fatto validato quella percentuale, o che hanno comunque ottenuto risultati simili. Ad esempio uno studio di John Cook e colleghi del 2013 ha revisionato 11.944 abstract di articoli scientifici apparsi su riviste dal 1991 al 2011 sul tema del cambiamento climatico e del surriscaldamento globale. Tra questi, circa quattromila prendono posizione su OACC, e il 97,1 per cento di questi sostiene esplicitamente che il cambiamento climatico sia di origine antropica. Cook ha poi rafforzato questo risultato con un altro studio del 2016, che arriva sempre alla stessa conclusione (e alla stessa percentuale). Per altri studi indipendenti, con risultati analoghi, si può consultare quello di William Anderegg e colleghi del 2010 e un altro di Neil Stenhouse e colleghi del 2014. L’esito è sempre lo stesso: il 97 per cento del campione, o giù di lì, è d’accordo su OACC.
Insomma, lungi dall’essere una cifra campata per aria, quella del 97 per cento è una percentuale che trova conferme in diversi studi indipendenti. Ma è bene non perdere di vista il nocciolo della questione. Non è infatti essenziale che quel numero sia esatto. Magari è l’85 per cento della comunità scientifica a condividere un consenso su OACC. O magari è quasi il 100 per cento, come sostengono altri studi del 2019 e del 2021. Il punto vero è che un consenso esiste, è in parte misurabile e soprattutto è molto esteso, a prescindere dalla stima che si intende considerare. La stragrande maggioranza degli scienziati, e soprattutto degli scienziati competenti sul clima, non ha dubbi: è in corso un cambiamento climatico ed è di origine antropica.
Modelli climatici e dati satellitari
La prima parte de La grande bugia verde è dedicata ai modelli climatici globali (global climate models, GCM). I GCM sono rappresentazioni matematiche molto complesse del modo in cui le componenti più importanti del sistema climatico (atmosfera, superficie terrestre, oceani, ghiacciai marini) interagiscono fra di loro. Nonostante un fisiologico livello di disaccordo tra climatologi sulla corretta impostazione dei GCM, questi modelli si basano su principi della fisica climatica molto rigorosi, e spesso forniscono previsioni sul clima futuro – o ricostruzioni del clima passato – che sono in accordo con le osservazioni empiriche. Tuttavia, Porro sostiene che i GCM sono difettosi, e quindi inaffidabili:
Come vedremo nei saggi che seguono, tutta l’impalcatura del riscaldamento climatico per ragioni derivanti dall’uomo poggia su modelli che, come tutti i modelli, hanno dei difetti congeniti. E che vengono del tutto ignorati. (p. 53)
I saggi cui fa riferimento Porro sono quelli di Nicola Scafetta, Adriano Mazzarella e Uberto Crescenti. Di seguito ci soffermiamo sugli estratti di alcuni di quei saggi che dovrebbero supportare la tesi di Porro sulla difettosità dei GCM.
Nel saggio “I modelli previsionali sul clima sono imprecisi (e contraddittori)”, Nicola Scafetta scrive che tra le criticità dei GCM vi è il fatto che «le misurazioni satellitari delle temperature (probabilmente più precise e ineccepibili) non confermano le previsioni elaborate da quasi tutti i modellisti [dei GCM, NdR]» (pp. 59-60). Più nello specifico, l’autore afferma che i GCM falliscono nel riprodurre correttamente il riscaldamento della troposfera, cioè della parte più bassa dell’atmosfera. Di seguito il passaggio completo di Scafetta:
Infatti, come testimoniato dall’IPCC, i modelli GCM riproducono un forte riscaldamento dell’alta troposfera, a circa 10 km di quota, dovuto al fatto che secondo la teoria del riscaldamento globale a causa dei gas serra è la troposfera che si riscalda per prima e poi l’aria riscaldata causa a sua volta anche un riscaldamento della superficie [terrestre]. Tuttavia, i dati satellitari mostrano un riscaldamento troposferico notevolmente inferiore a quello predetto dai modelli previsionali. (p. 61)
Scafetta si sta qui riferendo a un dibattito, interno alla comunità scientifica, sulla discrepanza tra dati satellitari sulla troposfera, in particolare di quella sopra i Tropici, e previsioni dei GCM. Il problema, però, è che il dibattito è stato risolto da tempo e questa divergenza fra dati satellitari e previsione dei modelli non esiste più. Vediamo in breve di cosa si tratta.
Alla fine degli anni ‘70, la NASA ha iniziato a mandare in orbita una serie di satelliti meteorologici allo scopo di misurare la temperatura dell'aria a diverse altitudini. Sebbene i satelliti fossero stati originariamente progettati per studiare il tempo atmosferico, e non il clima (qui la differenza), i dati raccolti per un periodo sufficientemente lungo possono offrire prove di un riscaldamento globale. Due diversi gruppi di ricerca hanno analizzato i dati satellitari: uno presso l’Università dell'Alabama a Huntsville (UAH) e uno presso la società privata Remote Sensing Systems (RSS). Fino ai primi anni 2000, le rilevazioni dei due team divergevano. Quelle di RSS erano in linea con i modelli climatici. Secondo i loro dati, la parte più bassa dell’atmosfera, la troposfera, si stava progressivamente scaldando. Mentre le conclusioni di UAH erano opposte: la troposfera non si stava scaldando, anzi sembrava addirittura mostrare segni di raffreddamento.
Come è possibile avere conclusioni opposte partendo da dei dati, quelli satellitari, identici? La risposta breve è che ricavare la temperatura della troposfera da questi dati non è affatto semplice, e spesso le misurazioni sono viziate da errori sistematici. I satelliti della NASA infatti non misurano direttamente la temperatura dell’aria, ma rilevano la radiazione a microonde emessa dalle molecole di ossigeno a vari livelli nell’atmosfera. La quantità di radiazione a microonde è direttamente proporzionale alla temperatura dell’aria, quindi, in teoria, convertire le misurazioni delle microonde in una lettura della temperatura dovrebbe essere abbastanza semplice. In pratica, però, ci sono numerose fonti di disturbo che devono essere filtrate per ottenere una lettura chiara della temperatura. In Climate Change: Examining the Facts (2016), Daniel Bedford e John Cook spiegano bene a cosa sono dovute queste interferenze.
In primo luogo, gli scienziati che cercano di misurare la temperatura della troposfera devono tenere conto degli effetti dello strato di atmosfera che si interpone fra il satellite, che fa le misurazioni, e la troposfera stessa. Questo strato intermedio, chiamato “stratosfera”, contiene anch’esso molecole di ossigeno che emettono microonde, ma a causa dell’effetto serra la stratosfera si sta paradossalmente raffreddando. Infatti, poiché i gas serra intrappolano il calore nella troposfera, impediscono a questo di tornare indietro e scaldare la stratosfera. Per misurare correttamente la temperatura della troposfera è necessario quindi filtrare gli effetti dello strato intermedio, più freddo. Come spiegano Bedford e Cook, è un po’ come cercare di leggere un cartello stradale quando il parabrezza dell’auto è appannato o ghiacciato: si può distinguere più o meno che cosa dice il cartello, ma la nebbia o il ghiaccio sul parabrezza rendono più difficile capire cosa c’è scritto. Pulire il parabrezza, o filtrare gli effetti dell’atmosfera tra il satellite e la troposfera, rende più facile la lettura.
Ma c’è anche un altro fatto che gli scienziati devono prendere in considerazione: sebbene gradualmente, le orbite dei satelliti si spostano nel tempo. Ci sono diverse ragioni per questo fenomeno, ma una delle più note è una leggera resistenza dovuta all’attrito con la parte superiore dell’atmosfera. Tale attrito altera l’orbita, causando una visione leggermente diversa dell’atmosfera da un giorno all’altro. Questi cambiamenti orbitali devono essere presi in considerazione per ottenere una lettura chiara e accurata delle temperature per i vari livelli dell’atmosfera.
Fino ai primi anni 2000, i dati di UAH erano in parte falsati da questi difetti di misurazione, e in particolare dalle alterazioni orbitali. In seguito, grazie ai lavori di altri team indipendenti (tra cui Mears & Wentz 2005 e Santer e colleghi 2008), gli scienziati sono riusciti a far convergere le misurazioni UAH con quelle di RSS. Di seguito un grafico aggiornato sulla convergenza fra le rilevazioni di temperatura della bassa troposfera di UAH e RSS.
Come spiega il sito del Met Office, il servizio meteorologico nazionale del Regno Unito, il grafico mostra che le temperature medie globali nella troposfera sono complessivamente aumentate dal 1980. Come per le temperature della superficie terrestre, ci sono picchi di breve durata associati agli eventi di El Niño e periodi di raffreddamento associati a La Niña e occasionali eruzioni vulcaniche (qui per capire cosa sono El Niño e La Niña). Queste misurazioni satellitari confermano le previsioni dei GCM, che teorizzano un progressivo riscaldamento della troposfera.
Non solo: i dati satellitari indicano anche un progressivo raffreddamento della stratosfera, anch’esso predetto dai GCM, come spiegato prima. Di seguito la variazione annuale per la stratosfera con scale leggermente diverse sull’asse y.
Le temperature globali della stratosfera sono complessivamente diminuite, anche se si è verificato un cambiamento abbastanza modesto nelle temperature osservate dalla fine degli anni ‘90. Sovrapposti a questi cambiamenti a lungo termine, ci sono picchi di riscaldamento marcati associati alle grandi eruzioni vulcaniche di El Chichón nel 1982 e del Monte Pinatubo nel 1991. In conclusione, non è vero ciò che riporta Scafetta, secondo cui le misurazioni satellitari delle temperature non confermano le previsioni elaborate dai modelli.
Le misurazioni di temperatura in zone urbane
Un’altra osservazione di Scafetta riguarda le misurazioni di temperatura della superficie terrestre. Secondo l’autore, queste misurazioni spesso esagerano l’entità del riscaldamento, perché «le temperature raccolte dai sistemi a terra, le stazioni di rilevamento, sono influenzate dal loro posizionamento» (p. 65). La tesi è che le rilevazioni di temperatura fatte da queste stazioni meteorologiche siano distorte verso l’alto dall’urbanizzazione:
Se ho una stazione di rilevamento vicino a dei condizionatori esterni di un edificio, queste temperature saranno sicuramente più elevate rispetto alla realtà. L’asfalto, le costruzioni, gli edifici possono alterare le temperature locali raccolte. (p. 65)
Si tratta in realtà di un’osservazione legittima, sollevata molte volte negli anni, che cattura un fenomeno reale chiamato “urban heat island effect”: l’aumento di calore dovuto alla presenza di zone urbane. Ma ci sono ragioni per pensare che l’urban heat island effect abbia tutto sommato un peso marginale.
Innanzitutto, gli scienziati che fanno rilevamenti di temperatura della superficie terrestre sono consapevoli di questo effetto e aggiustano le misurazioni di conseguenza. Ad esempio il team di Berkeley Earth, un’organizzazione no profit indipendente con sede in California, cerca di utilizzare per i suoi rilevamenti solo le stazioni meteorologiche rurali, e cioè quelle lontane dai centri urbani. E anche loro arrivano alla stessa conclusione degli altri team: la temperatura della superficie terrestre si sta progressivamente scaldando.
Come nota poi Eric Winsberg (2018, p. 11), ci sono evidenze che indicano come l’urban heat island effect non distorca in maniera statisticamente significativa le misurazioni urbane. Il terzo report di valutazione dell’IPCC (2001), ad esempio, si è espresso così sulla questione:
Tuttavia, nelle aree terrestri dell'emisfero settentrionale, dove le isole di calore urbane [urban heat island] sono più evidenti, sia le tendenze della temperatura della bassa troposfera che quelle della temperatura dell'aria superficiale non mostrano differenze significative. In effetti, le temperature della bassa troposfera si riscaldano a un ritmo leggermente maggiore in Nord America (circa 0,28°C/decennio utilizzando dati satellitari) rispetto alle temperature superficiali (0,27°C/decennio), sebbene, ancora una volta, la differenza non sia statisticamente significativa. (p. 106)
Se l’urban heat island effect distorce davvero i rilevamenti di temperatura verso l’alto, è naturale aspettarsi che questa distorsione sia forte nelle zone del pianeta dove c’è maggiore concentrazione di aree urbane. Ma così non è: in quelle zone c’è una differenza di temperatura talmente piccola da non avere alcuna rilevanza statistica.
Il contributo del Sole
In un altro saggio del libro (“I modelli climatici non calcolano variabili fondamentali”), Adriano Mazzarella sostiene che i GCM non prendono in considerazione altre variabili in grado di influenzare il clima. Tra queste vi è la radiazione solare:
La teoria del cambiamento climatico antropico è affascinante, ma non può cancellare i cicli solari e far dipendere tutto da una singola variabile come la CO2. [...] Le simulazioni effettuate dall’IPCC con modelli climatici globali utilizzano valori di irradianza solare con una bassa variabilità multidecennale. (pp. 74-75)
Che il Sole sia una delle variabili più importanti del clima è fuori discussione. Anche solo piccole variazioni nell’orbita della Terra attorno al Sole, mutamenti nell’atmosfera terrestre che risultano in un grado minore o maggiore di riflessione dei raggi solari, o cambiamenti nel numero di macchie solari possono influenzare il clima del nostro pianeta.
Ma è da escludere che l’anomalo innalzamento delle temperature registrato negli ultimi decenni sia opera del Sole. Il sito della NASA lo spiega molto bene con un grafico.
La linea gialla rappresenta la media mobile a 11 anni della temperatura superficiale globale. La linea è in un trend crescente molto marcato, a indicare che il pianeta si sta surriscaldando. La linea blu, invece, rappresenta la media mobile a 11 anni della radiazione solare che la Terra riceve dal 1880 al 2020. Le medie mobili sono comode perché smussano le fluttuazioni anno per anno e in tal modo ci permettono di apprezzare meglio le tendenze del fenomeno che vogliamo osservare. In questo caso, si vede chiaramente che mentre le temperature superficiali globali crescono, non c’è un corrispettivo aumento della radiazione solare. Al contrario, ci troviamo in una fase di attività solare declinante. Perciò il Sole non può essere il principale traino del riscaldamento globale.
Oltretutto, se il Sole fosse davvero la causa del riscaldamento in corso, ci dovremmo aspettare un’atmosfera più calda a tutte le latitudini, non solo a livello della troposfera. Ma come abbiamo visto sopra, parlando di dati satellitari, è noto che la stratosfera si sta in realtà raffreddando.
La condizione dei ghiacciai: Groenlandia e Antartide
Nella seconda parte de La grande bugia verde, Porro ospita un saggio di Roberto Graziano intitolato “I ghiacciai si stanno sciogliendo?”. Per Graziano la risposta è negativa: negli ultimi decenni i ghiacciai del nostro pianeta, e in particolare quelli della Groenlandia e dell’Antartide, avrebbero mantenuto una massa stabile, che in qualche caso sarebbe addirittura cresciuta. Ma prima di analizzare nel merito le tesi di Graziano è utile porsi alcune domande: come si stabilisce se un ghiacciaio si sta progressivamente fondendo? E cosa ci dicono i principali enti internazionali di monitoraggio sulla condizione attuale dei ghiacciai? Partiamo da alcune considerazioni dei già citati Bedford e Cook (2016).
I ghiacciai si formano in zone dove avvengono nevicate frequenti e in grado di accumularsi, senza sciogliersi. Quando la neve si accumula anno dopo anno, il peso dei fiocchi in alto comprime gradualmente quelli in basso. La compressione espelle l’aria, rendendola più densa nel tempo, così che la neve in basso viene infine trasformata in ghiaccio. Di conseguenza, i ghiacciai si trovano solo dove cade più neve durante l’inverno di quanta ne viene sciolta in estate, perché solo allora ci sarà un surplus di neve da poter accumulare anno dopo anno. Tutto il contrario se in estate si sciolgono più neve e ghiaccio di quanta neve cade in inverno. Se questo stato persiste per un periodo sufficientemente lungo, il ghiacciaio si ridurrà progressivamente.
Le prove disponibili ci dicono che la maggior parte dei ghiacciai e delle calotte glaciali del mondo si trovano nel secondo stato, e stanno dunque perdendo massa. Ma come facciamo a saperlo? Il dubbio in effetti è legittimo, dal momento che secondo alcune stime ci sarebbero quasi 200mila ghiacciai sparsi per il mondo. Come si può monitorarli tutti? Gli scienziati che studiano il clima hanno adottato diverse strategie per ovviare al problema. Il World Glacier Monitoring Service (WGMS), ad esempio, coordina un programma internazionale per monitorare una quarantina di ghiacciai di riferimento situati in diverse catene montuose in tutto il mondo. Si tratta di ghiacciai che fungono da “rappresentanti” di tutti gli altri nella stessa zona, perché presentano caratteristiche simili sia in termini di composizione che di esposizione a variabili climatiche (trovandosi nello stesso luogo). Questi ghiacciai di riferimento hanno misurazioni sul campo continue delle loro variazioni di massa che risalgono al 1980 o addirittura prima. Selezionare solo dei ghiacciai di riferimento permette, con una certa approssimazione, di condurre monitoraggi globali senza controllare ogni singolo ghiacciaio del pianeta. Di seguito un grafico aggiornato del WGMS sulle variazioni cumulative di massa globale dei ghiacciai di riferimento dal 1950 ad oggi.
Sull’asse y sono riportate le variazioni della massa ghiacciata misurate in tonnellate per metro quadro. Lo zero (variazione nulla) è stato fissato all’anno 1992. I valori delle variazioni sono stati ricavati come media aritmetica delle medie regionali, cioè delle regioni in cui si trovano i ghiacciai di riferimento (in questo caso 19 regioni). Come si può notare, la perdita di massa dei ghiacciai di riferimento è evidente e accelera col passare degli anni.
Ma le misurazioni locali dei ghiacciai di riferimento non sono l’unico strumento in mano agli scienziati. Le rilevazioni sul campo sono supportate anche da osservazioni satellitari che ricostruiscono il campo gravitazionale terrestre: dai cambiamenti nel campo gravitazionale si possono infatti desumere cambiamenti di massa. Nel report speciale dell’IPCC sugli oceani e la criosfera del 2019, dati satellitari di questo tipo sono stati incrociati con rilevazioni locali per stabilire la condizione dei ghiacciai della Terra. Il risultato, nel commento del WGMS, è sconfortante:
Questa nuova valutazione [lo speciale dell’IPCC] mostra che i soli ghiacciai hanno perso più di 9.000 miliardi di tonnellate di ghiaccio tra il 1961/62 e il 2015/16, facendo aumentare i livelli dell'acqua di 27 millimetri. Questa perdita di massa glaciale a livello globale corrisponde a un cubo di ghiaccio con l'area della Germania e uno spessore di 30 metri. I maggiori contributori sono stati i ghiacciai in Alaska, seguiti dai campi di ghiaccio in scioglimento in Patagonia e dai ghiacciai nelle regioni artiche. (sito WGMS)
Ci sono quindi evidenze sovrabbondanti di un progressivo scioglimento dei ghiacciai; scioglimento che il WGMS, così come l’IPCC, ascrive perlopiù al cambiamento climatico. Ma allora come mai si sostiene ancora che la massa dei ghiacciai è stabile o addirittura in crescita? Una strategia molto diffusa per negare lo scioglimento dei ghiacciai è enfatizzare la variazione di massa glaciale di singoli anni, trascurando l’andamento di lungo periodo, che invece è l’unica cosa che conta. Vediamone un caso.
In apertura del suo saggio (p. 133), Roberto Graziano riporta un dato: la superficie della calotta glaciale della Groenlandia avrebbe guadagnato circa 600 miliardi di tonnellate di neve dal 1° settembre 2022. Graziano cita “Polar Portal 2024” come fonte di questo dato, ma se si controlla la sitografia a fine saggio non c’è un URL specifico da consultare. C’è solo un rinvio generico al sito di Polar Portal, che però non aiuta a trovare il dato sui 600 miliardi di tonnellate di neve. Abbiamo quindi un primo problema: qual è il contesto di questo dato? Polar Portal è un progetto di monitoraggio della calotta artica finanziato dal governo della Danimarca e gestito dal Danish Meteorological Institute, dalla Technical University of Denmark e dal Geological Survey of Denmark and Greenland (un ente di ricerca indipendente). La calotta artica comprende anche i ghiacciai della Groenlandia, perciò sul sito di Polar Portal sono presenti anche i dati di monitoraggio dell’isola. Polar Portal utilizza i dati satellitari di GRACE, un progetto lanciato dalla NASA nel 2003 che usa proprio quei sistemi di ricostruzione del campo gravitazionale terrestre che abbiamo menzionato poco fa. Polar Portal riporta quindi le variazioni della massa glaciale superficiale della Groenlandia dal 2003 ad oggi. Sono disponibili monitoraggi anno per anno, mese per mese e addirittura giorno per giorno.
L’ultimo report completo disponibile si riferisce al biennio 2022/2023 ed è stato pubblicato nel gennaio 2024, l’anno che Graziano cita come riferimento nel testo. Possiamo quindi ipotizzare che l’autore abbia tratto il dato sulla Groenlandia da quel report. Ecco il grafico del report da cui Graziano ha probabilmente preso il dato sui 600 miliardi di tonnellate di neve in Groenlandia.
Sull’asse y viene riportata la massa superficiale della calotta glaciale della Groenlandia, cioè la parte di ghiacciaio più esterna a contatto con l’atmosfera, espressa in miliardi di tonnellate (gigatonnellate). Come ogni inverno, la massa del ghiacciaio cresce a causa delle precipitazioni nevose, per poi sciogliersi in estate. La linea blu si riferisce all’anno 2022/23. Come è naturale, questa linea cresce progressivamente da settembre 2022 con l’arrivo del freddo, per poi iniziare a scendere con l’approssimarsi dell’estate, verso giugno 2023. La linea trova il suo picco a circa 600 miliardi di tonnellate, come indicato dalla freccia verde sopra il grafico. E poiché la linea grigia indica la media 1981-2010, Graziano può concludere che l’anno 2022/2023 ha performato meglio di quella media. Ma è sufficiente questo dato per scongiurare uno scioglimento della calotta glaciale della Groenlandia?
Sebbene 600 miliardi di tonnellate sembri una cifra molto alta, è un’illusione pensare che questo dato, da solo, possa dimostrare un arresto del fenomeno di scioglimento. Infatti, per stabilire se un ghiacciaio si sta sciogliendo non si può considerare la variazione della massa glaciale di un singolo anno, ma va studiato l’andamento complessivo sul lungo periodo. Come segnalato nello stesso report di Polar Portal (p. 3), il biennio 2022/2023 è stato particolarmente fortunato, perché la stagione di scioglimento dei ghiacciai è iniziata il 29 giugno, e cioè 16 giorni più tardi rispetto alla norma misurata nel periodo 1981-2021. Ma l’andamento di lungo periodo della massa superficiale della Groenlandia non lascia dubbi: «sin dagli anni ‘90, il bilancio di massa superficiale [della Groenlandia, ndr] è generalmente in diminuzione» (Polar Portal 2024, p. 3).
Non è quindi nemmeno vero quello che Graziano sostiene in altri passaggi del suo saggio, quando scrive che l’arretramento dei ghiacciai in Groenlandia non è avvenuto in superficie, ma solo negli strati di ghiaccio posti più in profondità e a contatto con l’acqua (p. 135). Lo scioglimento in superficie c’è stato, ed è lo stesso report di Polar Portal a segnalarlo. Purtroppo, però, Graziano non lo menziona in bibliografia, impedendo ai lettori di poter verificare da soli la correttezza delle sue affermazioni. Polar Portal presenta poi altri dati sul proprio sito che confermano la perdita progressiva di massa glaciale della Groenlandia, sia in superficie che nelle zone basali. Se invece si vuole consultare una fonte più accessibile al grande pubblico, il quotidiano britannico Guardian ha pubblicato un articolo divulgativo sulla situazione della Groenlandia che arriva alle stesse conclusioni: la Groenlandia, da decenni, perde progressivamente massa glaciale.
Un’altra strategia per negare lo scioglimento dei ghiacciai è spostare l’attenzione su alcuni aspetti del cambiamento climatico che sembrano controintuitivi, ma che una volta spiegati risultano perfettamente plausibili. Ad esempio, un fatto che gli scienziati del clima hanno notato da tempo, e che nessuno nasconde, è che l’Antartide negli ultimi anni ha paradossalmente guadagnato ghiaccio marino, nonostante l’anomalo aumento delle temperature. Graziano cita prontamente questo dato come prova dell’inesistenza del cambiamento climatico di origine antropica (p. 144), e afferma che le banchise antartiche si sono espanse tra il 2009 e il 2019 (ricordiamo che le banchise sono masse ghiacciate di acqua marina, e quindi non si sta parlando del ghiaccio della calotta antartica).
Ma allo stesso tempo è noto che dagli anni ‘60 in poi l’oceano antartico si è riscaldato e sta continuando a farlo. Questo vuol dire che la temperatura superficiale attorno al continente è aumentata. Ma se le acque dell’Antartico sono più calde come è possibile che le sue banchise si siano espanse? Ecco l’aspetto controintuitivo.
La soluzione a questo apparente paradosso sta nei meccanismi di formazione del ghiaccio marino e nei cambiamenti nella stratosfera dell’Antartide. Raffreddare la superficie del mare a temperature in cui il congelamento può avvenire richiede che l’oceano perda calore a causa dell’aria molto fredda sopra di esso. Il trasferimento di calore dagli oceani all’atmosfera è molto più efficace quando la superficie del mare è direttamente esposta all’atmosfera. Quindi, quando il ghiaccio inizia a formarsi esso inibisce la propria crescita, perché lo strato di ghiaccio che si è appena formato sopra l’acqua inizia a bloccare il trasferimento di calore. Di conseguenza, il ghiaccio marino cresce più lentamente man mano che diventa più spesso. Questo significa che una crescita rapida del ghiaccio marino può avvenire solo se qualcosa sposta il ghiaccio lontano da dove si è formato inizialmente, esponendo l’acqua sottostante di nuovo all’aria fredda.
Una delle forze più potenti che spostano il ghiaccio marino in questo modo è il vento. Ogni inverno, i forti venti che circolano attorno all’Antartide trasformano l’oceano antartico in una “fabbrica” di ghiaccio marino. Il ghiaccio si forma alle latitudini più fredde e più elevate vicino al continente antartico; poi i venti spingono il ghiaccio verso nord, a latitudini più basse, esponendo nuovamente l’acqua all’atmosfera e permettendo la formazione di nuovo ghiaccio. Abbiamo quindi il primo tassello del puzzle. Non è solo la temperatura superficiale a determinare la velocità di congelamento dell’acqua: anche il vento ha un ruolo fondamentale. D’altronde, anche se l’oceano antartico si è complessivamente riscaldato da metà secolo scorso, questo non basta a impedire la formazione di nuovo ghiaccio. Si tratta pur sempre dell’Antartide e “più caldo” non significa “caldo” in senso assoluto.
Il secondo tassello del puzzle sta nell’impatto del cambiamento climatico sulla forza dei venti antartici. Infatti, i venti attorno all'Antartide sono diventati più forti negli ultimi anni (Zhang 2014), e una causa probabile di tutto ciò – assieme all’assottigliamento dello strato di ozono sopra l’Antartide – è il raffreddamento della stratosfera. Come abbiamo già detto, questo raffreddamento è dovuto all’azione dei gas serra che intrappolano il calore nella troposfera e di conseguenza impediscono allo strato superiore di riscaldarsi, raffreddandolo. Ma diventando più fredda, e quindi più densa, l’aria della stratosfera viene spinta più facilmente verso il basso dalla gravità: ecco allora che i venti che arrivano sopra l’Antartide sono più forti. Ma ora sappiamo che da venti più forti possiamo aspettarci la formazione di più ghiaccio: ecco risolto il paradosso. Il cambiamento climatico ha molte facce, e l’aumento di temperatura in superficie o nella troposfera è solo una di queste. Citare la crescita di estensione delle banchise antartiche, come fa Graziano, non è quindi una prova dell’inesistenza del cambiamento climatico di origine antropica; semmai è vero il contrario: è un’ulteriore prova della sua esistenza.
Per finire, è utile ricordare che la modesta crescita delle banchise in Antartide non compensa in alcun modo l’enorme e costante scioglimento di ghiaccio nel resto del pianeta, come mostrano i dati di WGMS e IPCC riportati a inizio sezione. Inoltre, anche se le banchise si sono espanse, la calotta antartica nel complesso ha perso massa negli ultimi decenni. Infatti secondo le stime della NASA, ricavate dalle osservazioni dei satelliti GRACE, la calotta polare dell’Antartide perde in media 150 miliardi di tonnellate di massa glaciale ogni anno dal 2002. E la causa, ancora una volta, è il cambiamento climatico di origine antropica.
Maurizio Mascitti è dottorando in filosofia all’università Vita-Salute San Raffaele di Milano. Nel suo progetto di ricerca si occupa di fake news, e in particolare di quelle sul cambiamento climatico. Coltiva la passione per la scrittura giornalistica collaborando con testate e blog online, tra cui il Corriere della Sera e Valigia Blu.
Memini climatici
La divulgazione della scienza ha molti volti e in questa seconda stagione di A Fuoco vogliamo presentarne uno inedito: i meme. Su cosa sia esattamente un meme si è detto e scritto tanto, ma il modo migliore per entrare nel vivo del concetto è probabilmente quello di mostrarvene uno.
Da oggi e per le settimane a venire vogliamo chiudere così i nostri appuntamenti settimanali, con un contenuto che parli della scienza climatica, delle storture del nostro dibattito pubblico, dei tic del negazionismo sul tema. Per farlo ci servirà anche il vostro aiuto: inviate le vostre produzioni all’indirizzo afuoco@substack.com, saremo felici di pubblicare le migliori. Vi aspettiamo!
Purtroppo molti falsari del clima
Certa parte del giornalismo, della politica e della società vorrà sempre far finta di avere la propria verità in tasca per difendere gli interessi della parte che rappresenta.
Qualcuno, che non ha voglia o la capacità di approfondire, ci crede pure. E il gioco è fatto.