LE CRISI AMBIENTALI GLOBALI
Alberto Di Fazio
Osservatorio Astronomico di Roma e
Global Dynamics Institute
1. INTRODUZIONE
Può essere interessante iniziare subito con una citazione dal libro di Meadows et al. Beyond the Limits
(Earthscan, 1992), di cui parlerò più avanti (pag. 25), dove viene presentata, nello “Scenario 1”, una simulazione del mondo nel caso in cui nulla viene fatto, da parte di governanti e potere industriale, per porre rimedio a quelle che vengono ora unanimamente riconosciute come le “crisi ambientali globali”; è il cosiddetto scenario “Business as usual” (BAU).
“In questo scenario la società mondiale procede per il suo cammino storico, il più a lungo possibile, senza fare alcun cambiamento politico importante. La tecnologia continua ad avanzare nei settori dell’agricoltura, dell’industria e dei servizi sociali secondo gli schemi prestabiliti. Non viene fatto nessuno sforzo particolare per combattere l’inquinamento o per preservare le risorse naturali. Il modello di mondo, nella nostra simulazione, cerca di trascinare la popolazione mondiale attraverso la transizione demografica e di inserirla in un’economia industriale e poi post-industriale. Questo modello si fa carico della sanità pubblica e del controllo delle nascite, via via che cresce il settore dei servizi; aumenta gl’investimenti nell’agricoltura ed ottiene raccolti maggiori, via via che cresce il settore dell’agricoltura; emette più sostanze inquinanti ed esige sempre più risorse non rinnovabili, via via che cresce il settore industriale.
“La popolazione mondiale in questo scenario cresce da 1.6 miliardi nell’anno 1900 a più di 5 miliardi nell’anno 1990 ed a più di 6 miliardi nell’anno 2000. Il prodotto industriale mondiale lordo si espande di un fattore 20 tra il 1900 e il 1990. Tra il 1900 e il 1990 viene consumato solo il 20% delle risorse non rinnovabili mondiali; l’80% di queste risorse è ancora intatto nel 1990. L’inquinamento in quest’anno, nella nostra simulazione, ha appena cominciato ad aumentare in maniera rilevante. In media i beni di consumo pro capite raggiungono un valore (in dollari del 1968) di $260 per persona per anno –una cifra utile da ricordare per confronti con simulazioni future. La durata media della vita sta aumentando, i servizi ed i beni pro capite aumentano, la produzione di cibo aumenta. Ma cambiamenti cospicui si delineano di lì a poco.
“In questo scenario, ad un certo punto, la crescita economica si arresta ed inverte l’andamento, a causa di una combinazione di limitazioni. Subito dopo l’anno 2000 l’inquinamento aumenta tanto da cominciare a danneggiare seriamente la fertilità della terra. (Questo potrebbe succedere nel ‘mondo reale’ per la contaminazione da metalli pesanti o da sostanze chimiche persistenti, a causa del cambiamento climatico, o a causa dell’aumento dei livelli d’intensità dei raggi ultra-violetti dovuto alla diminuzione dello strato dell’ozono). La fertilità della terra diminuisce soltanto del 5% tra il 1970 e il 2000, ma risulta avere un tasso di diminuzione del 4.5% all’anno nel 2010 e del 12% all’anno nel 2040. Contemporaneamente aumenta l’erosione della terra. La produzione totale di cibo comincia a crollare dopo il 2015. Con il risultato che l’economia deve aumentare gl’investimenti nel settore dell’agricoltura per mantenere il livello della produzione. Ma l’agricoltura deve competere, quanto agl’investimenti, con il settore delle risorse naturali che pure comincia a risentire di alcune limitazioni.
“Nel 1990 le risorse non rinnovabili rimanenti sotto terra sarebbero durate 110 anni al tasso di consumo del 1990. Non si evidenziava nessun limite serio alle risorse. Ma arrivando al 2020 le risorse rimanenti costituiscono un serbatoio di soli 30 anni. Perché si verifica un così repentino calo? Perché una crescita esponenziale fa diminuire le risorse e fa aumentare il tasso di consumo allo stesso tempo. Tra il 1990 e il 2020 la popolazione aumenta del 50% e il prodotto industriale cresce dell’85%. Il tasso di consumo delle risorse non rinnovabili raddoppia. Durante i primi vent’anni del XXI secolo, nella nostra simulazione, la popolazione in aumento e l’impianto industriale consumano tante risorse non rinnovabili quante l’economia globale ha consumato nell’intero secolo precedente. Una tal quantità di risorse è stata consumata che è necessario investire molto più capitale ed energia per individuare, estrarre e raffinare ciò che rimane.
“Via via che diventa sempre più difficile ottenere cibo e risorse non rinnovabili, in questo mondo simulato, una quantità sempre maggiore di capitale è spostato e indirizzato ad ottenerli. Questo implica che ci sono meno profitti da investire nell’accrescimento del capitale.
“Infine l’investimento non riesce a tenere il passo con il deprezzamento (questo è l’investimento e il deprezzamento fisico, non monetario). L’economia non può smettere d’investire nei settori delle risorse e dell’agricoltura; se lo facesse la scarsità di cibo, di materie prime e di combustibile limiterebbe ancora di più la produzione. Dunque comincia il declino dell’impianto industriale capitalistico, portandosi dietro i settori dei servizi e dell’agricoltura; i quali sono diventati dipendenti dagl’investimenti industriali. Per un breve periodo la situazione è particolarmente seria, perché la popolazione continua ad aumentare, a causa del ritardo implicito nella struttura delle età e nel processo di adattamento sociale. Alla fine, però, anche la popolazione comincia a diminuire, perché il tasso di mortalità è spinto in alto dalla mancanza di cibo e di strutture sanitarie.”[pp. 132-134, Meadows]
E questa che segue è la figura originale che accompagnava il brano, che per ora non commenterò ulteriormente:
Dunque già da questo brano si può avere un’idea di che cosa siano le crisi ambientali globali, tra le quali tratterò in particolare, in questo articolo, della crisi climatica e della crisi energetica, per poi dare qualche cenno delle altre. Inizio perciò a elencarle, insieme agli schieramenti economici, negoziali e militari ad esse connessi. Nonostante che molte siano interconnesse, la classificazione tiene conto di diversi problemi e minacce da esse poste all’umanità intera. L’ordine è quello che viene riconosciuto dalle competenti organizzazioni delle Nazioni Unite (UN), come ad esempio WMO[BG1][BG2][1], UNEP[2], UNFPA[3], FAO[4], WHO[5], IFAD[6], etc.(e che a sua volta ad esse viene suggerito da diverse organizzazioni scientifiche di settore, coordinate dall’ICSU[7]):
· 1. CRISI CLIMATICA
· 2. CRISI ENERGETICA
· 3. DEFORESTAZIONE
· 4. CRISI IDRICA
· 5. CRISI DEMOGRAFICA
· 6. DESERTIFICAZIONE
· 7. PERDITA DELLA BIODIVERSITÀ
· 8. CRISI AGRICOLA: EROSIONE E RIDUZIONE PROGRESSIVE DELLA SUPERFICIE ARABILE
· 9. PROGRESSIVO E RAPIDO CALO DELLE RISERVE ITTICHE.
Non abbiamo ovviamente elencato tutte le crisi ambientali globali, ma quelle più rilevanti per il presente contributo. Non forniremo qui che una sintetica descrizione dei punti più importanti.
SITUAZIONE
- A livello negoziale:
Vi sono Convenzioni Quadro (veri e propri trattati sulle modalità di negoziazione in sede UN) solo per la crisi climatica, la deforestazione, la desertificazione - quest’ultima firmata a Roma nell’autunno 1997 - e la biodiversità. Nell’ambito delle Framework Conventions operano le COP (Conference of the Parties), veri e propri parlamenti mondiali in cui si prendono le decisioni operative (trattati, provvedimenti economici, controlli e sanzioni). Molto famosa è la UNFCCC[8], la cui COP3 a Kyoto nel dicembre 1997 ha adottato il Protocollo di Kyoto, primo esempio nella storia in cui il mondo scientifico ha forzatamente indotto l’attivazione di un trattato globale legalmente vincolante per un problema ecologico globale le cui soluzioni non sono ottenibili tramite meri shifts tecnologici[9]. Sono in negoziazione i meccanismi economici, quelli di controllo e il sistema di sanzioni. Nonostante l’estrema gravità, non sono ancora neanche contemplate
Convenzioni Quadro - né negoziazioni - sulla crisi energetica, sulla crisi demografica e sulla crisi idrica. La Convenzione sulla deforestazione non ha ancora un vero e proprio organo decisionale-negoziale.
Gli schieramenti
:
à il G77&China
(il gruppo maggioritario, di circa 140 paesi su 180, rappresentante circa l’85% dell’umanita’, guidato in maniera universalmente riconosciuta dalla Cina e comprendente il sottogruppo dell’Africa, oltre all’India, ai paesi dell’OPEC, la quasi totalità dei paesi sud-americani e tutti quelli asiatici meno il Giappone e la Corea del Sud[10])
à l’ Unione Europea
à La Federazione Russa
e il resto dei paesi CSI
(ex-URSS meno i tre piccoli stati Baltici)
à lo “Umbrella Group” o JUSCANNZ
(dalle iniziali di Japan, United States, Canada, New Zealand), comprendente anche l’Australia. Questo schieramento porta avanti in pratica gli interessi statunitensi
- A livello economico:
Gli interessi sono grosso modo divisi tra paesi in via di sviluppo (PVS) e paesi industrializzati. Ogni tipo di crisi coinvolge uno opportuno dosaggio e redistribuzione di risorse del pianeta, ad esempio: i)
la quota nazionale di energia, sotto forma di combustibili fossili, utilizzabile per unità di tempo senza impedire la riduzione di emissioni di anidride carbonica e di altri gas di serra; ii) la quota di petrolio e gas naturale utilizzabile nel quadro della diminuzione tendenziale del tasso di estrazione, senza minacciare il fabbisogno vitale di altri paesi e/o blocchi militari; iii) il tasso massimo di deforestazione da applicare a scopi agricoli e commerciali senza superare il tasso di ricrescita e quindi le capacità di assorbimento di CO2 e la capacità di regolare il tasso di umidità; iv)
il flusso di acqua necessario alle attività industriali, metropolitane ed agricole senza però intaccare la quota dei paesi confinanti e che condividono gli stessi bacini idrografici; v) il tasso di crescita demografica massimo tollerabile senza aggravare le crisi 1–4 e 6,7, etc. etc.
Le soluzioni per le crisi 1-4 e 7 sono tutte inconciliabili con la crescita economica, e quindi incompatibili con il vigente sistema di mercato.
Ciò schiera una serie di organizzazioni intergovernative occidentali potenzialmente (e in alcuni casi effettivamente) contro l’applicazione delle soluzioni.
Diamo un breve elenco degli schieramenti economici:
¨ G7 (Russia a parte, il G8 è solo formale nelle decisioni sostanziali)
¨ OECD[11] (OCSE)
¨ OPEC[12]
¨ ASEAN[13]
¨ IMF[14] (UN ma in realtà portavoce di Washington, Wall Street, e in misura molto minore di UK e Giappone)
¨ NAFTA[15]
¨ IEA[16]
¨ (UN): UNCTAD[17], UNIDO[18], World Bank
- A livello militare:
Esistono una serie di potenze, patti ed alleanze varie che, come vedremo, giocano un ruolo fondamentale nell’ambito del dominio delle risorse e - in definitiva - della “gestione” delle crisi sopraelencate. Alcune, e in particolare quelle imperniate intorno agli Stati Uniti d’America, sono costruite per imporre una dominanza che tende a risolvere le crisi suddette tentando di garantire la sopravvivenza di una parte del cosiddetto Occidente.
Elenchiamo brevemente gli schieramenti ed alleanze
più importanti:
* US
* NATO
* Alleanza Federazione Russia-Cina-India
* Alleanza US-Japan-Korea e - anche se non ufficialmente- Taiwan
L’Unione Europea (EU) non possiede - come è noto - un proprio dispositivo militare, anche se - come vedremo - le sue posizioni ed interessi strategici e a medio termine nel gestire le su elencate crisi non
coincidono (e anzi sono contrapposti) con quelli degli US. Quest’ultimo fatto è confermato dal fatto che le posizioni negoziali dell’EU sono praticamente sempre in conflitto con quelle del JUSCANNZ negli scontri sui trattati sulle grandi crisi ambientali 1-4 e 6-7. È da segnalare il trattato militare per il secolo a venire stipulato da Cina e Federazione Russa nel 1997, a cui si è aggiunta l’India meno di un anno fa.
Il progettato sistema missilistico US-Japan-Korea, con l’istallazione di missili anche su Taiwan costituisce una minaccia per la Cina e per l’alleanza “Asiatica” sopra descritta, oltre che una minaccia di destabilizzazione nucleare per tutto il mondo.
Prima di vedere che ruolo hanno queste alleanze e che minacce ne vengono alla pace e infine come esse giocano nel conflitto dei Balcani, esaminiamo i dati, la natura e la rilevanza delle crisi globali sopra descritte. Nel descrivere i dati trascurerò dapprima i cenni storico-scientifici, che tratterò in seguito. Mi limiterò qui invece a descrivere i dati e i processi su cui è stato raggiunto consensus
scientifico nella comunità scientifica internazionale (ICSU).
2. LE GRANDI CRISI AMBIENTALI GLOBALI IN ATTO
2.1 CRISI CLIMATICA.
I dati
L’uomo ottiene circa il 95% dell’energia ossidando atomi di carbonio nei legami C-H e C-C (i.e., bruciando combustibili fossili: idrocarburi, gas naturale e carbone). Il necessario prodotto finale di tali processi di generazione di energia è l’emissione in atmosfera di anidride carbonica (CO2) in quantità strettamente proporzionali alla energia totale usata. Tale modalità di generazione dell’energia è non rinnovabile e non sostenibile. Infatti, centinaia di milioni di anni fa grandi masse di clorofilla hanno cominciato a rimuovere carbonio nella forma ossidata (sotto forma di CO2) dall’atmosfera, per riporlo nei propri tessuti sotto forma ridotta, nei legami C-C e C-H. Contemporaneamente, veniva immagazzinata energia a spese di quella solare, come è chiaro dalla reazione generica che segue e dalla spiegazione della struttura energetica delle molecole organiche data tra breve:
iCO2 + clorofilla + fotone + mH2O ®
n(R-CH-S) + clorofilla + wO2,
dove i coefficienti stechiometrici dipendono dal tipo di molecola organica formata, mentre R ed S sono radicali organici generici comunque complessi. La clorofilla agisce da catalizzatore, mentre il fotone assorbito fornisce l’energia necessaria per la riduzione (vedi qui sotto). Nel corso degli ultimi circa 200 milioni di anni, una frazione considerevole di tale manto clorofilliano è morto, putrefacendosi e trasformandosi in petrolio, gas naturale e carbone. I legami C-C e C-H (maggiormente quest’ultimo) hanno una buca di potenziale meno profonda del legame C-O. La differenza è quella che l’uomo usa per produrre energia, riossidando il carbonio (i.e. bruciando i combustibili fossili) e di conseguenza producendo anidride carbonica. L’insostenibilità di tale processo umano di generazione di energia sta nel fatto che - per ordini di grandezza - essa è stata immagazzinata nel corso di più di 200 milioni di anni, mentre noi la stiamo consumando (e immettendo in atmosfera) in soli 140 anni, anzi -essenzialmente- negli ultimi 60! La velocità di consumo -umano- è così circa 3 milioni di volte quella di produzione - naturale.
A questo punto bisogna ricordare che l’equilibrio termo-radiativo dell’atmosfera è regolato, a parità di irraggiamento, dalla concentrazione - in atmosfera - dei cosiddetti gas di serra, ossia dalla concentrazione di molecole che hanno alti coefficienti di assorbimento (ossia in definitiva alte sezioni d’urto) nell’infrarosso. Tra le molecole naturali essenzialmente troviamo l’acqua (H2O) l’anidride carbonica (CO2) e il metano (CH4). Mentre l’equilibrio radiativo boltzmaniano - che si avrebbe in assenza di atmosfera - tra la radianza solare e il reirraggiamento da diseccitazione dei livelli roto-vibrazionali assegnerebbe alla superficie del nostro pianeta una temperatura media[19] di circa -20° C, la presenza dei suddetti gas di serra garantisce una media di circa 15° C. Questo è quello che si chiama l’effetto serra naturale. In maniera quantitativa, per il lettore fisico, diamo qui di seguito le espressioni per la potenza radiante assorbita per unità di superficie e per il contributo dell’effetto serra alla derivata della temperatura media al livello del mare. Esse si ottengono mediando - sulle frequenze infrarosse rilevanti - l’equazione differenziale del trasporto radiativo, e manipolando opportunamente l’espressione ottenuta, uguagliando poi la radianza assorbita per transizioni roto-vibrazionali alla derivata rispetto al tempo dell’energia interna media dell’atmosfera per unità di superficie:
(global warming potential) (1)
dove la sommatoria è estesa a tutte le specie molecolari rilevanti, ni è la densità numerica delle molecole considerate, è la sezione d’urto monocromatica relativa alla specie molecolare i alla frequenza n e I(n)
è la radianza riemessa dalla superficie terrestre nell’infrarosso. Questa equazione descrive ovviamente la media spaziale su tutta la superficie del pianeta. Il corrispondente contributo alla derivata della temperatura[20] media <T> è:
(2)
dove r
è ovviamente la densità dell’atmosfera (più precisamente della parte in cui avviene l’assorbimento) k è la costante di Boltzman, mH la massa dell’atomo di idrogeno, e m è il peso molecolare medio.
Figure 1 The World Industrial Product (deflated world “GDP” in real value - i.e. in physical equivalent). The unit is an index number, set as base=100 in 1963. To obtain -with good approximation- the value in US$ (1990 value) multiply by 212.1 billion. Doubling time@17 years. Data: The World Bank (hereafter WB); stats.: GDI[21]. | Figure 2 The CO2 emissions (in CO2 mass units: to obtain GtonC - i.e. Carbon units - multiply by 12/44 @ 0.2727). Doubling time@29 years. Data: CDIAC; stats.: GDI. |
Il problema è che l’uomo, dall’inizio della rivoluzione industriale, per soddisfare il fabbisogno di energia - che è cresciuto e cresce tuttora esponenzialmente, è entrato in un regime di consumo di combustibili fossili altrettanto esponenziale, emettendo in atmosfera quantità di anidride carbonica esponenzialmente crescenti (vedi fig.2) con un tempo di raddoppiamento di 29 anni circa. Ciò è servito, in definitiva, ad alimentare la crescita economica (vedi fig. 1), altrettanto esponenziale, ma con un tempo di raddoppiamento più rapido, dovuto al miglioramento tecnologico delle efficienze di bruciamento, per cui col passar del tempo sono necessarie quantità di energia minori per produrre la stessa quantità di prodotto industriale mondiale
(WIP). Per la precisione, quest’ultima grandezza è la generalizzazione a livello mondiale del PIL, solo che in termini reali (deflazionati, corrispettivi nel caso della figura al dollaro 1963, e in termini di equivalenti fisici e non puramente monetari). Il fatto è che per ogni unità di WIP prodotto è necessaria una ben determinata quantità di energia - a parità di efficienza - e quindi, per motivi energetico-molecolari, è necessario bruciare una ben determinata quantità di combustibili fossili, e dunque di emettere una ben determinata quantità di CO2 in atmosfera. L’efficienza è - finora
- costantemente aumentata, e questo è il motivo per cui il tempo di raddoppiamento delle emissioni è più lento di quello del prodotto industriale, cioè della crescita economica. Detto aumento di efficienza, però, è ovviamente
limitato dal Secondo Principio della Termodinamica, visto che l’efficienza di cui parliamo - energia prodotta per unità di emissioni di anidride carbonica - non è soltanto proporzionale all’efficienza economica - dollari di prodotto industriale per unità di emissioni di anidride carbonica - ma anche al rendimento termodinamico di qualsiasi macchinario converta l’energia chimica del combustibile in energia termica e in definitiva in lavoro utilizzabile. In termini pratici, siamo oggi ad un’efficienza termodinamica media di circa 0.25, e possiamo crescere - ottimisticamente - fino ad un valore di 0.75-0.8 al massimo. Questi valori tengono conto delle diverse macchine necessarie alla vita industriale, agricola ed urbana, per esempio dai veicoli con motore termico (benzina o diesel) con efficienza intorno al 16-17% (0.16-0.17) alle turbine a gas ad alta temperatura, con efficienze sperimentali fino al 50% (0.5).
Figure 3 The impressive, strong correlation between the global CO2 emissions and the world industrial product. The implied correlation coefficient is r@0.995. Data from: CDIAC; WB. Correlation and stats.: GDI. |
Per concludere questa digressione sull’efficienza, con l’attuale trend di miglioramento tecnologico, possiamo crescere un altro paio di decenni al massimo, prima di “sbattere” contro il Secondo Principio della Termodinamica. Dopodiché le emissioni cominceranno a salire con lo stesso tempo di raddoppiamento del WIP. Usando i dati forniti dalla Banca Mondiale, in termini sempre reali, e del CDIAC[22] si può vedere in fig. 3 l’impressionante correlazione esistente tra la crescita economica (il WIP) e le emissioni negli ultimi 150 anni circa: il coefficiente di correlazione è r@0.995. La relazione tra l’efficienza economica, e, il prodotto industriale mondiale WIP e le emissioni, E, è:
E = WIP/e. (3)
La conseguenza dell’aumento esponenziale delle emissioni di anidride carbonica in atmosfera, in atto da circa 150 anni, è un drammatico - per l’umanità - aumento della concentrazione di CO2 , come si può vedere nelle fig 4 e 5, su due diverse scale temporali (dati del CDIAC; IPCC[23]; NGDC[24]; UKMO[25]). In fig. 4 possiamo vedere le fluttuazioni naturali che i dati ci mostrano nei mille anni circa prima del 1850, e la rapida crescita esponenziale successiva, tuttora in atto. La fig 5 è il dettaglio dell’era industriale in cui stiamo vivendo.
Figure 4 The natural CO2 variations and the anthro-pogenic increase after the industrial revolution in 1800. In this graph, and in all the next ones showing a best-fit curve to the data, the continuous lines above and below the fit are the 99% confidence levels (inner lines) and the 99% prediction levels (outer lines from the fit). Data from the IPCC (1995); CDIAC. Statistics: GDI 1997. | Figure 5 A zoom-in on the 1850-2000 interval of Fig. 1a, showing the exponential trend in the data regarding the CO2 concentration after the industrial revolution. Note the very short e-folding time (40 years), corres-ponding to a doubling time of only 27 years. Data from IPCC; CDIAC; det. coefficient: r2@0.98; best-fit and conf. levels by GDI 1997. |
Possiamo notare che il valore di concentrazione
naturale
di CO2 , quello cioè che garantiva il benefico effetto serra naturale
, era di circa 280 ppmv (parti per milione in volume) mentre in 150 anni - ma essenzialmente negli ultimi 70 - abbiamo portato la concentrazione di anidride carbonica a poco meno di 364 ppmv (valore fine 1998) pari ad un aumento del 30% circa. E aumentiamo con un tempo di raddoppiamento attualmente uguale a 27 anni, che fatalmente scenderà a soli 17 anni in meno di un paio di decadi, per la saturazione delle efficienze imposta dal Secondo Principio TDN agli attuali tassi di sviluppo tecnologico dell’Occidente. Una accelerazione tecnologica della Cina, dell’India e di altri importanti PVS[26] (paesi in via di sviluppo) diminuirà ancora il tempo in capo al quale ci sarà l’attesa saturazione.
Una brevissima digressione generale: al lettore attento non sfugga il legame di tutto ciò con il problema dell’energia. A questo scopo, si ricordi che stiamo parlando di “problemi” -eufemisticamente definiti tali - causati dal processo di generazione di energia, che avviene al 95% bruciando combustibili fossili. Torneremo ovviamente su questo e sulle conseguenze economiche e militari. Starà al lettore stesso di trarre eventualmente quelle politiche generali.
Figure 6 The temperature anomaly after 1860. Data: IPCC; UKMO |
Andiamo avanti con i dati: cosa è successo alla temperatura media superficiale dell’atmosfera del nostro pianeta in questi 150 anni di crescita esponenziale economica e quindi di emissioni di CO2 ? Questo si può vedere dalla fig. 6 (sorgente IPCC;UKMO; anche NGDC del NOAA), che mostra l’andamento della temperatura media superficiale dal 1860 ad oggi. E’ evidente il trend in crescita, a parte oscillazioni cicliche e stocastiche. In conseguenza di tale aumento di temperatura (circa 0.6 °C in un secolo) si è riscontrato un aumento del livello medio del mare di 25 cm (nel Mediterraneo circa 11 cm, a causa della prevalenza dell’evaporazione in questo bacino chiuso).
Figure 7 220,000 years of data on the CO2 concen-tration from the Vostok ice core. Source: NGDC (NOAA Palaeoclimatology Program); NSIDC[27]. | Figure 8 Same as fig. 5, but for the temperature anomaly. Source: as in Fig 7. |
Andando a vedere i dati paleoclimatici, possiamo per esempio valutare in fig. 7 e 8 l’andamento misurato della temperatura e della concentrazione di anidride carbonica ottenuti analizzando le bollicine d’aria intrappolate nel ghiaccio del carotaggio di Vostok[28]. Il grafico plotta dati riferentisi a 220 mila anni prima di oggi[29]. Risulta evidente la forte correlazione tra l’andamento della CO2 e la temperatura. Si vede inoltre che la concentrazione atmosferica di anidride carbonica ha oscillato tra circa 180 ppmv e 300 ppmv. Da altri data set, più dettagliati nei passati 10 mila anni, si vede che il valore della concentrazione preindustriale
- 280 ppmv - era ormai stabile da molte migliaia di anni, con le oscillazioni visibili in fig. 4 prima del 1800 circa.
Figure 9. In this graph, the measured data end in 1997. The extrapolation to the year 2100 is a pure BAU behaviour of the CO2 concentration historical data, with a best estimate of somewhat less than 1300 ppmv, actually higher that that implied by the IPCC scenario IS92e. Statistics: GDI 1997. Data source as in Fig 1b. |
Se riportassimo in fig. 7 l’aumento antropogenico di anidride carbonica degli ultimi circa 100 anni, sarebbe una retta verticale fino a 363 ppmv. E l’attuale trend business-as-usual
[30](BAU) prevede il raddoppio
(560 ppmv) del valore preindustriale
entro 35 anni circa (anzi solo 20 se la saturazione dell’efficienza avverrà prima). Entro la fine del secolo venturo il business-as-usual trend ci farà arrivare a più di un quadruplicamento (vedi fig. 9). In altre parole, in 100 anni circa avremo prodotto una variazione della concentrazione atmosferica di anidride carbonica 3 volte maggiore della massima variazione registrata in poco meno di mezzo milione di anni. Guardando la fortissima correlazione tra temperatura media e concentrazione di gas serra (sono disponibili analoghi dati per la concentrazione di metano) è impossibile non aspettarsi, con tali grandi e rapidissime variazioni antropogeniche della concentrazione di CO2 un effetto serra di origine antropogenica[31] di vaste proporzioni - anche senza girare pesanti modelli numerici idrodinamico-radiativi.
Ogni anno emettiamo comples-sivamente in atmosfera circa 6.3 miliardi di tonnellate di carbonio, ossia circa 23 miliardi di tonnellate di anidride carbonica, a cui si devono aggiungere circa 5.5 miliardi di tonnellate di CO2 dovute alla deforestazione[32] nelle grandi foreste tropicali. Di quei 23 miliardi di tonnellate di anidride carbonica l’anno, più dei 3/4 vengono assorbiti[33] dal biota clorofilliano nelle foreste e negli oceani[34]. Il lettore ha a questo punto compreso che - quando verranno meno gli assorbitori forestali e ci sarà una sink failure delle alghe negli oceani - l’immissione netta in atmosfera diventera’ di conseguenza più che quadrupla, senza contare l’aumento dovuto alla crescita economica (che politici ed economisti fanno a gara a dichiarare “irrinunciabile”[35]). E’ anche evidente - a questo punto - la forte interazione della crisi climatica che stiamo descrivendo con la crisi n. 3 (deforestazione). Ne vedremo più avanti (in questo paper) le implicazioni economiche e agricole.
Questi sono i dati. E’ naturale che il lettore si chiederà: cosa succederà all’equilibrio termo-radiativo dell’atmosfera in presenza di tali violente alterazioni antropogeniche della concentrazione dei gas di serra? Per rendersi conto della rapidità del processo, si pensi che il pianeta non vede concentrazioni di anidride carbonica così alte (come quella che raggiungeremo al tasso attuale tra venti anni) da più di 35-50 milioni di anni. Tale dato si ottiene facilmente confrontando i record di concentrazione che ssi ottengono analizzando i sedimenti calcarei[36] sia a terra che sul fondo degli oceani con le 560 ppmv che raggiungeremo al più tardi tra 30 anni ma più probabilmente tra 20.
Si tenga presente che anche altri gas di serra sono in vistosa crescita. Infatti, il metano sta crescendo esponenzialmente (da processi industriali ed agricoli) e i cloro-fluoro-carburi (che sono anche responsabili della progressiva distruzione dello strato di ozono stratosferico) e gli idro-fluoro-carburi (loro sostituti salva-ozono) sono anch’essi in rapida ascesa e ambedue sono potenti gas serra. Infine, il protossido di azoto (N2O) è anch’esso in crescita esponenziale. I CFC e gli HFC sono un milione di volte meno abbondanti dell’anidride carbonica, ma contribuiscono all’effetto serra totale per il 20%, contro il 55% dell’anidride carbonica, il 17% del metano e l’8% del protossido d’azoto. Ciò è dovuto al fatto che la sezione d’urto dei CFC è altissima, dell’ordine di 106 volte più alta di quella della CO2. Analogamente accade per il metano, dove il fattore è quasi uguale a mille. Anche il vapor d’acqua è un potente gas serra (grande sezione d’urto nell’infrarosso qui rilevante). Tutto il ciclo dell’acqua (evaporazione, formazione di nubi, precipitazioni, etc) viene ovviamente seguito nei calcoli e nei modelli, insieme al ciclo del carbonio, come vedremo tra breve. Ciononostante, anche se il suo contributo netto è alto e ovviamente è un termine importante nei calcoli, non
è l’H2O a “dominare” la scena, in quanto ovviamente l’aumento di temperatura fa aumentare la tensione di vapore e l’evaporazione dai mari, causando una maggior immissione di vapore in atmosfera, cosa che aumenta a sua volta l’effetto serra, con retroazione positiva. Il nesso causale ovviamente è gas serra antropogenici ® vapor d’acqua. Non solo, ma il tempo di permanenza media in atmosfera della CO2 è di circa 200 anni, a fronte di pochi giorni per l’H2O. Il metano permane per periodi da anni a decenni, e alcuni CFC hanno periodi di permanenza dell’ordine di 104 anni. Ciò chiarisce ulteriormente perché il vapor d’acqua, pur essendo un potente gas serra, non è affatto il driving factor
dell’effetto serra.
Una vecchia polemica - superata da prima della metà degli anni ‘80 - era basata sul fatto che la copertura nuvolosa, in aumento per l’aumento del vapor d’acqua dovuto al riscaldamento globale[37], avrebbe “prima o poi”, con l’aumento dell’albedo (riflettività verso lo spazio esterno all’atmosfera), regolato automaticamente il problema termico, arrestando il riscaldamento. A parte il fatto che questa obiezione era molto ingenua e qualitativa, in quanto è da determinare quanto “prima” e quanto “poi”, prima ancora che i modelli potessero dimostrare anche numericamente che l’effetto in questione non fermava il riscaldamento prima di almeno 10°C, era evidente - dall’analisi dei termini forzanti delle equazioni differenziali - che comunque tale “equilibrio” si sarebbe raggiunto soltanto quando la temperatura fosse diventata così più alta di adesso da popolare l’atmosfera con vapor d’acqua sufficiente ad aumentare l’albedo abbastanza per fermare l’effetto serra, e questo appariva già qualitativamente venti anni fa avvenire per un riscaldamento superiore a qualche grado. Per colmo di assessment
di questa vecchia polemica - che io riporto per il lettore che la avesse eventualmente sentita, anche se scientificamente non è più in discussione da più di 15 anni - basta valutare il data set della temperatura ottenuto dai sedimenti (analisi del rapporto O18/O16 etc.) per i pregressi circa 200 milioni di anni (v. fig. 10).
Figure 10 Global palaeoclimatic temperature behaviour from 180 million years before present up to now, in three different time scales. The Vostok ice core data cover roughly the last half (440,000 years) of the 1 million year interval marked with the arrows. (Data from, e.g., IUCC, CDIAC or NGDC) |
Appare infatti evidente che, essendo la temperatura stata per circa 100 milioni di anni al di sopra di 7° C più calda di ora (e per decine di milioni intorno a 9° C), il feed-back negativo “autoregolante” dell’albedo delle nubi non scatta in quel range di temperature. Siccome la crisi climatica avviene con soltanto 1.5° C in più dell’attuale temperatura, questo taglia ogni obiezione, anche senza ricorrere ai modelli che descriveremo più avanti.
Guardando le formule (1) e (2) per il global warming potential
e per il contributo alla derivata della temperatura dell’effetto serra, si vede che anche - ovviamente - un aumento di radianza solare potrebbe dare l’effetto di riscaldamento. Il fatto è che il Sole - la cui irradianza possiamo ricostruire con buoni proxies
fin dal 1600 - ha avuto sì variazioni di irradianza, ma al massimo tra 1375.6 e 1376.5 Wm-2 - meno cioè dell’1 per mille, mentre i gas serra sono variati - negli ultimi cento anni - del 30% per mano umana. Per giunta, un famoso articolo su Nature apparso lo scorso anno (1998) ha fatto vedere i coefficienti di correlazione correnti - a finestra di 200 anni - della temperatura con la radianza solare e con la concentrazione di anidride carbonica, oltre che con l’indice di polvere in atmosfera. L’analisi ha dimostrato che la correlazione con la variazione di irradianza solare domina fino al 1800 circa, mentre dal 1850 in poi è la correlazione con l’anidride carbonica - in aumento esponenziale - a dominare. Guardando le formule (1) e (2) - in cui la densità dei gas serra e la irradianza solare compaiono ambedue al numeratore con la stessa potenza (lineari ambedue) - prevedibile che l’effetto di riscaldamento dovuto ad un eventuale aumento di irradianza solare inferiore all’1 per mille non poteva competere con quello dovuto all’aumento del 30% della CO2 , che per giunta è tuttora in aumento esponenziale, mentre le variazioni solari sono cicliche, più un trend a salire (nei pregressi 400 anni) di una frazione dell’ordine di 10-4.
Previsioni e modelli
Siamo dunque alle previsioni sulle conseguenze dei trend rivelati dai dati. Per fare questo, la comunità scientifica ha approntato (in più di 40 anni di lavoro teorico numerico fluidodinamico) dei programmi evolutivi complessi, basati sull’idrodinamica a 3D, sul ciclo del carbonio nella biosfera e nella geosfera, sulla fisica radiativa chiamati GCM
(General Circulation Models) nella versione ultima accoppiati atmosfera-oceano. Per dare un’idea dello sforzo scientifico in atto, possiamo ricordare che il governo degli Stati Uniti eroga circa 6.5 miliardi di dollari l’anno (dato dell’anno fiscale 1998), e che per esempio, la NASA riceve più fondi per i modelli climatici (del GISS[38]) -1.5 miliardi di dollari - che per il resto delle sue attività spaziali civili. Il JPL[39] ha il calcolo di modelli climatici come il più importante e finanziato key project. Siamo 30 mila ricercatori nel mondo (censimento 1997) a lavorare sul climate change, di cui circa 14 mila nordamericani. La Germania eroga circa 3 miliardi di marchi l’anno sui climate change studies, e la Gran Bretagna circa un miliardo di sterline l’anno.
Descriviamo brevemente un AO-GCM[40]. Si tratta del top della produzione numerica di fluidodinamica oggi esistente, accoppiato a un insieme di sottomodelli complessi interagenti non-lineari. Per dare una dimensione numerica, anche i computers one-off dei due laboratori militari statunitensi (Lawrence Livermore Radiation Laboratory e Los Alamos Laboratory) sono impegnati con i loro computers top-line. La struttura di un programma AOGCM (d’ora in poi GCM per brevità) è composta di diversi moduli contenenti centinaia di subroutines. Le equazioni differenziali da trattare sono in un sistema di diverse decine, a seconda del grado di approssimazione nella trattazione delle reazioni in fase gassosa e dei cicli dell’acqua e del carbonio. Essenzialmente esistono: due grossi moduli che integrano le equazioni dei fluidi per la circolazione atmosferica e oceanica; un modulo per il calcolo della radiazione (equazione del trasporto e assorbimenti ed emissività); un modulo per i sinks di gas serra, con le relative equazioni di continuità; un modulo per il ciclo del carbonio e uno per quello dell’acqua (contenenti subroutines per l’evaporazione, la formazione di nubi, i flussi di acqua terra®oceano, le precipitazioni, con sottomoduli per il ghiacchio flottante e a terra, per la copertura nevosa, etc.); un modulo per le reazioni chimiche in fase gassosa; uno per la trattazione dell’accoppiamento del biota tramite i sinks; un modulo per le sorgenti di gas serra; uno per il particolato in aerosol, e tanti altri che qui non menzioniamo. Esistono circa una trentina di diversi GCM prodotti da diversi laboratori, università ed istituti, ma essenzialmente sono derivazioni che “degenerano” in 5 o 6 tipi di programma, che si possono elencare così (sono i più importanti e famosi, ma qui non sono in ordine di importanza, anche perché sarebbe difficile stabilirlo) il programma del GFDL[41], lo UM[42] del UKMO, il GISS[43] della NASA, il BMRC[44] australiano, un modello cinese[45], il modello dello NCAR[46], il modello europeo dello ECMWF, ed altri (come il modello di Pasadena -JPL- e quello indiano).
Daremo prima un breve cenno alle previsioni così come sono oggi (aggiornate all’ultimo Assessment Report dell’IPCC, Plenary di Roma, dic. 1995) e poi daremo un cenno storico sull’IPCC, sul ruolo delle Nazioni Unite, e sulle previsioni del Club di Roma riguardanti l’effetto serra[47]e le sue cause primarie, ricondotte all’aumento esponenziale del prodotto industriale, ossia alla crescita economica esponenziale in atto dalla rivoluzione industriale ad oggi. L’apparente inversione logica ha lo scopo di non distrarre il lettore dal contenuto scientifico delle proiezioni - approvato all’unanimità alla XI Sessione Plenaria dell’IPCC dalla comunità scientifica mondiale guidata dall’ICSU, mentre il dare i cenni storici subito dopo permetterà di seguire l’impatto dell’enorme processo scientifico sul climate change, nonché numerose interazioni con i governi e i poteri economici mondiali.
L’IPCC, nel SAR[48], offre due tipi diversi di previsione: una serie di previsioni transienti e una previsione all’equilibrio, come ora spieghiamo. Nel primo caso, l’IPCC presenta diversi scenari circa le traiettorie evolutive delle emissioni nel prossimo secolo e conseguentemente calcola le previsioni, con un best estimate, un minimo e un massimo con livello di confidenza del 95%. Gli scenari suddetti sono caratterizzati dall’essere BAU per quanto riguarda le misure, ossia si suppone che i governi non facciano alcun intervento per combattere l’effetto serra, mentre si ipotizzano diversi scenari di crescita economica[49], da cui scendono le diverse traiettorie evolutive delle emissioni. Di conseguenza, l’IPCC sforna diverse previsioni con un clima transiente, all’evolvere delle emissioni. Tutti i calcoli sono forniti come media dei diversi modelli, i quali a monte vengono continuamente testati e comparati, e viene controllato che lo scarto totale non sia superiore a valori prefissati. E’ stato infatti istituito (da dieci anni circa) un organismo scientifico internazionale multidisciplinare, l’AMIP[50], con il compito di paragonare, cross-testare, e controllare i diversi programmi peer-reviewed e ufficialmente usati dall’IPCC, oltre che -ovviamente- paragonare i dati teorici con le osservazioni, dando come condizioni iniziali situazioni pregresse note e paragonando la previsione teorica ad oggi con i dati osservativi. Un secondo tipo di previsione - più nota al pubblico non scientifico - è quella all’equilibrio, cioè si ipotizza che l’anidride carbonica abbia raggiunto un dato livello (per ora si usa il raddoppio rispetto al livello naturale pre-industriale) e si lasciano evolvere tutte le altre variabili (fisiche, chimiche e biologiche) fino al raggiungimento dell’equilibrio. I modelli - nello standard ufficiale dell’AMIP - per ora sono in grado di calcolare il “raddoppio” (“2xCO2 world”), ma diversi leading institutes
stanno già calcolando (o hanno già calcolato) le previsioni al quadruplicamento (4xCO2) come lo UKMO, il GISS della NASA, il GFDL, il BMRC, il modello cinese, nonché i codes di Livermore e Los Alamos. Ovviamente, come ipotesi di default, cioè business-as-usual, il quadruplicamento è purtroppo molto più realistico, come possiamo leggere nel SAR, come abbiamo sentito in uno dei seminari mensili alla Casa Bianca sul climate change, tenuto dal Prof. Jerry Mahlman, direttore del GFDL, lo scorso anno, e come possiamo vedere dalla fig. 9 del presente articolo. Per questo motivo, visto che qui ci limiteremo a riportare le previsioni IPCC all’equilibrio al raddoppio del valore pre-industriale di CO2) e visto che la natura non-lineare dei fenomeni e la monotonicità degli impatti con la concentrazione di anidride carbonica prevedono un fortissimo peggioramento all’ulteriore raddoppio (4xCO2) e che inoltre questo è addirittura una sottostima della concentrazione verso cui andiamo nel prossimo secolo se non verranno prese drastiche misure, per tutti questi motivi il lettore deve prendere le previsioni al raddoppio in equilibrio che diamo qui sotto come
una visione super-ottimistica di cosa ci attende
sulla presente traiettoria BAU delle emissioni industriali e agricole
(il che equivale a dire sulla presente traiettoria di crescita economica senza limite alcuno).
___________________
PREVISIONI IPCC SAR al raddoppio delle concentrazioni preindustriali di gas serra[51].
(sull’orizzonte del 2100)
¨ TEMPERATURA. Da +1.5°C a +3.5°C, best estimate: +2.5°C (NB. ricalcolate quest’inverno - febbraio 1999 - in +2.5°C __ +4.5°C, best estimate: +3.5°C). Si tratta di temperature superficiali mediate terre-oceano e mediate su tutte le latitudini, e su una finestra temporale di 30 anni, per eliminare le oscillazioni periodiche e stocastiche). Ciò equivale ad uno spostamento - verso i poli -delle fasce climatiche da 500 a 1000 Km circa. Il riscaldamento è previsto progressivamente più pronunciato a latitudini via via più alte (come sta già avvenendo: a fronte di un riscaldamento di 0.6°C a livello globale nel secolo pregresso fino ad ora, ai poli e nelle regioni fredde il riscaldamento è stato di quantità dai 2°C ai 3.5°C).
¨ LIVELLO DEL MARE. Aumento da 25 cm a 1 metro (con le nuove temperature, circa da 40 cm a 1.5 m) Sia il livello del mare che la temperatura continueranno ad aumentare per molto tempo prima di stabilizzarsi, fino ad altri 100-200 anni.
¨ EVENTI METEOROLOGICI ESTREMI. Il ciclo idrogeologico si farà più intenso. Le precipitazioni si concentreranno su periodi più brevi, dando luogo ad alternanza di siccità ed alluvioni, e comunque ad oscillazioni sempre più pronunciate delle precipitazioni. Spazialmente, ci sarà la tendenza a creare zone soggette a siccità e zone soggette ad alluvioni. E’ possibile - anche se non dimostrato - che aumenti in alcune zone la frequenza ed intensità di eventi come uragani, temporali intensi (frequenza di formazione di Cb) e tornado. Si prevede l’aumento di frequenza ed intensità delle heat waves[52]. Sono previsti in numero sempre crescente incendi regionali di vasta estensione ed intensità[53].
¨ MALATTIE TROPICALI. (previsione in collaborazione IPCC-WMO-WHO[54]). In conseguenza dello spostamento delle fasce climatiche, una serie di insetti, abitatori abituali delle attuali fasce tropicali e vettori di malattie tropicali, si sposteranno verso i poli, causando nelle attuali zone temperate epidemie di malaria, dengue, oncocercosi, febbre gialla, malattia del sonno, ed altre. Sono previste fino a diverse centinaia di milioni di vittime delle malattie tropicali nel secolo in arrivo.
¨ INFILTRAZIONE DELLE FALDE ACQUIFERE COSTIERE. In conseguenza dell’aumento del livello del mare, praticamente tutte le falde acquifere delle zone limitrofe con il mare saranno infiltrate da acqua salata, con danno per l’agricoltura costiera.
¨ CONTRAZIONE DEL MANTO FORESTALE TROPICALE. A causa dell’aumento della temperatura in tempi più rapidi di quelli dell’adattamento e della velocità di migrazione delle foreste, masse rilevanti - fino a molto rilevanti - di foreste verranno meno, con conseguente addizione diretta di CO2 - dovuta agli incendi a alla putrefazione - e indiretta - dovuta alla conseguente riduzione del tasso di assorbimento clorofilliano.
¨ DESERTIFICAZIONE. Le zone desertiche diventeranno più estese, più estreme, e più numerose.
¨ PRODUZIONE AGRICOLA. La produzione agricola sarà soggetta a variazioni effettive e potenziali (in generale, diminuzione nelle attuali fasce temperate[55] e tropicali, e potenziale aumento nelle fasce fredde). L’aumento potenziale della produzione nelle fasce fredde, però, richiederebbe interventi come il dissodamento della Siberia - il SAR non ha stimato il costo e chi sarebbe in grado di pagarlo su questo pianeta, e neanche l’energia in combustibili fossili che sarebbe necessaria, al di là del costo - e inoltre la distruzione delle vaste foreste lì situate.
¨ SCIOGLIMENTO PROGRESSIVO DEI GHIACCIAI. L’aumento di temperatura sta già progressivamente sciogliendo i ghiacciai, che si stanno attualmente ritirando ovunque a velocità dai 15 ai 50 metri l’anno. L’ulteriore aumento previsto porterà alla progressiva scomparsa dei ghiacci permanenti sui rilievi montuosi, con conseguente calo della portata di ruscelli pedemontani e fiumi, o addirittura inaridimento di alcuni, producendo un vistoso calo delle acque da irrigazione.
¨ PROFUGHI DEL CLIMA. In conseguenza della fame per crollo agricolo e dell’innalzamento del livello del mare, e tenuto conto che quasi tutti gli insediamenti umani si trovano sul mare, si prevede che diverse centinaia di milioni (fino a 800 milioni) di profughi si sposteranno in cerca di zone in cui poter vivere.
¨ VARIAZIONE DELLE RISERVE IDRICHE. A seguito dell’intensificarsi del ciclo idrogeologico (v. eventi estremi) il terreno non riuscirà a trattenere ed accumulare le stesse quantità d’acqua attuali. Si prevedono perciò ammanchi di fornitura idrica[56] anche rilevanti[57].
Anche con la sola attuale concentrazione di anidride carbonica ed altri gas serra in atmosfera (se cioè per esempio estremo si spegnessero tutte le fabbriche, i veicoli termici e ogni generatore di energia a combustibili fossili) avremo una crisi climatica - non è chiaro quanto
più lieve anche se più lieve sarà senz’altro, e la situazione naturale pre-industriale verrebbe ripristinata dopo circa 200 anni.
Inoltre, caratteristica di questi fenomeni di global warming è quella di essere a forte delay temporale
(circa 50-80 anni) rispetto alle cause. Il rapporto SAR mostra che le variazioni climatiche che stiamo subendo adesso sono dovuti alla CO2 che abbiamo emesso fino ad 80 anni fa, e quella che stiamo emettendo adesso produrrà i suoi effetti tra 50-80 anni. Il lettore può rendersi conto facilmente di ciò dando un’occhiata alla formula (2). Infatti, la variabile che pilota praticamente tutti gli impatti è la temperatura media. Ebbene, derivando la (2) e trascurando la variazione di radianza rispetto a quella della concentrazione di gas serra, otteniamo che la variabile su cui l’uomo può agire - le emissioni, spegnendo o riducendo il regime delle macchine termiche - e cioè la derivata delle concentrazioni, , è proporzionale alla derivata seconda della temperatura media, . Da qui scende lo sfasamento temporale.
La caratteristica del delay temporale nell’effetto serra e conseguente global warming è veramente perniciosa, se consideriamo l’attitudine dei politici - e dei governi - a prendere in considerazione i problemi da risolvere solo quando si sono già presentati, anzi, dopo
che sono già accaduti. Tutto ciò è ancora peggiorato, visto che praticamente tutti gli economisti, l’IMF, le borse e in generale l’industria tendono a sostenere che, siccome ridurre la crisi climatica costa[58] e fermerà la crescita e il Mercato[59], è assolutamente necessario che i governi non facciano assolutamente nulla e che confidino soltanto nel Mercato stesso, nella magica Tecnologia e nell’ancor più magica Scienza (che dovrebbero, per esempio, trovare il modo di violare il Secondo Principio della Termodinamica). Ovviamente il lettore ha capito che quest’ultimo capoverso NON è imputabile al SAR dell’IPCC, viste le procedure diplomatiche delle Nazioni Unite che regolano le procedure IPCC, anche se devo dire che tutti i colleghi con cui ho parlato nei congressi e meetings IPCC e nei summit negoziali nutrono la stessa convinzione circa l’attitudine di politici e governi a combattere l’effetto serra prima che sia del tutto fuori controllo. Lo stesso vale per i giornalisti (specie in Italia e nel resto del Sud europeo, ma non soltanto) nello scrivere (e in cosa pubblicare) sull’effetto serra e sulle misure necessarie.
_______________________
PRESCRIZIONI E DATI IPCC SAR necessari a mitigare l’effetto serra
(si tenga conto che l’IPCC è un organo prettamente scientifico istituito dalla Nazioni Unite con il coordinamento dell’ICSU, e i cui scienziati membri con diritto di voto sono di nomina governativa. Non spetta dunque all’IPCC dire cosa i governi debbono fare, anche se l’IPCC indica le possibili strade per combattere l’effetto serra, in accordo con l’Art.2 della Convenzione Climatica -UNFCCC [60]- di cui parleremo in seguito).
· STABILIZZAZIONE DELLA CONCENTRAZIONE dei gas serra, tramite la riduzione delle emissioni industriali. La riduzione delle emissioni necessaria a stabilizzare la concentrazione dei gas serra al valore del 1990, se messa in atto nel 1990 e in maniera immediata, sarebbe dovuta essere nel range [-60% , -80%]. Questo significa che
al massimo il 20%-40% delle emissioni del 1990 era assorbibile dai sinks naturali, e che quindi la concentrazione atmosferica non sarebbe variata. Tale misura - non realizzabile, naturalmente, in quella quantità immediata - avrebbe quindi mantenuto le circa 357 ppmv del 1990 costanti nel tempo. E’ chiaro che, non potendosi attuare misure così immediate (ancora oggi non abbiamo ridotto nulla, ma aumentato a 6.3 Gton/year di carbonio dalle circa 5.9 del 1990) ogni ritardo implica un aumento della percentuale di riduzione, per ottenere lo stesso risultato. Questo accade poiché la crescita economica continua esponenzialmente e di conseguenza anche le emissioni continuano a crescere, mentre rimane sostanzialmente costante la quantità assorbibile, se si trascura la deforestazione che diminuisce il potere assorbente dei sinks.
· SCENARI (CURVE DI EMISSIONE) NECESSARI AD OTTENERE LA STABILIZZAZIONE DELLA CONCENTRAZIONE A VALORI PREFISSATI. Vengono fornite le traiettorie di emissione globale che portano alla stabilizzazione della concentrazione a dati valori: 350,450,550,650, 1000 ppmv. C’è stata una battaglia tra scienziati ed economisti (questi ultimi nel Working Group III) per omettere o no i valori alti. Inutile dire che i valori alti delle concentrazioni sono stati pretesi dagli economisti dell’IPCC. Si ricordi che i rapporti IPCC vanno poi ufficialmente sul tavolo di tutti i governi aderenti alle Nazioni Unite.
· RIFORESTAZIONE. Si consiglia la riforestazione massiccia per aumentare la capacità di assorbimento di gas serra da parte dei sinks. Si mette però in guardia che una volta prodotta, l’anidride carbonica sequestrata nei tessuti delle piante può ritornare in atmosfera nel giro di pochi giorni, tramite per esempio incendi, come quelli a cui abbiamo assistito nel Borneo, in California, in Siberia e nelle Amazzoni nell’ultimo anno. Si consiglia di fermare al più presto ogni pratica agricolo/industriale di deforestazione. Il dato allarmante è che invece, per motivi economici ed agricoli, in paesi in cui questa pratica è il principale input economico, la deforestazione procede ad un tasso tale (ed esponenzialmente crescente) che anche al solo tasso attuale le foreste tropicali spariranno in soli 30 anni, meno se il tasso continua col presente trend. Come esempio, si mostra che la copertura forestale del Nicaragua è diminuita del 70% negli ultimi 20 anni. Quella delle amazzoni del 10-15%.
· DIFESE E DIGHE COSTIERE. Si raccomanda la progettazione e l’approntamento di barriere e dighe nelle coste a maggior rischio (basse e sabbiose).
· APPRONTAMENTO DI SISTEMI DI GENERAZIONE DI ENERGIE RINNOVABILI. Si considera e si suggerisce l’uso massiccio di:
à energia solare (sia i pannelli fotovoltaici che quelli termici, che immagazzinano energia entropizzata, ma comunque utilizzabile per il riscaldamento e l’acqua calda);
à energia eolica (per produrre energia potenziale elettrica tramite opportuni alternatori);
à energia ottenuta bruciando le biomasse (per produrre: 1) energia potenziale elettrica facendo girare turbine a vapore, e 2) calore per riscaldamento;
à energia elettrica sfruttando il moto ondoso (utilizzando opportuni pistoni, bielle ed alternatori)
Purtroppo, solo al massimo il 30-40% del fabbisogno (attuale) è così ottenibile. E, come il lettore avrà ormai intuito, tale percentuale diminuisce inesorabilmente se la crescita economica, e di conseguenza anche il fabbisogno, continuano a crescere. L’aumento delle efficienze può al più rendere temporaneamente più lenta la diminuzione della percentuale del fabbisogno energetico ottenibile con energie rinnovabili in presenza di crescita economica, in quanto ancor più inesorabilmente il Secondo Principio della Termodinamica interverrà presto a bloccare detto aumento di efficienze, non appena i rendimenti termodinamici massimi realizzabili in macchine reali siano stati sostanzialmente raggiunti.
· USO DI COLTURE ADATTABILI ALLE AVVERSE CONDIZIONI CLIMATICHE.
(Quando possibile)
L’IPCC mette inoltre in guardia sulla durata estremamente lunga degli effetti del cambiamento climatico e sulla loro caratteristica ritardata.
_________________________________________
Anche se per sommi capi, queste sono le previsioni e le “prescrizioni” dell’IPCC per i governi.
A questo punto, il lettore comprende che nessun governo può permettersi di ignorare tali risultati scientifici così allarmanti e semplicemente accettare che anche solo una piccola parte di quanto sopra accada incontrastata. Da qui a prendere i provvedimenti ce ne passa e, visto che lo scopo di questa presentazione del problema è quello di mostrare come le grandi crisi ambientali siano in realtà la vera ragione - e lo rimarranno per lungo tempo - dei conflitti attuali e di ogni guerra e attività militare per stabilire la dominance di una o un’altra alleanza nel gestire risorse ed energia, è ora necessario dare al lettore un breve quadro storico dell’apparire delle crisi ambientali e dell’attività scientifica, politica, e negoziale per tentare di gestirle.
2.2 LE CRISI AMBIENTALI GLOBALI E LA RISPOSTA INTERNAZIONALE.
Questa sezione darà lapidariamente cenni storici sulle crisi ambientali, insieme all’attività scientifica e politico-negoziale ad esse collegata. Le connessioni militari saranno invece trattate nelle Conclusioni.
Prima degli anni ‘60 soltanto ristretti gruppi di specialisti - ognuno nel suo specifico campo scientifico e con scarse interazioni col mondo esterno - si occupavano di tali temi, anche se già molta attenzione veniva dedicata a questi problemi in quegli ambiti scientifici. Per quanto riguarda l’effetto serra, già nella prima decade di questo secolo il fisico Arrhenius aveva inquadrato il problema. Arrhenius aveva notato che già da circa cento anni, dopo lo sviluppo della Termodinamica e l’inizio della rivoluzione industriale, il consumo di combustibili fossili era aumentato esponenzialmente, a causa dell’altrettanto esponenziale aumento del fabbisogno di energia. Il fisico si pose subito il problema termodinamico-radiativo dell’equilibrio dell’atmosfera con una quantità sempre crescente di gas serra e calcolò, anche se approssimativamente, il riscaldamento, ottenendo una stima non molto lontana dalla verità, considerando i mezzi e le scarse conoscenze di tutti i fenomeni complessi implicati.
Negli anni ‘60, invece, molti gruppi si occupavano già di diversi problemi allora già evidenti, come: i)
l’inquinamento crescente, ponendosi la domanda di quale fosse il limite naturale di assorbimento per ogni sostanza tra le più pericolose; ii) l’effetto serra; iii)la disponibilità delle risorse; iv) la crescita demografica
imponente, esponenziale, e il problema degli alimenti implicato; v)l’erosione delle terre arabili, dovuta allo sfruttamento sempre più intensivo; vi) il calo della popolazione ittica,
dovuto all’attività di pesca divenuta ormai industriale; ed altri ancora.
Molti istituti prestigiosi, come la Smithsonian Institution, il Tata Institute e l’Istituto Landau, dedicarono intere squadre di personale allo studio di questi problemi, anche se il confronto Est-Ovest appariva allora più pericoloso di queste crisi, nonostante l’apparente insondabilità di alcune di esse, e la minaccia grave in quanto si poneva la questione se lo sviluppo industriale - capitalistico o del socialismo reale - si ponesse in conflitto con l’ambiente naturale in quanto tale (sviluppo industriale) oppure se fossero possibili soluzioni puramente tecnologiche.
Alla fine degli anni ‘60 molti indicatori divennero così minacciosi che un nutrito gruppo di scienziati ed economisti di diverse nazionalità (tedeschi, statunitensi, norvegesi, indiani, turchi, italiani) decise di costituirsi in organismo scientifico internazionale per l’assessment di questi problemi e per tentare di fare delle proiezioni su base scientifica. Si costituirono a Via della Lungara, presso l’Accademia dei Lincei, nel 1968, e per questo assunsero il nome di Club di Roma. Subito dopo, con il finanziamento del gruppo Volkswagen e con il supporto numerico del MIT e del suo General Dynamics Group, diedero il via al progetto di approntare un modello complesso con molti fenomeni interagenti, basato su un sistema di equazioni differenziali che allora richiedeva notevole sforzo di calcolo, per lo studio dell’evoluzione di circa 225 variabili, le cui più rilevanti ai fini descrittivi dei risultati erano: il prodotto industriale mondiale, il prodotto agricolo, la popolazione, le risorse naturali, l’inquinamento. Il modello si avvaleva di un famoso modulo del General Dynamics Group del MIT, mediante il quale tuttora praticamente tutti gli organismi finanziari, le holdings, le imprese multinazionali e le grandi banche prevedono con notevole approssimazione lo sviluppo industriale-economico. Non solo, ma diversi istituti statunitensi avevano sviluppato separatamente un complesso sistema di equazioni differenziali e di relative subroutines per la previsione e lo studio dell’evoluzione dell’inquinamento da pesticidi in agricoltura e da metalli pesanti e sali basici nei grandi laghi del Mid-West. Tale modulo funzionava notevolmente bene. Si aggiunsero al gruppo demografi e geofisici per lo studio dell’evoluzione della popolazione e delle risorse. Il Club di Roma commissionò un rapporto scientifico entro 3 anni, rapporto che fu effettivamente redatto dal MIT al Club di Roma nel 1971, subito tradotto in più di 30 lingue[61] e sottoposto all’attenzione dei governi dei paesi più influenti.
Il rapporto mostrava che il sistema economico-industriale-agricolo, la popolazione e il sistema ambientale, in breve il sistema delle società umane, andavano incontro a una crisi ineliminabile con mezzi puramente tecnologici, dovuta essenzialmente a due esponenziali: la crescita del prodotto industriale - ossia la crescita economica - e la crescita demografica. La crisi era prevista dal modello, in diverse varianti, nell’intervallo temporale dal 2010 al 2040. Il modello faceva partire le integrazioni usando come condizioni iniziali i valori noti del 1900, permettendo quindi fino al 1971 di confrontare i risultati teorici con i dati noti osservati fino ad allora. Le integrazioni proseguivano poi in quella che era una sia pur approssimata proiezione. Il modello non aveva la pretesa di fare una reale previsione, ma sondando ipotesi diverse più che ottimistiche (infatti poi non realizzate) cercava di vedere se i diversi tipi di crisi fossero eliminabili con provvedimenti puramente economico-tecnologici, senza cioè rallentare la crescita economica e demografica. Le ipotesi super-migliorative sondate furono: 1) il raddoppio, e poi il quadruplicamento delle rese agricole dal 1975; 2) l’introduzione, dal 1975, della fusione nucleare come mezzo di generazione dell’energia; 3) l’introduzione di tecnologie atte a combattere l’erosione dei territori arabili; 4)la riduzione da 20 anni a 5 anni del tempo totale di risposta del sistema politico-economico-tecnologico alle innovazioni tecnologiche nell’introdurle nel sistema mondiale[62]; 5) l’ipotesi che le stime di risorse naturali fossero sottostimate di un fattore 2; 6) l’ipotesi che la società umana riuscisse ad adottare entro il 1975 misure efficaci per il controllo della popolazione nei PVS; 7) il modello è stato fatto girare con diverse miscele di queste ipotesi super-migliorative, fino a far girare il modello con tutte queste ipotesi contemporaneamente. La crisi si spostava - a seconda dei casi - al più di 20 anni, in molti casi di pochi anni, ma rimaneva: una o più variabili andavano in overshooting
rispetto a qualche valore critico e poi in collasso, trascinando le altre. Le risorse naturali, al contrario di quanto sembra oggi essere nell’accezione di molti circa il lavoro del MIT, NON , anche se ovviamente diminuiscono, più o meno velocemente a seconda del tasso di crescita del particolare run
del modello. Sull’orizzonte del 2000 (che per il lavoro del MIT era una proiezione di 29 anni) tutti i casi prevedevano riduzioni di appena il 20% o al massimo del 40%. E’ ovvio che il sistema sarebbe
collassato - se tutte le altre variabili avessero “retto” - nel momento in cui le risorse si fossero esaurite, ma il fatto è che tutti i runs mostrano l’instaurarsi di una crisi - con collasso del sistema - prima
che le risorse naturali collassino. E’ importante che il lettore ricordi questa caratteristica delle crisi del modello del MIT. Le crisi previste dal modello si manifestavano a volte nel collasso del prodotto industriale, seguito dalle altre variabili, con un overshooting di inquinamento sfasato in delay e un overshooting della popolazione, che piccava per ultima. A volte il modello dava collasso prima nel prodotto agricolo (alimenti), seguito da quello industriale, dopo che il sistema aveva tentato di allocare sempre più capitali per arrestare il collasso agricolo. A volte (nel caso della “energia a costo trascurabile”, con la fusione controllata) i capitali - liberati dal fardello del finanziamento dell’energia - permettevano una crescita economica ancor più rapida, con conseguente esplosione dell’inquinamento, conseguente collasso del prodotto agricolo, e collasso finale della popolazione, che in diversi casi piccava tra il2010 e il 2030 a valori tra 8 e 11 miliardi di individui, per poi ridursi a meno di un miliardo sull’orizzonte del 2100. A volte era il prodotto industriale a piccare e a collassare per primo, a causa dell’esplosione dell’inquinamento, e l’allocazione di risorse troppo ingenti. Ogni modello veniva studiato su tale orizzonte temporale. Per concludere questa breve carrellata sul rapporto del MIT al Club di Roma, il rapporto dimostrava che la causa delle crisi erano i due esponenziali, come driving forces: la crescita industriale e la crescita demografica. Si dimostrava che queste ultime non potevano continuare fino al periodo 2020-2050. Soprattutto, la serie di studi numerici dimostrava che la crescita economica non poteva continuare per sempre in un mondo non infinito come il nostro, e in cui ogni sorta di limiti compare prima o poi per ogni variabile. I limiti sono da intendere come valori superati i quali la variabile collassa, rendendo prima instabile il sistema e poi trascinando via via tutte le sue variabili chiave in collasso, causando alla fine il collasso del sistema. Lo studio dimostrava che la soluzione - anzi il ventaglio di soluzioni - passavano tutte per una graduale frenata della crescita industriale e della popolazione, accompagnate da miglioramenti tecnologici e shifts economici significativi.
Le reazioni dei governi, dei politici e della maggioranza degli economisti nel mondo furono un vero putiferio. Il mondo industrializzato occidentale -capitalistico- sosteneva che non si erano sondate abbastanza le virtù del mercato e della tecnologia, cioè che nel modello non erano state inserite le capacità di risposta relative. Questo claim degli occidentali non aveva alcun fondamento, in quanto il modulo del General Dynamics Group del MIT era (ed è tuttora) usato per ogni previsione di sviluppo industriale ed economico in tutto l’occidente (e ora nel mondo). I meccanismi di risposta del sistema tecnologico in World3[63] erano ben presenti, e riproducevano numericamente ciò che fanno tutte le multinazionali hi-tech in borsa e nella produzione. Semmai, i meccanismi in questione erano in World3 troppo efficaci e pronti, e in definitiva troppo ottimistici. Il MIT, d’altra parte, fece questa soprastima dei meccanismi dell’interazione del mercato con la tecnologia intenzionalmente, proprio per controllare se le crisi erano o no eliminabili senza toccare la crescita. Il mondo del blocco orientale, da parte sua (sia quello dei paesi alleati dell’URSS che la Cina e gli altri paesi socialisti) gridò che questo avveniva (nel modello) soltanto perché esso funzionava con i meccanismi capitalistici e non conteneva i meccanismi regolanti del mondo socialista. Sbagliava anche il blocco orientale, perché in nessuna parte
nel modello era incluso un meccanismo politicamente capitalistico: il sistema allocava risorse all’agricoltura, all’industria, o a combattere l’inquinamento senza distinzione alcuna delle classi sociali a favore delle quali era fatto. In altre parole, nel modello, la popolazione è approssimata come un tutto unico, e i provvedimenti tecnologico-economici presi da World3 potevano benissimo essere presi dalla Casa Bianca come dal Politburo, dal Gosplan, da Downing Street governata dai Tories o dall’esecutivo della Cina Popolare. Infine, anche i PVS non-allineati diedero addosso al lavoro scientifico del MIT, sostenendo che l’arresto della crescita avrebbe implicato che la loro condizione di sottosviluppo sarebbe stata cristallizzata per legge. Questi ultimi in particolare sbagliavano anch’essi, perché il rapporto del MIT parla chiaramente ed estesamente di una redistribuzione
di risorse tra Nord e Sud del mondo, energia e prodotto industriale, come condizione
sine qua non
per poter arrestare la crescita su valori sostenibili da tutta l’umanità, senza guerre e conflitti che altrimenti sarebbero inevitabili.
Alcuni governi di paesi occidentali, come gli USA e la Gran Bretagna, spaventati per la minaccia del messaggio portato dagli scienziati del Club di Roma[64], istituirono addirittura delle task--force interministeriali per screditare il Club di Roma, nonché per diffondere false accezioni ed interpretazioni sul lavoro scientifico del MIT. Questo sforzo propagandistico, appoggiato abbondantemente dai media, simile a quello odierno di gran parte dell’industria pesante USA per tentare di screditare l’IPCC agli occhi dei membri del Congresso, fu molto efficace, previde spese di milioni di dollari (in valuta del 1972!!), nonché l’arruolamento di diversi professori di economia - come il prof. Nordhaus, che scrisse un libro di risposta al lavoro degli scienziati del MIT intitolato “Models of Doom”[65] . Il prof. Nordhaus scrisse diverse volgarità grossolane dal punto di vista scientifico, come l’asserzione che il Secondo Principio della Termodinamica non c’entrerebbe nulla nella catena produttiva del processo industriale-economico, sorvolando (o ignorando) che alla base di ogni produzione - capitalistica o no - c’e sempre la necessità di energia
in forme usabili e non entropizzate, e cioè è sempre necessario produrre lavoro. Siccome il lavoro viene prodotto dai combustibili fossili bruciandoli ed ottenendo calore, succede che - con o senza l’assenso di Nordhaus e di altri esimi economisti - la fisica c’entra per forza, e in particolare c’entra il Secondo Principio. Nordhaus, inoltre, tentò (con successo, purtroppo[66]) di vendere ai media una distorsione fondamentale delle crisi previste dal rapporto del MIT, e cioè che esse sarebbero dipese dal fatto che i modelli arrivavano al collasso per l’esaurimento delle risorse. Falso! Leggere per verificare.
Per disgrazia dell’establishment economico occidentale di allora, lo shock sollevato dal lavoro del MIT si aggiungeva a quello provocato dai lavori di diversi geofisici e geologi americani - di diverse università - guidati dal geofisico prof. King Hubbert, che aveva previsto con successo un decennio prima il picco del tasso di estrazione del petrolio dal territorio statunitense avvenuto come previsto nel 1970. Hubbert faceva vedere, che a causa della complessa geometria dei pozzi, non è possibile estrarre il 100% della giacenza iniziale del pozzo all’atto della scoperta, perché presto - quando la giacenza è ridotta al 50%-60% - per estrarre è necessario pompare dentro vapore ad alta pressione per spremere fuori il residuo, e arriva il momento in cui l’energia necessaria per fare ciò supera quella ottenuta bruciando il petrolio stesso. A quel punto esatto - fece notare il prof Hubbert - l’estrazione finisce semplicemente perché non ha più senso estrarre
il petrolio, in quanto il pozzo diventa non più una sorgente di energia, ma un assorbitore - a prescindere dal prezzo, di nuovo, con buona pace di certi economisti. Lo studio di Hubbert prevede che il picco del tasso di estrazione di un pozzo - o di una intera regione petrolifera - avviene quando la giacenza totale è circa il 50% del valore iniziale. Hubbert aveva previsto anche che il tasso del petrolio su scala mondiale avrebbe piccato - per poi scendere per sempre - intorno al 2020. Anche in questo caso fu sollevato un polverone, cercando di accreditare presso i media la versione secondo la quale i geofisici americani si erano sbagliati e che la diminuzione del tasso di estrazione dai pozzi USA - realmente avvenuta nel 1970 - era in realtà una decisione politica del governo statunitense “che aveva deciso di sfruttare prima il petrolio del Medio Oriente per preservare le scorte Americane”. Questa balla resiste tutt’oggi nei media - ogni volta che affiora la questione della durata del petrolio - e nella diffusa opinione pubblica, anche se non ha mai preso piede negli ambienti geologici e geofisici connessi al problema.
Il polverone sollevato - con una certa efficacia - contro i risultati del MIT finì così come quello sul petrolio, che doveva assolutamente essere percepito dall’opinione pubblica come una risorsa “che durerà ancora centinaia di anni”. Ciononostante, i dati reali erano conosciuti anche da coloro che cercavano di tacerli all’opinione pubblica o di falsificarli. Inoltre altri dati sull’inquinamento, sull’effetto serra, sulla produzione agricola che non teneva - pur aumentando - il passo della popolazione, sulla desertificazione e sull’erosione dei territori arabili[67], continuavano ad affluire. Ciò aumentava il grado di preoccupazione latente nei governi, fino all’inizio degli anni ‘80, in cui il primo summit sul clima - sia pur con il mondo scientifico su posizioni non ancora univoche - gettò una luce niente affatto rassicurante su uno dei principali effetti della crescita industriale e del fabbisogno annuo di energia: l’effetto serra.
La misura era colma - nonostante i tentativi (ad Est e ad Ovest) a volte di ignorare, a volte di sminuire, e nel 1987 le Nazioni Unite, sotto mandato dell’Assemblea Generale, istituiscono la Commissione Bruntland[68] sullo sviluppo sostenibile. Il celebre rapporto della Commissione Bruntland (“Our Common Future”[69]) stabiliva finalmente[70] che i lavori scientifici dei pregressi 20 anni non erano poi così sballati come si era sostenuto fino a pochi anni prima. In particolare, si stabiliva con criteri scientifici che lo sviluppo
- usato in realtà come diplomatico sostitutivo di crescita
- non era necessariamente sostenibile, ma che dovevano addirittura essere soddisfatti dei criteri generali perché lo diventasse (non consumare risorse a tassi maggiori di quelli a cui possono essere ripristinate, etc.). I ricercatori ovviamente hanno sorriso di tanta ufficialità per stabilire criteri così ovvii, ma comunque i risultati della Bruntland hanno costituito una vittoria fondamentale per la continuazione del processo scientifico di indagine su quei temi, il suo incremento di finanziamento da parte dei governi, e in generale per il processo di sensibilizzazione sui temi delle crisi ambientali globali. Ovviamente, i governi non stabilirono in pratica assolutamente nulla, sebbene all’interno nacquero in silenzio interi maxi-progetti, come lo USGCRP[71].
Solo un anno dopo, per l’infuriare delle polemiche che l’industria pesante e la maggioranza degli economisti avevano scatenato contro il processo scientifico sull’effetto serra e le necessarie misure, che minacciavano di nuovo la Crescita Economica e il Mercato, nel 1988, sotto mandato dell’Assemblea Generale, le Nazioni Unite, con il coordinamento del mondo scientifico guidato dall’ICSU, affidano all’Organizzazione Meteorologica Mondiale (WMO) e al Programma Ambiente delle Nazioni Unite di fondare un organismo internazionale ed intergovernativo di scienziati di ogni disciplina, con l’obiettivo di seguire permanentemente il problema dell’effetto serra, gli impatti e le risposte, e di fornire periodicamente ai governi di tutto il mondo rapporti ufficiali, con la massima autorevolezza fornita dal mondo scientifico. L’organismo era l’IPCC, l’Intergovernmental Panel on Climate Change.
Il primo rapporto fu uno shock per tutti, ma soprattutto per chi aveva sostenuto che le preoccupazioni sull’ambiente globale e le sue interazioni con la crescita erano esagerate e fuori di luogo. La struttura e le procedure IPCC sono tali che ogni governo rappresentato alle Nazioni Unite nomina due scienziati delegati con diritto di voto sui rapporti ai governi, ma i lead authors
- che guidano i settori scientifici operativi dell’IPCC - sono di nomina strettamente accademica e vengono nominati dalle comunità scientifiche sotto guida ICSU. Il rapporto del 1990 non ottenne l’unanimità degli scienziati, anche se approvato a schiacciante maggioranza. Si opposero i delegati di Kuwait, Arabia Saudita, Stati Uniti ed altri paesi produttori di petrolio. Curiosamente, i due scienziati delegati governativi USA votarono contro tutta una serie di paragrafi, che erano stati redatti soprattutto con il lavoro scientifico di più di 4000[72] ricercatori USA delle massime istituzioni scientifiche del paese, pubbliche e private, governative (come il NOAA, la NASA, il JPL) e anche militari (come Livermore e Los Alamos).
Nel 1991 esce un nuovo lavoro di Meadows et al. (“Beyond the Limits”[73]) in cui il gruppo che aveva - 20 anni prima - fatto scoppiare la problematica della insostenibilità della crescita rinnova i calcoli, aggiornando i coefficienti e ottenendo sostanzialmente gli stessi risultati. Soprattutto, inoltre, confrontano i
dati osservati
dei passati 20 anni con le loro proiezioni del 1971, mostrando che
gli scarti massimi riscontrati sono stati appena del
1.8%. Una bella soddisfazione, per il prof. Meadows e il suo gruppo, che rende loro giustizia di tutte le sciocchezze allora propalate dai media e dalle campagne organizzate dai governi USA e UK per discreditarli. Purtroppo, come ho potuto verificare personalmente, la disinformazione e falsificazione principale (“le crisi del Club di Roma dipendevano dalla previsione dell’esaurimento delle risorse non verificatosi”) regge ancora, e anche qui nel nostro convegno qualche collega ha mostrato di avere questa lettura del lavoro del Club di Roma. Anche molti giornalisti ambientali mostrano di avere questa falsa lettura del famoso rapporto del MIT. Comunque, a livello scientifico, il lavoro di Meadows del 1991 conferma autorevolmente quello del 1971, e stavolta lo fa con la potenza dei dati. Tra l’altro, il lavoro del 1971 del MIT prevedeva la concentrazione di anidride carbonica del 1991 con un errore di appena 0.5%.
Gli eventi precipitarono. All’inizio del 1992 l’IPCC pubblicò il celebre Supplementary Report[74], con il calcolo degli scenari business-as-usual
delle emissioni e delle concentrazioni di gas serra relative. A tamburo battente venne convocato ed organizzato per il 1992 a Rio de Janeiro il primo Summit intergovernativo UN sul clima, dove venne firmata la UNFCCC (Convenzione quadro delle Nazioni Unite sui Cambiamenti Climatici). Si costituì il primo schieramento intergovernativo, l’AOSIS[75], e la Cina cominciò a formare uno schieramento, il cosiddetto G77&China, inizialmente di 77 paesi (oggi di circa 140) che prese la guida degli interessi dei PVS, raggruppando uno schieramento molto più vasto del vecchio schieramento dei Paesi Non Allineati del tempo del dominio dei due blocchi.
La Convenzione fu caratterizzata per un testo molto avanzato. Infatti, l’Art. 2 recita che l’obiettivo dei paesi aderenti è quello di riportare la concentrazione dei gas serra in atmosfera “ad un livello tale da non essere pericoloso per il sistema climatico”. Nella Convenzione UNFCCC si afferma chiaramente che i paesi industrializzati sono quelli che hanno tratto il maggior beneficio dalla crescita delle emissioni di gas serra fin qui avvenuta ed in atto - in quanto tale crescita ha causato la loro crescita economica. Si continua concludendo che “il maggior sforzo economico deve quindi gravare sui paesi industrializzati, così come l’onere dell’avvio delle misure”.
Mentre il presidente Bush dal podio lamentò che “non si può fermare l’economia statunitense per una crisi climatica su cui il mondo scientifico non sa indicare con esattezza tempi e intensità”, in altra sede firmava l’articolo sul principio di precauzionalità, che afferma che “ove sia presente il pericolo di vaste distruzioni irreversibili, la mancanza di certezza matematica sull’entità della crisi non può essere addotto come motivo per non prendere alcuna misura”. Contemporaneamente alla firma del primo trattato della storia sul clima, Bush faceva approvare un aumento del budget del pacchetto di programmi scientifici dello USGCRP da 2.5 a 4 miliardi di dollari l’anno... Da quell’anno, la NASA cominciò a ricevere più soldi per le sue attività di modellistica ed osservazione climatica che per tutto il resto delle sue attività spaziali civili.
I paesi firmatari cominciarono il processo di ratifica (il Parlamento Italiano ratificò la UNFCCC e la convertì in Legge dello Stato nel gennaio 1994, con L.65/94[76]. All’inizio del 1998, la Convenzione fu ratificata da 165 parlamenti su 180. La UNFCCC istituì inoltre un organismo negoziale per installare un Organo Supremo dei governi di tutto il mondo per prendere le future decisioni con valore di legge sul clima. Era l’INC[77], che ebbe il compito di istruire i meccanismi, i regolamenti e le sottostrutture della Conferenza delle Parti (COP), che si sarebbe riunita a Berlino nel marzo 1995 per la prima volta, per poi essere convocata annualmente. Visto che la Convenzione era piena di buoni principi, ma senza il potere forzante di legge, l’unica cosa concreta che fu stabilita a Rio era proprio la COP, Organo Supremo sul clima che stava alla UNFCCC come un parlamento nazionale sta alla propria Costituzione.
Nel frattempo, sintomi come l’aumento della frequenza degli uragani nelle zone tropicali degli oceani e l’aumento della frequenza dei tornado negli Stati Uniti, così come l’aumento della frequenza delle siccità e delle alluvioni - in termini di trend sul grande periodo, al di là cioè delle oscillazioni climatiche periodiche e/o stocastiche, spingevano ancora sui governi - e sull’industria delle grandi riassicurazioni - provocando un’ulteriore accelerazione negoziale.
A livello scientifico, i modelli e l’analisi teorica facevano ormai grandi passi, e fu sconfitta nel 1994 l’ultima obiezione di una parte di ricercatori dei paesi petroliferi e dei delegati governativi USA, che si aggrappava ad una discordanza di qualche decimo di grado (0.3-0.4°C) tra la riproduzione teorica con i modelli del riscaldamento globale osservato in questo secolo e i dati, nel senso che i modelli davano un riscaldamento 0.3-0.4°C maggiore dell’osservato. Il problema fu risolto inserendo nei calcoli il - sia pur lieve - raffreddamento indotto dal particolato in aerosol da SO2 e SO3 . L’anidride solforosa e la solforica si producono infatti in massicce quantità nel processo di bruciamento nelle centrali elettriche a carbone. La nube del particolato ha breve raggio di azione (poche centinaia di chilometri) e breve durata (qualche giorno). Per questo non influenza sostanzialmente il clima globale, tranne per quell’effetto calcolato di raffreddamento lieve. I modelli del secondo assessment (SAR), in preparazione per l’approvazione formale all’inizio del 1995, ottennero per la prima volta l’unanimità, costringendo infatti anche i delegati di Stati Uniti, Arabia Saudita e Kuwait ad approvare ill rapporto.
La prima Conferenza delle Parti, a Berlino nel marzo 1995, stabiliva che gli oneri e gli impegni addebitati ai paesi industrializzati nel testo della Convenzione non erano adeguati al compito di combattere l’effetto serra senza danneggiare gli interessi dei PVS,
non responsabili del vistoso aumento (del 30%) della concentrazione di anidride carbonica finora registrato. Il Summit di Berlino fu sul punto di fallire completamente, quando gli Stati Uniti, il Canada, l’Australia e la Nuova Zelanda pretesero - per andare verso un trattato sul clima che prevedesse l’inizio delle riduzioni - che anche i paesi poveri se ne facessero in qualche modo carico. La sollevazione della Cina, dell’India, del Brasile, dell’intero e appena costituito African Group, di tutti i paesi asiatici (tranne la Corea del Sud) e di tutta l’America Latina impedì il fattaccio, e gli USA accettarono di capitolare, non riuscendo a trovare una ragione pronunciabile per sostenere che, dopo aver loro stessi (soprattutto) e l’Europa creato il problema, dovevano essere anche i paesi poveri a spartirsene l’onere. Fu decisivo il fatto che la Cina e l’India minacciarono velatamente di passare a produrre tutto il loro fabbisogno di energia a carbone[78]...
La COP istituì dunque l’AGBM[79], il cui mandato era quello di individuare adeguati inasprimenti degli oneri di riduzione delle emissioni a carico dei soli paesi industrializzati (“Annex I countries”), da fare entrare in vigore entro la COP3 - da tenere a Kyoto nel dicembre 1997 - tramite un “Trattato con forza di legge”. Era già un risultato storico per il mondo scientifico, che a seguito di calcoli e lunghi studi per salvare l’umanità dai peggiori impatti da effetto serra, per la prima volta forzava decisioni governative in direzione potenzialmente minacciosa per la crescita e il mercato. La COP è continuamente una interazione dei membri governativi con gli scienziati, che sono presenti sia come membri del SBSTA- corpo scientifico della Conferenza delle Parti - che come osservatori. Nella COP sono rappresentati - senza diritto di voto - anche i rappresentanti dell’industria e del mondo ambientalista.
Ormai il processo scientifico era a valanga. Nel dicembre 1995 (1-11) a Roma la XI Assemblea Plenaria dell’IPCC ratificava all’unanimità il Second Assessment Report (altrove descritto in questo articolo). La ratifica avvenne dopo una battaglia accanita - articolo per articolo[80] - dei due delegati USA con diritto di voto - peraltro contro la stessa delegazione scientifica USA che contava più di cento membri - insieme ai delegati di Kuwait e Arabia Saudita per tentare di redigere il sommario per i governi in forma edulcorata rispetto al documento scientifico già approvato all’unanimità. In pratica ogni 3-5 minuti, per 10 giorni, i sei delegati di USA, Kuwait e Arabia Saudita hanno tentato di fare approvare, in ogni articolo, delle espressioni come “potrebbe”, “forse”, “probabilmente” in affermazioni scientifiche del documento-sintesi per i governi, mentre nel documento scientifico integrale (di cui la sintesi per i politici era solo il riassunto) loro stessi avevano approvato - all’unanimità - espressioni contenenti assoluta certezza. Il lettore deve immaginare il Chairman, lo Svedese prof. Bolin, che bocciava uno dopo l’altro i tentativi di “mitigazione” del documento riassuntivo per i governi, con osservazioni tipo: “ma perché mai lei vuole dire che questa affermazione deve essere riportata in forma dubitativa, quando lei stesso nel documento scientifico integrale la ha già approvata in forma di certezza, e soprattutto quando proprio l’intera sua vasta delegazione scientifica è stata responsabile della dimostrazione che andava usata l’espressione di certezza? Perché vuole che il suo governo legga qualcosa di diverso rispetto al documento scientifico integrale, nel documento che lo riassume??”. Per finire la descrizione dello scontro, bisogna dire che il documento ha rischiato di non essere approvato, perché a metà percorso gli Stati Uniti hanno preteso di cambiare unità di misura della produzione nazionale di anidride carbonica: volevano che nel rapporto per i governi fossero usate non le unità del rapporto integrale scientifico, e cioè tonnellate di CO2 pro capite, da cui risultava che un cinese produce 20 volte meno CO2 di uno statunitense, ma bensì tonnellate di CO2 per unità di prodotto nazionale lordo in dollari USA, da cui sarebbe risultato che gli americani “fanno fruttare bene l’inquinamento”. La battaglia con i delegati cinesi si è risolta mantenendo le unità del rapporto integrale, ma menzionando che “potrebbero essere usate anche altre unità riferite al prodotto economico”. La Cina ha fatto registrare in nota il suo disaccordo.
Il lettore ha così compreso come il rapporto-riassunto per i governi “Synthesis for Policy Makers” è stato combattuto fino all’ultimo, per fare arrivare il messaggio meno allarmante possibile ai governi. Tutto sommato il tentativo USA è fallito sostanzialmente.
Un anno dopo, a Luglio 1996 nella COP2 di Ginevra, tutti i governi facevano ufficialmente proprio- sentiti i loro staff scientifici - il SAR dell’IPCC.
A Kyoto, a dicembre 1997 durante COP3, gli USA - per bocca della Nuova Zelanda a nome del JUSCANNZ - proposero di porre come condizione per fare il trattato che anche i PVS accettassero riduzioni e limitazioni. La COP stava per fallire. Vi fu una sollevazione di praticamente tutto il mondo (UE+G77&China) che faceva notare che tale proposta assurda era contro la Convenzione stessa e contraria al Mandato di Berlino (AGBM). Inoltre era contro ogni logica ed equità, visto che il problema era stato causato dai paesi industrializzati. Il tentativo USA falliva, dopo gli interventi per un’intera giornata che ribadivano il no (tranne i sei paesi del JUSCANNZ). E’ rimasto famoso lo sferzante ed ironico intervento cinese, quando il loro delegato disse: “le vostre sono emissioni di lusso, mentre quelle dei PVS sono di sopravvivenza: una riduzione del 50%, per esempio, per voi americani equivale ad avere un’automobile ogni due cittadini adulti invece che una ciascuno, mentre per i cinesi significherebbe andare in autobus in 60 persone invece che in 30! Questo non è solo ridicolo, è impossibile.”
Finalmente, la COP3 approva il Protocollo di Kyoto, primo trattato sul clima con forza di legge, che prevede complessivamente una riduzione delle emissioni di anidride carbonica dei paesi industrializzati del 5.2% rispetto al livello del 1990 entro il 2012. Molto poco rispetto alla riduzione necessaria (del totale
delle emissioni, non solo di quelle del Nord del mondo) del 60%-80% rispetto al 1990[81]. Dal punto di vista quantitativo, il trattato è praticamente nullo per combattere l’effetto serra, ma è comunque il primo esempio, è un inizio, e costituisce una riduzione del 24% in media rispetto al livello di emissioni di gas serra che si sarebbe raggiunto nel 2012 senza trattato. Inoltre, il Trattato costituisce una sconfitta per quella parte (la maggioranza) del mondo industriale ed economico che ha combattuto per non fare approvare nulla. Per esempio, era presente una delegazione di 100 tra senatori e rappresentanti del Congresso USA per convincere la delegazione governativa a mandare a monte il Trattato. La posizione della delegazione USA era di inserire nel trattato una “riduzione dello 0% rispetto al 1990” entro il 2010, quella dell’UE di ridurre del 15% rispetto al 1990 entro il 2005, quella dell’AOSIS del 25% entro il 2005, e quella del Giappone di ridurre del 5% entro il 2010, sempre rispetto al 1990 (con un subdolo meccanismo di sconto per chi produceva più PIL, per cui la vera riduzione sarebbe stata, per USA e Giappone, inferiore al 2% secondo il protocollo proposto dal governo giapponese). L’industria pesante USA aveva organizzato un cartello con circa 130 aderenti che ha finanziato spot radio-televisivi per circa 50 milioni di dollari all’anno per spaventare l’elettore americano. La campagna pubblicitaria diceva che “l’economia americana perderà colpi e competitività con il trattato contro l’effetto serra”, che “si perderanno milioni di posti di lavoro”[82], che “il cittadino americano perderà la sua tradizionale libertà”, che “la benzina rincarerà di 20 volte”, etc.
Il Trattato di Kyoto è per questo una vittoria, e costituisce un esperimento, ma si tramuterà in una sconfitta del mondo scientifico - e dell’umanità - se rimarrà impantanato e inapplicato, e soprattutto se non sarà seguito da altre, sostanziali misure di riduzione...specie prima che sia troppo tardi. Il Protocollo di Kyoto prevede la prima riduzione di emissioni dei paesi industrializzati per quote differenziate:
· -8% per l’Unione Europea, che a sua volta al suo interno ha già quote differenziate (-6% l’Italia, +30% il Portogallo, +40% l’Irlanda, -25% la Germania, etc.)
· -7% gli USA (che hanno ottenuto “lo sconto”, emettendo molto di più dell’Europa (quasi il doppio pro capite)
· -5% il Giappone
· 0% la Federazione Russa e l’Ucraina
· +10% l’Australia (che ha preteso questo bonus minacciando la non adesione, anche se in barba all’art. UNFCCC sull’equità, visto che l’Australia non è certo un PVS e la sua economia è più che florida)
Tutte le riduzioni sono calcolate sui valori del 1990. I gas da ridurre sono (con coefficienti di equivalenza in base al global warming potential di ogni gas):
¨ l’anidride carbonica (CO2)
¨ il metano (CH4)
¨ i clorofluorocarburi (CFC)
¨ il protossido di azoto (N2O)
¨ l’esafluoruro di zolfo (SF6)
¨ i perfluorocarburi (PFC)
¨ gli idrofluorocarburi (HFC)[83].
L’Unione Europea si è battuta abbastanza seriamente per ottenere un trattato il più vicino possibile all’impegno preso da tutti i governi a Ginevra di seguire il rapporto scientifico SAR. L’UE proponeva -15% rispetto al 1990 entro il 2005, per mediare tra la proposta AOSIS (-25% entro il 2005) e quella USA (-0% entro il 2010). Purtroppo, il prezzo da pagare - da parte dell’UE e della comunità internazionale - per ottenere la firma di USA e Giappone non è stato soltanto di accordare un misero -7% agli USA (che emettono pro capite il doppio dell’Europa), appena un -5% al Giappone e addirittura un +10% all’Australia. Si è dovuta accettare una clausola - fortemente osteggiata dall’Europa e dal G77&China - che permette il commercio dei diritti di inquinare, il cosiddetto “emission trading”. In sostanza, gli USA e il Giappone, avendo ben presente il recente collasso economico della Russia e dell’Ucraina, e ottenendo per questi ultimi l’assegnazione di una riduzione dello 0% nel 2012 rispetto al 1990, pretendendo la possibilità di emission trading ottengono adesso di non ridurre nulla, anzi di poter crescere le loro emissioni semplicemente acquistandone i diritti dai russi e dagli ucraini! Niente male, vero? Chissà se il clima - e i processi radiativi di assorbimento nell’infrarosso - faranno distinzioni tra le molecole di CO2 emesse dagli americani e dai giapponesi da quelle emesse dai russi... Ci vorrebbero dei processi fisici che avvengono o non avvengono a seconda delle convenienze del Libero Mercato...
In totale, essendo la riduzione complessiva pari a -5%, praticamente solo l’Unione Europea dovrà farsi carico della riduzione, visto che gli americani e i Giapponesi provvederanno comprando i “diritti” dai Russi. Altro cedimento è stato la clausola che permette il calcolo netto
delle emissioni, cioè le emissioni industriali meno le quantità assorbite dai sinks forestali nazionali, in modo che i paesi con molte foreste debbano ridurre di meno...
Nella COP4 a Buenos Aires, nel novembre 1998, si è tentato di completare il Trattato con i meccanismi di controllo e di sanzione, ma senza riuscirvi. Il fallimento è stato causato dal tentativo della delegazione del governo USA di introdurre il trading dei diritti di emissione anche con i PVS. Questi ultimi ovviamente hanno rifiutato per i seguenti motivi:
à gli USA, il Giappone, il Canada e diversi altri importanti paesi (per la quota assegnata di emissioni) non hanno ancora ratificato Kyoto, e dunque i PVS vedono violato lo spirito della Convenzione (“se non avete ridotto ancora nulla voi che emettete il 90% delle emissioni e che avete messo in atmosfera il 98% della CO2, perché dovremmo vendere nostre quote che non ci sono state assegnate, così accettando il principio di limitarci prima ancora che voi abbiate anche cominciato?”);
à non ci sono assegnazioni di emissioni per i PVS, quindi non si sa quanto potrebbero “vendere”.
Va inoltre tenuto presente che l’Unione Europea vuole introdurre un limite all’emission trading.
Il prossimo 25 ottobre a Bonn, COP5 vedrà una battaglia decisiva tra USA e G77%China, con l’Unione Europea sostanzialmente ostile a USA e Giappone, e con un crescente protagonismo dell’African Group all’interno del G77&China.
Già dal 1996, un gruppo di ambientalisti e ricercatori britannici - il Global Commons Institute - porta avanti una proposta nuova e dirompente sulla crisi climatica, capace di coniugare la riduzione delle emissioni con il principio di equità. Questo è importante non solo perché così stabilisce la UNFCCC, ma perché è la condizione necessaria perché si arrivi ad un trattato in cui anche i PVS abbiano il loro sviluppo garantito in maniera però da non danneggiare il sistema climatico. La proposta del GCI[84] - oggi già approvata dal Parlamento Europeo e già applicata alle riduzioni di emissioni interne all’Unione - si chiama CONTRACTION & CONVERGENCE. Essa prevede che, assunta una determinata traiettoria delle emissioni globali totali fissata dall’IPCC, nei primi 30 anni ogni paese abbia una quota di emissioni pro capite variabile nel tempo, che parte dal valore attuale fino a convergere ad un valore pro capite uguale per tutti appunto 30 anni dopo l’inizio del periodo di convergenza. Dopo quel momento, ogni paese continua ad avere lo stesso valore pro capite, ma riducendo le proprie emissioni nazionali proporzionalmente all’inviluppo totale. Questo ovviamente costerà riduzioni molto più drastiche per i paesi che hanno ora emissioni pro capite altissime, ma è l’unico modo di portare l’India, la Cina, il Gruppo Africano, e il resto dei PVS al controllo delle emissioni. Inoltre questo darebbe un sia pur parziale compenso (rimanendo però sempre in credito, da colmare con tecnologia) per quello che negli ambienti negoziali viene chiamato “il debito storico”. Questo debito è quello che abbiamo contratto noi - paesi industrializzati - con i PVS, dato che, avendo pompato in atmosfera il 30% in più del livello naturale di anidride carbonica nel corso del presente secolo, abbiamo realizzato una crescita economica e di consumi energetici, causando al tempo stesso la crisi climatica. Non solo, ma sempre con la nostra crescita abbiamo innescato anche la crisi energetica, rendendo inoltre materialmente impossibile altrettanta crescita per i PVS. Andando almeno alla redistribuzione graduale da qui a 30 anni (ma questo numero è da negoziare) i paesi in via di sviluppo rimarranno in credito del debito storico, ma la redistribuzione permetterà a loro di crescere in valore pro capite di energia e di emissioni, oltre che in valore assoluto. Tutto questo avverrà però mantenendo le emissioni totali globali in contrazione, come richiesto dall’IPCC.
Il G77&China ha già mostrato di gradire la proposta del GCI, con l’esplicito assenso dell’African Group. L’Unione Europea la sta già applicando al proprio interno. Infatti, la UE ha accettato una contrazione totale dell’8% rispetto al 1990 entro il 2012, ma all’interno di questa contrazione ha anche trovato lo spazio per la crescita del 30% del Portogallo e del 40% dell’Irlanda, mentre la Germania dovrà ridurre del 25%, la Gran Bretagna del 20%, l’Italia solo del 6%, etc.
Passiamo a valutare gli elementi disponibili sulle altre crisi globali.
2.3 CRISI ENERGETICA
Già nel 1997, il problema del picco del tasso di estrazione in arrivo nella prossima decade era uscito dalle ristrette cerchia dei geofisici e geologi, con un famoso articolo apparso su Nature (apr.’97) con il titolo “Oil Back on the Global Agenda” e in cui si spiegava che le riserve erano state sovrastimate dall’OPEC e dall’ex-URSS a scopi puramente di vendita e di prezzo del barile. Nel 1998 la Petroconsultants
di Ginevra - un istituto che fornisce le consulenze geologiche e geofisiche petrolifere a tutte le multinazionali del petrolio - mostrava che nei passati 50-60 anni il tasso di scoperta di nuove riserve (in Gigabarili/anno) era sceso costantemente, e da più di 40 anni è ormai trascurabile rispetto al tasso di produzione e di consumo. Dal 1997 ogni G7/G8 ha in agenda un rapporto dell’IEA sulla proiezione del tasso di estrazione di petrolio e gas naturale. Nel G8 di Mosca del Marzo 1998, l’IEA mostra grafici e dati complessivi, ritoccando in basso le riserve pretese dall’OPEC di fattori 4-5, prevedendo il picco del tasso di estrazione nel periodo 2010-2015 circa a livello mondiale (cioè il picco della somma dei tassi di estrazione massimi possibili
di ogni pozzo o regione petrolifera, includendo ovviamente anche tutto il Medio oriente, l’Iran e il Caucaso). A marzo 1998 la questione viene pubblicata persino sulla rivista divulgativa scientifica “Scientific American”, con riferimenti, oltre che al picco in arrivo e ai dati che lo avvalorano, anche alla previsione di King Hubbert, fatta 30 anni prima con sorprendente buona approssimazione. Sui media britannici e USA la questione fa rumore. Sui media italiani, nulla.
Nel maggio del 1998, l’allora capo esecutivo dell’ENI, il Dr. Bernabè, rilasciava un’intervista alla rivista di economia ed alta finanza Forbes, prevedendo il picco (geologico, non temporaneo) della produzione di petrolio e gas naturale a livello mondiale nel 2005 ± 5 anni, e prevedendo anche un potente shock economico causato dall’esplosione del prezzo del barile, visto che la domanda sarebbe per un po’ continuata a crescere, mentre l’offerta avrebbe piccato. Sui media italiani, come sempre, niente.
Cosa avviene sul fronte negoziale circa la crisi energetica e le sue micidiali interazioni con la crisi climatica e le necessarie riduzioni di consumo di energia fossile? Nulla. L’unica sede in cui - sommessamente - si discute sono i meetings del G8, ma su questo aspetto l’eco sui media, di nuovo, è pari a 0.
Un cenno importante su un particolare aspetto dell’interazione di questa crisi con la crisi climatica, che così tanto è intrecciata con il problema dell’energia, fino a diventare quasi un tutto unico. Quando si verificherà il picco, come tutti gli analisti - scientifici ed economici - hanno previsto, i prezzi esploderanno. Anzi, si prevede - come ci spiega Bernabè dalle colonne di Forbes - che i prezzi cominceranno a salire quando la derivata seconda della curva del tasso di produzione diventerà negativa. Cosa ci si deve aspettare allora? Un violento shock economico, dai risvolti complicati, tranne per alcuni elementi facilmente prevedibili:
· I militari diranno che la loro quota di carburanti non si tocca, in quanto “strategica”;
· Le quote dei bunker fuels - quelle per alimentare il grande trasporto marittimo - non si potranno toccare, in quanto non c’è proprio altro modo di trasportare i grandi carichi di fertilizzanti, acciaio, cemento, il petrolio stesso là dove l’oleodotto non può arrivare, etc., se non via cargo marittimo;
· il trasporto aereo civile crollerà per motivi tariffari e di disponibilità di kerosene;
· la quota di petrolio disponibile per il trasporto su gomma crollerà di una frazione superiore allo shortage
totale, a causa dei primi due punti;
· anche l’industria dell’auto e il suo indotto crollerà di conseguenza;
· i prezzi di ogni trasporto e in particolare dei prodotti alimentari saliranno cospicuamente.
A questo punto, senza altre variazioni, le emissioni di anidride carbonica diminuiranno apprezzabilmente. Una “soluzione” per la crisi climatica? Purtroppo, no, e per due motivi:
1) Tranne per i trasporti aerei, in cui l’energia elettrica non è di aiuto, il sistema risponderà spostando l’uso di combustibile dal petrolio e gas naturale al carbone. Infatti quest’ultimo, estrapolando linearmente il tasso attuale di consumo si esaurirà tra circa 80 anni, e tenendo invece conto del trend si esaurirà tra 40 anni circa. Se si tiene conto della prossima crisi del petrolio e della sua graduale sostituzione con il carbone nel produrre energia, il periodo di disponibilità del carbone potrebbe ridursi a 20-30 anni dopo l’inizio della crisi del petrolio. La disponibilità del carbone per almeno 20-30 anni causerà un massiccio uso del carbone, e la sua caratteristica energetica di fornire meno energia per mole di carbonio rispetto agli idrocarburi, porterà il sistema a produrre circa 33-35% di CO2 in più rispetto al petrolio per unità di energia prodotta. Si stima che questo compenserà - approssimativamente - la diminuzione delle emissioni causata dal minor uso di petrolio. Il conto esatto dipenderà dall’entità della crisi economica indotta e dalla relativa contrazione dei consumi.
2) la seconda ragione è che il picco del tasso di produzione del petrolio, e perciò l’approssimativo inizio del calo potenziale delle emissioni avverrà tra 10-15 anni. In capo a questo periodo, la concentrazione di anidride carbonica - anche se Kyoto venisse applicato scrupolosamente - aumenterà molto probabilmente oltre le 400 ppmv, e nel periodo trentennale successivo - dominato dal carbone - supererà anche le 700 ppmv. Ciò è sufficiente per avere una crisi climatica ben più forte di quella descritta precedentemente, che faceva i calcoli usando una concentrazione tra 500 e 560 ppmv.
Cosa ci si può aspettare, a livello di schieramenti e a livello militare?
Questo è complicato, ma alcune strutture e trend si delineano all’orizzonte. Per esempio, se - come è probabile e prevedibile - gli Stati Uniti dichiareranno il Medio Oriente “strategico” per il loro fabbisogno energetico, finirà con ogni probabilità la lunga “amicizia” con l’Europa, in quanto quest’ultima riterrà il residuo petrolio Mediorientale altrettanto “strategico”. Visto che la Cina e la Federazione Russa hanno un trattato militare per la mutua difesa nel secolo venturo, e che a questo trattato si è agganciata anche l’India, è lecito chiedersi se queste potenze lasceranno che l’ultimo petrolio sia monopolizzato dagli Stati Uniti. E’ inoltre interessante chiedersi che fine faranno le due ulteriori “amicizie” degli USA con Cina e Russia.
E l’Islam? Come si collocheranno i tanti paesi a popolazione islamica? Nei negoziati sul clima i paesi Islamici sono schierati con la Cina... Per lo schieramento dei paesi islamici sulla contesa del petrolio, bisogna sapere un fatto fondamentale
circa la prossima crisi energetica. Si tratta del fatto che, prima del picco globale del tasso di estrazione - in pratica tra 5-6 anni - il tasso di estrazione OPEC supererà il tasso di estrazione dei paesi non-OPEC. Tale dato può essere visto sul sito di Petroconsultants di Ginevra o su quello del King Hubbert Center. Questo dato è al centro delle preoccupazioni ormai di ogni G8. Ora, tutti sanno che l’OPEC è controllato praticamente del tutto dal mondo islamico. Ciò sarà probabilmente il dato principale per la decisione dello schieramento concreto del mondo islamico nella prossima crisi del petrolio.
Siccome un serbatoio quasi intatto, anche se perturbativo rispetto al giacimento Mediorientale, è quello intorno al Mar Caspio, una linea prioritaria di alimentazione di petrolio per l’Europa è quella che passa nei Balcani. Questa circostanza, unita alla ancor più importante fattore costituito dalla strategia della dominance totale, è senza dubbio alla base del conflitto nei Balcani. Altro che guerra “umanitaria”.
2.4 DEFORESTAZIONE
Il lettore ha potuto valutare - nella sezione sulla crisi climatica che a tante altre crisi è agganciata - il ruolo chiave delle foreste - e in particolare quelle tropicali - nell’assorbire e sequestrare l’anidride carbonica. In aggiunta a ciò, nelle foreste vive più della metà della riserva di biodiversità del pianeta. Il ruolo di scambiatori di umidità conferisce inoltre alle foreste un’importanza di valenza agricola, in quanto anche il regime di precipitazioni è influenzato dalle grandi foreste per notevoli estensioni attorno ad esse.
Purtroppo, i dati non sono confortanti. Oltre ad essere minacciate dalla crisi climatica (v. sezione relativa) tanto che si può calcolare approssimativamente il tempo in capo al quale il riscaldamento intaccherà il grosso delle foreste tropicali, queste stanno essendo eliminate - ad un tasso esponenzialmente crescente - dall’uomo. Infatti, ancor prima di essere usate come sorgenti di legno e carta, le foreste vengono rase al suolo con tecniche slash and burn
per motivi agricoli ed economici in diversi PVS. Prima di tutto, senza opportune politiche e tecnologie agricole si rende necessario sempre più terreno da coltivare. Secondo, l’erosione dei territori arabili da supersfruttamento agricolo - dove le necessarie tecnologie sono disponibili - richiede il reperimento di sempre più territori arabili, per la progressiva riduzione e scomparsa dell’humus. Terzo, le tecniche di piantagione intensiva di nuovi alberi da frutto richiedono di bruciare periodicamente diverse zone, ma l’effetto serra in atto con i lunghi periodi di siccità manda spesso questo incendi fuori controllo, con conseguenti incendi addirittura sulla scala regionale (vedi Borneo, Siberia, Amazzoni, Florida, Canada) e che durano anche molti mesi.
Esiste una Convenzione sulla deforestazione, ma non è ancora in piedi il necessario processo negoziale, con relativo organo decisionale. Ciò è dovuto soprattutto al fatto che la deforestazione applicata da diversi PVS (v. per es. il Brasile) è a tutti gli effetti una fonte di prodotto nazionale lordo. Per questo motivo, se i paesi industrializzati vogliono negoziare sulla deforestazione, devono essere disposti a pagare l’ammanco di PIL che si creerebbe nel fermare la deforestazione. O a compensare l’equivalente somma annullando debiti esteri, oppure fornendo tecnologia per generare energia pulita, etc. Per ora, nulla di tutto questo appare nelle intenzioni dei paesi del Nord del mondo. Per questo motivo, niente negoziati sostanziali.
2.5 CRISI IDRICA
Lo scarseggiare delle riserve acquifere già discusso nella sezione climatica costituisce soltanto una piccola parte del problema. Infatti, le principali cause della crisi idrica sono - anche qui - 1) la crescita economica, con il crescente fabbisogno d’acqua dell’industria e delle metropoli, dove sono in continuo aumento il consumo pro capite d’acqua, e 2) la crescita demografica, che moltiplica il fabbisogno d’acqua essenzialmente per motivi agricoli, ossia per la produzione di alimenti.
Non esiste attualmente alcuna Convenzione specifica né un processo negoziale per arrivare ad un Trattato con relativa legislazione idrica, con le modalità e i flussi di utilizzo.
Nella sua relazione del 1998, il Segretario Generale UN, Sig. Kofi Annan ha lanciato l’allarme sulla crisi idrica in atto e sulle sue dimensioni in crescita, associandosi all’analisi del direttore esecutivo dell’UNEP, il tedesco K. Toepfer, che prevede che il secolo su cui ci stiamo affacciando sarà segnato da guerre e conflitti per il controllo e l’utilizzo dei flussi d’acqua.
Va qui ricordato il dato del Fiume Giallo, che l’anno scorso ha subito così massiccio prelievo a monte della foce per motivi industriali, agricoli, e per il fabbisogno idrico delle metropoli, che per circa 220 giorni su 365 il flusso a mare era praticamente nullo.
Anche i conflitti futuri sull’acqua saranno dunque connessi al problema della produzione agricola, industriale e dell’energia, visto che le principali motivazioni di consumo idrico sono quelle della siderurgia, dell’irrigazione e dei circuiti di raffreddamento delle centrali a carbone.
2.6 CRISI DEMOGRAFICA
La crescita della popolazione, come correttamente calcolato dal MIT per il Club di Roma nel 1971, è uno dei due esponenziali responsabili delle crisi e del collasso del sistema mondiale in cui viviamo. Abbiamo passato da poco il livello dei 6 miliardi di persone. Secondo un recente studio del World Watch Institute di Washington, se gli attuali abitanti del pianeta dovessero vivere allo standard degli Stati Uniti, dovremmo avere altri tre pianeti come il nostro, per poter fornire terre arabili, energia, cibo e materie prime a sufficienza. Siamo ad un’altra dimostrazione dell’insostenibilità dell’attuale regime economico dominante. Non di crescita abbiamo bisogno, che è insostenibile già per i soli paesi industrializzati, ma di redistribuzione...[85] Il pianeta, le cui terre arabili sono tra l’altro in erosione o addirittura soggette a invasione desertica, non può alimentare più di circa 7-8 miliardi di persone, secondo le stime più ottimistiche. Invece, secondo ogni valutazione, senza interventi da parte dei paesi industrializzati di consistente aiuto alimentare, tecnologico, di istruzione, ed economico ai PVS, in particolare all’Africa, all’India e al resto del S-E asiatico, la popolazione continuerà a crescere, fino a piccare intorno agli 8-10 miliardi di individui. Tale picco sarà purtroppo seguito da un forte collasso. Il modello “standard” del MIT prevedeva il picco a 8-8.5 miliardi di individui, verso il 2030-2035, dopo il collasso del prodotto industriale (picco nel 2020) e del prodotto agricolo (2020-2030). I demografi delle Nazioni Unite prevedono un picco tra 8 e 10 miliardi intorno al 2040.
Molti analisti sostengono che la popolazione è una “variabile secondaria”, nel senso che la crescita industriale, associata tra l’altro con la crescita delle differenze di distribuzione, in presenza di un pianeta non infinito, e cioè con risorse finite, è la vera causa - o per lo meno il vero motore -della crescita demografica, per via della povertà e dell’ignoranza indotte dal fatto che il residuo vitale per i PVS si restringe sempre di più e sempre più velocemente.
Non ci sono convenzioni, trattati, o negoziati di sorta sulla popolazione. Forse questi potranno essere imposti dai futuri sviluppi delle trattative sulla crisi climatica, se, come sembra, si dovrà passare ad uno schema di convergenza ad uno share uguale pro capite di energia per annum. Infatti, quest’ultima circostanza imporrebbe contestuali negoziati sull’arresto della crescita demografica, per evitare che alcuni paesi possano tentare di ottenere più share di energia semplicemente aumentando la popolazione.
2.7 DESERTIFICAZIONE
A causa della concomitanza di diversi fattori, come la crisi climatica, la crisi idrica (di natura industriale-metropolitana), la indisponibilità delle migliori tecnologie ormai monopolio di multinazionali come la Monsanto Industries, la tendenza ad abbandonare le zone rurali per convergere nelle metropoli, ed altri motivi, il deserto sta guadagnando sempre più terreno. Più del 30% dei territori arabili esistenti 100 anni fa è stato conquistato dal deserto.
La desertificazione non riguarda soltanto i PVS: studi della NASA, del GFDL del NOAA, e dell’UKMO prevedono per gli Stati Uniti una progressiva desertificazione di vaste praterie del Mid-West e del Sud del paese, includendo gran parte della California. Un analogo studio condotto da una collaborazione - tuttora in corso - tra la NASA, Columbia University, e il nostro Ministero dell’Ambiente mostra che gran parte del Centro, del Sud e delle Isole italiane tenderà alla desertificazione, con un tempo scala di dimezzamento dell’apporto idrico intorno ai 25-40 anni.
Lo stesso vale per quasi tutto il Sud europeo, ossia per i paesi Mediterranei.
La Convenzione contro la Desertificazione (CCD[86]) è stata firmata a Roma nell’ottobre del 1997, ed è in fase di ratifica. Ancora non sono in atto trattati con forza di legge tipo quello di Kyoto, e le negoziazioni sono ferme alle procedure. Anche nella CCD gli schieramenti sono gli stessi: G77&China, USA con i paesi del JUSCANNZ e EU, che anche qui si distingue notevolmente dagli USA.
Gli unici interventi concreti - anche se con mezzi totalmente inadeguati - sono quelli della FAO e dell’IFAD, e consistono in aiuti alimentari contro la fame. Ultimamente si è messo in atto il progetto di creare oasi ai margini dei deserti, finanziato dall’IFAD, ma che ha finora mostrato scarsi successi, come descritto dalla dirigente IFAD Dr. M. Fikri, spesso per mancanza di fondi e/o di sufficienti flussi d’acqua.
2.8 PERDITA DELLA BIODIVERSITÀ
Esiste una Convenzione sulla Biodiversità, con la sua COP, che si è appena riunita per stabilire i meccanismi di intervento. Ma di trattati con forza di legge per ora non si parla.
La crisi in questione dipende principalmente da tre fattori: 1) la riduzione del manto forestale (v. deforestazione) 2) l’uso sempre più massiccio di pesticidi, e gli scarichi industriali tossici e 3) l’effetto serra, con la distruzione di habitat necessari a molte specie, dovuto al riscaldamento e ai suoi effetti collaterali, come la distruzione di moltissimi tipi di catene alimentari.
Esiste un problema di diversificazione genetica, con conseguenze anche remote dalle zone in cui avviene.
2.9 CRISI AGRICOLA ED EROSIONE DELLE TERRE ARABILI
La necessità di avere sempre più prodotto agricolo per unità di superficie coltivata - dovuta insieme alla crescita demografica e alla desertificazione progressiva di terre precedentemente fertili - ha imposto l’uso di colture e pratiche sempre più intensive, e di prodotti che accelerino ed ottimizzino la crescita, aumentando enormemente il prelievo dei sali minerali dal terreno. Ciò sta depauperando sempre più i terreni agricoli, con il risultato di ridurre sempre più lo strato di humus e di terra utilizzabile (erosione). Inoltre, la coltivazione intensiva, per ragioni di rendimento, sta facendo sempre più uso di pesticidi, e sempre più forti, per il fenomeno della comparsa di specie di parassiti sempre più resistenti. Anche l’uso di pesticidi in quantità crescente è responsabile - anche se in maniera minore - della progressiva erosione del terreno arabile.
Il dato più preoccupante, però, è il grado di dipendenza dell’agricoltura dai combustibili fossili. Infatti, calcolando il combustibile per le pompe, per le macchine per arare e fare il raccolto, per il primo trattamento e per il trasporto, ad ogni joule di emergia[87] (emjoule) corrispondono da 10 a 20 joule di energia in combustibili fossili usati (benzina, nafta, etc.). Questo significa che spendendo 100 calorie in combustibili fossili si ottiene solo dal 5% al 10% di potere nutritivo. e questa percentuale scende sempre di più. Questo potrebbe sembrare una cosa innocua, all’aumentare dell’uso di tecnologie moderne, ma nasconde un problema in agguato: la dipendenza fortissima della nostra capacità di produrre alimenti dalle crisi climatica e petrolifera. Ciò ovviamente è aggravato dall’erosione, poiché l’indotto bisogno di aumentare l’efficienza agricola aumenta sempre di più la dipendenza dell’agricoltura dal petrolio.
Non esistono a tutt’oggi negoziati internazionali per combattere l’erosione dei terreni arabili, al di fuori dei pochi interventi per combattere i terreni già in procinto di desertificarsi.
2.10 CALO PROGRESSIVO DELLE RISERVE ITTICHE.
Anche questo è un problema, segnalato autorevolmente quasi 30 anni fa dal Club di Roma e dal rapporto del MIT, connesso alla crescente industrializzazione ed intensificazione delle pratiche di pesca, e all’uso di tecnologie sempre più efficienti nell’aumentare il pescato. Già dalla metà di questo secolo, sono state abbandonate le pratiche “di sufficienza” dei pescatori, per adottare pratiche industriali di massa, in cui il pescato deve essere principalmente esportato in quantità massicce, molto maggiori cioè del fabbisogno della zona limitrofa alla zona di pesca. E’ proprio questo che ha innescato il calo delle riserve ittiche. Oggi siamo giunti ad un livello drammatico: le fisheries
sono diminuite di quantità dal 30% al 40%. E il problema aumenta, visto che stiamo pescando molto al di sopra della velocità riproduttiva dei pesci.
Non si è ancora arrivati a negoziati globali, come servirebbe, mentre ci sono una serie di accordi regionali. Per esempio, l’Unione Europea ha recente imposto il fermo-pesca di Sabato e di Domenica, oltre che per un mese l’anno. Ma la misura è riportata essere largamente insufficiente.
3. CONCLUSIONI
Lo scopo principale di questo articolo è quello di fornire al tempo stesso una visione più profonda delle motivazioni dei conflitti in atto e all’orizzonte e una valutazione complessiva della più formidabile minaccia per l’umanità: la miscela esplosiva delle grandi crisi ambientali globali e dei conflitti per garantirsi l’energia, il cibo, la dominanza per imporre tale “garanzia”, e in definitiva, la sopravvivenza. E’ ovvio che l’aggiungere conflitti potenzialmente grandi a crisi ambientali già di per se distruttive è folle e da arrestare, ma come fare? Sono necessarie l’informazione e la partecipazione pubblica. Ma prima di questo, è necessario che nasca un movimento di scienziati impegnati che dedichi le proprie competenze e la propria autorevolezza scientifica all’obiettivo della corretta informazione pubblica e alla pressione sui governi. Nel caso del clima, questa attività è persino protetta per legge (L65/94, la UNFCCC ratificata dal Parlamento).
Posso ora concludere con l’esortazione a vedere più in là - nei conflitti regionali - di quanto suggeriscano i soli eventi locali. Nel caso della guerra dei Balcani –breve ma violenta e pericolosa perché stabilisce il precedente che la decisione di cosa è legittimo nei conflitti non lo stabilisce più l’ONU ma gli USA– i motivi del conflitto erano:
· la dimostrazione della dominanza occidentale (mostrata ora ma che venga intesa anche per il futuro; rivolta ai paesi slavi che non intendono “omologarsi”, ma anche al mondo islamico mediorientale)
· il controllo del petrolio del Caucaso
· l’affermazione dell’unico modello economico tollerato dall’occidente in Europa: quello del liberismo nell’economia di mercato.
Il nemico-Satana pubblicamente indicato in Milosevich stava a significare ogni altro governo che nel prossimo futuro volesse opporsi a tutto ciò. L’aggressione NATO alla Jugoslavia è stata al tempo stesso un avvertimento alla Cina, alla Russia, all’India e una prova generale di conflitti prossimi futuri sulle tematiche qui esposte.
La gravità delle crisi ambientali globali, soprattutto quella energetica e quella climatica - così intimamente connesse - e delle altre che comunque in molti aspetti sono connesse alle prime due deve`far riflettere sugli scenari di conflitto che diverranno via via più probabili e che potranno portare prima o poi al confronto con il blocco asiatico e con l’Islam. E’ probabile che l’Europa non
abbia in realtà questo obiettivo, ma in tal caso il distacco dagli USA deve avvenire per tempo.
E’ dovere di noi ricercatori di rendere chiare al pubblico queste possibilità, rendendo così più facile smascherarle e combatterle, visto che i governi avranno via via bisogno di fornire motivazioni dei conflitti sempre diverse, ma mai conformi a quelle reali, che sono davvero inconfessabili.
Avendo dedicato da 25 anni una parte non trascurabile del mio tempo di lavoro allo studio scientifico dell’effetto serra e di altre crisi ambientali, collaborando con le Nazioni Unite al processo scientifico sul climate change, rendendomi conto che è vitale che almeno i ricercatori abbiano il termometro esatto della situazione, che essi conoscano i fatti e possibilmente diano la loro partecipazione attiva ognuno secondo le sue competenze, ho sentito come scienziato il dovere di scrivere questo contributo a una lettura del conflitto nei Balcani diversa da quella vigente.
Concludo con l’appello ai colleghi ad una azione concreta: concertiamo azioni per rendere nota la convenzione Climatica - legge dello Stato n. 65 del 1994, la problematica del climate change e i pericoli che ci aspettano, così come prevede l’art.6 della legge stessa (public awareness). Possiamo corredare questa attività con conferenze stampa, con proposte al governo sui temi negoziali aperti, infine sull’attuazione della legge 65/94 nelle università e nelle scuole.
[1] World Meteorological Organization
[2] United Nations Environment Programme
[3] United Nations Population Fund
[4] Food and Agriculture Organization of the United Nations
[5] World Health Organization
[6] International Fund for Agriculture and Development
[7] International Council of Scientific Unions. Comprende e coordina tutte le Unioni Scientifiche di settore ( come ad esempio l’International Union of Pure and Applied Physics, l’International Astronomical Union, l’International Union of Biological Sciences, l’International Mathematical Union, l’International Union of Pure and Applied Chemistry, etc.). L’ICSU comprende 95 corpi multidisciplinari, 25 Unioni Scientifiche di singola disciplina, e 28 società scientifiche internazionali associate.
[8] United Nations Framework Convention on Climate Change
[9] Infatti, l’altro - e famoso - trattato globale, quello di Montreal, che mette al bando la produzione di sostanze usate dall’industria (i CFC o chloro-fluoro-carbons) e che sono responsabili della distruzione dell’ozono stratosferico, tratta un problema in cui l’industria ha fatto grandi resistenze, ma poi ha ceduto perché era possibile svolgere le stesse attività usando altre sostanze (gli HFC o hydro-fluoro-carbons). Nel caso del trattato di Kyoto, invece, sostanzialmente non è possibile ridurre le emissioni di anidride carbonica nelle quantità scientificamente dimostrate necessarie senza in definitiva ridurre prima la crescita (la derivata del prodotto industriale) e in seguito il prodotto industriale mondiale stesso.
[10]Non fa parte del G77&China neanche Taiwan, ma qui non è conteggiata, perché non partecipa alle negoziazioni UNFCCC in quanto non riconosciuta dalle Nazioni Unite, e quindi - ovviamente - non rappresentata.
[11] Organization of Economic Cooperation and Development
[12] Oil Producing and Exporting Countries
[13] Alliance of the South-East Asian Nations
[14] International Monetary Fund
[15] North America Free Trade Act
[16] International Energy Agency
[17] United Nations (organization) for Cooperation Trade and Development
[18] United Nations Industrial Development Organization
[19] si intende media su tutto l’anno e su tutte le latitudini, mediata su terre emerse ed oceani, e al livello del mare.
[20] Ci sono ovviamente molti altri termini nell’equazione differenziale per la temperatura: quello di cui si parla è ovviamente quello riguardante l’effetto serra.
[21] Global Dynamics Institute
[22] Carbon Dioxide Information and Analysis Center (Boulder, Colorado, USA)
[23]Intergovernmental Panel on Climate Change, l’organismo scientifico - coordinato a livello accademico dall’ICSU - e fondato dall’UNEP e dal WMO delle Nazioni Unite nel 1988 su mandato del Segretario Generale ONU e dell’Assemblea Generale delle Nazioni Unite. Coordina tutte le attività scientifiche sul climate change a livello mondiale.
[24]National Geophysical Data Center del NOAA (National Atmospheric and Oceanic Administration, organo scientifico del governo degli Stati Uniti).
[25]United Kingdom Meteorological Office, uno degli istituti scientifici leader nel climate change science process.
[26]accelerazione tecnologica ed economica che sta avvenendo proprio in questi anni.
[27]National Snow and Ice Data Center (USA)
[28] Vostok: stazione scientifica dell’URSS prima e ora della Federazione Russa, nell’interno dell’Est Antartica, a circa 1200 Km dal mare e quasi altrettanti dal polo Sud, giacente su uno spessore di più di 3500 metri di ghiaccio.
[29]E’ attualmente disponibile il data set dell’intero carotaggio, recentemente mostrato su Nature, riguardante 420 mila anni, e riportante eltri 2 pseudo-cicli di circa 100 mila anni, in tutto simili ai due mostrati qui.
[30]business-as-usual significa mantenendo l’attuale trend, cioè senza prendere alcuna misura economico-politica atta a ridurre le emissioni e in definitiva ad arrestare la crescita economica o più ancora, cosicchè le variabili continuano ad evolvere sugli attuali esponenziali.
[31] enhanced greenhouse effect, da contrapporre al natural greenhouse effect. Spesso ci si riferisce all’effetto serra antropogenico.
[32]al tasso attuale (che però tra l’altro è anch’esso in crescita esponenziale) di deforestazione, non ci saranno più foreste tropicali tra 30 anni. Se, invece di estrapolare linearmente, si tiene conto del trend esponenziale di deforestazione, le foreste tropicali spariranno in poco meno di 20 anni. Ovviamente le foreste temperate contano molto meno, visto che la funzione di assorbitore di anidride carbonica è tale che il tasso di assorbimento è proporzionale allla massa di clorofilla, e che lo “spessore” della clorofilla (massa per unità di superficie) tropicale è diverse volte maggiore di quello delle foreste nelle zone temperate.
[33]Gli assorbitori di gas serra sono chiamati sinks (anche per la caratteristica funzione di sorgente negativa nelle equazioni differenziali di continuità per i gas serra).
[34] In realtà, una frazione non trascurabile - anche se minore di quella dovuta alle alghe e al phytoplankton - di CO2 viene assorbita per processi inorganici, essenzialmente per trasformazione in carbonato e precipitazione sul fondo.
[35] E che probabilmente è proprio a fondamento dell’attualmente vigente sistema economico.
[36] I record di dati sui sedimenti calcarei ci permettono di guardare indietro fino a circa 200-300 milioni di anni, a seconda del data set (fondo marino, sedimenti a terra, etc.) anche se con minor dettaglio del carotaggio di Vostok o di altri carotaggi di ghiaccio, come il GRIP (Greenland Ice Core Project).
[37]global warming, altro termine per indicare l’effetto serra.
[38]Goddard Institute for Space Studies, NASA, è autore di uno dei 4 modelli leader a livello mondiale. E’ spesso in collaborazione con la Columbia University.
[39] Jet Propulsion Laboratory, California.
[40]Atmosphere-Ocean General Circulation Model
[41]Geophysical Fluid Dynamics Laboratory del NOAA
[42]Unified Model del prestigioso centro di Bracknell
[43]Goddard Institute for Space Studies, in collaboraz. NASA-Columbia Univ.
[44]Bureau for Meteorological Research
[45]Univ. Peking
[46]National Center for Atmospheric Research (Boulder, Colorado)
[47]Per quanto riguarda le previsioni e il modello del Club di Roma in generale (copre quasi tutte le crisi elencate in questo paper, non solo la climatica) vi faremo riferimento più avanti.
[48]Second Assessment Report, l’assessment scientifico sul climate change e tutte le conseguenze dell’effetto serra, diviso in Working Group 1 (i fenomeni) Working Group 2 (gli impatti) e Working Group 3 (le risposte, le misure per mitigare l’effetto serra), approvato all’unanimità nella 11th Plenary di Roma dal 1 all’11 dic. 1995, e pubblicato da Canbridge University Press nel maggio 1996 (Climate Change 1996) sotto il patrocinio delle Nazioni Unite (WMO e UNEP) e il coordinamento dell’ICSU. Il SAR è basato su 10.000 pubblicazioni nei 2 anni precedenti, con la partecipazione di circa 30.000 ricercatori.
[49]da crescite che piccano e che poi scendono fino a diventare negative (crisi e collasso) fino a crescite che continuano esponenzialmente per tutto il secolo venturo.
[50]Atmosphere Model Intercomparison Programme, coordinato dall’ICSU e organizzato con l’IPCC. Vi fanno capo più di cento laboratori e università.
[51] CO2-equivalenti a 560 ppmv contro le attuali 363 ppmv e le preindustriali 280 ppmv. In massa, circa 1160 miliardi di tonnellate di CO2 in atmosfera contro le attuali 750.
[52]Ondate di calore, come per esempio quella di Chicago, 1997, che causò circa 1000 morti, e quella di quest’anno in Texas e Florida, con più di 700 morti.
[53] Come, per esempio, quelli dell’anno 1997 - durati fin nel 1998 - nel Borneo, nelle Amazzoni, in Siberia, in Florida, e in Cina, o di quest’anno in Florida e Texas, e nella Foresta Amazzonica. Gli incendi dello scorso anno hanno aggiunto 1.1 miliardi di tonnellate di anidride carbonica in atmosfera, a fronte delle emissioni totali industriali dello scorso anno, pari a 22.4 Gton di CO2 .
[54]World Health Organization (Organizzazione Mondiale della Sanità)
[55] I modelli del GFDL (NOAA) e dell’UKMO prevedono per la produzione agricola a stelo degli Stati Uniti una diminuzione fino a -65% (cioè per grano, granturco, altri cereali, fieno, etc) nei prossimi 20 anni nelle zone che adesso fanno il 95% della produzione agricola USA, e un aumento fino all’80% nelle zone desertiche, che cioè continuerebbero a produrre in effetti nulla. I modelli del GISS, dell’UKMO e del GFDL, usati dalla Columbia University in una collaborazione -tuttora in atto - col Ministero Italiano dell’Ambiente, prevedono altrettanto calo (-50%_ -55%) nella Pianura Padana, e desertificazione nel Tavoliere delle Puglie e nel Sud e Isole.
[56]Questa caratteristica della crisi climatica interagisce ed è concausa della crisi idrica, n. 4 nel nostro elenco all’inizio dell’articolo, della crisi agricola, n.8, e della desertificazione (n.6).
[57]Ciò non ha a che fare con gli ammanchi considerevoli come quello del Fiume Giallo in Cina, che lo scorso anno non è praticamente arrivato al mare per 220 giorni su 365, con foce quasi in secca, dovuto invece al prelievo (industriale, agricolo, e metropolitano) superiore alla portata. Tali eventi hanno invece a che fare con la crisi delle risorse a fronte di una crescita economica esponenziale.
[58]ovviamente, non tenendo conto di quanto costa in termini economici, agricoli, e di vite umane il lasciar andare tutto senza intervento alcuno. Naturalmente non tengono conto neanche della “qualità” della vita dei sopravvissuti in un mondo sotto effetto serra fuori controllo. L’effetto serra deve essere libero, come il Mercato.
[59]la “M” maiuscola non è un errore tipografico.
[60]United Nations Framework Convention on Climate Change, in Italia convertita in legge dello Stato nel 1994, con L.65/94.
[61]In italiano: “I Limiti dello Sviluppo” ed. EST Mondadori, 1972, di Meadows et al. In inglese: “The limits of Growth” Productivity Press. Il testo non-divulgativo, con tutte le equazioni differenziali e il programma, con i grafici dei comportamenti dei parametri, con la descrizione delle subroutines e con tutta l’analisi differenziale e numerica necessaria è stato anch’esso pubblicato nel 1972 (è ancora disponibile) con il titolo “Dynamics of Growth in a Finite World”, stessi autori, Productivity Press.
[62]Tale tempo di risposta o delay tecnologico, calcolato per diffondere in tutto il mondo le innovazioni tecnologiche con applicazione capillare è addirittura superiore ai 25 anni oggi nel 1999, l’ipotesi era pertanto veramente super-ottimistica.
[63]World3 è il nome dato al maxiprogramma dal Prof. Dennis Meadows. Meadows era allora leader del pool di scienziati del MIT e oggi decano nell’University of New Haven, a capo del programma GAIM (Global Analysis Interpretation and Modelling) dell’IGBP (International Geosphere Biosphere Program). L’IGBP è uno dei pilastri dei lavori dell’IPCC, ed è direttamente istituito e controllato dall’ICSU.
[64]quasi tutti scienziati occidentali e delle migliori università americane, e non già pericolosi politici rivoluzionari.
[65] “Modelli di Sventura”
[66]ancora oggi molti di coloro che hanno sentito parlare del rapporto del MIT credono che le crisi in esso previste venivano causate dallo scarseggiare delle risorse, cosa a cui i modelli invece non arrivavano, in quanto tutte le crisi avvenivano ben prima di quando il sistema si sarebbe accorto della diminuzione, e cioè le crisi avvenivano quando il livello di risorse disponibile era ancora alto. Il motivo delle crisi era invariabilmente la crescita esponenziale del prodotto industriale e della popolazione, in varie varianti ed interazioni con il prodotto agricolo e l’inquinamento.
[67]si tratta della progressiva diminuzione dello strato di humus ricco di sali minerali dovuto allo sfruttamento agricolo che sottrae i sali più rapidamente di quanto possano venire ripristinati.
[68]guidata dalla Signora Gro Bruntland, ex primo ministro norvegese, e recentemente candidata a Segretario Generale UN, nel 1997, quando venne poi nominato il Signor Kofi Annan.
[69]In italiano è uscito con il titolo “Il Futuro di Noi Tutti”, ed. Bompiani
[70]con l’ufficialità delle Nazioni Unite e redatto anche dai delegati governativi dei maggiori paesi, membri della commissione
[71]United States Global Change Research Program, istituito nientemeno che dalla presidenza Reagan con un budget iniziale di 2.5 miliardi di dollari all’anno.
[72]su 8500 ricercatori di tutto il mondo che in totale contribuirono al rapporto.
[73]In Italia è stato pubblicato dal Saggiatore (Mondadori) con il titolo “Oltre i Limiti dello Sviluppo”.
[74]Sia il FAR, First Assessment Report del 1990, che il Supplementary Report del 1992, possono essere ordinati da Cambridge University Press. Versioni in sommario si possono scaricare gratuitamente dal sito IPCC, in mirror sul sito del WMO (www.wmo.org) o sul sito proprietario (www.ipcc.ch). Altri siti e documenti, grafici e dati si possono ottenere cercando con motori di ricerca le parole chiave UNFCCC, UKMO, IPCC, UNEP, CLIMATE CHANGE.
[75]Alliance of Small Island States, una alleanza tra piccoli stati isola, come le Marshall Islands, le Maldive, le Comore, le Solomon, le Tonga, unite dalla caratteristica di essere paesi con elevazione sul livello del mare di poche decine di centimetri, e di essere perciò le prime vittime designate dell’innalzamento del livello del mare da effetto serra.
[76] Consiglio vivamente al lettore di procurarsi il testo della legge, fedele traduzione dell’originale inglese, e di leggerlo attentamente. Ho personalmente verificato che la maggior parte dei deputati e senatori che l’hanno ratificata...non la hanno neanche letta (“era roba delle Nazioni Unite”...)
[77]International Negotiating Committee
[78]per motivi connessi al tipo di legame chimico C-C, bruciare carbone per produrre una unità di energia produce il 33% circa in più di anidride carbonica che se la stessa energia venisse prodotta bruciando una miscela di idrocarburi liquidi (ad es. nafta o benzina, kerosene, etc.). Ciò è dovuto al fatto che un legame C-C possiede meno energia di uno C-H.
[79]Ad Hoc Group on the Berlin Mandate.
[80]alla quale ho assistito personalmente, accreditato come scienziato osservatore.
[81] che per di più sono percentuali di riduzione calcolate e valide nel 1990: oggi, essendo le emissioni più alte che allora, mentre la capacità di assorbimento dei sinks è rimasta sostanzialmente la stessa, dette percentuali di riduzione necessarie sono ovviamente più alte. Più tardi si riduce, più bisogna ridurre.
[82]...ma come si interessano ai posti di lavoro, a volte, gli industriali!
[83]E’ proprio paradossale che gli HFC, che sono stati messi in produzione a seguito del Protocollo di Montreal - per salvare l’ozono stratosferico - che bandiva la produzione di CFC, si sono però rivelati come potentissimi gas di serra (più dei CFC). Meccanismi del Mercato...
[84]Global Commons Institute
[85]redistribuzione... dove avrò mai già sentito questo concetto?
[86]Convention to Combat Desertification
[87]emergy: da embodied energy. L’emergy, introdotta da Odum, nel caso dei vegetali è la quantità di energia solare immagazzinata in legami organici C-H, e quindi proporzionale alle calorie (tutto per unità di massa) immagazzinate per processo clorofilliano. Nel caso in cui il vegetale è un alimento, l’emergia per unità di massa è quindi proporzionale al potere nutritivo per unità di massa.