mercoledì 9 maggio 2012

Apericena della terra svuotata

APERICENACULTURALE

PER CONOSCERE, APPROFONDIRE,STUDIARE
Per contrastare il pressapochismo e la superficialità dominante
Per fare informazione e formazione,  costruire cultura politica, senso civico e responsabilità sociale.

Presso il nuovo Circolo ex Spam Viale Europa Lammari  138 – Capannori – Lucca
dalle ore 19,30
GIOVEDI 10 MAGGIO
(prezzo 8 euro per l’apericena)

Incontro con il Prof. Ugo Bardi per presentare, discutere e riflettere sulle prospettive future del Pianeta a partire dal  suo ultimo libro:
“ La Terra svuotata”
“il futuro dell’uomo dopo l’esaurimento dei minerali”

Eugenio Baronti del Forum ambiente nazionale di Sel presenta il libro e coordina l’intervista collettiva dei presenti

Le preoccupazioni sull’esaurimento del petrolio sono all’ordine del giorno, ma sono solo una parte del problema molto più grande.
Quando si esauriranno i minerali?

Partiremo da questa domanda per affrontare le grandi questioni di questa epoca: la necessità impellente di costruire un nuovo sistema energetico da fonti rinnovabili e un nuovo modello di sviluppo che sia socialmente ed ecologicamente sostenibile.

Il prof. Ugo Bardi è docente dal 1990 presso il Dipartimento di Chimica dell’Università di Firenze. Ha insegnato presso le università di New York, Marsiglia, Berkleley e Tokyo è membro di ASPO, l’associazione internazionale che studia le riserve di petrolio mondiale e il loro esaurimento,
è stato fondatore della sezione italiana e presidente. Attualmente si occupa di nuove tecnologie energetiche e di politica dell’energia.

Circolo Sinistra Ecologia Libertà della Piana

lunedì 7 maggio 2012

La terra svuotata: una recensione di Eugenio Baronti

 
 
Eugenio Baronti è stato assessore all'ambiente al comune di Capannori (Lu), creando quella rivoluzione nella gestione dei rifiuti basata sulla raccolta differenziata che ha portato Capannori ad essere famoso in Italia e anche nel mondo. Baronti è stato poi assessore regionale e al momento è il direttore dell'aeroporto di Tassignano dove ha creato una nuova struttura di ricerca nel campo aerospaziale e delle energie rinnovabili sotto il nome di "Zefiro innovazione". Eugenio Baronti è anche autore del libro recente "Con il piombo sulle ali" dove descrive la sua esperienza politica. Questo post è tratto dal suo blog.

 

La recensione di Eugenio Baronti 

  Non si può prevedere il futuro ma possiamo preparaci ed attrezzarci per affrontarlo.


Questo è un libro che consiglio di leggere con la dovuta attenzione e dovrebbe essere obbligatorio leggere per l’attuale classe dirigente politica ed economica dominata dal pensiero unico del Dio mercato. Affronta la storia del rapporto tra l’uomo, i minerali e la sostenibilità, a partire dall’era primordiale fino ai giorni nostri quando, a forza di scavare nelle rocce, con tecnologie e mezzi sempre più potenti ed invasivi,  siamo giunti al picco produttivo di molte minerali che sono a rischio di esaurimento anche a tempi brevi e questa prospettiva ci costringerà a rivedere molto se non tutto di questo nostro modello di sviluppo e di consumo. Ugo Bardi è un docente dell’Università di Firenze ed è anche  un ricercatore che si interessa da tanti anni del petrolio, e con i suoi libri cerca di informare l’opinione pubblica, e soprattutto la classe dirigente di questo  paese, che il petrolio esiste in quantità finite e quindi non è eterno e prima o poi dovrà finire.

Bardi ha introdotto in Italia, insieme ad altri ricercatori, il concetto del picco del petrolio che non significa esaurimento completo ma costi ambientali ed economici troppo elevati per estrarlo, ciò provocherà  inevitabilmente, una riduzione della produzione, generando quindi quel massimo produttivo che viene chiamato il “picco di Hubbert” dal nome del geologo americano Marion King Hubbert che propose questo concetto per la prima volta all’inizio degli anni cinquanta.

Il libro racconta la storia, le tappe, i particolari, di una sfrenata attività estrattiva che sta svuotando il pianeta di minerali a dei ritmi mai visti prima in centinaia di milioni di anni di storia planetaria. Minerali che fino a che stavano sottoterra erano isolati e non avevano effetti importanti sui cicli  dell’ecosfera ma una volta estratti, bruciati e trasformati in biossido di carbonio  impattano direttamente sui cicli biologici e questo sta trasformando la terra in un pianeta molto diverso. C’è anche il racconto del nostro rapporto con il petrolio, il perché non ne possiamo più fare a meno e che cosa potrà succedere il giorno in cui, quel poco che resterà, sarà così costoso estrarlo che saremo costretti a lasciarlo nelle viscere profonde della terra. Il libro estende questo punto di osservazione a tutte le risorse minerali che utilizziamo: dai combustibili fossili a tutti i metalli, i semiconduttori,  materiali da costruzione e quei preziosi fosfati senza i quali l’agricoltura non potrebbe produrre abbastanza cibo per sfamare sette miliardi di abitanti di questo pianeta sempre più piccolo e sovraffollato.

Nel 2002 Ugo Bardi invitò Colin Campbell, fondatore di ASPO, ad una conferenza all’università di Firenze e dopo la conferenza insieme ad un drappello di ricercatori fondò la sezione italiana di ASPO di cui è stato fino a pochi mesi fa Presidente. La Terra svuotata racconta la storia dell’estrazione dei minerali che parte addirittura dalle radici delle piante che per centinaia di milioni di anni sono state le prime ed uniche estrattori di minerali dalla terra, una  storia  lunga fatta di inenarrabili sofferenze, oppressione, e fatica del popolo dei minatori,  da quando sono partiti, circa  due milioni e mezzo di anni fa, a raccogliere pietre che servivano come strumenti da taglio o percussione, a quando graffiavano dalla crosta terrestre minerali con le mani o con rudimentali ossa di animale, e poi con il progresso tecnologico e con nuovi e più efficienti strumenti, dal ferro, all’acciaio e  alle moderne tecnologie che hanno aumentato a dismisura le quantità dei minerali estratti che ad oggi ammontano a circa 10 miliardi di tonnellate di materiale strappato via dalla terra, dieci volte di più di quello che fanno le piante. Oggi le trivellazioni arrivano a decine di chilometri di profondità.

Insieme ai minerali, la storia dei combustibili fossili, del petrolio, scoperto appena un secolo e mezzo fa, snobbato e quasi ignorato all’inizio, poi diventato il minerale che ha cambiato la vita di miliardi di persone e la storia del pianeta. Nessun altro minerale ha condizionato così profondamente a livello planetario la storia della civiltà umana come il petrolio.

Il re carbone anima e strumento della grande rivoluzione industriale surclassato dal nuovo oro nero, in nome del quale, e per il controllo del quale, si sono combattute e purtroppo si combatteranno ancora guerre.

Ce la faremo a creare un nuovo sistema energetico che sostituisca l’energia fossile con energia rinnovabile? Soprattutto, ce la faremo prima che i fossili si esauriscano e che il cambiamento climatico ci distrugga?  A questa risposta e a questa sfida è legato il destino e il futuro dell’umanità.

Oggi siamo di fronte ad una profonda crisi di sistema, insieme alla grave crisi economica finanziaria, su cui si concentra tutta l’attenzione, c’è anche l’ inesorabile declino della produzione dei combustibili fossili, diventati troppo cari per essere estratti ai ritmi attuali.

Non e’ possibile dire la data precisa, e non importa se sarà un anno o dieci anni, sarà comunque una questione di un attimo in confronto allo svolgersi della storia umana e ancora meno in confronto alla maestosa lentezza delle ere geologiche.
Ugo ci ricorda la lettera di Seneca a Lucilio che dice: ” sarebbe già un conforto per la nostra debolezza  se tutto perisse con la stessa  lentezza con cui si e’ formato” ma non è così: la crescita è lenta la rovina è rapida.

Il libro ricostruisce anche il percorso del sogno nucleare degli anni ’60 e della fusione, l’illusione dell’ energia così a basso costo da poterla avere addirittura gratis. Ma dopo la forte espansione degli anni settanta la corsa al nucleare si e’ fermata per la sua difficile gestione da allora siamo fermi ad una produzione annua di energia elettrica del 15% e di un 6% di energia primaria. Ma la maggior parte delle centrali si stanno avviando al fine ciclo di vita operativa. Il picco e’ probabile che si sia già determinato nel 2006.



Ovviamente il libro si sofferma molto sull’alternativa possibile, quella delle rinnovabili, in particolare l’ eolico e il fotovoltaico.

Il fotovoltaico per molti anni e’ stata una tecnologia utilizzata solo a livello aerospaziale che ha reso possibile la rivoluzione dei nuovi satelliti per le telecomunicazioni iniziata negli anni settanta.

Una tecnologia molto costosa e soprattutto poco efficiente. L’efficienza delle celle al silicio era inferiore al 10% e l’elettronica di supporto ancora primitiva.
Solo con il primo conto energia nel 2005 il fotovoltaico è decollato. Il sistema degli incentivi è stato il punto di svolta. Nato negli Usa durante la presidenza Carter chiamata feed-in-tariff, nel mezzo della prima grande crisi petrolifera, cancellata da Regan, fu ripresa in grande stile in Germania nel 2000 con lo Erneuerbare Energien Gesetz, il decreto sulle energie rinnovabili. Con questo decreto l’industria fotovoltaica tedesca ha fatto da traino in tutto il mondo. L’unione europea ha incluso questo tipo di incentivo nella sua direttiva 2001/77/CE . In Europa lo sviluppo del fotovoltaico e’ stato esplosivo e questo ha determinato uno sviluppo tecnologico che ha portato ad efficienze energetiche superiori e crescenti portando il fotovoltaico verso la grid party, ovvero quel costo di produzione che mette il fotovoltaico alla pari con quello ottenuto con combustibili fossili, quando il Kwh costerà quanto quello prodotto con combustibile fossile. Oggi tutto questo è messo in crisi da un Decreto irresponsabile e suicida del Ministro Passera del governo Monti, prima di lui, ci aveva già provato Berlusconi con il decreto Romani.

C’e una campagna di stampa negli ultimi anni che cerca di denigrare le rinnovabili, si sono alimentate e sviluppate una serie d leggende negative che contribuiscono a creare un’ area di sospetto e addirittura di malaffare attorno alle rinnovabili. Nel 2010 erano istallati nel mondo impianti fotovoltaici per una potenza nominale di 20 Gw. oggi l’efficienza delle celle solari ali silicio si avvicina la 20% quelle al tellurio di cadmio a circa il 12% pero’ hanno una EROEI maggiore.

La grande sfida del futuro è quella di integrare fra loro le diverse tecnologie energetiche da fonti rinnovabili in una Smart Grid o rete intelligente dove si potrebbero compensare le fluttuazioni di produzione dei vari impianti. Il fotovoltaico produce meno in inverno, potrebbe essere compensato dall’eolico e addirittura una rete intelligente potrebbe operare in modo integrato a livello europeo e mediterraneo gestendo sia il vento delle coste atlantiche del nord sia il sole dei paesi del sud del mediterraneo.

C’è bisogno di una nuova cultura e di maggior rispetto nei confronti delle future generazioni che non contano meno di noi, non possiamo preferire oggi soluzioni sporche nell’immediato perché economicamente più vantaggiose quando sono possibili soluzioni pulite e più vantaggiose in tempi leggermente più lunghi. Chi ritiene oggi le energie rinnovabili costose assume un atteggiamento di chi non riesce a vedere il futuro al di là del proprio naso.

Bardi ricorda ai nostri economisti bocconiani i diversi casi nella storia più o meno recente in cui una cattiva gestione di ma risorsa ha determinato il suo esaurimento anche se era una risorsa rinnovabile. Un esempio è stato l’ esponenziale sviluppo dell’industria baleniera nella prima metà del 1800 e la sua altrettanto rapida rovina. Una produzione prioritariamente destinata all’olio per lampade da illuminazione. Un prelievo superiore ai tempi lenti di riproduzione naturale delle balene diventate talmente rare e difficili da trovare negli oceani che aumentarono a dismisura i costi di produzione portando alla catastrofe economica l’industria baleniera. Ricorda il caso delle foreste Irlandesi abbattute per ottenere energia. la deforestazione del paese nel secolo ottocento provocò una terribile carestia nel 1845. Altri esempi lo ritroviamo nello sfruttamento selvaggio della pesca che ha portato allo svuotamento degli oceani di pesce. Uno dei motivi della povertà dei pescatori e’ che sono naturalmente soggetti alla cosiddetta tragedia dei commons (beni Comuni), la loro sorgente di sostentamento, il pesce, e’ per sua natura accessibile a tutti, non possono ottimizzare lo sfruttamento possono solo affrettarsi a pescare quanto più pesce possibile prima che lo peschi qualcun altro. Questo vale per tutti i commons, beni comuni, usi civici, come per esempio il pascolo.

Le risorse biologiche caccia, pesca e agricoltura sono rinnovabili perché si riproducono ma con propri ritmi naturali e il sovra sfruttamento ne determina comunque la scomparsa.

Lo stesso vale per le risorse minerarie che a maggior ragione non sono rinnovabili perlomeno su scale di tempo inferiore ai milioni di anni e anche in questo caso ci troviamo di fronte ad un andamento a campana come per le balene, la pesca, il pascolo e le foreste irlandesi o sarde.

In molti non riescono ancora a capire il concetto del sovrasfruttamento. L’economia umana si comporta perlomeno in certi casi come un sistema predatore – preda in cui la preda non si riproduce.

Nel sistema economico la preda è la risorsa e tutto quello che possiamo sfruttare economicamente; il predatore è il capitale, quell’aggregato economico che lo sfruttamento della risorsa crea e che permette di sfruttare di più la risorsa. Il pensiero unico attuale si fonda su di un pensiero binario semplice buono/cattivo. Se il PIL cresce buono, se il PIL cala cattivo, questo da la tendenza al sistema la direzione che può essere invertita anzi è necessario invertire la rotta prima di produrre guasti irreparabili.

Per concludere è necessario avviare una transizione verso una stabilizzazione del sistema economico che dovrà necessariamente sfruttare le risorse disponibili in modo più sobrio e razionale, sostituendo materiali di origine minerali rari con minerali largamente diffusi e maggiormente disponibili. I minerali rari dovranno essere usati in modo estremamente parco ed essere poi recuperati e riciclati. Gestire l’economia in modo da evitare il crollo da esaurimento delle risorse. Gestire la transizione nel modo meno doloroso possibile.

Noi oggi non abbiamo strutture politiche in grado di gestire la transizione e il cambiamento ma non abbiamo nemmeno le strutture mentali adatte, almeno quelle della nostra classe dirigente economica a politica che sono tutti convinti, accomunati in un pensiero unico, che si possa uscire dalla crisi con le solite ricette tradizionali e i soliti mezzi ordinari, rilanciando consumi, crescita e PIL.

Prima o poi comunque saremmo costretti a prendere atto che non e’ più possibile una crescita infinita in uno spazio finito e dovremo trovare il modo di gestire il pianeta in modo sostenibile.

La chiave della soluzione è quella della collaborazione internazionale, se si scende sul terreno della competizione militare per accaparrassi il controllo delle risorse sarà il trionfo della barbarie.

Bello e significativo il racconto, nelle pagina finali del libro, dove Ugo racconta un’ antica storia Giapponese al tempo delle guerre civili tra potenti signori della guerra. Nell’ultima fase di queste guerre i tre Daimyo più potenti si incontrarono per sentire cantare un cuculo, ma quel giorno il cuculo restò silenzioso, uno disse: se non canta lo uccido, l’altro disse: lo convincerò a cantare, il terzo, il più saggio, disse: aspetterò finche non canterà.

Questo racconto ci dice che la strategia vincente in tante cose della vita non e’ la violenza, e nemmeno la furbizia è la pazienza. Fu il saggio Ieyasu che sconfisse i suoi rivali e prese il controllo di tutto il Giappone creò una società a stato stazionario a crescita zero, abolì l’esercito e fu l’inizio di una dinastia che governò pacificamente il Giappone per oltre due secoli e mezzo fino alla metà del diciannovesimo secolo, il periodo che oggi chiamiamo Edo.

Per finire, non si può costringere il cuculo a cantare così come non si può costringere il pianeta a darci più risorse di quelle che ha nelle sue viscere. Quindi bisogna tarare i nostri bisogni in base a quanto il pianeta può offrirci.




venerdì 4 maggio 2012

La degenerazione industriale

Articolo da The Oil Crash. Traduzione di Massimiliano Rupalti

Immagine da http://sightsandlights.blogspot.com.es


Di Antonio Turiel


Cari lettori,

oggi mi sono bruciato un dito. Ho aperto il gas per far cuocere le lenticchie ed ho tardato un secondo o due in più del necessario. Troppo. La fiamma del fiammifero era già arrivata alla punta del mio indice e praticamente mentre lo avvicinavo al bruciatore ho dovuto iniziare ad agitarlo per spegnerlo. Un aneddoto banale, come vedete, un piccolo incidente quotidiano senza alcuna importanza. Tuttavia, a volte le situazioni banali nascondono cambiamenti più profondi e di maggior importanza di quanto possa sembrare. Di sicuro, l'ultima scatola di fiammiferi che ho comprato contiene dei fiammiferi più corti. Abbastanza più corti, tipo un terzo in meno di lunghezza, più o meno. Non solo questo, sembrano anche più sottili. No so se è a causa di un cambiamento di marca o di un cambiamento di modello di fabbricazione della stessa marca: i fiammiferi li prendo al supermercato, sempre nello stesso posto e non ho mai fatto caso di che marca siano. La verità è che in questo posto c'è un solo tipo di fiammiferi, quindi non potrei scegliere neanche volendo. E, alla fine, chi se ne frega dei fiammiferi? Semplicemente devo fare più attenzione quando accendo il fuoco. Non è un gran cambiamento.

Ultimamente sto rimanendo senza jeans. Voglio dire, che siano in uno stato decente. Prima un paio di jeans mi duravano in buone condizioni un paio di anni. Bene, quando dico prima intendo dire una decina di anni fa più o meno. Molto prima di così, quando ero un bambino, il tessuto dei jeans era talmente spesso che quando gli altri bambini giocavano a darti frustate sul culo con le corde della trottola, non dovevi preoccuparti se quel giorno portavi i jeans, perché quelli erano impenetrabili e duravano oltre il tempo in cui ti andavano bene come taglia. Alla fine, il problema è che adesso i jeans non mi durano niente.

Certamente non vado in negozi fighi dove ti possono vendere quelli più fashion e probabilmente di miglior qualità. Alla fine però continuo ad andare negli stessi posti in cui andavo ed ora praticamente mi ritrovo che dopo il primo lavaggio la trama del pantalone comincia a sfilacciarsi. Si da il caso che abbia in paio di jeans che non hanno nemmeno un anno e che potrebbero essere utilizzati come vestiti perfetti per “La notte dei morti viventi”. Bene, è anche vero che un paio di jeans non sono così cari (anche se ultimamente costano di più) e non succede nulla se li ricompri più di frequente. In più posso usare altri tipi di pantaloni... ma il fatto è che da poco ho comprato un paio di pantaloni di tela in un negozio di una marca famosa, molto gradevoli al tatto, molto ben rifiniti, quasi vaporosi. Tanto vaporosi che il primo giorno che ha tirato la tramontana (vento forte e freddo tipico di queste regioni), mentre me ne stavo col bambino al parco, i pantaloni si sono induriti e rotti. Bene, non succede niente, nemmeno questi erano cari...

Sono due esempi quotidiani presi a caso fra molti altri: biglietti della metro o del treno sempre più sottili e fragili, offerte sempre più restrittive al supermercato, attrezzi col manico di plastica che si rompono durante la prima ora d'uso, ombrelli che si piegano quando li richiudi, scarpe che si scollano prima che finisca la loro prima stagione, bottiglie e cartoni dalle pareti sempre più sottili... Tutti questi esempi illustrano un fenomeno sottostante che sempre di più sta acquistando la legittimità di naturale e che va molto oltre l'obsolescenza programmata alla quale siamo già abituati. Sono lampi, sintomi di un fenomeno nuovo, di un cambiamento più profondo: la degenerazione industriale.

Fino ad ora i prodotti erano progettati per durare un certo tempo ed obbligarci a sostituirli ogni tot di tempo e mantenere così la produzione e la crescita esponenziale dell'economia. Come abbiamo già discusso, questo è il motivo di così tanto spreco. In modo consapevole o inconsapevole, tutti sappiamo che queste sono già le regole del gioco, ma siccome una tale e frenetica attività di comprare, usare e gettare manteneva in moto l'economia e in fondo ci garantiva il mantenimento di un livello di reddito che ci permetteva di seguire questo gioco, non ci importava molto. Così, gli abitanti dei paesi che si autodefiniscono “civilizzati” sono arrivati a ritenere “normale” che si debbano cambiare i vestiti ogni anno, il computer ogni tre, l'automobile ogni cinque e la casa ogni dieci anni. Ed hanno ragione a ritenere questa pratica “normale” perché è quella che di fatto è arrivata ad essere la norma o l'abitudine, in realtà imposta.

Tuttavia, il processo che affrontiamo ora è di una natura molto diversa. Qui non si tratta di massimizzare il ciclo produttivo ed il suo rendimento, ma di qualcosa di più perverso e dannoso. Succede che con lo sprofondamento della classe operaia in queste prime fasi della Grande Esclusione il consumo sta crollando e l'idolatrato equilibrio fra domanda e offerta che permette di fissare il prezzo si sta spostando a sinistra nella misura in cui la domanda scende e i prezzi sono costretti a fare lo stesso. Tuttavia i grandi industriali, che hanno in funzione un sistema di produzione su grande scala, con grandi fabbriche ed enormi reti di distribuzione, hanno un'inerzia strutturale troppo alta per poter rispondere agevolmente ai cambiamenti. Nel caso di alcuni prodotti più cari (di maggior valore aggiunto) la domanda è stata distrutta per non tornare mai più. E' il caso, per esempio, delle auto: la maggior parte della gente che non può più permettersi l'automobile non se la potrà permettere più. In questo caso l'unica soluzione per l'industriale è ridurre la produzione, il che significa chiudere fabbriche e lasciare la gente sulla strada (retroalimentando la distruzione della domanda in generale, poiché un lavoratore in meno è un consumatore – o forse di più – in meno).

Tuttavia ci sono molti altri prodotti la cui domanda latente continua ad essere alta, ma non si esprime in domanda reale semplicemente perché la gente non si può permettere qualsiasi prezzo. E' il caso principalmente dei prodotti di prima necessità, come gli alimenti ed il vestiario. In questo caso, l'industriale tenta logicamente di ridurre il prezzo di vendita dei sui prodotti, che sia per mezzo della riduzione dei margini di guadagno (il che va contro i suoi interessi) o attraverso la riduzione dei costi. Per ridurre i costi può abbassare i salari dei suoi operai, ma questa strategia ha un percorso limitato e inoltre tanto meno guadagneranno i suoi lavoratori e tanto meno consumeranno (di nuovo il terribile dilemma del capitalismo). Cosicché a lungo termine la migliore ed unica strategia passa attraverso la riduzione dei costi essenzialmente produttivi. L'ideale sarebbe se questa riduzione arrivasse da un miglioramento senza limiti dell'efficienza, ma la termodinamica in questo è molto cocciuta (in un prossimo post affronteremo il tema dell'entropia come sovrana tirannica e suprema del nostro mondo) ed il margine di miglioramento finisce per essere scarso o nullo. Pertanto, ciò che alla fine rimane è la semplice diminuzione dell'apporto di materiali, del consumo di materie prime nella produzione, soprattutto ora con gli inizi del Peak Everything (il picco di tutto, o Grande Scarsità) sono sempre più cari.  L'industriale va così progressivamente degradando la qualità dei suoi prodotti, tentando di portarli al limite dell'immaterialità, ma per il sentiero sbagliato (niente a che vedere con tanto decantata e mai vista dematerializzazione dell'economia).

La cosa perversa di questo meccanismo di progressivo degrado della qualità dei nostri oggetti quotidiani è che vari decenni di convivenza con l'obsolescenza programmata ci hanno resi molto sottomessi a questo tipo di processo di degrado. Lo accettiamo quindi come “normale”, perché segue la vecchia norma dell'obsolescenza programmata per la quale tutto sia di qualità scadente e che debba essere sostituito periodicamente. Certo che possiamo percepire che il ciclo dell'obsolescenza ora è più breve, ma siccome in generale i cicli dell'obsolescenza sono andati riducendosi col tempo è normale interpretarli come parte del BAU, del normale modo di procedere. Tuttavia, in questa occasione si sta forzando il ciclo di obsolescenza fino a degli estremi ridicoli, come nel caso dei fiammiferi col quale ho aperto il post e come con tanti altri esempi che sicuramente il lettore potrà trovare, il che evidenzia che il motore di questi cambiamenti non è tanto l'accelerazione del ciclo produttivo ma la disperazione di ridurre i costi. La maggior parte della gente confida sommessamente nei benefici del “sistema”, del BAU, nel suo compito e assume implicitamente che con questa accelerazione dell'obsolescenza il capitale fluirà più rapidamente e ci saranno rendite sufficienti per rimanere in questo gioco. Niente di più lontano dalla realtà. Il progressivo degrado dei beni di consumo comuni è in realtà un ulteriore passo verso la Grande Esclusione.

La degenerazione industriale porta con sé molti altri effetti negativi, in particolare la perdita della capacità industriale e dell'economia di scala. La produzione di molti beni oggigiorno è possibile solo perché vengono prodotti su grande scala grazie all'uso intensivo di energia a buon mercato. Mentre si degradano le rendite disponibili ai consumatori, tutte queste imprese collasseranno e perderemo progressivamente le conoscenze e la capacità di produrre industrialmente molti prodotti finiti, ma non solo questo, anche la capacità di produrre diverse materie intermedie necessaria in diversi processi industriali e di cui di fatto avremmo bisogno per poter installare il nostro sistema energetico alternativo basato sull'energia rinnovabile che sogniamo e che sicuramente non saremo in grado di permetterci. Insomma, perderemo la base industriale, il muscolo produttivo necessario per intraprendere qualsiasi attività industriale.

Arriverà il momento in cui alcuni industriali ingegnosi cominceranno ad offrire prodotti che, semplicemente, saranno ben costruiti, probabilmente in modo artigianale. Ma questo ad un suo prezzo. Sarà in quel momento che conosceremo qual è il prezzo reale delle cose. E questi nuovi prodotti fatti in modo antico non saranno a buon mercato ed anche se emergeranno per rispondere ad una massiccia domanda di avere oggetti di qualità sufficiente, finiranno per essere prodotti praticamente di lusso. Come lo sono stati, di fatto, nel modo antico: la gente prima non rinnovava il mobilio di casa, ma a dir molto comprava qualche mobile durante la propria vita e gli armadi, i letti, i comodini e gran parte del mobilio, passava di generazione in generazione. E in questo momento la grande maggioranza della popolazione si renderà conto fino a che punto è sceso il proprio livello di vita, fino a che punto ci siamo resi poveri senza rendercene conto. Ancora una volta come nella metafora della rana nell'acqua che bolle.


Saluti.
Antonio Turiel


martedì 1 maggio 2012

Le pale eoliche causano il cambiamento climatico?


Argomenti contro le varie fonti energetiche: per le pale eoliche “sono vicine a casa mia!”


E’ uscito in questi giorni un articolo intitolato: Impacts of wind farms on land surface temperature (impatti dei parchi eolici sulla temperatura del terreno) di Zhou et al.. L’articolo è interessante ed è pubblicato su una rivista seria: Nature Climate Change. Quello che dice è, sostanzialmente:  “I nostri risultati mostrano un riscaldamento significativo, fino a 0.72 °C all’anno, specialmente di notte, sopra i parchi eolici in confronto alle zone limitrofe. Secondo il riassunto della BBC, “Di notte, l’aria a una certa altezza tende ad essere più calda che sul terreno. Dr. Zhou e i suoi colleghi ritengono che le pale delle turbine rimescolano semplicemente l’aria, mescolando aria fredda e calda e portando un po’ dell’aria calda che sta in alto fino al livello del suolo.


Insomma, niente di drammatico: è un effetto locale di rimescolamento dell’aria che NON ha effetti su larga scala sul clima. Ovviamente, tuttavia, i negazionisti climatici ci sono andati a nozze appena hanno visto una possibilità di dir male delle odiate energie rinnovabili. Qualcuno, come Tim Worstall, non ha avuto remore a intitolare il suo post sull’argomento come “Le turbine eoliche causano il cambiamento climatico.” Un’altro che ha commentato è stato Alan Watts di “What’s up with that” che, per la verità, c’è andato abbastanza cauto nel suo articolo. Ma se leggete i commenti, vedrete che un sacco di gente ha capito la storia a modo suo, sostenendo che le pale eoliche producono riscaldamento a causa della loro inefficienza di conversione del vento in energia elettrica.

Ma queste sono pure fesserie: le pale eoliche non sono motori termici, l’energia del vento si deve conservare – si può solo trasferire da una zona a un’altra dell’atmosfera. Purtroppo, però, queste cose vengono sempre capite al contrario da chi parte prevenuto nei riguardi delle rinnovabili. Aspettiamo allora con fiducia che la leggenda delle pale eoliche che cambiano il clima terrestre appaia anche nei siti dei nostri negazionisti climatici.

Alla fine dei conti, tutto quello che facciamo ha un impatto sugli ecosistemi planetari. E’ noto da molto tempo che, su scale molto ampie, anche i parchi eolici potrebbero avere un modesto impatto sul clima (come potete leggere in questo articolo di Wang e Prinn). I risultati del lavoro di Zhou e colleghi non aggiungono molto a quello che sappiamo già, facendoci soltanto notare che l’effetto di rimescolamento dell’aria può causare cambiamenti del microclima locale all’interno dei parchi.

Tutto questo non cambia niente al fatto che un kWh prodotto da una turbina eolica è enormemente meno impattante di un kWh prodotto da una centrale a carbone o a gas. Ricordiamocelo!

_____________________________
Nota aggiunta dopo la pubblicazione. C’è un interessante articolo sul “Washington Post” su questo argomento dove, in aggiunta a ribadire che le pale eoliche NON cambiano il clima si fa notare come gli agricoltori americani usino in certi casi dei ventilatori giganti per evitare che il freddo notturno danneggi le coltivazioni. Quindi, il cambiamento di microclima causato dai parchi eolici potrebbe essere positivo per l’agricoltura!

domenica 29 aprile 2012

Quando la domanda supera l'offerta: ragioni strutturali degli alti prezzi del petrolio

Da “The Oil Crash” del 14 settembre 2011. Traduzione di Massimiliano Rupalti





Guest post di Antonio Turiel


Cari lettori,

Mentre preparavo la conferenza che devo tenere questo sabato all'Espai La Caixa di Girona ho avuto modo di provare ad elaborare alcuni argomenti circa la carenza di petrolio, soprattutto a causa del divario osservato per oltre un anno fra l'offerta e la domanda di petrolio; alla fine le mie analisi sono risultate essere troppo complesse per presentarle nel contesto di una chiacchierata su aspetti più generali, ma il materiale risultante credo sia utile e illustrativo per fare un post. Eccolo.

I puristi mi diranno che offerta e domanda coincidono sempre per definizione, poiché si realizzano solo quando coincidono. Questo è certo, ma nel caso del petrolio c'è una piccola sottigliezza dovuta al fatto che i paesi e le industrie accumulano riserve di petrolio comprato in anticipo e questa dispensa genera certi piccoli scompensi fra il petrolio che si consuma e quello che si produce in modi diversi (ricordiamo che quello chiamiamo petrolio oggigiorno comprende petrolio greggio, che è quello che realmente si estrae dal sottosuolo, e poi tutta una pletora di petroli sintetici derivati dai liquidi del gas naturale, la trasformazione dello stesso gas naturale in qualcosa di equivalente al petrolio, i petroli sintetizzati dalle sabbie bituminose del Canada e i biocombustibili). Queste riserve, quelle strategiche delle nazioni e quelle industriali o operative che l'industria gestisce, hanno funzioni diverse. Le riserve strategiche sono pensate per far fronte ad interruzioni della fornitura di petrolio dovute a problemi principalmente geopolitici e coprono, su mandato della IEA (International Energy Agency), 60 giorni di fornitura per tutti i paesi OCSE, intendendo questa quantità come la domanda o le importazioni rispetto al periodo immediatamente precedente, quella che risulti essere maggiore fra le due quantità. In quanto alle riserve dell'industria, sono pensate per far fronte a fluttuazioni nell'arrivo delle petroliere e dei maggiori mezzi di fornitura e servono anche per ammortizzare l'aumento o il ribasso dei prezzi; in pratica l'industria è prossima ad avere anch'essa attorno ai 60 giorni di fornitura in magazzino.

Ho compilato i dati di tutte informative disponibili al pubblico su offerta e domanda di petrolio a livello globale, accessibili dalla pagine dell'Oil Market Report della IEA. Queste informative ci permettono di risalire indietro di soli 20 anni, ma per quello che intendiamo dimostrare è sufficiente. Dalle informative ho preso i valori trimestrali della fornitura e di domanda globale di petrolio (ricordate, queste due cifre non corrispondono a causa dello stoccaggio), prendendo la precauzione di prendere la cifra più aggiornata degli stessi (le stime iniziali per i quattro trimestri di un anno dato si revisionano e aggiornano nelle edizioni di due anni più tardi). Questi valori di produzione e domanda di petrolio si esprimono in milioni di barili giornalieri (Mb/g) che rappresentano il flusso medio durante il trimestre in corso. La curva della domanda riflette un chiaro andamento stagionale con picchi di consumo in estate e inverno, qualcosa di più addolcito rispetto a quella della produzione; per rendere l'insieme un po' più gradevole alla vista ho lavorato con valori “non-stagionali”, prendendo per ogni trimestre il valore medio di questo più i tre precedenti. Il risultato è mostrato nel seguente grafico:


Curve non-stagionali (nel senso che si riferiscono ad una media annuale, ndT.) di produzione (in rosso) e domanda (in verde) di petrolio su scala globale; dati dell'OMR e dell'IEA

Come si vede, entrambe le curve si intrecciano frequentemente, anche se come norma generale è la curva di produzione che di solito supera quella della domanda, a eccezione di questo ultimo anno. Ricordiamo che dal maggio 2010 la domanda si sta rivelando consistentemente superiore alla produzione di petrolio, con un deficit medio, per questo periodo di 16 mesi già trascorsi, di circa 1 Mb/g. Data la scala verticale del grafico qui sopra, è difficile apprezzare come siano significative le differenze fra la produzione e la domanda, così che la cosa migliore è prendere la differenza (calcolata come la produzione meno la domanda) e rappresentarla: 

Serie non-stagionale di produzione meno la domanda di petrolio su scala globale.


Si vede che normalmente la curva è a volte positiva (si produce più di quanto si consumi e pertanto l'eccedenza viene stoccata) e a volte negativa (si consuma di più di quanto si produca e la differenza proviene da quanto stoccato precedentemente). I periodi di deficit possono durare anche due anni (per esempio 2002-2004) anche se il deficit non è mai stato grande quanto adesso (intorno a 1 Mb/g). Accade così che le eccedenze (per esempio 1997-1999) erano di maggior entità dei deficit, ma quello che mostra il grafico è che le prime siano sempre più ridotte e, in modo preoccupante, per la prima volta l'ultima eccedenza sta per essere superata in grandezza dall'attuale deficit. Eppure, vedendo il grafico non possiamo sapere rapidamente qual è lo stato delle riserve globali in questo momento, o meglio, quanto siano cambiate dall'anno in cui comincia la serie. Per farsi un'idea completa di qual è lo stato delle riserve stoccate di petrolio, ciò che si deve fare è integrare questa serie, cioè, accumulare i valori di deficit e delle eccedenze col tempo (prendendo la precauzione di moltiplicare la produzione media giornaliera del trimestre per i 91,25 giorni che lo stesso ha in media) e così otteniamo una curva sul modo in cui sono cambiate le riserve stoccate di petrolio durante gli ultimi 20 anni.


Bilancio aggregato della differenza produzione-domanda di petrolio su scala globale.

La curva sopra ci dice che, nonostante i suoi alti e bassi, la quantità di petrolio stoccata in modo permanente è cresciuta tendenzialmente col tempo. Qui è giusto fare un chiarimento: oltre alle riserve operative e strategiche, ci sono altri tipi di stoccaggio, il più importante dei quali è lo stoccaggio fluttuante: i petrolieri che possono arrivare a stoccare più di 600 milioni di barili (Mb). Tuttavia è uno stoccaggio in genere abbastanza dinamico (a parte nel 2009, quando alcuni petrolieri persero mesi prima di scaricare) e, siccome la serie è non-stagionale ed ora integrata su un grande periodo di tempo, il suo impatto è trascurabile.

Vedendo la figura precedente arriviamo alla conclusione che, nonostante la tendenza al ribasso dell'ultimo anno, non c'è nulla di allarmante nell'evoluzione del differenziale di produzione-domanda, e in quel senso la differenza dal 2010 al 2011 non pare nemmeno un fatto eccezionale. Tuttavia, questa interpretazione è erronea tenendo conto di come funzionano le riserve strategiche ed operative. Ed è che, come ho detto, devono coprire insieme circa 120 giorni di consumo, di domanda; ma durante i 20 anni della serie mostrata lì sopra, il consumo ha continuato ad aumentare. Pertanto, si dovrebbe comparare la serie accumulata della differenza di produzione-domanda con la serie degli aumenti delle riserve stoccate delle nazioni. Sappiamo che le nazioni dell'OCSE risparmiano intorno a 120 giorni di consumo e ad una prima approssimazione considereremo che il resto delle nazioni faccia lo stesso. Ciò significa che l'incremento necessario delle riserve per le nazioni è come 120 per la differenza della domanda fra il punto attuale ed il punto iniziale della serie. Sottraendo quella serie di incrementi di riserve dalla serie accumulata dalla differenza produzione-domanda, otteniamo la serie seguente di scostamento tendenziale:


Scostamento tendenziale delle riserve per nazione su scala globale.

Quest'ultima serie, nel grafico subito sopra a queste righe, mostra fino a che punto le differenze osservate fra la produzione e la domanda si esplicano con la necessità di continuare ad ampliare le riserve stoccate per ogni nazione (strategiche + operative) nella misura in cui la domanda aumenta. Sarebbe normale se questa fosse piatta, costantemente uguale a zero, anche se logicamente, data l'inerzia dei meccanismi di risposta, ci si aspettano certe oscillazioni rispetto a questo valore. Tuttavia, ciò che si osserva è qualcosa di diverso. Verso il 1993 siamo incorsi in un deficit importante delle riserve stoccate per ogni nazione (probabilmente derivate dal sostenere i costi per l'uscita dalla crisi del 1991, la riunificazione tedesca e la drastica caduta della produzione nella ex URSS) e non torna alla stabilità fino al 1999. Stabilità che dura fino al 2003. A partire dal 2003, tuttavia, si produce un persistente e grande scostamento tendenziale, un grande svuotamento delle riserve stoccate per ogni nazione, che pertanto vengono fissate ad un livello di 800 Mb inferiore a quello cui si trovava solitamente. Verso il 2005 inizia un processo di riacquisto del petrolio per recuperare le riserve, il che probabilmente spiega perché nel 2005 i prezzi del petrolio iniziano e salire senza fermarsi finché, poco prima del 2008, si decide di abbandonare questa strategia e continuare a liberare riserve. Arriva la crisi del 2008, cade la domanda, cadono i prezzi e le riserve possono tornare a riempirsi, con petrolio a prezzi economici, ma il processo si arresta verso l'inizio del 2010 e da allora lo svuotamento delle riserve ha accelerato, giungendo a dimensioni mai viste prima di più di 1.000 milioni di barili. Ed il processo non si è ancora fermato. 

A questa analisi si potrebbe obiettare l'approssimazione grezza che ho adottato per valutare la relazione fra la domanda e la dimensione delle riserve. Così come nell'OCSE la differenza fra il valore reale delle riserve stoccate e quei 120 giorni di domanda non è troppo grande, è difficile sapere cosa facciano esattamente gli altri paesi, specie quelli tanto riservati come la Cina. Tuttavia credo che quest'analisi ci può dare una prima idea ed approssimazione dei processi che possono essere in corso.

Come conclusione del mio studio, i dati mostrano che dal 2003 si sta vivendo un processo storico di sussidio del prezzo del petrolio a costo dello spendere il petrolio che si aveva precedentemente o di non aggiornare le riserve seguendo quella che era la pratica normale. Questo trasferimento di rendimento petrolifero si è fermato nel 2005 e a partire da lì ha seguito una traiettoria complicata condizionata dalle alterne vicende economiche.

Nel momento attuale stiamo vivendo un'acutizzazione di questo processo, e ci siamo incamminati decisamente verso una maggiore riduzione delle riserve; pertanto mettendoci in una posizione peggiore rispetto al futuro. In questo momento, la caduta della domanda già osservabile dovrebbe abbassare il prezzo del petrolio, ma data la mancanza di 1,5 Mb/a della Libia, la discrepanza fra produzione e domanda non si è chiusa e questo porta a continuare lo svuotamento a discapito delle riserve di petrolio. Non alla velocità desiderabile per far abbassare il prezzo e questo in parte ha motivato la liberazione di 60 Mb delle riserve strategiche annunciate dalla IEA il giugno scorso , una sciocchezza in confronto all'ampiezza, di varie volte più grande, nel movimento osservato. Quindi il prezzo non si abbassa e se a un certo punto l'industria della distribuzione del petrolio decidesse che non può continuare a contrarre oltre le sue riserve perché complicherebbe l'esercizio dei suoi affari, dovremo tornare a comprare petrolio, il prezzo tornerà a salire con forza e ciò aggraverà la recessione che sta iniziando. L'unico modo per evitarlo sarebbe che la domanda cadesse da sé con ancora più forza, il che implicherebbe che la recessione è più grave di quanto ci aspettassimo. In conclusione: la nuova recessione che sta iniziando sarà molto più grande del previsto e molto più di quanto figuri nelle mappe degli economisti mainstream.

Saluti.
AMT


Appendice (del 16 settembre 2011): seguendo il suggerimento del commento di Roger O. e per dare un'idea della sensibilità di queste analisi, particolarmente la valutazione dello scostamento tendenziale alla cifra che si è usata per stimare le riserve globali (120 giorni di domanda), ho rifatto questo grafico valutando le riserve in 90 e 150 giorni di domanda.

Scostamento tendenziale a partire da riserve stimate in 90 giorni (linea verde), 120 giorni (linea rossa) e 150 giorni (linea azzurra) di domanda. 

Come si vede, le conclusioni qualitative del post continuano inalterate in questa classifica, cambiando solo la classifica quantitativa della detrazione delle riserve. Il grafico diventa positivo solo nella parte finale (ma con la tendenza negativa e raggiungendo lo zero alla fine del 2011) quando si prendono un po' meno di 60 giorni di domanda mondiale come stima del volume desiderato delle riserve su scala globale. 








giovedì 26 aprile 2012

martedì 24 aprile 2012

Al Casinò del clima può uscire lo zero o il doppio zero.

In seguito all’intervento di William Nordhaus pubblicato sul New York Review of Books (vedi il post “Perché sbagliano gli scettici del riscaldamento globale”), tre famosi “scettici”, Roger Cohen, William Happer e Richard Lindzen, hanno inviato una risposta, che è stata pubblicata assieme alla replica dello stesso Nordhaus, che contiene altri spunti interessanti su come demolire l’argomento che non conviene agire perché ci sono ancora alcune incertezze nella scienza del clima .
 
Pubblichiamo in parallelo con Climalteranti la traduzione di di Massimiliano Rupalti.

Risposta a William Nordhaus di Roger Cohen, William Happer e Richard Lindzen

Sulla New York Review of Books del 22 marzo 2012, William Nordhaus esprime un’opinione sul perché “sbagliano” gli scettici del riscaldamento globale in generale, e i sedici scienziati ed ingegneri che hanno scritto due editoriali sul Wall Street Journal (1) in particolare. Siamo tre di quei sedici scienziati e rispondiamo qui al Professor Nordhaus.

Il saggio del Professor Nordhaus contiene sei punti. Il primo punto rigira il fatto ovvio che non c’è stato nessun riscaldamento statisticamente significativo per circa quindici anni, in un’affermazione che non abbiamo fatto, cioè che non c’è stato riscaldamento durante gli ultimi due secoli. Il Professor Nordhaus continua a confondere questo con il problema dell’ attribuzione: per esempio, determinare di cosa ha causato il riscaldamento. L’attribuzione è una materia distinta. Mentre ci sarebbe molto da ridire sulle registrazioni delle temperature, è generalmente accettato il fatto che ci sia stato un aumento della temperatura media globale simile a quella mostrata nel primo grafico del Professor Nordhaus.

Il periodo precedente di due o tre secoli era molto più freddo ed è conosciuto come la Piccola Era Glaciale. Una registrazione più lunga avrebbe ovviamente mostrato periodi ancora precedenti come ugualmente caldi se non più caldi di quello presente.
L’osservazione che gli ultimi anni comprendono alcuni degli anni più caldi mai registrati non implica affatto un riscaldamento futuro, così come i massimi registrati dalla borsa non implicano un mercato futuro in costante crescita. Il fatto che il riscaldamento sia molto rallentato implica, per lo meno, l’esistenza di altri processi attualmente in competizione con l’aumento costante di gas serra.

Il secondo punto riguarda la nostra osservazione sugli attuali modelli climatici che sembrano esagerare il riscaldamento dovuto alla CO2. Questo ha  a che fare con problema cruciale della sensibilità climatica, l’aumento della temperatura causato da un raddoppio della CO2. Il Professor Nordhaus presenta due grafici del rapporto del 2007 dell’IPCC (2) che pretende di mostrare che, senza le emissioni antropogeniche, i modelli simulano con successo le temperature medie fino a circa il 1970 ma non riescono a farlo da lì in poi. Questa è la base della dichiarazione dell’IPCC secondo la quale è probabile che la maggior parte del riscaldamento degli scorsi 50 anni sia dovuto alle emissioni umane. Una procedura simile esige che il modello includa correttamente tutte le altre fonti di variabilità. Tuttavia, viene riconosciuto che il fallimento dei modelli nel prevedere lo iato nel riscaldamento durante gli scorsi 15 anni indica che tale condizione non sia stata soddisfatta. (3) Inoltre c’è il fatto imbarazzante che i modelli non riproducono il riscaldamento dal 1910 al 1940, che è quasi identico a quello dal 1970 al 2000, ma è avvenuto prima che le emissioni umane divenissero tali da essere considerate importanti.

Per quanto riguarda la sensibilità del clima, va notato che l’IPCC si riferiva a tutte le emissioni umane e non alla sola CO2. La ragione è che senza l’effetto raffreddante degli aerosol che si formano con certe emissioni, i modelli sovrastimano significativamente il riscaldamento da gas serra. Tuttavia, ogni modello aveva bisogno di un valore diverso per annullare l’effetto degli aerosol (4). La mancata coerenza significa che gli aerosol erano un mero fattore di aggiustamento per portare i modelli ad accordarsi alle registrazioni storiche, pur mantenendo un’elevata sensibilità del clima. Pertanto, l’affermazione che i modelli non possono rendere conto del riscaldamento dopo il 1970 senza includere le emissioni umane, è priva di significato scientifico.

Il terzo punto è la nostra affermazione secondo la quale la CO2 non è un inquinante, forse basata su una definizione comune, da dizionario, di inquinante. L’Oxford English Dictionary definisce “agente inquinante; esp. una sostanza nociva o tossica che inquina l’ambiente”. Secondo il Professor Nordhaus, “contestare che la CO2 sia un inquinante è un accorgimento retorico”. Ritiene invece definitiva la decisione della Corte Suprema, sottoscritta da 5 giudici su 4. In effetti, la maggioranza della Corte Suprema non ha stabilito che la CO2 è un inquinante, ha semplicemente preso atto che la definizione del Clean Air Act è così ampia che la CO2 rientra in quello statuto, senza considerare i fatti in materia.

Il consenso di un economista (Richard Tol) viene poi assunto a conferma dell’esistenza di esternalità specifiche associate alla CO2. Noi consideriamo tale riferimento come il vero “accorgimento retorico” perché oscura i problemi scientifici-chiave: come sapere se questa componente critico della biosfera terrestre causerà un riscaldamento globale significativo e distruttivo.

Con un altro svolazzo retorico, il quarto punto del Professor Nordhaus ci fa dire, travisandoci, che “i climatologi scettici vivono in un regime di terrore, temendo per la propria sopravvivenza professionale e personale”. Questa reductio ad absurdum è inappropriata, ma osserviamo che individui come il climatologo James Hansen, il militante ambientalista Robert Kennedy Jr e l’opinionista Paul Krugman hanno trattato chi critica l’allarme sul clima da “traditori del pianeta”. Abbiamo osservato il sistematico licenziamento di direttori di riviste che pubblicavano articoli peer-reviewed che mettono in discussione l’allarme sul clima, così come le paure legittime dei docenti fuori ruolo, la cui promozione dipende dalle loro pubblicazioni e da finanziamenti. Osserviamo qui che direttori, quale Donald Kennedy della prestigiose rivista Science, si sono dichiarati contrari a pubblicare articoli i cui risultati sono in opposizione al dogma sul clima (5). Le e-mail del Climategate (6) descrivono specificamente queste tattiche e numerosi esempi sono stati dati da Richard Lindzen (2012) (7). Se nella scienza è normale difendere i paradigmi esistenti, l’attuale situazione è chiaramente patologica nell’imporre la conformità. Non possiamo parlare della situazione in economia, ma l’idea che le voci dissidenti e le nuove teorie siano incoraggiate nella scienza del clima è decisamente sciocca, anche se il Professor Nordhaus ha ragione nel vedere un tale incoraggiamento come cruciale per una scienza sana.

Sfortunatamente, l’attuale situazione delle scienze del clima è ben lungi dall’essere sana. Il Professor Nordhaus ci contribuisce quando soccombe alla falsa analogia con il tabacco e richiamando i leader politici a “essere molto attenti ad impedire ai mercanti di dubbio di inquinare [sic]  il processo scientifico” non è atipico nella situazione attuale.

Il quinto punto del Professor Nordhaus è che nulla dimostra l’influenza del denaro. Noi semplicemente osserviamo che dai primi anni Novanta i finanziamenti per la scienza del clima sono aumentati di 15 volte e che la maggior parte di questi finanziamenti scomparirebbero in assenza di allarme. L’allarmismo climatico alimenta un’industria da cento milioni di dollari, che va ben al di là della mera ricerca.

Gli economisti normalmente sono sensibili alla struttura degli incentivi, così è curioso che gli enormi incentivi per promuovere l’allarmismo climatico non siano presi in considerazione dal Professor Nordhaus. Non ci sono incentivi lontanamente comparabili da parte della posizione contraria, quella delle industrie che, egli dichiara, sarebbero danneggiate dalle politiche che sostiene.

Nel suo sesto punto, il Professor Nordhaus dice che non abbiamo riportato in modo appropriato i suoi risultati, laddove diciamo che “il miglior rapporto costi-benefici si raggiunge con altri 50 anni di sviluppo economico non intralciato da un controllo dei gas serra”. Egli obbietta che non questo rapporto, ma i benefici netti sono il metro di misura adeguato: “Nozioni di base di economia aziendale e di costi-benefici insegnano che quel rapporto non è il criterio corretto per scegliere investimenti e interventi.”
Eppure i calcoli del rapporto costi-benefici sono evidenziati nelle tabelle di riepilogo 5-3 del suo libro A Question of Balance (8). Infatti, questo rapporto è spesso usato come guida nel mondo degli investimenti veri. Una ragione è che può essere relativamente insensibile alla scelta del tasso di sconto e quindi può dare una visione più robusta, mentre i benefici netti possono essere estremamente sensibili a questa scelta (torneremo su questo punto più avanti).

Sia il rapporto costi-benefici sia i benefici netti hanno la loro utilità. Ma il metro di misura utilizzato è importante. La differenza fra la politica ottimale della carbon tax del Professor Nordhaus e un rinvio di 50 anni è economicamente o climaticamente insignificante date le grandi incertezze sulla [1] futura crescita economica (comprese le riduzioni nell’intensità delle emissioni di carbonio); [2] la scienza fisica (per esempio la sensibilità climatica); [3] i futuri impatti ambientali positivi e negativi (per esempio, la “funzione del danno” economico); [4] la valutazione dei costi e dei benefici economici a lungo termine (per esempio il tasso di sconto) e [5] il processo politico internazionale (per esempio l’impatto di una minor partecipazione).

Il Professor Nordhaus calcola in 0,94 mila miliardi di dollari la differenza fra i benefici netti delle due posizioni, cioè il 4% soltanto del massimo di 22,55 mila miliardi calcolati per il presunto danno ambientale. I risultati sono dati da tre o quattro cifre significative. Tuttavia non disponiamo neppure di una singola cifra significativa per sapere quale sia il motore di tutto questo: la sensibilità climatica.
Questa differenza relativamente piccola, in effetti sia positiva che negativa, dipende in modo cruciale da fattori tipo quelli elencati sopra, in particolare dal valore della sensibilità climatica. Il Professor Nordhaus sceglie 3,0° C per il raddoppio della CO2 (9), un valore che l’evidenza empirica suggerisce essere molto esagerato (10). Per illustrare il punto, nel caso di una sensibilità climatica di 1° C – un valore suggerito da una serie di studi empirici – il modello DICE del Professor Nordhaus calcola che i benefici netti della politica ottimale scendono da circa 3 mila miliardi i di dollari a un costo netto di circa mille miliardi e il rapporto costi-benefici precipita da2,4 a 0,5. La politica del rinvio di 50 anni è dunque ampiamente preferibile.

Ci viene richiesto di prendere sul serio la differenza calcolata fra le due posizioni nonostante il risultato (11) del Professor Nordhaus secondo cui, rispetto a un rinvio, le misure ottimali in definitiva fanno “risparmiare” appena uno 0,1 ° C di riscaldamento globale. Per mettere il dato in prospettiva, 0,1° C  è all’incirca il 10% del riscaldamento osservato dal1850 in poi, ed è una tipica fluttuazione tra un anno e l’altro. Il modello DICE  prevede che questa sottile differenza avvenga da50 a 200 anni nel futuro, quando i modelli climatici non sono nemmeno riusciti a fare previsioni a 20 anni.
Inoltre, come delineato nei nostri editoriali, è riconosciuto che i forti impatti ambientali negativi assunti in funzione di un danno economico nel modello DICE sono estremamente incerti. Esistono benefici potenziali netti da un aumento della CO2 atmosferica, in particolare per una bassa sensibilità climatica (per esempio nella produzione agricola e di legname) (12).

Non siamo i primi ad osservare che la politica ottimale della carbon tax del Professor Nordhaus è difficilmente distinguibile da quella del rinvio. Per esempio, in un saggio intitolato “La carbon tax di Nordhaus: una scusa per non fare niente?” (13) e uscito poco il libro del Professor Nordhaus, l’economista Clive Hamilton ha scritto che “per alcuni dei contrari a ogni azione, il sostegno a una carbon tax è diventata la tattica di moda”. Sostenitori come il Dr. Hamilton e Sir Nicholas Stern favoriscono un tasso di sconto di gran lunga al di sotto di qualsiasi valore usuale in un’economia di mercato, perché altrimenti – secondo  Hamilton –  “gli interessi delle future generazioni scompaiono dall’analisi”. Insieme agli scenari dei danni climatici molto esagerati, è necessario per giustificare aggressivi interventi a breve termine come quelli proposti da Gore e Stern (14). Dal momento che i benefici netti calcolati per un orizzonte di duecento anni sono estremamente sensibili alla scelta del tasso di sconto, il dibattito sul tasso di sconto è molto più che tecnico.

Così, se si considera la natura e la grandezza delle incertezze per la sensibilità climatica, la funzione del danno economico e il tasso di sconto, è difficile capire perché il Professor Nordhaus difenda una differenza tra i vari interventi tutto sommato  minuscola  rispetto a tali incertezze.

Il punto più importante qui è che le incertezze nella scienza fisica ed economica vanno prese in giusta considerazione. Come suggerito sopra, un’incertezza-chiave nell’analisi economica può essere trattata esaminando l’impatto economico di valori realistici per la sensibilità climatica. Abbiamo visto che una sensibilità climatica probabilmente piccola trasforma i valori di politica economica da ottimali a fortemente negativi. Madre Natura continua a dirci che la sensibilità del clima si trova probabilmente al di sotto della forbice considerata dal Professor Nordhaus (15). Ciò non sorprende perché la scelte dei suoi valori più probabili e i suoi “spread” statistici sono stati fortemente influenzati da una serie di modelli climatici accomunati da parecchi problemi, che hanno esagerato il riscaldamento passato. Queste considerazioni rendono l’opzione del Professor Nordhaus, di ritardare gli interventi di 50 anni, la scelta più saggia.
Roger W. Cohen
Membro dell’American Physical Society
Non riceve finanziamenti e dichiara di non avere conflitto di interessi.

William Happer
Professore di Fisica all’Università di Princeton
La sua ricerca è finanziata dallo United States Air Force Office of Scientific Research.
Dichiara di non avere conflitto di interessi.

Richard Lindzen
Professore di Scienza Atmosferica, MIT.
Le sue ricerche sono state finanziate dalla NSF (Nationl Science
Foundation), dalla NASA e dal DOE (Department of Energy).
Al momento non percepisce alcun finanziamento e dichiara di non avere conflitto di
interessi.

1. Claude Allègre et al., “No Need to Panic About Global Warming”,The Wall Street
Journal, 27 gennaio 2012; Claude Allègre et al., “Concerned Scientists Reply on
Global Warming, The Wall Street Journal online, 21 febbraio 2012.
2. Climate Change 2007: The Physical Science Basis: Contribution of the Working
Group I to the Fourth Assessment Report of the Intergovernmental Panel on
Climate Change, a cura di S. Solomon et al., Cambridge University Press, 2007,
p. 687.
3. D.M. Smith, S. Cusack, A.W. Colman, C.K. Folland, G.R. Harris, J.M. Murphy,
Improved Surface Temperature Prediction for the Coming Decade from a
Global Climate Model”, Science, vol. 317 (2007); N.S. Keenlyside, M. Latif, J.
Jungclaus, L. Kornblueh, and E. Roeckner, “Advancing Decadal-Scale Climate
Prediction in the North Atlantic Sector”, Nature, vol. 453 (2008).
4. J.T. Kiehl, “Twentieth-Century Climate Model Response and Climate
Sensitivity”, Geophysical Research Letters, vol. 34 (2007).
5. D. Kennedy, “Science, Policy, and the Media,” Bulletin of the American Academy
of Arts & Sciences, vol. 61 (2008).
6. I documenti completi sul Climategate si possono facilmente trovare sul web. Un
breve riassunto è disponibile http://www.climateaudit.info/pdf/mcintyreheartland_
2010.pdf.
7. R.S. Lindzen, “Climate Science: Is It Currently Designed to Answer Questions?
Euresis Journal (in stampa).
8. William D. Nordhaus, A Question of Balance: Weighing the Options on Global
Warming Policies,YaleUniversity Press, 2008.
9. Nordhaus, id., p. 45.
10. Prove di una bassa sensibilità climatica possono essere trovate nella letteratura scientifica e online. Sono i risultati da una varietà di approcci empirici, compresi (1) analisi di serie temporali delle temperature; (2) esame delle risposte ad eventi climatici transitori delle radiazioni in uscita dalla Terra; (3) studi calorimetrici del sistema oceano-atmosfera; (4) meccanismi secolari di cambiamento climatico dovuti alla circolazione oceanico e a influenze astronomiche; e (5) trasferimenti di calore radiante e convettivo negli oceani e nell’atmosfera.
11. Nordhaus, A Question of Balance, Table 5–8.
12. The Impact of Climate Change on the United States Economy, a cura di Robert
Mendelsohn e James Neumann,CambridgeUniversityPress, 1999; Robert
Mendelsohn, The Greening of Global Warming, AEI Press, 1999.
13. Clive Hamilton, “Nordhaus’ Carbon Tax: An Excuse to Do Nothing?”, 4 Maggio
2009.
14. Nordhaus, A Question of Balance, p. 18.
15. Nordhaus, id., p.127.


Replica di William Nordhaus:

Nel leggere la lettera di Roger Cohen, William Harper e Richard Lindzen (CHL), ho avuto la sensazione di trovarmi in una rissa da bar. Difendono l’articolo dei sedici scienziati sul Wall Street Journal sparando a vista una raffica di lamentele su chiunque si muova, inclusi il direttore di Science Donald Kennedy, climatologi ai quali sono state rubate le email, l’opinionista Paul Krugman, il biologo Paul Ehrlich, l’attivista Robert Kennedy Jr., l’economista Nicholas Stern e persino l’ex vice presidente Al Gore.

Una volta diradati i fumi però, guardi da dietro il tavolo e quello che vedi può essere riassunto in un singolo punto centrale. Sostengono che il riscaldamento globale è pieno di incertezze, ma i suoi pericoli sono stati sistematicamente esagerati dai climatologi. In questa replica, esaminerò gli elementi chiave. All’inizio CHL sono d’accordo sul fatto che da un secolo le temperature globali sono davvero aumentate. Ecco superato almeno uno degli ostacoli posti dagli scettici del
cambiamento climatico.

Nel loro articolo originale, affermavano che le temperature sono diminuite durante
l’ultimo decennio. A mia volta ho spiegato che, siccome gli andamenti annuali nelle temperature sono molto volatili, i declini decennali contengono poca informazione. Ecco un modo utile per capirlo: abbiamo una lettura della temperatura media globale dal 1880 al 2011 (mostrata nella figura del mio articolo).

Calcoliamo il cambiamento decennale della temperatura per ognuno dei 122 anni a disposizione. Di questi, 41 mostrano un declino. In altre parole, se prendessimo un anno a caso, c’è una possibilità su tre che sia negativo. In serie così volatili, gli andamenti a breve non danno informazioni sulle tendenze a lungo termine (a). Ultimo commento sulla loro discussione: sa di trito, di gente che ripete vecchi argomenti che non riflettono la scienza attuale. Nel cercare prove del cambiamento climatico causato dall’uomo, gli scienziati non si sono limitati alla temperatura media globale. Hanno trovato svariati indicatori del riscaldamento provocato dagli esseri umani, compreso lo scioglimento dei ghiacciai e delle calotte di ghiaccio, il contenuto di calore degli oceani, gli schemi seguiti dalle piogge, l’umidità atmosferica, il prosciugamento dei fiumi, il raffreddamento della stratosfera e l’estensione del ghiaccio marino dell’Artico. Coloro che guardano solo alla tendenza della temperatura globale sono come investigatori che usano solo le deposizioni dei testimoni oculari e ignorano prove basate sulle impronte digitali e sul DNA.

Nella risposta di CHL, il secondo punto riguarda i modelli climatici. Quelli valutati dall’IPCC, ho fatto notare, mostrano che nel secolo scorso, le tendenze delle temperature durante l’ultimo secolo non si spiegano con le sole forzanti naturali (tipo eruzioni vulcaniche) . L’IPCC ha indicato che l’aumento a lungo termine delle temperature globali durante l’ultimo secolo si spiega solo se l’influenza della CO2 e di altri fattori umani è introdotta nei modelli.

CHL non contestano il fatto che le simulazioni dei modelli siano in grado di catturare le tendenze della temperatura globale. Piuttosto, ritengono che i modelli sovrastimino la sensibilità del clima alle concentrazioni atmosferiche di CO2 (b). Questo punto viene studiato intensamente da oltre trent’anni. Diversi modelli climatici mostrano diverse sensibilità climatiche e le differenze fra loro non sono state risolte. Il valore potrebbe essere più piccolo o più grande di quanto accettato comunemente, ma CHL non hanno alcuna tesi o dato per dimostrare che hanno ragione e gli altri hanno torto. Ritornerò sul problema delle incertezze nell’ultimo punto (c).

I successivi tre punti sono polemici e di scarso significato scientifico. A sorpresa, l’affermazione dei sedici scienziati “la CO2 non è un inquinante” è difesa con un riferimento a un comune dizionario, non a una fonte scientifica (d). Ma alla fine CHL concordano: il vero problema è se questa “componente causerà un riscaldamento globale significativo e distruttivo”. Ciò riporta semplicemente il dibattito al tema centrale.

Li ho anche criticati per aver detto che gli scettici del cambiamento climatico sono sottoposti a un regime di terrore, come i genetisti sovietici nell’era Lysenko; essi respingono la mia critica come uno “svolazzo retorico”. Se non intendevano paragonare  la situazione dei genetisti sovietici a quella degli scettici del clima occidentali, perché hanno citato quell’esempio? La mossa somiglia a quella del candidato alle elezioni che sorride bonario e dice “non chiamerei mai il mio oppositore comunista”.

Come quinto punto, CHL difendono il loro argomento secondo cui la scienza del clima è corrotta dalla necessità di esagerare il riscaldamento per ottenere fondi di ricerca. Elaborano questo argomento affermando che “Non ci sono incentivi lontanamente comparabili da parte della posizione contraria, quella delle industrie che, egli dichiara, sarebbero danneggiate dalle politiche che sostiene”.

Il paragone è grottesco. Per mettere qualche fatto sul tappeto, confronterò due casi: quello della mia università e quella del precedente datore di lavoro del Dr. Cohen, Exxon Mobil. All’Università di Yale dove lavoro, nell’ultimo decennio i fondi federali per le ricerche sul clima sono stati in media di 1,4 milioni all’anno, lo 0,5% degli introiti totali del 2011.

Per contro, nel 2011 le vendite di Exxon Mobil per la quale il Dr. Cohen ha lavorato come direttore della pianificazione e dei programmi strategici, sono state pari a 467 miliardi. Exxon Mobil produce e vende principalmente combustibili fossili, che emettono grandi quantità di CO2. Una tassa sostanziale sulle emissioni di CO2 ne aumenterebbe il prezzo e ridurrebbe le vendite di prodotti quali petrolio, gas e carbone.

Da diverse inchieste, risulta che Exxon Mobil abbia perseguito il proprio interesse economico operando per minare la scienza climatica ufficiale. In un rapporto della Union of Concerned Scientists, si legge che “fra il 1995 e il 2005, haincanalato circa 16 milioni di dollari a una rete di organizzazioni ideologiche e promozionali per fabbricare incertezza” in merito al riscaldamento globale (e). Per minare di soppiatto la scienza, ExxonMobil ha speso più di quanto l’università di Yale ha ricevuto per stabilirla.

Alla fine della loro risposta, CHL tornano all’economia del cambiamento climatico e agli interventi pubblici. Dicono due cose importanti: la differenza fra l’agire ora e il non fare niente per 50 anni è “insignificante sia economicamente che climaticamente” e le questioni politiche sono dominate da grandi incertezze.

La differenza fra agire ora e aspettare 50 anni è davvero “economicamente insignificante”? Data la rilevanza della domanda, ho ricalcolato la cifra usando i modelli più recenti. Riportata ai prezzi del 2012, la perdita è di 3,5 mila miliardi di dollari, il foglio di calcolo è disponibile sul web per chi volesse verificare di persona (f). Se gli scettici del clima pensano davvero che sia una cifra insignificante, non dovrebbero obiettare a spese molto inferiori per cominciare da ora a rallentare il cambiamento climatico.

Il punto più importante però è che l’economia e gli interventi del cambiamento climatico hanno grandi incertezze. CHL ne hanno menzionate cinque: crescita economica, scienza fisica, impatti del cambiamento climatico, politica e tasso di sconto. Gli economisti hanno fatto grandi sforzi per includerle nei loro modelli. Tuttavia, altre incertezze si sono rivelate molto più resistenti ai nostri tentativi. La prima riguarda le minacce al “patrimonio culturale e naturale” (per citare le parole della World Heritage Convention dell’UNESCO), di cui i grandi ghiacciai, la biodiversità marina e terrestre, siti archeologici, città e insediamenti storici.
L’innalzamento del livello dei mari, per esempio, rappresenta una grave minaccia per Londra e Venezia e per diversi ecosistemi delle pianure costiere (g). Ecologisti ed economisti non sono stati in grado di trovare modi affidabili di includere queste minacce nei modelli economici. Una seconda incertezza, più pericolosa ancora, riguarda i “tipping points” (punti di non ritorno) nel sistema terrestre su scala globale, come il collasso delle calotte di ghiaccio in Groenlandia e in Antartide, il cambiamento della circolazione oceanica, i processi per i quali il riscaldamento innesca altro riscaldamento e l’acidificazione degli oceani (h).

La tesi di CHL è che le incertezze si risolveranno probabilmente a favore dell’inazione piuttosto di una forte azione politica per rallentare il cambiamento climatico e, in ogni caso, spiegano, date le dimensioni delle incertezze gli interventi politici non hanno molta importanza.

Le incertezze hanno buone probabilità di risolversi a favore dell’inazione? Se sapessimo la risposta, non saremmo incerti, ovviamente. Ma i modelli economici hanno tentato di riflettere lo stato della conoscenza scientifica e le incertezze, così come si riflettono nelle valutazioni migliore e non pregiudiziali. Su un aspetto trattato abbastanza a lungo e sul quale è possibile dare un giudizio – l’impatto sul clima dell’aumento delle concentrazioni di CO2 – la scoperta interessante è che dopo un’analisi approfondita fatta nel 1979 le valutazioni sono cambiate di poco.

Le conclusioni di CHL hanno però il grave problema di ignorare i pericoli delle incertezze del cambiamento climatico. Per illustrarli, immaginiamo di giocare alla roulette al Casinò del clima. Ogni volta che la roulette si ferma, risolviamo una delle incertezze. La scommessa migliore, al momento, è che il raddoppio della CO2 aumenterà le temperature di3°C; se la pallina finisce sul nero sarà di2°C; sul rosso di4°C. Allo stesso modo, una pallina in una casella nera porterà a danni minimi da una certa quantità di riscaldamento e nella casella rossa a un riscaldamento molto più alto del previsto. Al prossimo giro, una pallina sul nero produrrà una bassa e rallentata crescita di emissioni di CO2, sul rosso una loro crescita rapida. E così via.

Al Casinò del clima però, la pallina può anche fermarsi sullo zero o sul doppio zero. Se si ferma sullo zero, perdiamo quantità significative di specie, ecosistemi e luoghi di interesse culturale come Venezia. Se si ferma sul doppio zero, vinciamo uno spostamento anticipato del sistema climatico terrestre, come una rapida disintegrazione della calotta glaciale in Antartide occidentale.

CHL ritengono che in realtà la pallina si fermerà sempre nella casella nera. Possiamo sperarlo, ma su cinque giri di ruota le probabilità di un tale risultato sono soltanto una su 50 (i). E quando le diverse incertezze interagiscono, la non linearità del sistema fisico aumenta la probabilità di esiti più costosi. Poniamo, per esempio, che le incertezze climatiche siano maggiori e gli impatti fossero molto più dannosi del previsto. I danni sarebbero sproporzionatamente più grandi rispetto a quelli della “migliore delle ipotesi”.

CHL capovolgono il senso dell’incertezza. Una politica sensata pagherebbe un premio per evitare di giocare alla roulette al Casinò del clima. Vale a dire che nei modelli economici, i costi del non far nulla per 50 anni sono sottostimati perché non possono includere tutte le incertezze, né quelle note come la sensibilità climatica, né quelle dello zero e del doppio zero come i punti di non ritorno e le incertezze tuttora ignote.
Gli argomenti dei sedici scienziati nel Wall Street Journal, nella loro risposta qui e altri attacchi contro la scienza e l’economia del clima sono a volte gravi e a volte insensati. Ci viene detto che non possiamo agire perché gli scienziati non sono sicuri al 100%  del riscaldamento globale che avverrà. Ma un bravo scienziato non è mai sicuro al 100% di un fenomeno empirico. Il famoso fisico Richard Feynman aveva colto la portata dell’incertezza scientifica:

Qualche anno fa ho avuto una conversazione sui dischi volanti con un non addetto ai lavori… “Non penso che esistano,” ho detto io.  “È impossibile che esistano dischi volanti? Può dimostrare che è impossibile?” ha chiesto il mio antagonista.
 “No”, gli ho detto, “non posso provare che sia impossibile. È solo molto improbabile”. Al che ha risposto, “Lei è poco scientifico. Se non può provare che è impossibile, come può dire che è improbabile?”? Ma è proprio così il modo scientifico. È scientifico dire soltanto cos’è più probabile e cosa lo è di meno e non provare sempre il possibile e l’impossibile (j).

Questa storia ci ricorda come procede la scienza. È possibile che il mondo non si scalderà negli anni a venire. È possibile che gli impatti saranno piccoli. È possibile che sarà inventata una tecnologia miracolosa per estrarre CO2 dall’atmosfera a basso prezzo. Viste le prove che già abbiamo però, sarebbe sciocco scommettere su questi risultati solo perché sono possibili.

In fin dei conti questa rissa da bar è solo un divertente diversivo. Scienziati, economisti e politici hanno problemi seri da risolvere, oltre a schivare le distrazioni. Dobbiamo continuare a migliorare le conoscenze scientifiche, particolarmente degli impatti del cambiamento climatico; dobbiamo intervenire per aumentare il prezzo di mercato del carbonio e fornire così incentivi alle famiglie per modificare i consumi e passare a una dieta a basso tenore di carbonio; dobbiamo anche aumentare i prezzi del carbonio per segnalare a imprese come Exxon Mobil che il loro futuro sta nella ricerca, nello sviluppo e nella produzione di carburanti a basso tenore di carbonio e dobbiamo escogitare un meccanismo che unisca le nazioni in uno sforzo globale e non limitato all’Europa nord-occidentale. Tutti questi sforzi devono iniziare adesso, non fra 50 anni.

Note

a) Più in generale, si può considerare come segue. Poniamo che, sulla base dei dati storici, la temperatura abbia la tendenza ad aumentare in media di0,006°Call’anno ed una variabilità casuale (deviazione standard per un normale errore) di0,133°Call’anno. Statistiche elementari mostrano che questo processo ha declini decennali delle temperature nel 44% degli anni.

b) Più precisamente, CHL sostengono che le stime correnti della sensibilità climatica agli aumenti di CO2 e altri gas serra siano esagerate. Il termine tecnico è “equilibrio della sensibilità climatica”, che è l’equilibrio o la media del riscaldamento della superficie a lungo termine a seguito di un raddoppio della concentrazione della CO2 atmosferica.

c) CHL sostengono inoltre che i dati immessi nei modelli di simulazione del clima passato sono aggiustati a posteriori per produrre i risultati, cioè che sono scelte determinate forzanti radiative per adattare i modelli ai dati storici delle temperature. “Forzanti radiative” è un termine tecnico che denota l’impatto dei vari gas e fattori che condizionano il clima nel bilancio energetico della Terra. Le forzanti sono misurate in watt per metro quadrato nella bassa atmosfera, ma io le chiamo semplicemente “unità di riscaldamento”. CHL indicano correttamente le grandi incertezze su questo punto.

La principale riguarda la forzante dovuta agli “aerosol”, fondamentalmente delle particelle provenienti da impianti per la produzione di energia, agricoltura e deforestazione. (Mi baso sull’autorevole discussione nel IV Rapporto di valutazione dell’IPCC, Climate Change 2007: The Physical Science Basis: Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change, a cura di S. Solomon et al., Cambridge University Press, 2007.)

Per dare un senso delle grandezze, l’IPCC stima che dal 1750 al 2005  il cambiamento nella forzante della sola CO2 sia di 1,7 unità di riscaldamento, mentre il totale che include tutti gli altri fattori è di circa 1,6 unità. Tuttavia è molto incerto l’impatto delle altre forzanti, in particolare degli aerosol. L’IPCC stima che la forbice di incertezza per il riscaldamento totale sia di 0,6 – 2,4 unità di riscaldamento (p. 4). L’intervallo percentuale di confidenza (5, 95) riflette l’esperto giudizio degli autori secondo cui ci sono almeno 9 possibilità su 10 che il numero reale stia entro questa forbice.

L’incertezza è nota da anni e gli scienziati lavorano per ridurla, ma costruire modelli non è semplice come misurare una curva. Un recente confronto tra i modelli mostra chiaramente l’importanza degli aerosol nella simulazione di climi storici. L’insieme dei modelli con soltanto gli aerosol ottiene una riduzione della temperatura media globale di circa 0,5°Cdurante l’ultimo secolo. Le simulazioni che includono tutte le forzanti tranne gli aerosol ottengono una previsione in eccesso all’incirca della stessa quantità (vedi Olivier Boucher et al., “Climate Response to Aerosol Forcings in CMIP5”, CLIVAR Exchanges, n. 56, vol. 16/2, maggio 2011). La risposta definitiva all’incertezza non è di cestinare i modelli climatici ma di migliorare le misurazioni, in particolare degli effetti degli aerosol.

d) Per esempio, un buon punto di partenza per rifletterci è un ottimo manuale sull’inquinamento dell’aria che cita le seguenti definizioni dell’Environmental Protection Agency: “Inquinamento dell’aria: presenza in aria di sostanze contaminanti o inquinanti che interferiscono con la salute o con il benessere umana o producono altri pericolosi effetti ambientali.” Daniel A. Vallero, Fundamentals of Air Pollution, quarta edizione, Academic Press, 2008, p. 3.

e) “Smoke, Mirrors, and Hot Air”.

f) Per chi volesse vedere il programma Excel con il quale sono stati fatti questi calcoli e verificarli o provarne altri, è disponibile qui. Scaricate il programma Excel, andate sul foglio “50yeardelay” e seguite le istruzioni. Potrete verificare la cifra citata nel testo e fare altri calcoli.

g) In Augustin Colette et al., Case Studies on Climate Change and World Heritage, UNESCO World Heritage Centre, Parigi, 2007.

h) Una fonte importante è Timothy M. Lenton et al., “Tipping Elements in the Earth’s Climate System”, Nature, vol. 105, n. 6,12 febbraio 2008.

i) Più esattamente (16/38) 5 = 0.0238. Inoltre, su cinque giri di ruota, c’è un 24% di possibilità che accada un evento catastrofico di tipo zero o doppio zero. Queste probabilità sono solo esempi per mostrare come interagiscono le incertezze multiple.

j) Richard Feynman, The Character of Physical Law, MIT Press, 1970.


Traduzione di Massimiliano Rupalti; revisione di Sylvie Coyaud.