lunedì 5 dicembre 2016

Il Grande Evento Ossidativo di 2 miliardi e mezzo di anni fa e le sue cause


La vita animale necessita di ossigeno molecolare (O2), una molecola che non era presente nell'atmosfera primitiva. L'unica sua fonte di produzione è la fotosintesi, iniziata quando un gruppo di batteri, i cianobatteri, ha adottato un metabolismo che consuma CO2 ed emette come sottoprodotto l'ossigeno molecolare. Però l'origine della fotosintesi precede di centinaia di milioni di anni il Grande Evento Ossidativo: quindi prima di 2 miliardi e mezzo di anni fa c'era qualcosa che consumava l'ossigeno emesso dai cianobatteri. Contemporaneamente alla ossigenazione c'è stata anche una diminuzione del tenore atmosferico di CO2. Comunque alla fine del Grande Evento Ossidativo il tenore di ossigeno era ancora molto più basso di oggi: c'è voluto un secondo evento ossidativo più di un miliardo e mezzo di anni dopo per raggiungere livelli paragonabili agli attuali.

IL PARADOSSO DEL SOLE DEBOLE E L'ATMOSFERA PRIMITIVA. Tempo fa avevo illustrato il paradosso del Sole debole, come descritto da Sagan e Mullen nel 1972 [1]: l’intensità della radiazione di una stella aumenta con con il tempo e con una atmosfera come quella attuale i raggi solari non sarebbero stati in grado di permettere sulla Terra la presenza di oceani liquidi fino a meno di 2 miliardi di anni fa. Ne segue che:
- o il modello dell’evoluzione stellare è sbagliato 
- o non è vero che c’erano oceani liquidi nel passato profondo della Terra 
- o che l’atmosfera fosse diversa prima di 2 miliardi di anni fa

Tutti gli indizi vanno verso la terza soluzione: l’atmosfera primitiva era composta quasi esclusivamente da CO2 (come quelle attuali di Venere e Marte) e gli oceani liquidi sono esistiti grazie al forte effetto – serra del CO2; un altro effetto che ha contribuito al riscaldamento del pianeta è stata la minore albedo, la capacità di riflettere i raggi luminosi e quindi di non assorbire calore da parte della superficie terrestre: con una quantità di zone emerse molto minore di quella attuale l’acqua, che è in grado di assorbire più calore rispetto alle terre emerse, ricopriva più di adesso il globo terrestre. Le condizioni dal punto di vista chimico erano scarsamente riducenti e i pochissimi sedimenti dell’epoca che rimangono contengono minerali di alterazione superficiale ben diversi da quelli attuali, tipici di una atmosfera ossidante.

L'OSSIGENAZIONE DELL'ATMOSFERA. Questa immagine tratta da [2] mostra l'ossigenazione dell'atmosfera, che è avvenuta in due fasi distinte, 2.5 miliardi di anni fa nel Grande Evento Ossidativo e circa 700 milioni di anni fa nell'evento ossidativo del Neoproterozoico. Nei mari le cose sono state piuttosto ritardate e ancora oggi in molti bacini marini prevalgono condizioni anossiche. Il tenore di CO2 atmosferico è sceso bruscamente un paio di volte, più o meno contestualmente all’aumento dell’Ossigeno, durante il Grande Evento Ossidativo di 2.5 miliardi di anni fa e durante un secondo evento ossidativo meno di un miliardo di anni fa. È suggestivo notare che in entrambi i casi alla diminuzione di CO2 (e quindi dell’effetto – serra) sono seguite delle fasi glaciali piuttosto intense concluse grazie a forti afflussi in atmosfera dello stesso composto. Cosa questa che ai negazionisti dell’effetto antropico sul global warming non piacerà (ma sicuramente avranno qualche “brillante” spiegazione in merito…). 
Di fatto il Grande Evento ossidativo – in sigla GOE, come definito da Holland (2006) [3] – viene identificato a causa della scomparsa nei sedimenti di minerali tipici di ambienti non ossidanti come uraninite  (UO2), pirite (FeS2) e siderite (FeCO3), la comparsa di suoli rossi ossidati e da significativi cambiamenti nella composizione isotopica di Zolfo e Carbonio.
Inoltre durante il GOE all'aumento del tenore di Ossigeno atmosferico fa da contraltare la diminuizione di quello di CO2, il che suggerisce una concausa degli eventi.

Per capire la storia dell’ossidazione dell’atmosfera vengono usati dei riferimenti indiretti, in particolare la distribuzione di alcuni elementi come Cromo, Vanadio e Molibdeno e il rapporto isotopico dello zolfo. Rocce vecchie come quelle della fine dell’Archeano non sono molto diffuse, ma ci sono delle circostanze fortunate che ci hanno permesso di ottenere un campione abbastanza significativo di quanto affiorava sula Terra circa 3 e 2.5 miliardi di anni fa: le diamictiti, cioè dei depositi lasciati dalle glaciazioni che si sono verificate in quei tempi. In questi sedimenti infatti sono “campionate” rocce molto diverse che i ghiacciai hanno asportato e trasportato durante il loro movimento. Per questi studi sono stati utilizzati pure dei livelli di argilliti il cui materiale proveniva anch’esso da aree piuttosto vaste.

FOTOSINTESI ED OSSIGENO PRIMA DI 2 MILIARDI E MEZZO DI ANNI FA. Conosciamo benissimo un meccanismo che consuma CO2 e produce Ossigeno, la fotosintesi clorofilliana, il che ha suggerito un semplice rapporto causa – effetto fra le due: arriva la fotosintesi, il CO2 si consuma e compare l’O2.
In realtà le cose sono un po' più complesse. La fotosintesi clorofilliana è un processo di cui sono capaci solo i cianobatteri e i vegetali: il primo vegetale, banalmente, è quella cellula eucariota in cui penetrarono dei cianobatteri, divenuti degli organuli di quella cella, i cloroplasti. Però l’origine di questo gruppo è molto più antica dell’ossidazione dell’atmosfera, venendo collocata in bibliografia fra 200 e 900 milioni di anni prima. Direi che sicuramente cianobatteri erano presenti circa 3 miliardi di anni fa ai tempi delle più antiche “banded iron formations”, alternanze di livelli a ossido di ferro e argille che dimostrano una forte alternanza di ambienti più o meno ossidanti [4]. La relazione fra banded iron formations e modifiche dello stato di ossidazione di aria e mari, è chiara in quanto proprio in corrispondenza del Grande Evento Ossidativo abbiamo un picco nella frequenza di questi sedimenti.
Da queste osservazioni segue che ci sono indicazioni della presenza di ossigeno libero in atmosfera e negli oceani ben prima dell’evento ossidativo, sia pure con tenori meno di 1000 volte di quelli odierni e che i cianobatteri erano presenti da qualche centinaio di milioni di anni prima del GOE senza che mutasse il chimismo atmosferico.

Insomma, prima di 2 miliardi e mezzo di anni fa l’ossigeno faceva quello che fa adesso il CO2, la cui permanenza nella atmosfera attuale è di circa 5 anni: le molecole di O2 venivano prodotte continuamente, ma rimanevano in atmosfera per un tempo limitato prima di essere assorbite, impiegate da vari processi.

MECCANISMI CHE HANNO INNALZATO IL TENORE ATMOSFERICO DI OSSIGENO. L’ipotesi fondamentale è la presenza di un meccanismo di sequestro dell’ossigeno che poi si è interrotto (o ha perso buona parte della sua efficienza) e della presenza di nuovi meccanismi che hanno portato un più efficiente sequestro del CO2.

Bisogna allora guardare ad altre cose. Ci sono chiari indizi che nei 250 milioni di anni precedenti si siano avviati i “moderni” processi di tettonica delle placche. Lo testimoniano un picco nella produzione di “greenstone belts (fasce di rocce simili a quelle della crosta oceanica che si trovano nelle zone di sutura degli scontri continentali, come le attuali sequenze ofiolitiche), un picco nella formazione di zirconi e un drastico cambiamento nella composizione della crosta continentale, dove per crosta continentale nell’Archeano si deve intende  quel complesso di rocce esposte all’erosione e all’alterazione superficiale e non una crosta continentale nel senso attuale, anche se in alcune aree, come per esempio nell’India meridionale e nel complesso di Qianxi nella Cina settentrionale, ci sono evidenze di crosta sialica di un miliardo di anni più vecchia [5]. In Europa la più antica testimonianza di un evento del genere è, nell'estremo NW russo, l'orogene accrezionale – collisionale delle Belomoridi di 2,8 miliardi di anni fa, che testimonia la messo in posto del continente di Carelia sul margine attivo del continente di Kola: vi troviamo almeno 8 diversi terranes di varia origine (fondo marino creato da una dorsale a bassa velocità di espansione, rocce plutoniche, vulcaniche e sedimentarie di archi collisionali, bacini di retroarco).
Il ritmo di formazione della crosta continentale

e il cambiamento tra crosta basaltica a crosta 
ad alto tenore di silice da [7]
Due lavori piuttosto interessanti hanno dimostrato da due punti di vista diversi che c’è stato un cambio nella composizione della crosta continentale tra 3 e 2.5 miliardi di anni fa, quindi essenzialmente alla fine del Mesoarcheano e durante il Neoarcheano. Nel primo vengono considerati metalli pesanti (Ni, Co, Cr, Zn) e viene vista la cosa dal punto di vista dei magmi basaltici e quindi a basso contenuto di silice [6]; nel secondo la cosa viene esaminata invece dal punto di vista dei minerali leggeri che compongono la crosta continentale [7]. In entrambi i casi gli indizi geochimici suggeriscono che prima nell’Archeano superiore è aumentata moltissimo la produzione nelle aree di convergenza fra le placche di crosta di tipo continentale con la produzione di magmi ad alto tenore di silice della serie Tonalite – Trondhjemite – Granito (TTG). Insomma, sembra esserci stato tra 2800 e 2500 milioni di anni fa e quindi  nella parte conclusiva dell’Archeano un deciso avvio dei processi di tettonica a placche come li intendiamo oggi.

E questo è il primo aspetto interessante: il contenuto di ossido di Ferro dei basalti oscilla tra l’8 e il 12% in peso e di questo il 90% è Fe2+ che in presenza di ossigeno si ossida in Fe3+
Inoltre nei basalti ci sono anche dei solfuri, per cui contengono tra 1.200 e 3.000 parti per milione di S2-, il quale in presenza di ossigeno si ossida in S6-
la quantità di zolfo è quindi molto minore di quella di ferro, ma avendo un potere riducente molto superiore (un atomo di zolfo consuma per ossidarsi 8 volte l’ossigeno di un atomo di ferro), alla fine anche il contributo dello zolfo diventa determinante ai fini del consumo di ossigeno e comparabile a quello del ferro nel processo di ossidazione superficiale dei basalti
I magmi evoluti tipici dei magmi delle zone di convergenza, come graniti, granodioriti, rioliti e anche le Trondhjemiti (rocce magmatiche tipiche del Precambriano), contengono invece molto meno ossidi di ferro (spannometricamente un decimo) e, soprattutto, questo ferro è essenzialmente già l’ossidato Fe3+
Un discorso simile vale per lo zolfo: i magmi differenziati acidi contengono ancora meno zolfo di quanto contengono ferro, anche meno di 50 parti per milione.
Ne segue che un magma differenziato acido esposto alla superficie consuma appena il 10% dell’ossigeno che invece richiede un magma basaltico [8].
La maggiore diffusione rispetto al passato di magmi differenziati acidi della serie Tonalite – Trondhjemite – Granito ha dunque fortemente ridotto il consumo di Ossigeno da parte del sistema – Terra, diminuendo di oltre il 90% il flusso di composti riducenti verso la superficie terrestre.

MECCANISMI CHE CONSUMANO CO2. Ho illustrato i meccanismi del Sistema – Terra che consumano CO2 in questo post. Quelli più antichi sono l’assorbimento da parte delle acque e dei sedimenti marini. Poi venne quello nella materia organica, che dall’avvento della fotosintesi è diventato molto importante.
Anche l’alterazione delle rocce silicatiche assorbe CO2, come la assorbono le calotte glaciali (ed è per questo che nelle epoche come la nostra e durante la glaciazione del Permo – Carbonifero i valori di CO2 atmosferico sono molto bassi). Ma un importante giacimento di CO2 è costituito dalla formazione delle rocce carbonatiche (calcari, marmi e dolomie). La formazione di questi sedimenti nei mari avviene maggiormente a minore profondità: l’avvento della Tettonica a Placche come la intendiamo noi ha prodotto una maggiore diffusione di crosta di tipo continentale, con il conseguente aumento delle aree ricoperte da mari di bassa profondità, più favorevoli alla sedimentazione carbonatica e alla vita (che a sua volta usa massicciamente carbonati); ne segue un forte aumento della deposizione di rocce carbonatiche che introdusse un meccanismo di sequestro del CO2 importante ed efficace.

OSSIDAZIONE ATMOSFERICA E METANO. Un altro riflesso dell’ossidazione è stato la perdita di un altro gas serra, il metano. Nell’atmosfera primitiva esisteva ed esistevano meccanismi che lo producevano sia biotici (prima dell’avvento dei cianobatteri tutta la vita era fondata su processi anaerobici) che abiotici e agli effetti dell’effetto serra una molecola di metano è molto più forte di una di CO2. Ma il metano poteva esistere perché l’ambiente non era ossidante:  il momento che l’atmosfera è diventata sia pure debolmente ossidante la sua produzione, biotica e abiotica, è continuata, ma la persistenza delle sue molecole in atmosfera si è drasticamente ridotta.

UNA CONCOMITANZA FRA MECCANISMI. In realtà quindi, a parte la fotosintesi, gli altri processi che hanno diminuito il CO2 e aumentato l’O2 sono concomitanti e dovuti ai cambiamenti nello stile tettonico e magmatico, ma non sono direttamente connessi.
Ne è risultata nel Paleoproterozoico una Terra diversa rispetto all’Archeano, soprattutto nelle caratteristiche chimiche della atmosfera.

Dobbiamo notare che ancora il CO2 faceva la parte del padrone, in quanto l’ossigeno aveva concentrazioni ancora piuttosto basse, oltre 100 volte inferiore a quelle attuali, ma già comunque in grado di spostare le condizioni atmosferiche da riducenti ad ossidanti. Inoltre la transizione da condizioni riducenti a condizioni ossidanti non è stata continua, ma prima della sostituzione del vecchio equilibrio  con il nuovo c’è stata una oscillazione continua fra momenti caratterizzati da uno stato ossidante e da uno stato anossico.
C’è poi da fare una ultima osservazione: come vedremo (prima o poi…) in un prossimo post, il calo dei gas – serra durante il Grande Evento Ossidativo ha provocato le grandi glaciazioni globali huroniane, che si sono probabilmente interrotte solo grazie a violente immissioni di CO2 in atmosfera e, soprattutto, il GOE si colloca proprio all’interno di queste fasi glaciali [9]

[1] Sagan e Mullen (1972). Earth and Mars: Evolution oE Atmospheres and Surface Temperatures. Science 177, 52-56
[2] Donoghue and Antcliffe (2010) Origins of multicellularity Nature 466, 41-42
[3] Holland (2006) The oxygenation of the atmosphere and oceans Transactions of the Royal Society B, Phil. Trans. R. Soc. B 2006 361 903-915; DOI: 10.1098/rstb.2006.1838
[4] Satkoski et al 2015 A redox-stratified ocean 3.2 billion years ago Earth and Planetary Science Letters 430,43–53
[5] liu et al (1990) Archean crustal evolution in China: U-Pb geochronology of the Qianxi Complex Precambrian Research 48, 223-244
[6] Tang et al (2016) Archean upper crust transition from mafic to felsic marks the onset of plate tectonics Science 351, 372-375
[7] Dhuime et al (2015) Emergence of modern continental crust about 3 billion years ago Nature Geoscience 8, 552-555
[8] Lee et al (2016) Two-step rise of atmospheric oxygen linked to the growth of continents. Nature Geoscience 9,417–424
[9] Gashnig et al 2014 Onset of oxidative weathering of continents recorded in the geochemistry of ancient glacial diamictites Earth and Planetary Science Letters 408, 87–99



martedì 29 novembre 2016

L'alluvione del Piemonte del novembre 2016: cosa ha funzionato e il ponte di Garessio che andava sostituito dopo il 1994


Quello che è successo in Piemonte in questi giorni è sicuramente drammatico. Però sarebbe potuta andare molto peggio. Lo si vede confrontando le piogge di quest’anno con quelle del disastro del 1994. È vero, ogni evento fa storia a se e l’entità della piena dipende anche da altri fattori, per cui alla stessa precipitazione possono corrispondere eventi diversi a seconda di diversi aspetti, non ultimo il livello dei fiumi prima delle piogge. Ma una differenza così grande evidenzia che le tre P (prevenzione, protezione e preparazione) hanno funzionato benissimo: ci sono stati dei danni ma sono stati sostanzialmente limitati rispetto a quello che sarebbe potuto succedere se il territorio fosse rimasto alla situazione del 1994. E, particolarmente a Garessio, il disastro è dovuto alla mancanza deliberata di un intervento di prevenzione.

Il confronto fra le piogge del 1994 in blu
e quelle del 2016 dal sito di Nimbus
UN EVENTO PEGGIORE DI QUELLO DEL 1994. In questo grafico le piogge del 2016 sono confrontate con quelle del 1994, che rappresenta uno degli eventi alluvionali maggiori del XX secolo. Si nota che a Ormea, sui monti fa Liguria e Piemonte, sono caduti in 6 giorni circa 600 mm di pioggia (roba da piogge equatoriali..). Stessa situazione alla base delle Alpi torinesi, a nordest della città della Mole, nelle valli di Lanzo (Viù) e a nord (Oropa). Valori inferiori al 1994 si registrano nelle zone più basse (Torino, Pinerolo e Alba). Evidentemente ha giocato molto la posizione geografica e cioè le zone più colpite sono state quelle dei rilievi più alti incontrati dai venti a quote non estremamente alte: diverse stazioni hanno registrato valori oltre i 600 mm. Una seconda caratteristica è che stavolta l’evento è avvenuto alla fine di novembre e non all’inizio come 22 anni fa. Questo ha fatto sì che, grazie alla stagione più invernale, poco sotto i 2000 metri di quota nell’alto bacino del Po le piogge si sono trasformate in provvidenziali nevicate, cosa che ha per fortuna limitato i danni a Torino e dintorni, mentre per la minor frazione di zone ad alta quota non è potuto succedere nei bacini di Tanaro e Bormida.

Il fatto che i danni e i morti siano stati molto inferiori al 1994 dimostra che nei territori su cui la perturbazione ha imperversato, la prevenzione e la protezione civile hanno fatto salti da gigante in questi 20 anni. Benissimo. 
Il problema è che quasi nessuno se ne rende conto, anche se per fortuna qualcuno lo ha fatto notare. In un Paese in cui le Scienze della Terra sono considerate zero (ma dopo un terremoto o un’alluvione spuntano come funghi i geologi laureati alla iutiùb Iunivérsiti) bisogna far capire un concetto fondamentale: in questa occasione gli investimenti per proteggere il territorio hanno dimostrato praticamente la loro utilità; purtroppo non portano voti, perché non vengono notati: il cittadino comune non si rende conto che senza tutta quella messe di interventi sarebbe successo un macello come (anzi, probabilmente peggio) di 22 anni fa.
Diciamo innanzitutto che una parte di questi interventi sono visti male dalla “pancia” del cittadino medio, a partire dai divieti di costruzione e dalla pretesa di difendere situazioni indifendibili (ad esempio le costruzioni in aree golenali o in zone franose).

LE ATTIVITÀ E IL CONCETTO DI PROTEZIONE CIVILE. Qualche dubbio lo ha suscitato l’uscita di Mercalli (ottimo scienziato quando parla di clima, per il resto lascia spesso qualche dubbio). O meglio, vorrei iniziare analizzando meglio il concetto secondo il quale ci sono stati meno danni (e, particolare di non trascurabile importanza, nessun morto mentre nel 1994 furono 69), grazie alla Protezione Civile. 
Bene. Sarei d’accordo su questo concetto se il concetto di Protezione Civile per l’italiano medio fosse quello reale e non quello percepito. 
Cominciamo da quello percepito: la Protezione Civile è fatta dalle previsioni meteorologiche e dal volontariato che interviene dopo una catastrofe.
No, sbagliato.
Innanzitutto è vero che la Protezione Civile è quel sistema che avverte dell’arrivo di un rischio e che in tempo di emergenza forma quel complesso di uomini e attrezzature composto dai volontari addestrati, dalle forze armate, dai vigili del fuoco e da tutto il complesso dell’apparato ruotantre intorno all’emergenza. Un sistema che si colloca per efficienza ai vertici mondiali.
In realtà la Protezione Civile è un meccanismo che fa pure altro, e la sua attività si esplica nelle “tre P”: prevenzione, protezione e preparazione. L’emergenza altro non è che l’espressione di quanto è stato fatto in tempo di pace con le “tre P”:
- la prevenzione sarebbe quella di operare in modo da evitare in partenza rischi al di sopra di quello che è considerato un rischio sostenibile (nel caso delle alluvioni: non urbanizzare aree a rischio o non intervenire sul reticolo fluviale in modo da mettere a rischio persone e beni). La prevenzione è anche la delocalizzazione di aree a rischio. Ad esempio ad Aulla, in Lunigiana, un intero quartiere costruito erroneamente in zona a forte rischio idraulico dovuto al fiume Magra è stato abbandonato e gli abitanti spostati altrove
- la protezione è rappresentata da tutte quelle opere che intervengono per proteggere quanto non si può spostare. Sempre come Aulla come esempio, protezione è il muraglione costruito per proteggere dal Magra il resto della cittadina
- la preparazione è la redazione dei piani comunali di Protezione Civile, in cui sono indicate norme e comportamenti da seguire in caso di specifiche emergenze. Ne ho parlato qui.

Se per Protezione Civile si intende tutto questo, allora sono d’accordo con Mercalli.

La parte finale modificata ad Asti
dell'alveo del torrente Borbore
UN EVENTO PREVISTO E PREVENUTO. Vediamo innanzitutto che queste piogge erano state previste. Nei giorni precedenti c’era molta preoccupazione al riguardo e anche forti indicazioni su precipitazioni superiori ai 300 mm tra Liguria e Piemonte. Il che ha consentito di tenere una allerta elevata.
Ma vediamo anche che in parte è proprio grazie a quello che è successo nel 1994 che sono state intraprese una serie di opere che hanno portato grossi benefici. In quei terribili giorni popolazione ed istituzioni si resero conto dei rischi che correvano e che fino ad allora avevano ignorato.
Nel 1996 l'allora Presidente del Magistrato per il Po, l’ingener Ernesto Reali, con ordine di servizio 560 costituì l'Ufficio Studi, Ricerche e Progettazioni di Parma del quale faceva parte anche un geologo di mia conoscenza, Alessandro Venieri, il quale mi ha parlato di questa importante iniziativa. Lo sopo dell'OdS 560 di redigere dei progetti pilota che riguardavano essenzialmente la sistemazione di due “nodi idraulici” che coincidono con importanti città e che avevano dimostrato una estrema problematicità: Asti con la confluenza fra Tanaro e Borbore e Alessandria, una città dalla situazione decisamente difficile dal punto di vista delle acque, stretta com’è fra Tanaro e Bormida, che si uniscono poco più a valle. I lavori previsti nei progetti costituirono i primi grossi interventi di sistemazione idraulica dopo il disastroso evento alluvionale del 1994 e costarono circa 40 miliardi di lire in appalto dell'epoca.
Il progetto più complesso (15 miliardi) ha riguardato la sistemazione del Borbore ad Asti, adeguandolo come il Tanaro alla piena duecentennale. Ciò è avvenuto attraverso una risagomazione degli alvei dei due fiumi, dopo un attento studio della loro evoluzione nella storia. Anche la confluenza del Borbore è stata modificata, in quanto in precedenza sfociava praticamente in direzione contraria alla corrente del Tanaro.

 Tali opere sembra che si siano rivelate essenziali in questi giorni, dimostrando l’importanza di concepire e realizzare lavori di prevenzione o di protezione a contrasto degli eventi naturali sono molto importanti.
Oggi siamo troppo pieni di medaglie d'oro conferite al valor civile a chi esegue le importantissime azioni di protezione civile e quasi mai viene ricordato o valorizzato chi ha operato bene per la prevenzione. Nel mio piccolo vorrei quindi onorare questo gruppo di persone.

COSA NON HA FUNZIONATO. Chiaramente danni ed esondazioni ci sono stati, ma in alcuni casi il fattore scatenante è stato il malfunzionamento di un’opera o un errore nella gestione del territorio.
Nei dintorni di MONCALIERI l’inondazione non è dovuta alla tracimazione di un fiume, ma alla rottura dell’argine del Chisola, un piccolo affluente di sinistra del Po. In questo caso, dunque, sotto accusa, in attesa ovviamente di una inchiesta in proposito, parrebbe la manutenzione degli argini. Noto che spesso si parla di finanziamenti per le nuove opere, ma qualsiasi struttura necessita poi di una attenta manutenzione (o, quantomeno, di un buon monitoraggio). Non sono pochi gli eventi alluvionali che si sarebbero evitati se non si fosse rotto un argine.

IL CASO GARESSIO è ancora più discutibile. Qui la colpa di tutto è proprio il mancato intervento. Vediamo cosa è successo. 
Il ponte Alla Maddalena sul Serchio:
la corrente è massima sotto la campata più alta
3 anni fa scrissi un post sul modo con cui facevano nel passato i ponti e come vengono fatti adesso. Un eccellente esempio (i poeti lo definirebbero preclaro) è il cosiddetto “Ponte del diavolo” o “Ponte alla Maddalena” sul Serchio a monte di Ponte a Moriano. 
È una struttura particolarmente antica, attestato già ai tempi della Contessa Matilde (XI secolo). Mi pare comunque che sia stato ricostruito ai tempi di Castruccio Castracani, nel XIV secolo. La sua bizzarra asimmetria è dovuta al fatto che la zona dell'arco più alto è quella sotto la quale passa la parte più forte della corrente del fiume: a questo modo non c'è un pilone che si oppone alla corrente del fiume.

Questo è invece il ponte Odasso, a Garessio, durante la piena di questi giorni, subito prima che il Tanaro lo sormontasse;  l’immagine di Fabio Luino lo ritrae in riva destra da monte.


Si vede come il ponte provochi un risalto idraulico: l’opera rallenta la corrente e quindi a monte il livello del fiume si innalza, scavalcando alla fine il ponte stesso e inondando parte del paese. A valle il livello delle acque è ancora lontano dalla spaletta: è quindi evidente come senza questo sormonto tra il pelo dell’acqua e le spallette ci sia ancora un po' di spazio e quindi senza questo ponte il paese non sarebbe stato allagato.
Vediamo come si presenta questo manufatto: nonostante sia lungo poco più di 40 metri, è composto da ben tre arcate (di cui 2 più ampie e simili) e sostanzialmente è piatto. La sezione idraulica è chiaramente inadeguata in caso di piena, e difatti anche nel 1994 fece lo stesso scherzo

Dunque, questo ponte è sbagliato: se dopo quell’evento fosse stato sostituito con un manufatto a campata unica, magari un po' rialzato, la piena del Tanaro di questi giorni non avrebbe provocato a Garessio nessun danno. Vediamo un esempio in quest’altra foto, che ritrae contemporaneamente a Marina di Massa il vecchio e il nuovo ponte sul Frigido costruito sul viale Mazzini, la parallela al lungomare della cittadina apuana. Si noti come il nuovo ponte offra molta meno resistenza alle piene rispetto al vecchio.

Ma come mai il ponte Odasso non è stato abbattuto e sostituito con una struttura nuova più consona alla situazione?
Dopo l’evento del 5/6 novembre 1994 l’Istituto di Ricerca per la Protezione Idrogeologica del CNR di Torino compì numerosi sopralluoghi nelle zone alluvionate, partecipando alle riunioni tecniche (nel 1995 e anche oltre) per conto della Protezione Civile Nazionale (tanto per ritornare sulla prima parte del post, la Protezione Civile che si occupa di evitare i guai anziché soccorrere dopo). 
Il 25 gennaio 1996 i tecnici dell’IRPI furono chiamati in alta Valle Tanaro per un summit con tutti i sindaci dei paesi colpiti: dopo una breve riunione in municipio si spostarono sui luoghi critici. Giunti al ponte di Garessio i tecnici, che avevano studiato a fondo l’evento alluvionale, sottolinearono come la causa principale dell’inondazione del paese fosse stata proprio il ponte, che nel novembre 1994 fece da “tappo” e provocò il sormonto e l’aggiramento delle acque che invasero il paese, esattamente come in questi giorni.
La logica proposta dei tecnici del CNR IRPI fu quella di abbattere la struttura e di ricostruirla ad una sola travata senza pile in alveo. Mi risulta però che questa proposta non sia stata accolta perché il Sindaco di Garessio dell’epoca si oppose dicendo che si trattava di una opera storica e che ai cittadini avrebbe dato noia non avere un ponte a disposizione per parecchi mesi. Il ponte quindi è rimasto in loco e dopo 22 anni (sempre in novembre) ha presentato il conto!

Dopo il ponte di Olbia sul Rio Siligheddu del 2015, nel 2016 si ripete in Piemonte la stessa scena: un ponte che nella pratica ha dimostrato di essere pericoloso e che quindi avrebbe dovuto essere abbattuto e rifatto in modo da essere molto meno pericoloso, non è stato sostituito e ha riproposto lo stesso danno della volta precedente. 
E così fu che ancora una volta per l’improvvida sottovalutazione dei problemi geo - idrologici molte persone hanno sofferto grossi danni che pagherà, come al solito, Pantalone.


domenica 20 novembre 2016

Rassegna sulla sismicità indotta dalle attività antropiche


Chi mi segue sa che sono fra i più chiari sostenitori del fatto che l’industria petrolifera e il consumo di combustibili fossili siano un forte problema ambientale, sia per il global warming che per l'inquinamento e che è necessario ridurne il consumo. Come ho sempre detto che il fracking è una oscenità. Ma il rigore scientifico non mi consente di accusare l’industria petrolifera anche di quello che non fa. 
Allora, visto che stasera le Iene parleranno di sismicità indotta, occorre puntualizzare alcune cose:
1. il problema esiste eccome, e la sismicità indotta è rilevata anche in Italia, come ho scritto qui
2. ma, attenzione, non riguarda la sismicità appenninica di questi mesi  
3. i terremoti provenienti da sismicità indotta in genere possono essere risentiti perché superficiali (la profondità tipica è tra 3 e 8 km). Ma la loro Magnitudo è solitamente molto bassa: ci sono pochissimi casi in cui il valore di M è superiore a 2.5. solo in Oklahoma, per le particolari caratteristiche geologiche, abbiamo avuto eventi che hanno superato M 5
4. non è automatico che se l'ipocentro di un terremoto sia a meno di 10 km dalla superficie allora il terremoto è indotto. La sismicità storica italiana ad esempio presenta danni elevati nonostante livelli di Magnitudo abbastanza bassi perché, a differenza del Giappone, gli eventi si scatenano a profondità molto basse, come hanno dimostrato anche gli ultimi importanti sismi appenninici


Cominciamo a dire cosa è un terremoto: un movimento brusco lungo una superficie di frattura preesistente nel terreno, che viene considerata per convenzione un piano.
I piani di faglia normalmente non si muovono, perché lo sforzo tettonico che agisce sul piano di faglia è controbilanciato dall’attrito e dalla forma delle due superfici. Un terremoto si genera quando il valore dello sforzo sorpassa quello dell’attrito.
Quindi i modi per innescare un fenomeno sismico sono 2:
- fornire un ulteriore sforzo
- diminuire l’attrito
Ho appena scritto un post proprio sulla bufala della sismicità indotta in rapporto ai terremoti di questi mesi nell’Appennino, facendo notare come le attività di estrazione degli idrocarburi sono da tutt’altra parte e quindi non possono avere nessun rapporto con la sismicità attuale dei monti tra Lazio, Umbria, Marche e Abruzzo 
Anche per i terremoti emiliani del 2012 in Emilia è evidente che non ci sia stato un innesco da parte delle attività umane, come ho scritto qui
TERREMOTI DA REINIEZIONE. Una buona parte dei sismi indotti sono causati dalla reiniezione di fluidi in profondità nel terreno, essenzialmentea scopo del loro smaltimento.
La reiniezione di fluidi nel terreno è un fenomeno che aumenta la pressione dei liquidi nelle falde acquifere e riesce a ridurre l’attrito lungo i piani di faglia, se riesce ad arrivarci. Come ho fatto notare in questo post, è questo il motivo del perché i terremoti vengono indotti dalla reiniezione solo in alcuni casi.
Il primo riconoscimento del problema è del 1966 [1]: si trattava di una forte produzione di acque inquinate derivate dalla produzione di armi, che venivano iniettate nel sottosuolo a scopo di smaltimento nei dintorni di Denver, a partire dal 1961. Queste operazioni hanno generato una sismicità piuttosto rilevante, come si vede nella immagine qui sotto (un pensiero umoristico: i primi terremoti artificiali sono stati provocati dall'esercito degli amerikani.. eccellente per i compolottisti..)


SISMICITÀ E IDROCARBURI: REINIEZIONE DEI FLUIDI RESIDUI. Il drammatico aumento della sismicità in zone virtualmente asismiche come gli Stati Uniti centrali che si è avuto dalla fine degli anni '90 è proprio ascrivibile a questa situazione, correlata però all’estrazione di idrocarburi.
Cosa è successo? Fondamentalmente i metodi tradizionali più o meno estraggono idrocarburi come si estrae l’acqua: si pompa il fluido che è contenuto in una falda, a prescindere se sia acqua, gas o petrolio.
In alcuni casi però non è possibile fare così, perché gli idrocarburi sono intrappolati dentro dei sedimenti dai quali non riescono ad uscire naturalmente. Allora si fa il fracking, si frantuma la roccia come si rompe un salvadanaio per prenderci i soldi. Il problema è che per frantumarla si usa acqua in pressione a cui sono aggiunte sostanze “un po' diverse” da quelle tipiche di una sorgente di montagna e siccome una parte di queste acque torna indietro va smaltita in qualche modo perché dato il suo contenuto non può essere riversata nell’ambiente. 
La soluzione più economica è quella di immettere di nuovo tutte queste acque in profondità, e in alcuni casi questa reiniezione genera sismicità perché l’aumento della pressione dei liquidi nelle zone di faglia ne riduce l’attrito fino a far prevalere gli sforzi che sono immagazzinati nel sottosuolo sotto forma di energia elastica. Ne ho parlato qui: i terremoti si verificano dove la reiniezione nei sedimenti avviene molti vicino al basamento metamorfico paleozoico e quando i tassi di reiniezione sono molto alti.
Altre volte viene invece reimmessa acqua precedentemente estratta insieme al petrolio in coltivazioni tradizionali: questa acqua non può (ovviamente!) essere venduta insieme al petrolio, che deve contenerle il meno possibile; quindi viene separata dal greggio, ma anche in questo caso abbiamo una salamoia salina che, sia pure naturale, è parecchio inquinante e quindi va smaltita e anche in questo caso la via più economica è lo smaltimento in pozzi profondi. Alle volte quest’acqua viene reimmessa nella falda da cui è stata precedentemente estratta per rialzare il livello della falda stessa e quindi estrarre petrolio da profondità minori (il petrolio galleggia sopra l’acqua)
Ci sono due zone, l’Oklahoma e l’area di Los Angeles in cui la sismicità è prodotta proprio dalla reiniezione di acque provenienti da coltivazioni tradizionali e non da facking.
Sulla questione dell’Oklahoma ho scritto questo post. In Italia il problema non riguarda l’Emilia, ma c’è forse qualche problema in Basilicata
SISMICITÀ E IDROCARBURI: QUANDO VIENE PROVOCATA DIRETTAMENTE DALLE ESTRAZIONI. È una cosa che per fortuna, succede molto di rado. Gli unici casi accertati sono in Canada occidentale e un caso nel bacino del Caspio. Per quanto riguarda il fracking, è direttamente causa di sismicità in 3 casi, nell’Ohio (Poland Township), in Inghilterra (Lancashire) e, ancora una volta, nel Canada occidentale.
ALTRE ATTIVITÀ CHE GENERANO SISMICITÀ. In alcuni casi la sismicità è provocata dal riempimento di invasi artificiali: in questo caso la pressione dell’acqua può modificare lo stato di sforzo, il cui valore quindi può passare quello dell’attrito e provocare un sisma.
Ma l’attività che desta maggiore preoccupazione al proposito è la GEOTERMIA. A Larderello e in Islanda i fluidi geotermici arrivano naturalmente in superficie. In molte aree però per sfruttare il calore interno della Terra occorre creare il circuito di acque per gli scambi di calore. E in questo caso si può indurre sismicità.
È successo sicuramente a San Gallo, in Svizzera, nel 2013.
Continuo ad evitare di pronunciarmi sull’Amiata perché l’area oggetto di coltivazione geotermica è anche naturalmente sismica, per cui mi è difficile esprimermi.
Anche lo STOCCAGGIO SOTTERRANEO DI GAS può indurre sismicità. Un esempio classico è avvenuto in Spagna con il progetto CASTOR, sulla costa fra Barcellona e Valencia. Lo stoccaggio doveva essere realizzato in un giacimento di petrolio esaurito. Ma le prime iniezioni di gas hanno rimesso in moto una vecchia faglia di quando si aprì il bacino tra Spagna e Baleari e il progetto fu provvidenzialmente sospeso.
Questa faglia non era stata notata durante la progettazione del bacino.
La presenza di faglie, attive o no, è ovviamente una questione delicata quando si progetta uno stoccaggio di gas ed è per questo che sono stato sempre contrario al progetto di Rivara, non essendo privo di rischi teorici da questo punto di vista.
Quindi è vero che la sismicità può essere indotta da attività antropiche e non solo dalla reiniezione di acque. Ma i pochi casi sporadici non consentono di fare di ogni erba un fascio: in generale le estrazioni non producono sismicità e chi afferma il contrario mente sapendo di mentire

E sicuramente con i terremoti in Emilia e nell’Appennino centrale degli ultimi anni non c’entrano nulla
[1] Evans (1966) The Denver area earthquakes and the Rocky Mountain arsenal disposal The Mountain Geologist, 3-1, 23-16

venerdì 18 novembre 2016

Teoria e stato dell'arte sulla previsione dei terremoti. Oggi nessuno, tranne i ciarlatani, è capace di prevederli


È molto difficile fare delle previsioni, specialmente per quanto riguarda il futuro. Questa frase del famoso fisico danese Niels Bohr (o da lui riportata, forse appartiene ad una favola danese) è perfettamente coerente con quello che si sa adesso sui terremoti. Fenomeni “improvvisi” ma non “inaspettati” perché bene o male si sa dove possono accadere (anche quelli emiliani del 2012 sono avvenuti lungo faglia ben conosciute e che era stato ben chiarito potessero muoversi) ma non è possibile sapere prima quando si scateneranno. Ovviamente c’è chi prevede (ma sempre a posteriori), gente che fa purtroppo presa su chi di queste cose sa poco. In generale utilizzano le stesse tecniche degli astrologi (previsioni vaghe, sia come intensità che come localizzazione). Soprattutto si tratta di persone prive di studi specifici (anche se non smentiscono quando vengoo chiamati scienziati o sismologi)… si va da artigiani a tecnici di laboratorio, a perosne attive nel campo dell’ospitalità… nessuno con sane basi scientifiche universitarie. Ma tanto nel Paese dove la Magnitudo “vera” calcolata ad occhio è sicuramente più attendibile di quella dichiarata da INGV c’è poco da sperare. Sia dal versante della comprensione che da quello della prevenzione... Comunque la Scienza va avanti. in questo post, oltre a parlare dei ciarlatani, descrivo lo "stato dell'arte" della ricerca in materia e le prospettive

Sul gruppo Facebook geologi.it è comparso un post da me coordinato in collaborazione con altri membri del gruppo che si intitola così: "nessuno è attualmente in grado di prevedere i terremoti e chi dice di prevedere i terremoti è un visionario, un ciarlatano o peggio". Lo amplifico per una migliore comprensione.
Ricordo che prevedere un terremoto con una certa utilità vorrebbe dire che la struttura nazionale preposta alla protezione civile (in Italia il dipartimento della Protezione Civile della Presidenza del Consiglio) emetta un comunicato che grossomodo dica così: si avvisa che il giorno tale, la faglia tizia si muoverà provocando un sisma di Magnitudo ics. A tal proposito alleghiamo la carta dello scuotimento prevista e l’elenco dei provvedimenti di Protezione Civile che vengono messi in opera.
È evidente che fino a quando non si arriverà a questi risultati, i terremoti giungeranno all'improvviso. Ma siccome non saranno inaspettati (perché arrivano dove si sa che potrebbero arrivare) sarebbe meglio vivere, lavorare, passare il tempo libero etc etc in ambienti capaci di resistere ai terremoti più forti che possono avvenire in una determinata area: prevenire è meglio che curare e in qualche caso la cura arriverebbe in ritardo.

Geologi al lavoro su una trincea dove si vedono
tracce di movimenti dovuti a terremoti
SISMOLOGIA, CLIMATOLOGIA E METEOROLOGIA. Nella premessa ho detto che i terremoti sono “improvvisi” ma non “inaspettati”. Anni fa feci un paragone fra i terremoti e il tempo atmosferico. Ci sono due modi di studiare il tempo atmosferico, la meteorologia e la climatologia.
- la meteorologia in base ai dati che arrivano dalle stazioni meteo modellizza il tempo dei prossimi giorni, dando delle percentuali di probabilità di un accadimento (piogge, temperature etc etc). Ma non è capace di dirci come sarà il tempo fra un mese.
- la climatologia studia l’andamento delle condizioni meteo e ci dice che in generale a Firenze le piogge avvengono con maggiore frequenza in autunno e che l’estate è generalmente secca. I modelli sul futuro sono su base come minimo ventennale ma – sempre- considerando una tendenza del sistema. 
Quindi se per il meteorologo cerca di sapere la temperatura di domani, il climatologo cerca di conoscere come e temperature si modificano nel corso dell’anno in un luogo e come si evolveranno in futuro. 

Nella sismologia siamo ancora nella fase “climatologica”: gli studi ipotizzano la magnitudo massima attesa per una o un sistema di faglie. Questi studi si basano sulla sismologia storica (che in Italia è piuttosto buona), sugli studi strutturali (anche grazie all’esame della paleosismicità su trincee scavate lungo le faglie attive) ed altri particolari.
Questo non vuol dire che su una struttura si generi per forza un evento dell’intensità massima attesa: è molto difficile ma non impossibile che si generi un evento di intensità superiore ma è molto più facile che se ne generino di magnitudo inferiore. Il criterio statistico del tempo di ritorno è molto aleatorio… basta vedere che in base a questo criterio nel 1980 la zona del Sud Italia a minor rischio sarebbe stata…. l’Irpinia... 

La distribuzione delle repliche in Nepal dopo 
il terremoto del 25 aprile 2015: si nota che  
l'epicentro della scossa principale 
è in un vertice della zona che si è mossa 
LA MAGNITUDO NON È TUTTO. Ricordo anche che quello che conta sul luogo non è la Magnitudo, o, meglio, non è soltanto la Magnitudo: i danni del terremoto derivano dallo scuotimento del terreno, che è sì funzione della Magnitudo, ma anche della distanza (più lontano è l’ipocentro meno si risentirà il terremoto) e della situazione locale, dove per vari motivi le onde sismiche possono comportarsi in maniera drammaticamente differente; ciò può succedere anche a distanze di pochi metri: è il cosiddetto “effetto di sito”: per questo occorre una microzonazione sismica capace di distinguere dove le onde sismiche possono essere amplificate (e quindi dove non costruire) o ridotte (aree da considerare preferenzialmente per le costruzioni).
Annoto un’altra cosa: ho parlato di distanza dall’ipocentro. Anche questo può essere un pò fuorviante per diversi motivi: 
- il primo è che quello che si muove è un piano, e per parecchi km (una ventina se non erro nell’evento del 30 ottobre o oltre 150 nel caso della nuova Zelanda). La distribuzione delle repliche mostra con buona approssimazione l’area di movimento del piano e di solito l’epicentro dell’evento principale è in uno degli estremi, perchè la rottura si è propagata proprio da quel punto
- il secondo è che proprio il fatto che sia un piano a muoversi quello che conta moltissimo è la distanza dal piano e non dall’epicentro
- il terzo è che per vari motivi le onde sismiche possono essere molto direzionali

Da tutto questo segue che:
- la distribuzione degli effetti non può mai essere riassunta da cerchi concentrici, ma in prima approssimazione da una ellisse 
- la Magnitudo da sola, senza un posizionamento, un meccanismo e un riassunto delle caratteristiche puntuali del terreno  non serve a niente per la progettazione edilizia
Nella ricostruzione delle zone colpite in Italia centrale mi aspetto una buona microzonazione sismica.

CHI SONO QUESTI FALSI PREDITTORI? il 24 agosto scrissi "Giuliani non pervenuto". Infatti ha aspettato qualche giorno prima di essere tirato fuori dalla naftalina, quando disse che il terremoto lo aveva previsto ma non poteva scriverlo… con ottimi risultati di visibilità per lui, purtroppo. 
Ammetto di essere parecchio “prevenuto” nei confronti di questa categoria, ma noto che fra essi non c’è nessun geofisico o geologo (i link su Mucciarelli che avrebbe previsto un forte terremoto sono una ignobile farsa). Molti di loro non sono manco laureati, o lo sono in materie completamente diverse. E questo già è interessante: nessuna persona che mastica seriamente le Scienze della Terra a livello universitario asserisce di prevedere i terremoti. Il che qualcosa vorrà dire...
I terremoti del 2004 con M4 o superiore:
facile prevederne uno entro un paio di giorni...
Ho detto che utilizzano normalmente tecniche tipiche degli astrologi: in effetti basta ingrandire l’area e/o abbassare la Magnitudo per avere ragione. Ad esempio, parliamo dell’area mediterranea: nella sola Grecia e mari limitrofi abbiamo ogni anno oltre 100 eventi con M uguale o superiore a 4 (130 nel 2015, 190 nel 2014). Quindi non è una previsione dire “domani nell'area mediterranea c’è un forte rischio di terremoti”, ma una ovvietà.
Inoltre ci sfugge l'utilità di una "previsione" del genere (oltretutto è anche facile azzeccarci, basta intendersi sulla Magnitudo mantenendola bassa: perché una previsione sarebbe utile se dice quando e più o meno dove e quanto forte...).
Per intendersi, in questo caso avremmo dovuto evacuare "tutta l'area mediterranea"?

Hanno forse azzeccato un evento “principale”? no.. solo delle scosse “di ordinaria amministrazione” … perchè? Perchè a questa maniera, comunque, ci pigliano spesso, ma con giorni di ritardo, tolleranze di tanti chilometri, e per scosse tutto sommato nella media... che previsioni sono?  
Le previsioni possono essere verificate il giorno dopo: i terremoti previsti non ci sono stati (tranne appunto quando vengono specificate aree enormi… furbi...) e quelli che ci sono stati non erano stati previsti. Mi risulta che sulla base di una previsione di uno di questi delle persone abbiano passato la notte in auto. Evito un commento al riguardo..
Inoltre nessuno di questi (a parte qualche caso sporadico) accetta confronti e nessuno scrive su riviste scientifiche. Perchè? Perchè non seguono iter definibili come scientifici. Diciamo che stanno ai geologi come gli alchimisti ai chimici.
Figuriamoci, se presentassero dati certi che dimostrerebbero le loro teorie alla scienza non verrebbero certo ignorati… ma siccome non ne hanno di risultati, si arrampicano sugli specchi dicendo appunto che vengono ignorati. 
Il mondo scientifico deve riuscire a far capire al resto del mondo che la Scienza si fa sulle riviste scientifiche specializzate nella ricerca, scritte con il criterio della peer – review... La divulgazione, su stampa generalista o riviste dedicate divulgativa o su blog come Scienzeedintorni deve tenere conto fondamentalmente della letteratura scientifica. Anche Facebook, Twitter etc etc sono utili per la divulgazione ma devono basarsi su quello e non su cazzoni vari che la sparano grossa. 
Ci sono poi i sismologi fai da te, quelli che la magnitudo ce la calcoliamo da soli e se a me è tremato molto il letto/sedia ecc e dico che non era un 3.9 ma bensì un 4.2 è più veritiero quello che dico io piuttosto di quello che è pubblicato su un sito di esperti (e che – tanto per dire – questi geni misurano gli effetti e non la magnitudo...)

LO STATO DELL'ARTE DELLA RICERCA IN MATERIA

Ma oltre ai ciarlatani, anche la Scienza sta andando avanti. Perché gli scienziati non si rassegnano al fatto che i terremoti non sono prevedibili e cercano di capirne di più.
Abbiamo appena detto che i terremoti non giungono inaspettati, anche se non si sa quando arriveranno. ci sono 3 passi (o, parlando in bocconese, "step").

Nelle zone più pericolose dove è più
probabile un terremoto?
IL PRIMO PASSO: CAPIRE DOVE È POSSIBILE. Le Scienze della Terra sono riuscite a capire perché e dove possono accadere i terremoti: negli anni ‘60 del XX secolo la tettonica delle placche ha dato un significato generale agli eventi sismici e oggi sappiamo, specialmente dove esiste una buona documentazione storica, quali sono le aree più soggette a terremoti, di che tipo di regime tettonico si tratti (distensivo come nell'Italia centrale, compressivo come intorno a Creta o trascorrente come in California) e un’idea sull'intensità massima a cui possono arrivare i sismi. Abbiamo quindi, per riprendere il paragone, una buona descrizione climatologia, nel senso che sappiamo cosa potrebbe accadere e dove, ma ci manca la parte meteorologica, cioè il quando.
IL SECONDO PASSO: DOVE È PIÙ PROBABILE?  lo step successivo sarebbe quello di riuscire a selezionare le zone che hanno maggiori probabilità di subire nel futuro più prossimo un evento significativo. Questo perchè non sono i terremoti ad uccidere ma l’edilizia che non è in grado di resistere alle sollecitazioni sismiche. in Italia adesso abbiamo il problema di dover adeguare quantomeno scuole ospedali e centri della protezione civile. Ma è chiaro che non è possiible adeguare tutto e subito. Scegliere se intervenire prioritariamente da una parte o dall’altra a parità di cartografia sismica oggi è ancora un problema prima politico e poi tecnico – scientifico. 
Selezionare le zone che adesso sono più a rischio e quindi dove intervenire prioritariamente sarebbe già un bel passo avanti, posto sempre che – come ho sottolineato all’inizio del paragrafo – saremmo davanti a una maggiore o minore probabilità della occorrenza di un evento principale, senza certezza alcuna. 
Come ho detto, fino ad oggi il criterio probabilistico è stato quello del tempo di ritorno. Di fatto verso la metà degli anni ‘80 con questo criterio erano state individuate delle zone a più alto rischio, e assieme a Forlivese, Monti Iblei, Capo d'Orlando e due aree in Calabria c’erano Marsica e aree adiacenti. Quindi la cosa potrebbe avere un senso ma come ho detto... attenzione perché fu ricostruita con questo modello, ovviamente a posteriori, anche la situazione irpina e il risultato fu che in quell'area la probabilità di un accadimento del genere era molto bassa. 
Per fare questo passo ci sono diverse ricerche in corso e speriamo che diano il loro frutto. Anche il radon fa parte di questi sforzi, ma non nel modo in cui crede Giuliani.

IL TERZO PASSO sarebbe quello di poter davvero dire che domani ci sarà un terremoto. In questi studi occorre andare alla ricerca dei coasiddetti fenomeni precursori di un terremoto. Per essere considerato un precursore un fenomeno deve ripetersi esclusivamente prima di un evento sismico importante (e possibilmente sempre) e consentire l’emanazione di una allerta come ho descritto all’inizio del post. Ovviamente parlo di un evento “importante” perché in area sismica di eventi ne avvengono di continuo e quindi la correlazione sarebbe troppo “semplice”.
Lo studio dei precursori sismici è importante e anche in questo ci sono degli studi. Purtroppo oggi i precursori si rivelano tali solo a posteriori, a partire dalla variazione nella portata delle sorgenti alle emissioni di Radon, ai comportamenti degli animali (cosa su cui sono scetticissimo ma sarò felice di ricredermi se dimostrato). 
Ah, una "comunicazione di servizio": il tempo atmosferico con i terremoti noin c'entra assolutamente nulla. al limite c'entra il clima di quando si sono depositati i sedimenti di una zona sismica...
Sperando prima o poi di riuscire davvero a prevedere con un intervallo temporale e spaziale utile per la Protezione Civile. Purtroppo questo giorno è ancora lontano. I visionari e i cialtroni che dicono di riuscirci ci sono sempre riusciti sempre e soltanto a posteriori.

martedì 15 novembre 2016

Il terremoto della Nuova Zelanda del 13 novembre 2016


Con colpevole ritardo (ma giustificato da una serie di impegni) posto alcune note sul terremoto della Nuova Zelanda di sabato scorso. È stato un evento decisamente forte che per fortuna non ha coinvolto se non in misura minore aree fortemente urbanizzate. Le molte case ad un piano, anche se distrutte o rese inservibili dal sisma, che caratterizzano l'area hanno avuto un ruolo importante nello scarso bilancio in vite umane. La forza delle onde sismiche però ha provocato grandi deformazioni nel terreno e un numero imprecisato di frane che hanno messo in crisi il sistema dei trasporti e delle comunicazioni. Vediamo in questo post il quadro tettonico di questo evento, a cui sono seguite delle repliche la più forte delle quali è stata di intensità superiore a quella dei terremoti italiani di questo periodo.

IL LIMITE SETTENTRIONALE E ORIENTALE DELLA ZOLLA INDO-AUSTRALIANA. La Nuova Zelanda si trova lungo il limite orientale della placca indoaustraliana, dove questa confina con quella pacifica. Della storia geologica di questo per noi lontanissimo Paese ho parlato qui. Oltre alla normale sismicità ai suoi margini, quella indoaustraliana è una placca caratterizzata da forti terremoti al suo interno, per esempio nell’Oceano Indiano orientale e all’interno dell’Australia. Pertanto per parecchi Autori non ci sarebbe una placca indoaustraliana, ma una serie di placche minori che possono essere più o meno raggruppati in questa. Di sicuro al suo interno ci sono blocchi che almeno nel passato si sono comportati come placche autonome da quanto stava loro vicino. Ho parlato in particolare di questi aspetti qui

Il margine settentrionale e orientale della placca Indoaustraliana che dall’Indonesia alla Nuova Zelanda settentrionale è tutto in forte attività tettonica, sia dove confina con la zolla Euroasiatica che dove confina con quella pacifica ed è sede della fascia a più intensa sismicità attuale sulla Terra, ben superiore anche a quella dell’anello di fuoco circumpacifico, oltre ad essere interessata da un intenso vulcanismo (vulcani come Krakatoa, Tambora Rabaul e Taupo sono fra i più noti al mondo) . Nella carta tratta dall’Iris Earthquake Browser, nella quale sono ben visibili i vari margini di zolla, vediamo i terremoti a M 7 o più dal 1980, che sono quasi 200 (dei quali 10 con M 8.0 o più). La freccia indica l’evento neozelandese del novembre 2016.


La complessità del margine la vediamo dall’alternanza dei colori che contraddistinguono i vari margini e dal fatto che non c’è una sola linea continua: oltre al giallo (margine compressivo) troviamo diversi segmenti blu, che corrispondono a margini trascorrenti e persino segmenti rossi che segnano, come nel bacino delle Fiji, alcune zone di apertura.
All’altezza delle Samoa il margine che ad ovest è allineato circa WNW – ESE cambia bruscamente direzione e scende verso sud in direzione SSW, lungo l’arcipelago delle Tonga – Kermadec, una lunga catena di vulcani formatasi accanto alla fossa omonima.

ZEALANDIA: UN CONTINENTE QUASI INTERAMENTE SOMMERSO. Un altro particolare interessante è che la Nuova Zelanda dal punto di vista geologico è la punta più alta di una estesa massa continentale la Zealandia,  Un microcontinente decisamente sconosciuto ai più e che per di più appartiene in parte alla zolla pacifica e in parte a quella australiana. La vediamo in questa carta tratta da [1]. Grande all’incirca 2 milioni di km quadrati (più o meno quanto l’europa occidentale continentale), si trova per lo più sotto il livello del mare: ne emergono soltanto la Nuova Zelanda e alcuni arcipelaghi (Antipodi, Auckand, Campbell e Chatham). Non è ancora certo invece se, nell’estrema area NE della zolla indoaustraliana, le isole Fiji abbiano sotto di sé una crosta continentale antica, in qualche modo collegata a Zealandia o siano la parte superiore di un nuovo continente in formazione. 
Fino a 80 milioni di anni fa, nel  Cretaceo superiore Zealandia era unita con l’Antartide occidentale, esattamente alla Terra di Marie Byrd, Per cui è un’altro dei continenti derivati dalla fratturazione del Gondwana che ha caratterizzato dal punto di vista tettonico l’era Mesozoica.
Oltre ad essere principalmente un continente sommerso (la superficie della Nuova Zelanda è poco più di 1/6 del totale) Zealandia ha anche una seconda caratteristica interessante e particolare: il limite fra placca australiana e placca pacifica passa al suo interno. 

LE GRANDI DIFFERENZE GEOLOGICHE FRA LE DUE ISOLE DELLA NUOVA ZELANDA. Siccome tutto questo inizia in Nuova Zelanda si capisce perché le due isole principali che la compongono siano molto diverse fra loro: l’isola del Nord pullula di vulcani, assenti in quella del Sud che però ospita una importante catena montuosa. Queste differenze ovviamente non sono casuali: a largo dell’isola del Nord cambiano le caratteristiche del limite fra le placche pacifica e australiana diventando da compressivo a trascorrente quando entra in Zealandia. Di fatto l’Isola del Nord appartiene alla zolla australiana e si trova nell’arco magmatico generato dalla subduzione della crosta pacifica, come in altri sistemi di margini convergenti come l’Indonesia o il Giappone, mentre l’isola del Sud è divisa, ad est appartiene alla placca australiana come l’Isola del Nord, ad ovest a quella pacifica. La “faglia alpina” è una grande struttura trascorrente destra che segna all’interno di Zealandia il limite trascorrente fra le due zolle, come fa la Faglia di San Andreas in California.

IL QUADRO DEL TERREMOTO DEL 13 NOVEMBRE. Il terremoto del 13 novembre ieri è avvenuto in un'area geologicamente cruciale dove il margine si trasforma da compressivo a trascorrente e la velocità relativa fra le due zolle è di circa 4 cm/anno.
Nella immagine qui sotto la carta tratta da [2] mostra come la faglia alpina che nel resto dell'Isola del Sud è abbastanza netta, a nord si ramifica in diversi bracci, che formano il Marlborough Fault System, i quali non casualmente disegnano delle lunghe valli parallele, come si vede nell'ingrandimento a destra, nella quale l’epicentro della scossa principale è la stella rossa, mentre in giallo sono segnati gli epicentri delle altre scosse più forti.



Nella carta qui sotto invece vediamo la sismicità del 13 e del 14 novembre e quindi l’area in cui il piano di faglia si è mosso. Nelle 12 ore successive ci sono state 25 repliche di M compresa fr 4.5 e 6.5


Il meccanismo compressivo del terremoto ci dice che la transizione fra il limite di zolla compressivo e quello trascorrente è piuttosto complessa e forti compressioni sono presenti anche nell’area interessata dalla trascorrenza. Infatti le dimensioni, la profondità dell’ipocentro (25 km) e l’orientamento SW – NE della zona interessata suggeriscono la presenza di una struttura ancora collegata alla subduzione della zolla pacifica sotto quella australiana.  


[1] Okaya et al, 2007 Continent-Continent Collision at the Pacific/Indo-Australian Plate Boundary: Background, Motivation, and Principal Results in Okaya et al (eds)  A Continental Plate Boundary: Tectonics at South Island, New Zealand.  Geophysical Monograph Series 175

[2] Cox and Sutherland 2007 Regional Geological Framework of South Island, New Zealand, and its Significance for Understanding the Active Plate Boundary A Continental Plate Boundary: Tectonics at South Island, New Zealand.  Geophysical Monograph Series 175