mercoledì 22 marzo 2017

Il rilascio di metano alla base della esplosione e della colonna d’acqua dello scoglio d’Affrica


C’è molto rumore a proposito del fenomeno che è avvenuto nella zona dello “scoglio d’Affrica” o Formica di Montecristo, un piccolo isolotto dell’Arcipelago toscano: dei pescatori hanno sentito una esplosione e visto un getto di acqua a colonna; questo fenomeno è stato associato a una serie di boati che da tempo vengono avvertiti lungo le coste elbane. A leggere la stampa toscana, si tratta di un fenomeno misterioso. Invece c’è una soluzione semplice ed elegante al problema. La cosa divertente è che di questo fenomeno la Scienza se ne era già occupata proprio da quelle parti.

Ovviamente su questa notizia si sono scatenati i siti peggiori, invocando improbabili cataclismi impossibili anche collegandovi in modo pretestuoso l’attività sismica di questi giorni (che, continuo a ripetere, è assolutamente a livelli normali tranne che nel martoriato Appennino Centrale). In rete si leggono cose demenziali tipo che è in arrivo un’eruzione di un nuovo vulcano, per non parlare delle onnipresenti “trivelle”, oppure esercitazioni “segrete” della NATO. Mancano per adesso extraterrestri scie chimiche e HAARP e poi abbiamo tutto il complottismo scatenato sul fatto.  
Sicuramente è qualcosa di insolito (o, quantomeno, di poco osservato); eppure la spiegazione è abbastanza semplice e, sostanzialmente, già abbondantemente conosciuta. 

Ricapitolando, negli ultimi anni all’Elba vengono avvertiti dei boati che provengono dal mare a sud, tra Elba, Montecristo e Giglio. C’è chi dice dal 2013, ma in realtà la cosa è ancora più vecchia. In questi giorni probabilmente siamo arrivati a capo della faccenda, perché dei pescatori di Campo nell’Elba trovandosi a poche decine di metri di distanza dallo “scoglio d’Africa” hanno assistito a qualcosa di strano: riferiscono di “avere sentito una fragorosa esplosione” e di avere visto alzarsi “per alcuni metri un getto d’acqua nera, fango, gas e detriti”.
La Capitaneria di Porto di Portoferraio a questo punto ha emesso, a ragione, un divieto di navigazione nella zona interessata per “attività geologica sottomarina in corso”.

Iniziamo subito a dire che non si può trattare di fenomeni connessi a vulcanismo per una serie di motivi.
Ci sono delle rocce vulcaniche in zona, ma si tratta di graniti formati da magmi che si sono solidificati a qualche km di profondità tra gli 8 e i 4 milioni di anni fa. A Monte Capanne, Giglio e Montecristo l’erosione ha già abbondantemente esumato questi corpi magmatici, mentre a Punta Calamita il corpo si trova poco sotto la superficie.
Questi graniti si sono formati durante la prima fase di messa in posto dei prodotti della Provincia Magmatica Toscana, che in seguito si è trasferita lungo l’attuale costa toscana (San Vincenzo, Campiglia tra gli altri) per poi progredire ulteriormente verso l’interno (ad esempio Larderello, Radicofani e il più recente Amiata, attivo fino a circa 100.000 anni fa).
Quindi è chiaro che non può trattarsi di una riedizione di quella vecchia situazione e, in ogni caso, una eventuale attività vulcanica può essere esclusa a priori per un motivo banalissimo: non ci sono precursori di una eruzione (né della formazione di un nuovo apparato vulcanico) come sismicità, aumento del flusso di calore, attività fumarolica o idrotermale etc etc).
Anche l’ipotesi di un semplice vulcano di fango non pare verosimile, in quanto esplosioni e fiammate suggeriscono una forte reazione esotermica. 
Allora, di cosa si può trattare?

Senza saperne di più, avevo pensato a qualcosa legato alla presenza di sacche di gas intrappolate nei sedimenti. Questo sia per l’esplosone (cosa ci può essere che può esplodere in acqua se non del metano?) e per il colore scuro delle acque, che denota la presenza di materia organica non decomposta, che si accoppia benissimo alla presenza di metano.

FORMAZIONE DEL METANO. Queste sacche si formano nei sedimenti grazie ad una complessa varietà di attività metaboliche, il cui risultato finale è la formazione di metano e biossido di zolfo. Una puntualizzazione necessaria è che tutti questi metabolismi funzionano soltanto in un ambiente particolare e cioè in condizioni anaerobiche e riducenti. I sedimenti di questo tipo sono scuri per la presenza di materia organica che non si può degradare proprio perché la degradazione è un processo di ossidazione aerobico, impossibile in un ambiente riducente e anaerobico. È il modo con cui si formano i depositi di carbone e idrocarburi. 
Per ottenere simile condizioni nei sedimenti occorre che si formino in acque poco ossigenate, dove l’ossigeno non basta per degradare tutta la materia organica che si è accumulata.

RISALITA DI METANO E SO2 ED EFFETTI BIOTICI. Fino a quando l’ambiente resta riducente il gas rimane integro, ma metano e solfuri hanno il vizio di risalire perché sono leggeri. Nelle zone della superficie marina dove si verificano queste risalite si instaurano delle comunità di batteri e archeobatteri i quali a loro volta hanno un metabolismo che assorbe il metano e i solfuri emessi precedentemente dai batteri anaerobici
Queste comunità sono la base di una catena alimentare piuttosto  variegata, che comprende anche piante ed animali evolutisi per vivere in ambienti simili. Si tratta di una emissione di metano non indifferente, della quale le comunità batteriche assorbono fra il 20 e l’80% [1]. Il resto va in atmosfera.

RILASCIO VIOLENTO DI QUESTI GAS. Tali aree di rilascio, conosciute internazionalmente come methane seep, sono state scoperte una trentina di anni fa nella scarpata continentale a largo della Florida. Da quel momento sono state catalogate in una vasta parte dei fondi oceanici e anche in serie sedimentarie che dopo vicissitudini geologiche sfanno parte delle catene montuose.
Il problema è che quando il gas viene rilasciato si trova improvvisamente in contatto con l’ambiente ossidante esterno è costretto ad ossidarsi (e talvolta a deflagrare violentemente). Da qui il brillamento.

BOATI E BRILLAMENTI NEL ARE DELL'ELBA. Il buon Alberto Riva, uno dei più autorevoli esponenti della comunità di geologi.it, ha indicato un link che conferma quanto da me ipotizzato, citando un lavoro molto interessante svolto proprio nel mare toscano e uscito giusto un anno fa [2]. 
Il lavoro non riguarda direttamente le esplosioni, ma si è occupato del biota delle zone di rilascio di metano su fondali poco profondi nel mare compreso fra Elba occidentale (Pomonte), Pianosa e appunto, lo Scoglio D’Africa. Però gli Autori riportano chiaramente che durante le campagne di studio tra il 1995 e il 2005 hanno osservato spesso questi brillamenti (pur senza associarli ai boati, di cui non fanno cenno, e senza occuparsi della loro genesi che con il loro lavoro non c'entra niente).
Queste esplosioni nel mare prospiciente all’Elba avvengono su fondali a bassa profondità e quindi la colonna esplosiva esce fragorosamente in superficie, formando una colonna. La zona dello Scoglio d’Affrica è giusto una di quelle che che sono state prese in esame, appunto per la presenza di rilasci di metano a bassa profondità e delle comunità che vi vivono intorno.

È comunque un fenomeno piuttosto difficile ad osservarsi e per questo poco noto; è chiaro che i boati sono udibili a maggiore distanza rispetto a quella entro la quale possono essere visti i brillamenti (per vedere i quali si deve essere sufficientemente vicini e con gli occhi rivolti più o meno in quella direzione). 
Ma tutto fa supporre che l’esplosione vista dai pescatori l’altro giorno e i boati che ogni tanto vengono percepiti lungo le coste elbane siano dovuti ad emissioni di metano.

POSTILLE FINALI: 
1. di metano ce n'è, ma in quantità nettamente insufficiente per poterlo sfruttare economicamente
2. attenzione, qui si parla di metano inteso come CH4 e non di gas idrati: per quelli l'acqua del Mediterraneo è troppo calda


[1] Boetius, A., and Wenzhöfer, F. (2013). Seafloor oxygen consumption fuelled by methane from cold seeps. Nat. Geosci. 6, 725–734. doi: 10.1038/ngeo1926 
[2] Ruff et al 2016 Methane Seep in Shallow-Water Permeable Sediment Harbors High Diversity of Anaerobic Methanotrophic Communities, Elba, Italy Front. Microbiol. 7:374. doi: 10.3389/fmicb.2016.00374 


martedì 14 marzo 2017

Firenze e l'Arno: senza il fiume non ci sarebbe stata la città, nè sarebbe diventata quella che diventò


Nello scorso autunno la mia attenzione è stata rivolta al 50esimo anniversario dell’alluvione del 1966, di cui Firenze è il simbolo, la più illustre fra le vittime, ma non certo l’unica: oltre a quasi tutta la Toscana, dobbiamo ricordare soprattutto l’eccezionale acqua alta della laguna veneta e le alluvioni nel nordest (con particolare riferimento a Trento e alle vallate alpine tra Veneto e Friuli). In questa occasione l’Arno ha recitato la parte del cattivo e nel “film” della storia di Firenze a prima vista fa sempre così. In realtà non è del tutto vero. Anzi, senza l’Arno Firenze non sarebbe mai nata, né, in seguito, sarebbe diventata quello che tutto il mondo conosce. In questo post vorrei parlare di cosa l’Arno ha fatto PER Firenze e non di quando le sue intemperanze hanno arrecato danni ingenti, come nel 1966 (anche se, forzatamente, un po' se ne deve parlare…).

L'area di Florentia nel I secolo a.C.: il punto più stretto corrisponde all'attuale Ponte Vecchio, da [1]
La situazione è rimasta sostanzialmente inalterata fino all'espansione della città nel XII secolo
FIRENZE E IL SUO BACINO INTERMONTANO. Iniziamo da un inquadramento geografico: Firenze si trova al vertice meridionale di una delle vallate parallele all’asse della catena tipiche del versante occidentale dell’Appennino settentrionale. Dico versante occidentale perché, anche se “popolarmente” il mare della Toscana è chiamato “Tirreno”, in realtà a nord dell’Isola d’Elba sarebbe tutto “Mar Ligure”.
Un’altra cosa particolare è che queste valli di solito (e logicamente) hanno un nome (Casentino, Mugello, Valdarno superiore, Val di Chiana, Valtiberina etc etc ). Quella in cui oltre a Firenze, ci sono anche altre città importanti come Prato e Pistoia invece non ha un nome, e quindi nei lavori di geologia viene chiamata “bacino di Firenze, Prato e Pistoia”, per evitare di scontentare qualcuno (si sa che i toscani sono particolarmente campanilisti e polemici, in specie con quelli del paese accanto).

In genere questi bacini sono interamente percorsi da un fiume principale e anche in questo il bacino di Firenze, Prato e Pistoia costituisce una rilevante eccezione: infatti l’Arno vi entra al suo vertice SE e lo percorre solo nella parte meridionale, perché si infila nella stretta della Golfolina (dove Leonardo fece una delle prime considerazioni geologiche) fra Signa e Montelupo, sbocca nel Valdarno inferiore, dirigendosi verso Pisa, passando per Empoli e Pontedera. L’unico fiume che percorre per una buona parte il bacino è l’Ombrone pistoiese. 
Storicamente la piana era inabitabile o quasi per le paludi e l'ambiente malsano: lo dimostra il fatto che i centri principali erano tutti posti ai suoi bordi o arroccati sui colli prospicienti, specialmente su quello settentrionale (Firenze, Fiesole, Quinto, Calenzano, Prato, Montemurlo, Pistoia) ma anche su quello meridionale (Signa, Carmignano, Artimino e Quarrata). Firenze stessa è stata circondata da paludi fino al XV secolo. 
Per un autorevole referenza in merito ci si può rivolgere ad Annibale: arrivato dopo aver valicato gli Appennini nella zona di Pistoia, si trovò nel mezzo di una alluvione devastante e faticò non poco ad avanzare, subendo la perdita dell’ultimo elefante e, per una malattia, anche di un occhio. Quindi si può dire che attraversare il bacino di Firenze – Prato e Pistoia sia letteralmente costato al celebre condottiero cartaginese un occhio della testa...
Le bonifiche hanno consentito l’occupazione antropica della piana anche se molte aree sono ancora cronicamente soggette a periodiche alluvioni, specialmente nella sua parte occidentale.

Le dimensioni dell'Arno fino al XII secolo riportate nella cartografia attuale, da [1]
L'AREA DI FIRENZE NEL I SECOLO a.C. I ritrovamenti archeologici più antichi a Firenze sono rappresentati dalle tracce di un insediamento villanoviano del X secolo a.C. Dal V secolo a.C. la potenza dominante era Fiesole, una delle principali città etrusche. 
Ma arriviamo alla situazione del I secolo a.C: l’Arno, all’entrata del bacino nella zona di Rovezzano, si divideva in più rami, ma doveva tenersi verso la sinistra idrografica della piana perché alla sua destra scendevano dei torrenti (Affrico, Mensola e, soprattutto Mugnone) che portavano parecchi sedimenti. Il ramo meridionale passava all’incirca al bordo delle colline, nella zona di Badia a Ripoli e rientrava nel corso principale nella zona dell’attuale rione di Gavinana, più o meno lungo l’asse ora percorso dalla viabilità (Viale Europa e Viale Giannotti), perché sulla sinistra idrografica la collina del monte alle Croci (quella del Piazzale Michelangelo) si incunea all’interno del bacino, separando la piana di Ripoli a monte della città da quella di Scandicci, a valle. Il ramo centrale seguiva grossolanamente l’attuale percorso del fiume, però non era sicuramente così dritto. C’è poi la possibilità che le paludi nella zona dell’attuale Campo di Marte fossero alimentate, oltreché da Mensola e Affrico, anche da un terzo ramo dell’Arno (non ho ben capito come stavano le cose).
Come si vede dalle immagini rielaborate da [1] il fiume o, meglio, l’area occupata dall’alveo fluviale compresi gli spazi golenali, era piuttosto larga, molto più di adesso, a monte dell'attuale centro storico, mentre a valle dell’odierno Ponte alle Grazie l’alveo si restringeva drasticamente (e in misura minore lo fa anche adesso). 
Perché succedeva questo? Perché l’Arno nel suo percorso incontrava la conoide del Mugnone, cioè tutti i sedimenti erosi nel bacino di questo affluente che il torrente trascinava a valle. 
Il Mugnone scendeva dalla zona della attuale Piazza Libertà passando all’incirca dove ora ci sono Via Cavour e via San Gallo. Il tratto finale corrispondeva alla parte più settentrionale di via Tornabuoni.
Le paludi della zona del Campo di Marte erano dovute anche alla presenza di questa conoide che bloccava le acque. 
Alla confluenza fra Arno e Mugnone c’era (e c'è ancora) un rialzo compreso fra i due corsi d’acqua, posto ad un livello leggermente superiore a quello della piana, come dimostra questa immagine, sempre da [1].

Il modello digitale del terreno evidenzia la conoide del Mugnone e
l'elevazione della zona del castrum romano (nel quadrato)  rispetto alle aree adiacenti. Da [1]

FIRENZE NON SAREBBE NATA SENZA L’ARNO. Florentia è una tipica città di fondazione, cioè non è nata lì spontaneamente (come poteva esserlo invece l’insediamento villanoviano) ma per un preciso disegno urbanistico e strategico. A dimostrazione di questo segue rigidamente gli schemi costruttivi del classico castrum romano, una cinta muraria con all’interno strade in due direzioni perpendicolari, una N-S e una E-W con le due strade principali a croce, il cardo maximus e il decumanus [2]. 
Telemaco Signorini (1835 - 1901): l'alzaia (1864)
Ovviamente Florentia fu dotata immediatamente di un porto fluviale che la metteva in comunicazione con il porto di Pisa.
E qui si evidenzia un aspetto poco noto del passato: le condizioni delle pianure, che fino alle bonifiche sono state una successione di acquitrini e paludi, erano di ostacolo ai trasporti via terra, per cui le persone e le merci si muovevano preferenzialmente lungo i fiumi, con delle imbarcazioni a fondo piatto. Di fatto le strade sugli argini, le alzaie, erano percorse da uomini e animali che da terra muovevano queste imbarcazioni e ciò è continuato anche dopo le bonifiche: solo l’avvento delle ferrovie nel XIX secolo ha consentito un cambiamento nel sistema dei trasporti. L’alzaia, il celebre dipinto di Telemaco Signorini del 1864, è una eccellente testimonianza di tutto ciò: il celebre pittore fiorentino dipinge lo sforzo di alcuni braccianti che tirano una chiatta lungo l'alzaia dell'Arno.
Inoltre i fiumi consentivano l’uso dei mulini, fornivano acqua per vari usi, e rappresentavano con il pesce e la cacciagione palustre una fonte di cibo sufficiente per l'epoca.
Ricordo che Leonardo progettò un canale che da Firenze doveva raggiungere l’Arno passando per Pistoia proprio per le stesse motivazioni per cui sono state costruite in seguito ferrovie e strade, cioè per trasportare le merci (c’era poi pure la necessità di bonificare definitivamente il bacino).

Anche il toponimo evidenzia la fondazione ex-novo. Ed è possibile che anziché Florentia fosse in origine Fluentia, con riferimento alla confluenza dei due fiumi. Un toponimo analogo è rappresentato da Coblenza, città fondata dai romani alla confluenza fra Reno e Mosella, originariamente chiamata Confluentes.
Quindi Florentia essendo una città di fondazione è nata lì proprio perché era il luogo giusto per costruirla: un rialzo nel punto in cui un fiume all’epoca navigabile si stringeva consentendo un passaggio agile e la possibilità di costruite un porto. Inoltre la confluenza con il Mugnone consentiva una migliore difesa. 
Florentia ebbe una discreta fortuna, anche se la scarsa disponibilità di acqua potabile e a scopi termali non ne faceva una meta particolarmente appetibile (ho parlato dell’acquedotto romano in questo post).
Poi anche per Florentia vennero i secoli bui, dopo i quali l’età carolingia sancì una rinascita della città, che fu guardata con un certo interesse dalla dinastia imperiale, come dimostra il capitolare di Corteolona dell’825, con il quale l’imperatore Lotario scelse Firenze come sede di una delle otto scuole nell’Italia centro – settentrionale per la preparazione dei giovani ecclesiastici, segnatamente quelli della Tuscia.

FIRENZE È DIVENTATA GRANDE GRAZIE ALL’ARNO. Nell’XI secolo la netta ripresa dei commerci ha avuto come conseguenza la ripresa delle attività del porto e anche in questo caso si vede come l’Arno sia stato necessario per l’incremento dell’economia. La città si ingrandì velocemente (al pari di altri centri italiani) espandendosi oltre la cerchia muraria carolingia e costringendo il Libero Comune a decidere nel 1170 la costruzione di una nuova cerchia di mura, la prima cinta comunale, conclusasi entro il 1175. 
La crescita della città si svolse dalla vecchia area romana e carolingia verso l’Arno, grazie al fatto che la depressione che caratterizzava in antico questa zona della città, compresa tra Palazzo Vecchio e l’Arno, iniziò ad essere colmata dalla tarda età imperiale e fino all’XI secolo con una serie di scarichi composti per lo più dai rifiuti della popolazione che abitava dentro il nucleo urbano [3]. Una forte espansione ulteriore avvenne nella riva opposta. 

Un ponte nella posizione dell’attuale Ponte Vecchio o (più probabilmente poche decine di metri più a monte), al servizio della Via Cassia Nuova almeno nel II secolo d.C. Qui si capisce il ruolo strategico della città, che presidiava l’attraversamento del ponte sul fiume più importante lungo questa strada. Il ponte è crollato nei “secoli bui” probabilmente durante una alluvione (nel clima freddo e umido dell’epoca le piene a Firenze erano più frequenti che nel periodo caldo attuale e durante il periodo caldo medievale, proprio come è successo durante la piccola era glaciale). Quindi fino alla ricostruzione di una struttura del genere, che è ritornata ad esistere almeno dall’epoca carolingia, l’unico modo per attraversare l’Arno era ridiventato il guado. Quasi sicuramente il ponte carolingio fu distrutto nel 1177 dalla prima delle alluvioni inserite nell’elenco del Morozzi. Ricordo che, contrariamente a quello che si ritiene comunemente, il Morozzi non dice che le alluvioni iniziarono in quella occasione: accenna ad eventi precedenti e inizia il suo elenco con il 1177 solo perché è il primo evento che ha coinvolto la nuova situazione urbanistica della città. La crescita dell’Oltrarno costrinse anche a costruire nel XIII secolo e in pochi anni gli altri 3 ponti “storici”  il Ponte alla Carraia (che fu brevemente noto come  Ponte Nuovo nel 1220), il ponte a Rubaconte (oggi Ponte alle Grazie) nel 1237 e il Ponte a Santa Trìnita, nel 1252.

I ponti fiorentini hanno una storia travagliata: la piena del 1333 li aveva tutti distrutti. Due secoli dopo, nel 1557 resistette solo il Ponte Vecchio, dopo la quale gli altri furono ricostruiti con l’aspetto attuale. Ho detto “con l’aspetto attuale” perché la Wehrmacht nel 1944 li fece saltare tutti ad eccezione del Ponte Vecchio e nel dopoguerra ponte alla Carraia e ponte a Santa Trìnita, considerati dei veri capolavori del genere, sono stati nuovamente realizzati esattamente come erano.
Comunque, ecco che l’Arno dal XII secolo in poi si è dimostrato ancora una volta fondamentale per la crescita della città: Firenze è diventata quella che è grazie all’arte della Lana e le rive del fiume erano un continuo di mulini e gualchiere (macchinari di epoca preindustriale fondamentali appunto per la manifattura delle lane) e non sarebbe potuto succedere tutto questo senza il fiume che forniva acqua per tingere le lane, l’energia per fare la farina e altro e pure la via per l’esportazione.

A cascata vennero i “banchi”, la seconda fortuna della città: all’epoca era vietato prestare il denaro a strozzo (il concilio di Lione del 1274 e il concilio di Vienna del 1311 ribadirono la condanna dell'usura, minacciando di scomunica i Comuni o gli Stati che la permettevano) ma con le tante valute dell'epoca i cambiavalute erano necessari. Di fatto le grandi banche fiorentine sono proprio nate a seguito della necessità di cambiare le valute nelle esportazioni della lana e per poter gestire nuovi strumenti del credito come le lettere di cambio, sorta di fidejussioni grazie alle quali chi si recava all’estero poteva condurre transazioni con la fondamentale sicurezza di non dovere portare con sé il denaro contante.

LA FRANA DI CASTAGNO, L'INTORBIDIMENTO DELL'ARNO E LA CRISI CONSEGUENTE NELLA LAVORAZIONE DELLA LANA. A dimostrazione del ruolo determinane del fiume, ricordo un episodio storico nel quale si evidenzia come l’importanza di qualcosa la si sente proprio quando manca.
Siamo nel versante occidentale del monte Falterona, quello mugellano (l’Arno nasce nel versante casentinese dello stesso monte). Nel 1335 si mise in moto una frana, nota come la frana di Castagno d’Andrea (all’epoca si chiamava solo “Castagno”, oggi Castagno d’Andrea in quanto luogo natale di Andrea del Castagno). Si tratta di un evento enorme: il Villani, testimone diretto della situazione scrisse che "uno sprone della montagna di Falterona della parte che discende verso il Dicomano in Mugello, per tremoto e rovina scoscese più di 4 miglia infino alla villa che si chiama il Castagno, e quella con tutte le case e persone e bestie selvatiche e dimestiche e alberi subissò" [4]
La conseguenza più grave fu che l’Arno divenne estremamente torbido per almeno 3 mesi, impedendo la lavorazione della lana. Sempre il Villani scrisse: la quale torbida acqua discese nel Decomano, e tinse il fiume della Sieve; e la Sieve tinse il fiume dell'Arno infino a Pisa; e durò così torbido per più di due mesi, per modo che dell'acqua d'Arno a neuno buono servigio si poteva operare, né cavalli ne voleano bere; e fue ora che i Fiorentini dubitaro forte di non poterlo mai gioire, né poterne lavare o purgare panni lini o lani, e che peròl'arte della lana non se ne perdesse in Firenze; poi a poco a poco venne rischiarando, e tornando in suo stato".
Dopo le distruzioni dell’alluvione del 1333, quest’altra sciagura mise in ginocchio l’economia della città, che però riuscì a riprendersi quando le acque ritornarono alla precedente chiarezza.

Quindi l’Arno, che è noto soprattutto per le sue intemperanze, in realtà gioca anche questo aspetto più sconosciuto ma fondamentale: senza di esso Firenze non sarebbe mai nata, né sarebbe diventata la città che conosciamo.

[1] Morelli et al 2014 Rapid assessment of flood susceptibility in urbanized rivers using digital terrain data: Application to the Arno river case study Applied Geography 54,35-53
[2] Sabelli 2016 Il progetto strategico di ricerca “FIMU | Le mura urbane e il sistema difensivo di Firenze”Restauro Archeologico 2, 94-113 ISSN 1724-9686  
[3] Francovich et al 2007 La storia di Firenze tra Tarda antichità e Medioevo. Nuovi dati
dallo scavo di via de’ Castellani, Firenze, Annali di Storia di Firenze, II 9-48, FUP: Firenze.
[4] Giovanni Villani “Nova Cronica”, libro XI cap.26

lunedì 6 marzo 2017

il rapporto 2017 sulla sismicità indotta da attività antropiche negli Stati Uniti


Il Servizio Geologico degli Stati Uniti produce una carta della sismicità naturale, che viene utilizzata per diversi scopi, principalmente per regolamentare la costruzione di edifici, ma anche per le assicurazioni contro i terremoti, quantificazione del rischio e quant’altro. In questi ultimi anni in alcune aree precedentemente non interessate da terremoti la situazione si è improvvisamente modificata, a causa di attività antropiche, in particolare la reiniezione di fluidi inquinanti residui dell’industria petrolifera a scopo di smaltimento in pozzi profondi. La conseguenza è stata la trasformazione in zone ad elevato rischio sismico di aree che fino a poco tempo fa erano invece immuni dal problema. Il rischio sismico per sismicità  antropica cambia di contiinuo a seconda della quantità di acque reiniettate nel sottosuolo e pertanto ogni anno viene pubblicato un rapporto in materia. Il fenomeno per il 2017 è previsto in diminuzione rispetto al 2016.


Il rischio sismico indotto dalle attività antropiche dipende da cause puramente locali e cambia molto rapidamente (nell’ordine dell’anno o poco più), un ritmo troppo veloce per modificare la zonazione sismica degli edifici e il tempo di vita di parecchie strutture. Quindi ogni anno escono le previsioni per il rischio sismico negli Usa centrali che tengono conto delle modificazioni della sismicità di origine antropica.
Si tratta di una carta ben diversa da quella  della sismicità naturale e si limita alla parte centrale degli USA continentali: non vi sono compresi stati come la California, dove le attività antropiche non alterano un valore già piuttosto alto di suo del rischio sismico. Ovviamente si tratta di previsioni dal punto di vista statistico e non danno quindi certezza alcuna. 

La notizia della redazione della carta del rischio sismico da attività antropica per il 2017 ha suscitato il classico vespaio all’italiana con i soliti atteggiamenti manichei in cui in genere si divide l’opinione pubblica della nazione nazionalpopolare. A proposito della sismicità indotta i due schieramenti manichei sono:
  • quelli che tutti i terremoti (in particolare quelli dell’Emilia) sono indotti
  • quelli che parteggiano sfacciatamente per le case petrolifere e cercano di dire che questo problema avviene in pochi, pochissimi casi isolati

In mezzo ci sarebbe il rigore scientifico. Per una introduzione generale del problema ho scritto questo post.
Ora, chi mi conosce sa che non sono mai stato tenero con l’industria petrolifera. Addirittura sostengo che la questione del meteorite killer dei dinosauri sia stata tirata fuori non casualmente l’anno dopo l’articolo su Science in cui Dewey McLean espresse chiaramente l’idea che i rettiloni si sarebbero estinti a causa di un intenso riscaldamento globale dovuto ad emissioni di CO2. Nel mio libro ho appunto fatto notare come prima della trovata degli Alvarez, per i quali il K/T si è svolto in un un momento freddo e buio, tutti i dati erano (e sono tuttora…) in favore appunto di un forte riscaldamento dovuto a emissioni di CO2 naturali, con buona pace degli impattisti che continuano a far finta di nulla su questo (a proposito, anche Alvarez figlio ora sostiene che il cosmico scontro sia avvenuto ben prima del KT e che abbia solo avuto l’effetto di rendere particolarmente virulente le eruzioni del Deccan e le loro emissioni di CO2). Insomma, con le nostre emissioni stiamo facendo un esperimento globale per capire come si sono estinti i dinosauri e come sono avvenute le altre estinzioni di massa che hanno punteggiato la storia della vita sulla Terra. 
Come anche mi sono espresso chiaramente contro il fracking, una pratica devastante per il sottosuolo e per me ambientalmente insostenibile. Ma non si può accusare il fracking di quello che non fa direttamente.

La curva cumulativa degli eventi sismici negli USA centrali
evidenzia l'incremento dell'attività sismica negli ultimi anni
da [1] 
ESTRAZIONE DI IDROCARBURI CONVENZIONALE E CON L’IDRAULIC FRACTURING (FRACKING) E LA NECESSITÀ DI REINIETTARE ACQUE NEL SOTTOSUOLO. Il rischio sismico negli USA centrali è dovuto essenzialmente alle attività antropiche. Tanto per riepilogare come stanno le cose, ricordo brevemente la situazione: in molte zone di quell’area non interessate generalmente da terremoti, si è assistito negli ultimi anni ad un forte aumento della sismicità, come evidenzia la curva qui accanto, tratta da [1].  Lì per lì la causa era stata addebitata alle operazioni di fracking, cioè l’estrazione di idrocarburi non convenzionali dai gas e oil shales che sono nate e si sono sviluppate giusto negli ultimi tempi.
Nelle coltivazioni tradizionali gas e petrolio sono estratti dai pozzi esattamente come l’acqua, perché esistono delle falde sotterranee che li contengono in rocce permeabili. Gli scisti sono rocce sedimentarie molto dure e a grana molto fine: dunque a meno che contengano fratture sono impermeabili perché più la grana della roccia è fine, più piccoli sono gli interstizi fra i grani e quando questi interstizi sono troppo piccoli i liquidi non riescono a passare e rimangono quindi intrappolati.
Questo succede nei gas e oli shales: gli idrocarburi non possono essere estratti semplicemente pompandoli in quanto non sono liberi di muoversi negli interstizi fra i grani della roccia e allora per farlo occorre frantumare lo scisto. Allora si usa acqua ad alta pressione in cui vengono aggiunte sostanze (sostanzialmente acidi e battericidi) che – eufemisticamente parlando – non sono esattamente quanto ti aspetti di trovare nelle acque di una fonte alpina. La maggior parte di quest’acqua resta in profondità, ma una parte (tipicamente il 20%) torna indietro e va smaltita perché è un fluido altamente inquinante. E quindi in genere viene reiniettata nel sottosuolo.
Preciso inoltre che non esiste proprio di fare fracking con giacimenti tradizionali (a parte qualche scavo di pozzo, ma non per estrarre idrocarburi).

L’aumento della sismicità è correlato dal punto di vista temporale allo sviluppo del fracking. In realtà questa tecnica c’entra poco direttamente con questa storia: rapporti diretti sono stati evidenziati solo a Fox Creek (Alberta), Poland Township (Ohio) e Preese Hall (Inghilterra) ed è bene che anche gli ambientalisti lo sappiano, perché accusare il fracking falsamente oltretutto indebolisce l’azione di (per me giusta) protesta.
Segnalo poi che ci sono aree in cui la sismicità indotta avviene in corrispondenza di attività estrattiva convenzionale (per esempio Oklahoma, California e anche Basilicata). Si tratta di acque altamente salate che vengono pompate insieme al petrolio: anch’esse non possono essere rilasciate nell’ambiente. Spesso la reiniezione di queste acque serve anche per aumentare la produttività dei pozzi. Ne ho parlato qui.

Questo perché la sismicità è indotta non dai prelievi di idrocarburi, ma semplicemente dalla reiniezione di liquidi, quale ne sia l’origine (con buona pace di quelli che i terremoti in Adriatico sono dovuti “alle trivelle”...). Ne avevo parlato qui.
È bene chiarire che il fenomeno non riguarda tutti i pozzi di reiniezione, tantomeno lo fa in maniera casuale. 

LA SISMICITÀ NEGLI USA CENTRALI. Negli USA centrali solo l’area di Nueva Madrid, a cavallo fra Arkansas, Kentucky, Missouri e Tennessee presenta una sismicità di origine naturale, che ha provocato tra dicembre 1811 e febbraio 1812 4 eventi a M superiore a 7. Si tratta di alcuni dei più forti terremoti mai registrati lontano dai margini di zolla e su cui mi sono sempre ripromesso di parlare prima o poi. 
Nell’area di Nueva Madrid l’Iris Earthquake Browser segnala per l’attività sismica negli ultimi 30 anni 67 scosse con M uguale o superiore a 2 (con 5 eventi a M > 4.0) tra febbraio 1987 e febbraio 1997, 68  tra febbraio 1997 e febbraio 2007 (1 evento a M 4.1). Tra febbraio 2007 e febbraio 2017  sono stati invece 286 (2 eventi a M 4 e 4.1 nel 2012 e nel 2015), ma l’aumento esponenziale lo vediamo dal 2014 a oggi: da un valore compreso tra 5 e 13 eventi l’anno registrati tra il 1987 e il 2013, siamo passati a 56, 75 e 72 eventi all’anno tra il 2014 e il 2016.
Insomma, si tratta di una zona sicuramente teatro di sismicità naturale, come naturale è considerato l’aumento degli ultimi anni: a prima vista l’aumento sembra eccessivo ma il grafico presentato nel lavoro ridimensiona l’impressione che si ha leggendo le cifre brutali. Oltretutto non ci sono attività di estrazione di idrocarburi nell’area interessata dalla sismicità, anche se esistono in zone vicine.

Carta modificata da [2]: in giallo i pozzi di reiniezione che
hanno indotto sismicità, in cui ho evidenziato le zone
a rischio nel rapporto per l'anno 2017
Ci sono poi 4 aree in cui la sismicità è di origine puramente antropica: Oklahoma-Kansas, Raton Basin (tra Colorado e New Mexico), Texas settentrionale e Arkansas settentrionale.
Come mai queste aree sono particolarmente prone al fenomeno? Perché la sismicità indotta si sviluppa su faglie preesistenti che si trovano nel basamento metamorfico sotto i sedimenti fra i quali ci sono quelli contenenti gli idrocarburi. Queste faglie non sono più attive dalla fine dell’orogenesi ercinica (250 milioni di anni fa): per rimetterle in movimento occorre che la pressione dei liquidi immessi superi l’attrito del piano di faglia e quindi per provocare il fenomeno i pozzi devono accoppiare a un elevato tasso di reiniezione lo scarso spessore di sedimenti sopra il basamento. Queste condizioni, negli USA centrali, si hanno soprattutto nell’interno, come si evidenzia da questa carta presa da [2]; ad esempio, le reiniezioni influenzano la pressione dei pori delle vecchie faglie del basamento nel Texas settentrionale e in Oklahoma, dove lo spessore della copertura sedimentaria è esiguo, mentre nella zona del Golfo del Messico la serie sedimentaria è enorme e quindi è difficile che la sovrapressione arrivi al basamento. Non sto a dilungarmi sulla questione, visto che per chi vuole approfondirla avevo scritto questo post.

L’OKLAHOMA. Ho parlato anche in specifico della sismicità indotta nell’Oklahoma dall’inizio del XX secolo in quanto è avvenuta anche ben prima degli ultimi anni e, soprattutto, perché è legata a coltivazioni convenzionali. Il post è della fine del 2015 e quindi approfitto dell’occasione per aggiornarlo. In questo stato dal 2009 è stato registrato un aumento della sismicità in numero ed intensità degli eventi e il 2016 è stato piuttosto pesante: 21 eventi con M ≥ 4, di cui 3 con M ≥ 5, tutti avvenuti nella zona che era stata indicata come quella più a rischio nel rapporto 2016. Ci sono stati anche danneggiamenti, liquefazioni del terreno e fuoriuscite di sabbie.
Come è noto la sismicità indotta si distingue da quella naturale perché con il tempo aumenta in intensità e numero di scosse. In Oklahoma è evidente l’aumento sia degli eventi sia della loro intensità: tra il 1980 e il 2000 ci sono stati soltanto 2 terremoti a M superiore a 2, mentre dal 2009 in poi si vede un crescendo rossiniano fino ai 2500 e 4000 terremoti con M > 2.0 rispettivamente nel 2014 e nel 2015. Il numero è calato a 2500 nel 2016. Il primo evento importante a causare danni è stato il terremoto M 5.7 del 6 novembre 2011 di Prague. Notare che nel 2016 la diminuzione della frequenza degli eventi ha comunque coinciso con l’anno in cui si è verificato un numero maggiore di quelli con M uguale o superiore a 5.0.

La sismicità negli USA centrali tra 2015 e 2016, da [3]
IL RAPPORTO 2017. Rispetto a quello per il 2016, il rapporto del 2017, appena uscite in un articolo pubblicato su Seismological Research Letters [3], presenta un rischio minore in alcune aree dove il 2016 è stato “meno sismico” del 2015. La cosa potrebbe essere connessa con gli effetti di nuove regole imposte dalle autorità, ma anche con la diminuzione dei volumi di idrocarburi estratti a causa della fase a basso prezzo del petrolio che ha reso antieconomico lo sfruttamento di riserve coltivate con il fracking o convenzionali in cui il costo di estrazione è particolarmente alto. Meno estrazione significa anche meno reiniezione; oggi il numero di pozzi attivi è in netta ricrescita e questo significa un maggiore volume di fluidi da reiniettare. Non solo, ma trattandosi di pozzi “maturi” la quantità di acqua pompate insieme al petrolio è maggiore che in pozzi giovani e questo è un altro aspetto preoccupante per il 2018 (a dimostrazione del fatto che il rischio sismico da attività indotta cambia rapidamente con il tempo). 
Resta il fatto che in tutte le aree interessate il rischio sismico resta molto più alto di quello che era prima del 2009, e questo proprio a causa delle attività antropiche.

La conclusione del lavoro è che nonostante il rischio sismico da attività antropica sia diminuito, tra Oklahoma e Kansas meridionale ci sono ancora 3 milioni di persone che vivono dove il potenziale di danno strutturale alle case è elevato, in quanto queste costruzioni sono state concepite per una zona a rischio sismico naturale nullo mentre oggi abbiamo un rischio simile a quello che esiste naturalmente in California.

NB: per chi volesse approfondire la situazione di casa nostra sulla sismicità antropica in Italia ne ho parlato a questo link.

[1] Ellsworth (2013) Injection-Induced Earthquakes Science 341, 1421225942. DOI: 10.1126/science.1225942 
[2] Weingarten et al. (2015): High-rate injection is associated with the increase in U.S. mid-continent seismicity. Science 348; 1336 – 1340
[3] Petersen et al. (2017) 2017 One-Year Seismic-Hazard Forecast for the Central and Eastern United States from Induced and Natural Earthquakes Seismological Research Letters 88-3 doi: 10.1785/0220170005 

domenica 26 febbraio 2017

Darwin day 2017: 5 equivoci sull'evoluzione


Era da un po' che non mi occupavo di evoluzione, anzi di evoluzionismo. Colgo quindi l'occasione dell'appena passato Darwin Day, anche grazie ad un bell'articolo su wired che fa il punto su alcuni concetti completamente errati e perché a causa delle vicende americane attuali, quello di quest'anno è forse il più significativo Darwin Day degli ultimi tempi. Preciso che su Scienzeedintorni si parla di politica se e solo in rapporto ai temi del blog e non dal punto di vista generale; pertanto sulle elezioni e sulla politica americana in senso lato non metto bocca: mi occupo solo del fatto che fra le conseguenze dell'elezione di Trump c'è purtroppo l'assist al fondamentalismo religioso antievoluzionista, il quale sta riprendendo piede anche in Europa, continente da cui era stato bene o male espulso quasi dappertutto. Soprattutto, il rischio per la Scienza dalla nuova coppia presidenziale USA, con il presidente impegnato fra i negazionisti di un effetto antropico sui cambiamenti climatici e un vicepresidente antievoluzionista militante è reale. Quindi ancora una volta, la Comunità Scientifica deve riaffermare pubblicamente l’attualità degli studi e dell’insegnamento dell’evoluzione attraverso gli eventi inseriti nel Darwin Day il 12 febbraio, anniversario della nascita di Charles Darwin. 

Per la Scienza negli USA si preannunciano tempi duri: da un lato i climascettici, dall’altro gli antievoluzionisti sono due fronti che hanno tutto l'interesse a delegittimare la comunità scientifica in senso lato, per delegittimare a cascata i risultati delle ricerche che li smentiscono (o, in genere, li ridicolizzano). 
Di fatto dopo le elezioni negli Usa i tentativi di indebolire l’insegnamento dell’evoluzione hanno conosciuto un nuovo impulso e anche in Europa, a lungo considerata relativamente immune a questo tipo di antiscienza, il creazionismo continua ad avanzare. Pertanto 150 anni dopo Darwin la battaglia contro l’arretratezza mentale (almeno dal punto di vista scientifico) degli antievoluzionisti, è ancora da vincere, nonostantechè la pubblicazione de “l’origine delle specie” sia stata uno spartiacque fra il “prima” in cui la mancanza di un “motore” dell’evoluzione rendeva possibile il dibattito ad un “dopo” in cui nessun uomo di Scienza che ha studiato dopo il 1859 ha potuto dubitare dell’evoluzione (tranne pochi casi, isolati e senza seguito, come in Italia... Zichichi). 
Parlando di evoluzione occorre innanzitutto capire che stiamo parlando di un processo attivo attualmente come lo è stato nel passato. Il fatto che sia attivo ci consente (anzi, ci obbliga) ad applicare anche in questi studi il criterio dell’attualismo che in Geologia è stato codificato già alla fine del ‘700: seguendo quello che James Hutton stabilì e cioè che i fenomeni geologici che operano adesso hanno sempre agito con la stessa intensità nel passato dei tempi geologici, si può dire che anche i fenomeni biologici (evoluzione in primis) procedono adesso come hanno proceduto nel passato.
Oggi sappiamo che ci sono stati momenti in cui l’evoluzione si è accelerata (in particolare durante le varie “radiazioni evolutive”), o dopo le estinzioni di massa, ma d’altro canto anche gli eventi geologici hanno vissuto ad impulsi, per esempio quelli legati ai cicli di formazione e distruzione dei supercontinenti. Però queste sono sfaccettature secondarie.
Il post di Wired che ho citato parla di 5 errori comuni sull’evoluzione che quindi mi piace esaminare, perché, come vi è scritto, alcuni aspetti dell’evoluzione sono fraintesi e anche grazie a tali fraintendimenti gli antievoluzionisti possono trovare alcuni (sbagliati) appigli.
Ai 5 punti considerati dal post ne aggiungo un altro a cui comunque era stato fatto un accenno e lo metto per primo,  come “punto zero” per  rispetto del post che mi ispira e per semplicità in un eventuale confronto.

O. SIGNIFICATO DI EVOLUZIONE. Darwin non parlò mai di “evoluzione” ma di “discendenza con modificazioni”. È una distinzione particolarmente importante perché nel XIX secolo quando fu introdotto il termine "evoluzione" questo serviva per mettere l’Uomo al vertice della biosfera (e, calandosi nel periodo vittoriano, della supremazia dell’uomo inglese su quelli europei in primis e sul resto dell’umanità poi). Con il termine evoluzione quindi la darwiniana asettica “discendenza con modificazioni” diventava tacitamente un “progresso”. In realtà ciò non è sempre vero: certamente la “corsa agli armamenti” fra preda e predatore fa sì che certi standard (riflessi, corsa, veleni ed immunizzazione dai veleni etc etc) migliorino, e in genere forme di vita più performanti soppiantino quelle meno performanti una volta che entrino in una determinata nicchia ecologica: l’estinzione delle faune autoctone del Sudamericane quando si è formato l’istmo di Panama è un esempio classico, come lo sono in tutto il mondo le specie invasive portate dall’uomo. Ma non c’è un finalismo in tutto ciò, né una specie meno “progredita” dal punto di vista fisiologico verrà soppiantata necessariamente da una più progredita o intelligente: ad esempio un coccodrillo è “meno perfetto” di un mammifero, se guardiamo a intelligenza, complessità strutturale, comportamento e quant’altro, ma nel suo ambiente non ha rivali. Quindi lì è più performante di qualsiasi mammifero che abbia tentato di spartire con lui la nicchia ecologica di "predatore fluviale d'apice in zone equatoriali". Invece i coccodrilli di abitudini più terricole che sfruttando l’estinzione dei dinosauri hanno popolato la Terra nel primo Paleocene sono scomparsi appena uccelli e mammiferi carnivori si sono organizzati con forme capaci di fare loro concorrenza (vedi questo post). 
Insomma, c’è una netta differenza fra un prodotto della tecnologia e un essere vivente: nessuno comprerebbe per un uso quotidiano una automobile di 50 anni fa, che per certi versi è diversa da quelle attuali come un rettile lo è da un mammifero, mentre i rettili sono ancora in “servizio regolare”.
Anche la teoria dell’evoluzione si è … evoluta nel tempo e oggi le idee di Darwin sono state “decisamente migliorate”: ad esempio non c’è più il gradualismo esasperato grazie agli “equilibri punteggiati” di Gould e Eldredge; insomma, mentre animali “poco evoluti” come i molluschi bivalvi godono di ottima salute, nessuno può insegnare la biologia come nell’immediato dopo – Darwin (se non parlando di storia della Scienza).

1. L’EVOLUZIONE NON SPIEGA (NÈ SI SOGNA DI SPIEGARE!) L’ORIGINE DELLA VITA. Con l’evoluzione si spiega la storia della biodiversità da quando la vita è apparsa sulla Terra e come questa si è modificata con il tempo, ma non come la vita sia nata, un problema scientifico aperto (e che non sarà facile risolvere). Il motivo è molto semplice, proprio perché applichiamo il criterio dell’attualismo: non ci sono dubbi che pressioni e meccanismi evolutive abbiano guidato le modificazioni nel tempo degli esseri viventi fin dalla loro comparsa. Ma l’attualismo non si può applicare ai processi che hanno coinvolto quei composti chimici che alla fine si sono auto-organizzati in sistemi molecolari in grado di replicarsi e mantenere un metabolismo, semplicemente perché non ne esistono più e non possono essere direttamente studiati. Per parlarne, supponendo che in qualche modo anche questi composti siano stati soggetti a pressioni ambientali di vario tipo, si parla di evoluzione chimica durante questa fase pre-biotica. Ma è una cosa diversa dalla evoluzione in senso biologico.
Ovviamente su questo (da loro voluto) equivoco gli antievoluzionisti ci sguazzano, perché “secondo loro l’evoluzione è un falso proprio perché, appunto, non spiega l’origine della vita”, citando (a sproposito come sempre e decontestualizzando al solito la frase) qualche scienziato; spesso tocca al famoso astronomo Fred Hoyle, quando ripeteva che “se un tornado passasse sopra un deposito di rottami, quali sono le probabilità che il risultato sia un Boeing 747 perfettamente funzionante?”.  Ovviamente e scaltramente, evitano di citare il resto e cioè che Hoyle vedeva la vita sulla Terra non in quadro esclusivamente terrestre (tantomeno creazionista!) ma nella prospettiva della panspermia: i germi della vita sono sparsi per tutto il cosmo e si sviluppano dove trovano le condizioni opportune. Ovvio che Hoyle, quindi, non si sognava con quella frase di fare l’antievoluzionista, mentre molti creazionisti lo hanno adottato (i primi per disonestà intellettuale, poi sono arrivati i creduloni).

2. NON CI SIAMO EVOLUTI PER CASO. Diversi creazionisti attribuiscono ai biologi l’asserzione secondo la quale il cambiamento degli esseri viventi sia dovuto al puro caso. Siamo alle solite: il “primo” lo dice al “secondo”, che ci crede e lo dice al “terzo” che ovviamente ci crede anche lui e via discorrendo, in un circuito privo di confronti con l’esterno (se non per sputare sentenze). Diciamo che il caso in diversi aspetti “funziona” ottimamente; anzi, è il motore primo dell’evoluzione: le mutazioni sono effettivamente casuali (o, almeno, non risulta per adesso esistere un trend nelle mutazioni). Ma se qualche mutazione “funziona” e quindi si fissa, mentre altre che non funzionano non si fissano questo non è certo un caso, a meno che il portatore della mutazione favorevole abbia avuto delle cause contingenti che non gli hanno permesso la riproduzione (ad esempio predazione, scarso sex appeal, catastrofe naturale o epidemia). Nel caso dei falchi la pressione evolutiva ha selezionato le  mutazioni che hanno prodotto la loro proverbiale visione, mentre un falco con una mutazione che gli conferisce una vista scadente “non funziona” e non è un caso se poi non si riproduce… quindi la selezione naturale addirittura fa l’opposto, cioè si oppone al caso quando questo produce disastri. Insomma, esiste un filtro che corregge le casualità delle mutazioni e che addirittura è in grado di accelerare l’evoluzione, diffondendo quelle mutazioni che permettono agli individui di lasciare più discendenti.
D’altra parte la forma del corpo è in qualche modo abbastanza logica: soprattutto notiamo che una caratteristica di base di tutti i phyla che appartengono ai bilatera, cioè tutti gli Animalia a parte poriferi, cnidari (celenterati) e qualcos’altro è che la parte pensante, i sensi con organi appositi (vista) e l’ingresso del cibo siano “davanti”, mentre l’ano è dietro. Quindi l’evoluzione ha premiato le mutazioni che hanno prodotto questo piano corporeo, sicuramente più logico di uno con il cervello in mezzo e gli occhi dietro.

3. L’EVOLUZIONE È OSSERVABILE. Nella concezione darwiniana l’evoluzione era lenta e graduale. Poi si è visto che ci sono dei momenti in cui la biodiversità aumenta rapidamente. Prendiamo ad esempio i dinosauri teropodi che, originatisi nel Triassico, sono sopravvissuti almeno in parte alla estinzione al passaggio fra Triassico e Giurassico: la divisione basale fra Carnosauri e Celurosauri è avvenuta all'inizio del Giurassico. E questo vale anche all'interno dei Celurosauri, la cui biodiversità è a sua volta immensa, a partire dalle dimensioni, fra giganteschi tirannosauri, oviraptororidi, therizinosauri dagli artigli enormi, ornitomimosauri, dromaeosauri dagli artigli simili a falci e, buon ultimi, i piccoli teropodi antenati degli uccelli. Ebbene, tutti questi gruppi si sono originati tra il Giurassico inferiore e quello medio, nei primi 30 milioni di anni di una storia che ne conta 135. Identiche caratteristiche temporali contraddistinguono la storia dell'altro ramo dei dinosauri, gli ornitischi. 
Pensiamo poi, per esempio, ad un caso che ci riguarda molto da vicino, l’evoluzione dei Primati: sfruttando lo scontro scontro fra i due continenti, alcuni gruppi passando dall’Eurasia in Africa sono stati protagonisti di una radiazione evolutiva incredibilmente complessa e veloce, che ha fissato la sistematica basale degli antropoidi.

Ma se veloci dal punto di vista del tempo geologico, a scala umana sono sempre processi molto lenti; tuttavia esistono molti casi nei quali è possibile osservare l’evoluzione in diretta o quasi: la resistenza dei batteri agli antibiotici è forse l’esempio più classico, ma ci sono alcuni adattamenti dovuti ai cambiamenti climatici nei vertebrati dimostrano una velocità evolutiva sorprendente. Un caso eccezionale è quello delle lucertole di Pod Mrcau: in pochi anni una popolazione di lucertola classica italiana si è trasformata in qualcosa di completamente diverso. 
Per rimediare al problema, gli antievoluzionisti hanno tirato fuori una delle loro solite fantasie, i baramini, cioè forme ancestrali create da Dio (a livello credo di “ordine” o di “famiglia”) che poi si differenziano, come cercano di differenziare fra evoluzione intraspecifica (che ammettono all’interno dei baramini) ed evoluzione interspecifica (quella che fa “nascere” una specie da un’altra, che non ammettono). Un classico esempio del vecchio metodo pre – galileiano in cui le idee avevano il privilegio sui fatti.



4. GLI ESSERI UMANI NON HANNO SMESSO DI EVOLVERSI. Le differenze fra le varie popolazioni riflettono l’adattamento al clima e all’ambiente in generale, oltre ad essere un riflesso delle preferenze sessuali. Proprio quest’ultimo aspetto spinge a dire che anche nei Paesi più progrediti l’evoluzione continua ancora oggi, nonostante la lotta per la sopravvivenza sia in certe aree ormai un retaggio del passato. È comunque vero che certe mutazioni che provocano malattie genetiche o altri disturbi, sono spesso eliminate perché i portatori non giungono all’età della riproduzione o, se vi arrivano, non trovano partner per farlo. Ma quello succede ovviamente anche nelle altre specie.  



La velocità della corsa del Ghepardo è stata ottenuta sacrificando
altre caratteristiche che sono diventate dei problemi: ad esempio
la necessità di fermarsi dopo la caccia con la preda accanto
5. L’ADATTAMENTO PERFETTO NON ESISTE. Un essere vivente che vive nelle stesse condizioni ambientali dei suoi antenati senza che ci sia stata una sostanziale alterazione antropica di quello che lo circonda viene spesso indicato “perfettamente adattato” all’ambiente. A me il concetto di “perfezione” ha sempre dato una reazione fastidiosa: nessuno può discutere che un certo essere sia adatto all’ambiente in cui vive (ancora meglio: che nella sua nicchia ecologica sia particolarmente performante) e che probabilmente se lo mettiamo in un ambiente diverso potrebbe fare la fine del proverbiale “pesce fuor d’acqua”. Ma la perfezione non è un concetto applicabile agli esseri viventi e l’adattamento ad un certo tipo di vita sarà un compromesso fra tante esigenze: ad esempio lo sviluppo di una vista eccezionale al buio negli antenati ha comportato che quasi tutti i mammiferi vedano la vita in bianco e nero (solo uomini e pochi altri primati hanno sviluppato nuovamente la visone a colori). Insomma in quell’essere dalle abitudini notturne progenitore dei mammiferi è stata premiata la vista al buio rispetto a quella dei colori diurni: ma a questo modo di notte si muoveva parecchio bene. 
Tornando agli esseri umani, la postura eretta con andatura bipede, è stata celebrata come un esempio di “evoluzione come progresso” per tutta una serie di motivazioni sulle quali non c’è spazio per parlarne qui. Ora, per correre occorre avere un bacino stretto e un bacino largo che consente di correre poco nella savana poteva essere piuttosto rischioso. Ma le femmine con il bacino stretto non potevano certo partorire. Quando poi la capacità cranica è aumentata drasticamente i problemi si sono fatti ancora maggiori. Da qui nasce la soluzione neandertaliana di una testa a forma un po' ovale (ovviamente con l’asse più lungo nella direzione del parto) e quella di sapiens in cui il neonato ha la testa molto ridotta e il cervello ancora poco funzionante. La soluzione di sapiens è quindi un compromesso che permette sia l’uscita della testa che la capacità di corsa alle femmine, ma al prezzo di un lungo periodo di totale dipendenza dalla madre del neonato, la quale quindi si sarà salvata dai predatori ma deve svolgere una serie di difficili e assidui compiti.

Per non parlare poi di quei teologi che farneticano di “genomi perfetti” come quello di cui ho parlato qui.
  
EPILOGO. Insomma, a dispetto di proclami idioti sul fatto che l’evoluzionismo è in crisi, dal punto di vista scientifico l’evoluzione gode di una salute invidiabile ed è il sistema che “regge” tutte le Scienze della Vita (biologia, zoologia, botanica, paleontologia, embriologia e quant’altro). Purtroppo per assurde pretese di retroguardia di una parte anche influente di persone (per le quali l’evoluzione è in contrasto con il credo religioso o che sostengono certe idee per mero consenso elettorale) tutti gli anni tocca ricordare che nel XIX secolo è vissuto un certo Charles Darwin, il quale ha spiegato al mondo il perché dell’evoluzione (anche se sarebbe meglio chiamarla “discendenza con modificazioni”) ...

sabato 18 febbraio 2017

La bufala della scoperta della Zealandia: non è avvenuta oggi, e 22 anni fa è stata definita come unione di masse già conosciute

In questi giorni i giornali italiani stanno ripetendo una gran bufala sulla scoperta della Zealandia, un continente sommerso. Intendiamoci, la bufala non è la scoperta della Zeelandia, ma il fatto che sia stata scoperta ora… insomma “ultime notizie: Dio crea il cielo e la Terra”. La questione fondamentale nasce da un interessante articolo: Zealandia: Earth’s Hidden Continent, uscito sulla rivista GSA today articolo, che fra parentesi essendo "open" chiunque può scaricare e leggere. Anche se evidentemente capire cosa sia questo articolo e cosa ci sia scritto è un optional. 
Infatti: 
- bastava leggere l’articolo, dove a un certo punto (nell’introduzione… non nelle ultime righe… ) si legge esplicitamente che The name Zealandia was first proposed by Luyendyk (1995) as a collective name for New Zealand, the Chatham Rise, Campbell Plateau, and Lord Howe Rise. Siamo nel 1995, cioè 22 anni fa e a quell’epoca, appunto, le parti che la costituiscono erano già ampiamente note.
- è evidente che c’è gente che non capisce la differenza fra un articolo di ricerca e un articolo di review: questo infatti non è un articolo di ricerca che presenta una nuova scoperta, ma un articolo di review in cui viene esposto lo stato dell’arte sulla ricerca in un certo settore: specificamente, dunque, sulla Zealandia.

Anche io su scienzeedintorni ho parlato di questo continente alcune volte: nel 2011, quando scrissi in post sulla storia della Nuova Zelanda dopo il terremoto di Christchurch:  nel 2015 quando parlai della scoperta di una serie di vulcani spenti sottomarini tra Australia e Nuova Zelanda che datano proprio a quando Australia e Zealandia si sono separati e in questo autunno dopo l’ultimo importante sisma nell’isola dei Kiwi.

Insomma, niente di nuovo sul fronte degli antitipodi. Ma la notizia di una nuova straordinaria scoperta fa notizia.E soprattutto click…

martedì 14 febbraio 2017

La diga di Oroville: la diga non corre nessun rischio di cedimento: il problema è nell'invaso


Nota iniziale: questo post è pubblicato alle 12.30. Chiaramente la situazione è fluida (in tutti i sensi) e quindi può cambiare velocemente...
Vorrei brevemente fare un po' di ordine sulla questione della diga di Oroville, la più alta degli Stati Uniti (230 metri), costruita nel 1968 a scopo di produzione energia elettrica, come riserva di acqua e di regimazione del fiume Feather (già quando era solo in costruzione, riuscì nel 1964 a limitare i danni di un nesondazione avvenuta a monte).

Innanzitutto, contrariamente a quanto affermato da organi di stampa italiani, la diga sta benissimo. Chi scrive che rischia di cedere la diga non ha capito una beata minchia (scusate il termine, ma prima di parlare certa gente dovrebbe chiedere ad un esperto…). 
Ma allora dove stanno i problemi?
Le dighe hanno una “valvola di troppo pieno” un po' come quella che abbiamo nei sanitari: se chiudiamo il tappo e poi andiamo a fare qualcos’altro dimenticandoci il rubinetto aperto, il foro di “troppo pieno” impedisce che l’acqua trabocchi dal lavandino o dalla vasca da bagno con spiacevoli conseguenze. Anche le dighe, quindi, sono attrezzate in questo modo.
In questa immagine vediamo la diga, il canale principale di scolo (“spillway”) e la zona del canale secondario che è in erosione.
Che cosa è successo?


Ricordo che se un lago aumenta di livello la quantità di acqua in entrata è maggiore dell’acqua in uscita e viceversa e allora quando il servizio meteorologico avverte dell’arrivo di intense precipitazioni, gli invasi delle dighe vengono alleggeriti, cioè viene abbassato il livello del lago in modo da evitare che si riempia troppo. Però la portata di una diga in uscita più di tanto non può essere, per cui ci sono dei sistemi di “troppo pieno”.
In California dopo una delle più drammatiche siccità della sua giovane storia, sono arrivate delle precipitazioni molto intense, regolarmente preavvisate dal servizio meteorologico.
Dalle informazioni che ho ricevuto è stata sottostimata la quantità di acqua che sarebbe arrivata nel bacino (mi pare di aver capito che ci sia di mezzo anche una legislazione di emergenza a causa della siccità, ma non sono sicuro di questo). Il livello del lago è cresciuto di 15 metri in pochi giorni.


L’invaso è fornito di due scarichi di troppo pieno. Il primo è quello che si vede a sinistra della diga, un canale in cemento che però già mercoledì 8 ha accusato dei problemi: nella immagine del California Department of Water Resources si vede nel cerchio a destra che il cemento del fondo del canale si è rotto. l’acqua dunque ha iniziato ad erodere il terreno sottostante. Una situazione difficile per cui il funzionamento di questo canale è stato sensibilmente ridotto. Quindi l’acqua, stante che le piogge continuano, ha continuato a salire fino ad arrivare al livello in cui inizia a tracimare in un secondo canale di scolo di emergenza, che si trova guardando la foto a sinistra del primo.

E qui sta il secondo problema. 
Qualche anno fa diverse organizzazioni non governative avevano evidenziato che il secondo sfiato non aveva il fondo cementato e che quindi, in caso fosse stato necessario usarlo (e fino ad oggi non era mai successo) la cosa avrebbe comportato grossi rischi perché l’acqua avrebbe eroso il fondo e, soprattutto, la soglia.
Si, la soglia, perché se lo sfiato ordinario ha una chiusa che regola la portata in uscita (e infatti in questi giorni sono state scattate foto sia del canale vuoto che del canale pieno), lo sfiato di emergenza non ha una chiusa, ma semplicemente si mette in funzione perché l’acqua del lago trabocca dalla soglia
Da notare comunque che il livello del lago non può arrivare al livello della diga perché gli sfiati sono circa 6 metri più bassi: rimane quinid un franco minimo di 6 metri fra la diga e il livello delle acque del lago.

E qui casca l’asino: l’acqua è tracimata dalla soglia e la sta erodendo. Il rischio quindi è che il lago inizi a svuotarsi un po' troppo velocemente se l’erosione procede in maniera incontrollata.
Dalle ultime notizie sembra che la situazione, anche grazie ad una breve interruzione delle piogge, stia migliorando: il momento che il livello del lago scende sotto quello dello sfiato di emergenza cessa il pericolo di erosione.
Pertanto sono state evacuate quasi 200.000 persone che non potranno tornare a casa fino a quando permarrà il rischio di erosione della zona di tracimazione del canale di scolo.

RIPETO: IL PROBLEMA È NELLA ZONA DI TRACIMAZIONE CHE PORTA AL CANALE DI SCOLO DI EMERGENZA E NON DELLA DIGA CHE GODE DI OTTIMA SALUTE

sabato 11 febbraio 2017

La bufala dell’uso del sistema di allerta terremoti in Italia: perché (e quando) funziona in Giappone e perché non può funzionare da noi.


Tante sono le bischerate che si sentono sui terremoti in Italia, a partire da chi continua a sostenere che INGV abbia abbassato la Magnitudo dell'evento (anche a novembre in Nuova Zelanda il servizio locale aveva sbagliato - e non di poco - all'inizio, sottovalutando il dato e di parecchio: ma lì non ci sono stati gli scomposti strepiti che abbiamo da noi quando una Magnitudo viene corretta da... 6.2 a 6.4). Ci sono poi "le trivelle" e compagnia cantante. Ho veramente la nausea per questo. La moda di questi ultimi giorni è quella del sistema di allarme per i terremoti di cui si è dotato il Giappone: mi è toccato già intervenire più volte per spiegare perché questo sistema non può funzionare in Italia: semplicemente perché si tratta di un sistema centrato per terremoti molto diversi per Magnitudo e distanza epicentrale rispetto a quelli italiani. Voglio quindi riepilogare la questione anche su Scienzeedintorni.

Questa raffigurata qui a fianco non è che l’ultima delle idiozie che sono state dette a proposito del sistema di allarme che hanno i giapponesi in caso di terremoto. La prendo ad esempio: stavolta viene da una precisa parte politica, ma, come parecchie idiozie italiche, è trasversale da destra a sinistra passando per i grillini (e anche alla ggggente). Un personaggio molto attivo nei Social Network a proposito dei terremoti ha dichiarato che "ogni istituto scolastico dovrebbe essere dotato di una piccola stazione sismica, di un vero "early warning system" come in Giappone, che appena riceve le onde primarie di un terremoto potenzialmente pericoloso avvii il piano di emergenza in maniera autonoma attivando un segnale acustico".
Quanto dichiarato è semplicemente sbagliato, in quanto i terremoti italiani sono molto diversi da quelli giapponesi per i quali è stato idato questo intelligente sistema di allarme. Vediamo perché.

LE CARATTERISTICHE DELLE VARIE ONDE SISMICHE. Intanto vediamo di distinguere i vari tipi di onde sismiche:

Onde P e onde S - dal sito di INGV
  • onde P (primarie): al loro passaggio le rocce si comprimono e si dilatano continuamente. Sono anche dette longitudinali perché fanno oscillare le particelle di roccia che attraversano nella direzione in cui si propagano si propagano come le onde sonore nell'aria
  • onde S (secondarie): non causano variazioni di volume al loro passaggio; si propagano allo stesso modo di una corda agitata orizzontalmente e l'oscillazione delle particelle di roccia avviene trasversalmente rispetto alla loro direzione di propagazione

Una cosa interessante è che le onde P si propagano anche nei fluidi, dove le onde S non si propagano.

Quando le onde P e le onde S incontrano la superficie terrestre da quel punto si propagano altre onde:
  • le onde di Rayleigh: un modello di come funzionano sono le onde che che si propagano dal punto in cui un sasso cade in uno stagno
  • le onde di Love: fanno vibrare il terreno sul piano orizzontale. Il movimento delle particelle attraversate da queste onde è trasversale e orizzontale rispetto alla direzione di propagazione delle onde

Le onde di Rayleigh e quelle di Love sono quelle che provocano i danni dei terremoti ma per questa trattazione ci servono solo le onde P e le onde S.

Quanto detto ovviamente si riferisce ai primi treni in arrivo, perché come le onde luminose, anche le onde sismiche sono soggette a riflessioni e rifrazioni quando cambiano il mezzo in cui passano e quindi più elevata è la Magnitudo di un evento, più a lungo i sismografi continueranno a ricevere onde da lui prodotte, che percorreranno le vie più disparate ma che avendo fatto più strada, essendo riflesse e rifratte hanno perduto la loro forza e vengono registrate solo dalla strumentazione. 
Proprio lo studio delle onde riflesse e rifratte è il sistema migliore per studiare l’interno della Terra.

Ci sono poi altre due caratteristiche fondamentali da prendere in esame e cioè:
  • siccome i terremoti sono prodotti da scorrimenti violenti e veloci lungo un piano di faglia, le onde P sono meno intense (meno alte) delle onde S. Come ho fatto notare in questo post sull’esperimento nucleare nordcoreano del gennaio 2016, se invece il terremoto è generato da una esplosione (per esempi di un ordigno nucleare) le onde P sono più forti delle onde S
  • a causa della differenza di velocità dei due treni d’onda principali, più lontano è il terremoto, più distanti nel tempo saranno gli arrivi dei due principali treni di onde. Per capire quanto distante sia avvenuto un terremoto la discriminante più intuitiva è la differenza fra il tempo di arrivo delle onde P e delle onde S: maggiore la distanza, maggiore la differenza fra l'arrivo dei due treni principali.

Quindi l’idea dei giapponesi è semplice: sfruttare la differenza fra i tempi di arrivo delle onde P e delle onde S, per cui i sismografi (e soprattutto gli accelerometri) riconoscono che è arrivato un forte treno di onde P e danno l’allarme permettendo alla popolazione (ben addestrata… i giapponesi sono “un pò” più disciplinati di noi italiani) di prendere le opportune misure per mettersi in salvo prima dell’arrivo, qualche decina di secondi dopo, delle distruttive onde S.
Tutto semplice, ma con un particolare di non trascurabile importanza, osservabile in questa carta tratta dall’Iris Earthquake Browser, che illustra per quali terremoti il sistema di allarme sia stato concepito: si tratta di eventi a Magnitudo molto più elevata di quella degli eventi principali italiani (oltre 7) e che avvengono a decine di km dalla costa, sul mare.

Questi terremoti si producono nella zona dove la placca pacifica scorre sotto quella continentale e nel conseguente prisma di accrezione giapponese, la fascia attualmente in compressione a causa della collisione fra le due placche.
Nell'immagine seguente vediamo il sismogramma del terremoto del 2011, reperito sul sito di EMSC: gli arrivi dei due treni d’onda avvengono a circa 50 secondi di distanza, un tempo abbastanza lungo per permettere in molti casi di mettersi in sicurezza. 
Non solo, ma siccome il treno delle onde P finisce prima dell'arrivo delle onde S la popolazione avverte in questo modo 2 scosse distinte.
In Italia è successo per esempio nel terremoto M 5.6 del 28 ottobre 2006 nel Tirreno: ci sono precise testimonianze secondo le quali “ci sono state due scosse, di cui la seconda più forte della prima”. È chiaro che invece si tratti di persone che hanno distinto l’arrivo del treno di onde P da quello delle onde S.

Quindi in Giappone un terremoto importante nella zona interessata dagli effetti della collisione fra le placche sarà anche forte, ma a 100 km dalla costa (e a 30 di profondità), i due treni d'onda saranno ben distinguibili e il treno delle P viene avvertito con un forte anticipo rispetto a quello che provoca effettivamente i danni.

Osserviamo poi questo secondo sismogramma, che si riferisce al terremoto M 6.8 del 17 gennaio 1995, noto come “terremoto di Kobe.
La città e i suoi dintorni hanno patito danni e vittime impressionanti, eppure si trattava “solo” di un M 6.5, oltre 1000 volte meno intenso di quello del 2011 (ripeto che la Magnitudo è in scala logaritmica, per cui un evento M 7 è oltre 30 volte più intenso di uno con M 6 e così via). 
A differenza del terremoto del 2011, quello di Kobe  è avvenuto sulla linea mediana, come quelli della primavera scorsa, di cui ho parlato qui.
L’ipocentro è sotto la terraferma a 16 km di profondità. In quel caso il sistema di allarme è stato completamente inutile, perché fra l’arrivo delle onde P e quello delle onde S sono passati appena 5 secondi, un tempo difficilmente utile per mettersi in salvo, tra inerzia del sistema, arrivo delle onde sonore delle sirene e prontezza dell’essere umano a capire cosa stia succedendo e decidere, sia pure in maniera istintiva, cosa fare.

Tanto per fare un raffronto ferroviario: i sensori sismici delle ferrovie giapponesi avvertono l'arrivo delle onde P e immediatamente parte il processo per far fermare i treni (magari i veloci Shinkansen non saranno ancora proprio fermi ma saranno sicuramente correranno a velocità ben inferiori ai 250 / 300 km/h a cui viaggiano normalmente). Durante il terremoto superficiale del 15 aprile 2016 invece un treno è deragliato proprio a causa delle onde sismiche: troppo poco lo sarto fra l'arrivo dei due treno d'onda principali per permettere di operare un rallentamento.

In Italia (ed in particolare negli eventi da agosto in poi) siamo nella situazione della linea mediana: eventi superficiali e sotto i nostri piedi. 
Quindi tale tipo di allarme da noi non servirebbe assolutamente a niente. L'unica difesa possibile è la costruzione di edifici in grado di resistere alle sollecitazioni dei terremoti, cosa tecnologicamente possibile.
Altri discorsi sono fuffa