Il 5 maggio 2009 fu diffusa per la prima volta in Italia la notizia dall’Ingv (l’Istituto di geofisica e vulcanologia) che la magnitudo reale del terremoto di Aquila fu 6,3 gradi della scala Richter, informazione già diffusa dall’Usgs (l’Agenzia geologica federale del Governo degli Stati Uniti) il 6 aprile 2009. Fino ad allora il dato ufficiale diffuso era 5,8 gradi Richter. Il Governo italiano di allora mentìi? E se così fosse, perché? Su questo tema si è aperto un dibattito a cui, in Italia, si è dato poco rilievo. L’ingegner Maurizio Floris, dichiarò il giorno stesso al quotidiano abruzzese ‘Il centro’ che “i dati diffusi sull’entità del sisma sono stati cambiati, penso volutamente e con raziocinio, per evitare il risarcimento del 100% che sarebbe stato dovuto in caso di sisma maggiore di 6 gradi della scala Richter. I dati di accelerazione al suolo sono stati impressionanti e completamente al di sopra della nuova normativa antisismica del 2003. Le accelerazioni al suolo sono risultate 2, 3 e persino 4 volte superiori a quelle previste da suddetta normativa. È stato un terremoto squassante per la potenza, per l’epicentro, posto a 500 metri in linea d’aria dal centro storico, per la profondità, risibile, di 5 km. Per chi lo ha vissuto è stata la fine del mondo, non un terremoto qualsiasi”. Floris aggiunse che “i danni maggiori sono stati riscontrati su due classi di edifici: le strutture in muratura che non hanno subito ristrutturazioni statiche e, quindi, assolutamente gracili e gli edifici degli anni ’60 e ’70 costruiti prima della normativa antisismica. In quel periodo, i tondini di acciaio liscio e il calcestruzzo con miscelazione manuale in betoniera sul cantiere erano la norma, quindi oggi non può gridarsi allo scandalo. La denigrazione dei professionisti aquilani e la castrazione dei dati sismici devono interrompersi”. A questa, importante dichiarazione seguirono le risposte del presidente della Regione, Gianni Chiodi e del presidente dell’Istituto nazionale di geofisica, il professor Enzo Boschi. Il primo escluse che “una diversa classificazione del terremoto possa determinare finanziamenti maggiori”; il secondo, il 6 maggio 2009 spiegò che “l’Istituto utilizza la magnitudo ‘Ml’, magnitudo locale, che ha rilevato 5.8, perché è molto rapida da calcolare. In 45 secondi o un minuto si dà un valore della magnitudo. Poi c’è la ‘Mw’, Magnitudo momento, scientificamente più precisa, la quale ha fatto registrare 6.3, ma per calcolarla occorrono un paio d’ore. Il decreto legge non è basato né sulla prima, né sulla seconda, ma sui danneggiamenti reali, legati alla scala Mercalli, cioè quelli classificati dal 6º grado in su”. Con questo criterio sono stati selezionati i 49 comuni terremotati: “La selezione”, aggiunse Boschi, “avviene sulla base dei danni subiti e non del grado di scala, anche serio, della magnitudo, che non può determinare un indice di danneggiamento. Questo, infatti, dipende dalla consistenza del suolo e dei palazzi. È usando tali parametri che la Protezione civile, in accordo con l’Ingv, fa le proprie valutazioni. Perché alcuni Comuni apparentemente più danneggiati sono fuori dall’elenco e altri meno lesionati ne fanno parte? Bisogna tener conto del valore medio del danno in tutto il territorio aquilano: ci sono comuni che magari hanno uno solo o pochi edifici lesionati molto seriamente, ma come media non raggiungono il 6º grado Mercalli. In una fase successiva è avvenuta un’ulteriore verifica”. Tutte dichiarazioni lecite e accettabili, ma nessuna che abbia spiegato la differenza tra la scala Ritcher e la Mercalli, né le varie corrispondenze tra di esse. La scala Ricther è una scala logaritmica, a base dieci, che misura l’energia scatenata dal fenomeno sismico in base a un valore minimo di 1 e a un valore massimo di 10. La scala Mercalli, invece, misura l’intensità di un terremoto attraverso i danni che causa (una scala suddivisa in 12 gradi nel 1902 e modificata definitivamente da Charles Ritcher, difatti, oggi è nota come la MM, Mercalli modificata). Questi i valori del X grado scala ‘MM’ definita disastrosa: crollo di parecchi edifici; numerose vittime umane; crepacci evidenti nel terreno. Alcuni sostengono che “un terremoto che ha una determinata intensità (scala Richter) può avere una magnitudine (scala Mercalli) diversa, per esempio, a seconda che avvenga in un deserto (dove non provocherebbe danni) o in zona densamente abitata, in un luogo dove ci sono costruzioni antisismiche o in un posto con edifici vecchi e così via…”. Ricordiamo che la città dell’Aquila appartiene a una zona densamente popolata, dove purtroppo nel 2009 non vi erano molte costruzioni antisismiche. Su questo tema non esiste, ancora oggi, una dichiarazione ufficiale in grado di chiarire tutti i dubbi scientifici del caso, nonostante l’attualità del terremoto emiliano dei mesi scorsi. L’altra diatriba scientifica riaccesasi immediatamente in questi mesi dopo il terremoto in Emilia nel merito degli eventi sismici è quella relativa alla loro eventuale - e da taluni ritenuta possibile – prevedibilità. In questi ultimi anni si è molto parlato del possibile utilizzo del gas radon (inodore, insapore e radioattivo) sia sotto l’aspetto della sicurezza antropica (geologico - ambientale), sia come elemento correlabile con i terremoti o le ricerche minerarie. Si tratta di un argomentazione sorta dopo un importante ‘scoop’ giornalistico proprio del nostro sito
‘laici.it’, il quale presentò un ben argomentato parere del professor Luigi Ardanese, geologo dell’ex Servizio geologico nazionale ed ex docente di Geochimica presso l’Università di Urbino. L’idea nasceva dal fatto che molte rocce terrestri superficiali conterrebbero percentuali variabili di minerali radioattivi quali uranio, torio e potassio, i quali indicano la radioattività terrestre. L’uranio e il torio sono emettitori spontanei di nuclidi e, allo stesso tempo, sono i ‘progenitori’ del radon. Molti gas, compreso il radon, a causa della liberazione dell’energia interna tendono a sfuggire dalla terra: l’idrogeno e l’elio sfuggono rapidamente e aiutano il radon sia alla rimozione dal suo punto di origine, sia nel suo trasporto in superficie. Nelle rocce e nei suoli, le variazioni dei flussi di specie gassose registrate consentirebbero, dunque, di ipotizzare dei meccanismi di trasporto legati alla migrazione in superficie di fluidi profondi decine di chilometri, un processo che avviene principalmente lungo le fratture (faglie). La fratturazione delle rocce ‘incassanti’ facilita il trasporto del radon, dal punto di origine, per svariati metri. Le rilevazioni di concentrazione del radon in ambienti geologici evidenzierebbero, insomma, le cosiddette aree ‘anomale’ sulle quali si potrebbe indagare dettagliatamente con sistemi strumentali semplici e/o complessi, utili a finalità diverse. In effetti, le conoscenze sperimentali di questo ultimo trentennio ci permettono di relazionare le abbondanze (concentrazioni) di gas radon tramite:
a) le fenomenologie legate alla dilatazione e compressione dei corpi geologici (micro e macrofratture) in aree tettoniche;
b) le ricerche minerarie in generale;
c) le fenomenologie vulcaniche e tettoniche (meccanismi di risalita magmatica ed interazioni con le rocce incassanti, attività vulcanica quali eruzioni esplosive, cambiamenti di attività, idrotermalismo, sorgenti geotermiche etc. etc.);
d) i sistemi idrogeologici;
e) l’inquinamento nel suolo e in atmosfera. Le molteplici applicazioni rendono pertanto il radon un buon indicatore ambientale, o segnalatore di allineamenti strutturali, o tracciante di movimenti di acqua nel sottosuolo (correnti ascendenti e discendenti), come precursore di movimenti strutturali (più difficile) e come segnalatore di particolari giacimenti, oltreché come inquinante molto pericoloso. In ogni caso, il radon è l’unico gas radioattivo presente in natura che decade rapidamente tramite emissioni di particelle ‘alfa’ in polonio e bismuto, pure radioattivi, sino a giungere allo stato di piombo stabile. Il radon totale è costituito da tre isotopi radiattivi: il Rn 222, Rn 220 e il Rn 219. In particolare, il Rn 222 è legato a movimenti profondi, mentre il Rn 220 è legato al suolo e alle variazioni stagionali. Si è poi osservato, sia nelle aree sismo-tettoniche, sia in quelle vulcano-tettoniche, che la fratturazione delle rocce e la risalita dei magmi facilitano significativamente il trasporto di radon. In pratica, variazioni di concentrazioni di radon, unitamente a quelle di elio (He), danno utili indicazioni circa la previsione di terremoti ed eruzioni vulcaniche. E’ infatti risaputo che il terreno è in movimento continuo, indipendentemente dalla località. E queste vibrazioni sono esattamente simili alle onde sonore. Vari siti di campionamento collocati sul territorio potrebbero esser scelti preventivamente all’interno delle unità geologiche e strutturali di effettivo interesse, al fine di rendere i dati delle concentrazioni rilevate riproducibili e correlabili per poter ipotizzare scenari legati a meccanismi tettonici di compressione o di dilatazione. Inoltre, la misurazione della concentrazione di radon totale è basata sulla determinazione delle particelle ‘alfa’ liberate durante la produzione (a causa del decadimento radioattivo degli isotopi genitori) e sulle particelle ‘alfa’ derivanti dal proprio decadimento per la crescita dei propri ‘figli’. In ogni caso, i sistemi di misura del gas radon sono di tipo ‘integrati’ e ‘non integrati’, a secondo del tempo: i primi impiegano un tempo di molti giorni per la misura, i secondi, invece, pochi minuti (emanomeri). La scelta del sistema è finalizzata a varie esigenze: infatti, per i tempi molto brevi la misura di concentrazione può non essere rappresentativa del luogo, in virtù del fatto che i valori atmosferici possono cambiare rapidamente o, meglio, le misure che si effettuano sui suoli (anche dello stesso tipo) variano enormemente da punto a punto. Viceversa, si utilizzano i tempi lunghi di misura quando si intende indagare su una vasta località, purché si tengano in debita considerazione tutte quelle variazioni dipendenti dal tempo. I dati ricavati sull’intera area, successivamente vengono trattati ‘statisticamente’, per eliminare le variazioni casuali. In effetti, il metodo ‘attivo’ è basato su misure di concentrazione ricavate dall’utilizzo di strumenti portatili, mentre la tecnica sull’utilizzo di rilevatori ‘passivi’ di tracce allo stato solido è basata su strumenti in cui il gas entra per diffusione naturale nel sistema di rilevazione ed è contrapposto a quello attivo perché, in questo caso, il campionamento è ‘forzato’, ovvero si ha bisogno dell’ausilio di pompe per introdurre il gas nello strumento. Il fluido (contenente Rn) viene estratto dal sito di campionamento e inserito rapidamente nello spettrometro per il conteggio degli impulsi (disintegrazione radioattiva). Questo strumento è meglio conosciuto come ‘emanometro’ ed è equipaggiato da una sonda di campionamento, da una pompa a vuoto, da una cella a scintilla (attivata da solfato di zinco o argento) e da un sistema di conteggio (fotomoltiplicatore). Il metodo dei rilevatori ‘passivi’ su vaste aree da noi adoperato ci ha consentito, mediante le tracce lasciate dal radon su pellicole tipo kodak, di risalire ai valori di emissione. Sono state adottate tecniche di misure ‘passive integrate’ per circa due settimane, le quali sono sufficientemente sensibili per piccole variazioni a basse concentrazioni. Saltuariamente, invece, sono state effettuate misure di radon con sistemi non integrati ‘attivi’ con l’emanometro, per eventuali controlli di differenze di flusso. L’elaborazione dei dati analitici in varie località italiane hanno confermato sperimentalmente le nostre ipotesi sul radon come segnale ‘precursore’ degli eventi tettonici”. Attualmente, purtroppo, non esiste un modello deterministico in grado di prevedere calamità naturali come quelle avvenute In Emilia Romagna e, precedentemente, in Abruzzo: per individuare un ‘precursore’ servono anni di accertamenti, da effettuare su un’area campione molto estesa geologicamente, strutturalmente nota. Occorre poi su di essa installare numerosi rilevatori di radon, sia nel suolo, sia in rocce fratturate, effettuando una dettagliata prospezione da monitorare. Che è ciò che tentò di fare, a suo tempo, il ricercatore Giampiero Giuliani in merito al possibile sisma abruzzese: la rilevazione di una certa quantità di radon in eccesso (energia liberata) in un’area predeterminata. Ciò indubbiamente suscitò allarme. E le notizie in seguito fornite dagli organi di informazione ‘ufficiali’ hanno giustificato il proprio scetticismo in base al fatto che, per ogni previsione attendibile e riproducibile di un evento tellurico, servirebbe a priori una indagine geologico-strutturale assai dettagliata e su aree di almeno 100-150 chilometri. Tuttavia, ciò non toglie che nuove ricerche sperimentali potrebbero essere più adeguatamente finanziate, poiché, allo stato, esse siano considerabili praticamente irrilevanti, benché l’installazione di una stazione completa per la rilevazione continua di gas radon risulti poco onerosa.