GNGTS 2013 - Atti del 32° Convegno Nazionale

in cui n(t) è il numero di eventi per unità di tempo a partire dalla scossa principale, calcolato nell’intervallo di tempo Δ t , il cui valor medio è m = n( t ) · Δ t e la deviazione standard σ = t n ∆⋅ . K, c e p sono costanti che dipendono dalle dimensioni del sisma e dalle caratteristiche geofisiche della zona in cui è avvenuta la scossa principale. Se si considera un campionamento delle repliche con Δ t =1 giorno, allora il numero medio atteso di scosse per giorno sarà pari a m = n( t ) , con una deviazione standard pari a . Elaborando i dati dei terremoti analizzati, abbiamo osservato che le fluttuazioni stocastiche attorno al valor medio m = n( t ) risultano pari al 99% circa entro un range di σ ≤ 2.5, pertanto dette fluttuazioni hanno una probabilità di accadimento inferiore all’1% per valori di (Caccamo et al. , 2005, 2007 a,b e c; Bussetti, 1983; D’Amico et al., 2007). Da quanto sopra detto i dati con: (3) (4) vengono considerati anomalie presismiche, cioè precursori. Si ricordi che il decadimento di repliche è un fenomeno discreto analizzato con una funzione che tende asintoticamente a 1, (Utsu et al., 1995; Caccamo et al. , 2005, 2007 a,b,c; D’Amico et al. , 2010). È possibile osservare delle anomalie nel decadimento, diversi giorni prima di una forte replica, anomalie che non sono necessariamente delle fluttuazioni di tipo casuale. È importante precisare, da quanto si evince dalle statistiche sui dati delle sequenze, che gli eventi con M > 5.5 sono altamente frequenti entro i primi 10 giorni del decadimento per quei terremoti la cui magnitudo di mainshock supera i valori di 7.0 (Caccamo et al. , 2007 a,b,c), pertanto risulta superfluo fare un’analisi delle anomalie in detti giorni. Data la generica serie completa di dati reali, con d durata della sequenza osservata e j= 1….d ; se ipotizziamo che le anomalie si presentino diversi giorni prima dell’eventuale replica di magnitudo superiore a 5.5, inserendo nella estrapolazione della serie calcolata uno shift costante s = 6, evitiamo gli smorzamenti dovuti alle stesse nelle operazioni di fitting; ciò comporta una maggiore sensibilità del metodo Delta/Sigma nella loro individuazione. Utilizzando la Omori(1) da noi modificata in: 1 )( k tk tn p + ⋅ = − (4) otteniamo la serie completa di dati teorici (Caccamo et al. , 2002) ponendo: • il pedice k pari a k = a, a+1, a+2,…d, con • a= h+s. • h = 2 v, dove v =2 è il numero dei parametri k e p utilizzati nella (4), dove k è una costante che dipende dal numero totale degli eventi della sequenza e p è una costane che definisce il tasso di decadimento della sequenza di repliche, • k 1 è la costante che tiene conto della sismicità di fondo, (tipica della sismicità di un’area) che poniamo uguale a 1. Il programma di calcolo usato per l’analisi è Matlab, che ha anche la capacità di risolvere problemi che coinvolgono l’uso dei “minimi quadrati non lineari”, e quindi è adatto per la (4), che è una legge di potenza. I metodi utilizzati nel programma Delta/Sigma (Caccamo et al. , 2005, 2007 a,b e c; D’Amico et al. , 2010) sono di tipo iterativo e sono basati su algoritmi di ottimizzazione a larga scala, definiti come “metodo Newton” (Coleman e Li, 1994, 1996; Dennis, 1977). Ogni iterazione coinvolge la soluzione approssimata di un grande sistema lineare tramite il “metodo dei 35 GNGTS 2013 S essione 1.1

RkJQdWJsaXNoZXIy MjQ4NzI=