GNGTS 2017 - 36° Convegno Nazionale

GNGTS 2017 S essione 2.1 309 possibilità di conoscere il livello di incertezza consentirebbe difatti di migliorare la percezione del grado di affidabilità delle azioni di progetto prescritte da norma, al contempo, permettendo al progettista di poter ricorrere a soluzioni tecniche appropriate. In questo contributo viene pertanto proposta brevemente una metodologia per la quantificazione dell’incertezza nelle stime di pericolosità, basata sulla simulazione di numerosi cataloghi sismici “artificiali” da cui estrarre le rispettive curve di pericolosità utili per conoscere la dispersione dei valori di progetto. Metodologia di calcolo. La metodologia proposta si basa sulla simulazione numerica di cataloghi “artificiali” per la validazione empirica della pericolosità di un sito di interesse soggetto all’occorrenza di eventi sismici generati da un sistema di sorgenti sismogenetiche, come illustrato in Fig. 2. Ciascuna zona sismogenetica viene caratterizzata definendone geometria e legge di ricorrenza, esplicitando i valori di magnitudo minima M min,i , massima M max,i e tasso annuo di occorrenza di terremoti con magnitudo almeno pari alla minima ν Mmin,i . Fig. 2 - Il processo di validazione empirica delle stime di pericolosità. Il processo di occorrenza dei terremoti è poissoniano, pertanto i tempi di inter-arrivo tra gli eventi sono casuali. Si definisce una finestra temporale di interesse T . Trascurando le incertezze epistemiche relative al modello di sorgenti sismogenetiche e inerenti alla selezione della legge di attenuazione, vengono generati n cataloghi sismici “artificiali” campionando iterativamente valori di tempi di inter-arrivo da una distribuzione esponenziale e troncando il campionamento quando la somma dei tempi di inter-arrivo supera la durata della finestra temporale di interesse T . Ciascun catalogo “artificiale” pertanto è caratterizzato da un numero variabile di eventi: per ciascuno di essi viene assegnata una magnitudo M e le coordinate epicentrali tramite campionamento dalle funzioni densità di probabilità della magnitudo f M,i ( m ) e della distanza sorgente-sito f R,i ( r ). I cataloghi “artificiali” rappresentano pertanto possibili storie sismiche definite in maniera consistente con i parametri e modelli della sismicità dell’area, e permettono di calcolare le rispettive curve di pericolosità. Per il calcolo delle curve di pericolosità, viene dapprima identificata una legge di attenuazione, che permette nella forma classica di derivare la funzione di densità di probabilità f k di ln IM relativa al k -esimo evento come: (1) dove μ ln IM ( M i , R i ) e σ ln IM rappresentano rispettivamente il valore medio e la deviazione standard di ln IM . Dall’Eq. (1) è possibile calcolare per ciascun k -esimo evento di un catalogo “artificiale”

RkJQdWJsaXNoZXIy MjQ4NzI=