GNGTS 2013 - Atti del 32° Convegno Nazionale

numerosi modelli predittivi tanto specifici per la tipologia di rischio in esame (e.g. basati sul monitoraggio del comportamento degli animali o sullo studio dei segnali elettromagnetici) quanto basati su tecniche statistiche ‘tradizionali’ (e.g. basati sulla analisi comparativa dei dati relativi a eventi sismici passati per derivare la calibrazione di curve probabilistiche di previsione dei fenomeni ovvero per studi quali l’esistenza di correlazione tra una successione di scosse sismiche di modesta entità ed un successivo fenomeno sismico di magnitudo rilevante: Luraschi e Corrigan, 2013). In relazione a questo secondo gruppo di approcci vale la pena ricordare che da un punto di vista statistico il primo passo del processo è la rappresentazione della realtà che si vuole modellare con un ‘campione statistico’ ossia con un gruppo di unità elementari che siano adeguatamente rappresentative delle peculiarità della realtà stessa. Va da se che premessa fondamentale per l’efficacia di un modello statistico ‘tradizionale’ è la disponibilità di un campione statistico robusto (i.e. sufficientemente numeroso e variegato da rappresentare le specificità del fenomeno in esame). Nel caso del rischio sismico tale premessa non è facilmente realizzabile per una serie di ragioni connaturate alla natura del rischio stesso. Infatti, oltre alla non proporzionalità meglio approfondita nel seguito tra danni prodotti e magnitudo dell’evento che li ha causati, vale la pena ricordare che, come nel caso più generale del rischio operativo, il rischio sismico è caratterizzato dalla preponderanza, in termini di impatto assoluto, dei cosiddetti ‘cigni neri’ ossia di eventi caratterizzati da una bassissima frequenza di accadimento ma da un impatto estremamente significativo (Taleb, 2009). Già di per se tale caratteristica rende difficoltosa la creazione di un campione statistico robusto. Va poi considerato che la non diretta correlazione tra i danni provocati da un evento sismico e la magnitudo / distanza dall’epicentro dell’evento rendono complessa la previsione delle conseguenze dannose di un evento sismico essendo queste ultime il risultato di un insieme di fattori eterogenei (e.g. aspetti geologici, ingegneristici, economici, sociali, politici e culturali). Proprio l’eterogeneità di tali fattori associata alla predominanza di “cigni neri” sono le principali difficoltà nella realizzazione di database delle perdite che siano utilizzabili come campioni statistici per la creazione di modelli predittivi ‘tradizionali’. Se infatti la predominanza di cigni neri riduce la significatività dei dati di perdita registrati in relazione agli eventi frequenti / con impatto contenuto, l’eterogeneità dei fattori rende necessaria una segmentazione del database di perdite in sotto – campioni in base alle famiglie omogenee fattori di rischio che hanno determinato le perdite stesse. Da ciò consegue che le perdite registrate dovrebbero addirittura essere tali da garantire un’adeguata numerosità di ciascun sotto – campione. Di fatto ciò non avviene e si rende quindi necessario integrare i dati storici con le cosiddette ‘expert opinion’ con conseguente introduzione di possibili distorsioni dovute alla soggettività recepita dal modello valutativo (per esempio in base al peso soggettivamente attribuito ai diversi segnali che hanno preceduto un evento sismico). Quale che sia l’approccio adottato, la conclusione è che seppur i modelli previsionali siano stati raffinati nel tempo (per esempio ottenendo le ‘earthquake hazard maps’ che possono supportare l’individuazione di zone a elevato rischio sismico) e vi sia buona affidabilità predittiva nel lungo periodo, la previsione puntuale di breve periodo di un terremoto e delle sue conseguenze è ad oggi di fatto impossibile (e.g. un terremoto ‘atteso’ secondo i modelli predittivi potrebbe non verificarsi per decenni). Anche limitandosi a considerare gli aspetti sopra evidenziati, è palese come nel caso del rischio sismico non sia sufficiente adottare un approccio statistico ‘tradizionale’ basato cioè sull’osservazione retrospettiva delle conseguenze del fenomeno oggetto di analisi (i.e. nel caso specifico i danni prodotti da un terremoto). Di fatto un evento sismico è infatti assimilabile ad un ‘sistema adattativo complesso’ (“CAS” in inglese) ossia a un sistema dinamico con capacità di auto-organizzazione composto da un numero elevato di parti interagenti in modo non lineare che danno luogo a comportamenti globali che non possono essere compresi a partire dal comportamento dei singoli elementi che li compongono in quanto interagenti tra loro. L’interazione tra i singoli elementi determina infatti il comportamento globale dei sistemi e 417 GNGTS 2013 S essione 2.3

RkJQdWJsaXNoZXIy MjQ4NzI=