GNGTS 2021 - Atti del 39° Convegno Nazionale

495 GNGTS 2021 S essione 3.3 ai neuroni e poi aggiornare i pesi. Questo processo è realizzato identificando prima un neurone vincente (chiamato Best Matching Unit, BMU) come quel neurone il cui peso è più vicino all’input proposto. Successivamente, la legge di apprendimento modifica i pesi del neurone vincitore e quelli dei neuroni vicini (equazione 2). La fase di training della SOM consiste nell’associare tutti i dati di input (i.e., x = { x 1 , x 2 , x 3 , ... , x n } T ) ai neuroni e poi aggiornare i pesi. Questo processo è realizzato identificando prima un neurone vincente (chiamato Best Matching Unit, BMU) come quel neuron il cui peso è più vicino all'input proposto. Successivamente, la legge di apprendimento modifica i pesi del neurone vincitore e quelli dei neuroni vicini (equazione 2). w q ( t + 1 ) = w q ( t ) + ¿ + η ( t ) h q, j ( x i ) ( t ) [ x i ( t )− w q ( t ) ] (2) η ( t ) rappresenta il valore del learning rate all’iterazione t e h q, j ( x i ) rappresenta la funzione di vicinato. L’algoritmo continua la fase di training presentando alla rete tutti gli input scelti in maniera casuale fin quando non giunge a convergenza. Durante il training è necessario impostare gli iperparametri della rete, tra cui il numero di neuroni, la topologia della mappa, il numero di epoche, l'inizializzazione dei pesi e altri. Per scegliere l'impostazione corretta, una buona pratica è quella di eseguire un’ottimizzazione degli iperparametri. Essa consiste nel training di diverse reti con diverse configurazioni e scegliere la migliore. Alla fine del training è possibile stabilire la qualità della SOM sulla base di misure di errore. Le misure più comuni sono: Quantization Error (QE), Topographic Error (TE) e (2) lizzati 997). eudo- netici quello mente o di etti e s per suolo etrici, stati sunto BA). bordi e (ad come tilizzo non eans. biamo po di Total rivata La fase di training della SOM consiste nell’associare tutti i dati di input (i.e., x = { x 1 , x 2 , x 3 , ... , x n } T ) ai neuroni e poi aggiornare i pesi. Questo processo è realizzato identificando prima un neurone vincente (chiamato Best Matching Unit, BMU) come quel neurone il cui peso è più vicino all'input proposto. Successivament , la legge di apprendimento modifica i pesi del neurone vincitore e quelli dei neuroni vicini (equazione 2). w q ( t + 1 ) = w q ( t ) + ¿ + η ( t ) h q, j ( x i ) ( t ) [ x i ( t )− w q ( t ) ] (2) η ( t ) rappresenta il valore del learning rate all’iterazione t e h q, j ( x i ) rappresenta la funzione di vicinato. L’algoritmo continua la fase di training presentando alla rete tutti gli input scelti i maniera casuale fin quando non giunge a convergenza. Durante il training è necessario impostare gli iperparametri della rete, tra cui il numero di neuroni, la topologia della mappa, il numero di epoche, l'inizializzazione dei pesi e altri. Per scegliere l'impostazione corr tta, una buona pratica è quella di eseguire un’ottimizzazione degli iperparametri. Essa consiste nel traini g di diverse reti con diverse c figurazioni e scegliere la migliore. Alla fine del training è possibile stabilire la qualità della SOM sulla base di misure di errore. Le misure più comuni sono: Quantization Error (QE), Topographic Error (TE) e rappresenta il valore del learning rate all’iterazione i gamm -ray an lizzati M) (Kohonen, 1997). ificazione di seudo- gravimetrici, magne c sti avori è stat quello a i aree difficilmente nte vegetate, o di rario. Bernardinetti e i SOM e k-means per perficie e il sottosuolo ndo dati gravimetrici, uesto lavoro sono stati ans. o può esser riassunto dary Analysis (UBA). o di identificare i bordi trutture geologiche (ad ntropiche sepolte come è basato sull’utilizzo a prendimento non ap (SOM) e k -means. diversi test abbiamo azion del campo di ivative (THD), Total d ne (THD2) e derivata La fase di traini g d lla SOM onsiste nell’associare tutti i dati di input (i.e., x = { 1 , x 2 , x 3 , ... , x n } T ) ai neuroni e poi aggiornare i pesi. Questo processo è realizzato identificand prima u neurone vincente (chiamato Best atching Unit, BMU) come quel neurone il cui peso è più vicin all'input proposto. Successivamente, la legge di apprendimento modifica i pesi del neurone vincitore e quelli d i neur i vicini (equazione 2). w q ( t + 1 ) = w q ( t ) + ¿ + η ( t ) h q, j ( x i ) [ x i ( t )− w q ( t ) ] (2) η ( t ) rappr senta l valor del learning rate all’iterazione t e h q, j ( x i ) rappr senta la funzione di vicinato. L’algoritmo continua la fase di training presentando alla rete tutti gli input s elti in manier casuale fin quando non giunge a convergenza. Durante il t aining è necessario imposta e gli iperparametri della ret , tra cui il umero di neuroni, la topologia della mappa, il numero di epoche, l'inizializzazione dei pesi e altri. Per scegliere l'impostazione corretta, una buona prat ca è quella di eseguire un’ottimizzazione degli iperparametri. Essa consiste n l train ng di diverse reti con divers conf gurazion e sc gliere la migliore. Alla fine del training è possibile stabilire la qualità della SOM sulla base di misur di errore. Le misure più comuni sono: Quantization Error (QE), Topographic Error (TE) e e con la Self-Organizing Map (SOM) (Kohonen, 1997). Fraser (2012), propon una classificazione di pseudo- litologie utilizzando SOM con dati gravimetrici, magnetici d elettromagnetici. L scopo di questi lavori è stato quello di ottenere una appatura geologica in aree difficilmente accessibili, come aree densamente vegetate, o di identificare aree di interesse minerario. Bernardinetti e Bruno (2019), propongono l'us di SOM e k-means per classificare in facies geofisiche la superficie e il sottosuolo in un contesto idrotermale utilizzando dati gravimetrici, geochimici e termici. I principali algoritmi utilizzati in questo lavoro sono stati Self-Organizing Map (SOM) e k -means. Metodo Il metodo proposto in questo lavoro può essere riassunto con il nome di Unsupervised Boundary Analysis (UBA). Lo scopo della metodologia è quello di identificare i bordi delle sorgenti che si riferiscono a strutture geologiche (ad esempio faglie) o bordi di strutture antropiche sepolte come in archeologia. Il metodo proposto è basato sull’utilizzo co binato di due tecniche di apprendimento non supervisionato: Self-Organizing Map (SOM) e k -means. Per quanto riguarda l’input, dopo diversi test abbiamo deciso di utilizzare tre trasformazioni del campo di anomalie: Total Horizontal Derivative (THD), Total Horizontal Derivative di secondo ordine (THD2) e derivata dati di input (i.e., x x 1 , x 2 , x 3 , ... , x n ) ai neuron poi aggiornare i pesi. Questo processo è realizz identificando prima un neurone vincente (chiamato B Matching Unit, BMU) come quel neurone il cui peso è vicino all'input proposto. Successivamente, la legge apprendimento modific i pesi del eurone vincitore quelli dei neuroni vicini (equazione 2). w q ( t + 1 ) = w q ( t ) + ¿ + η ( t ) h q, j ( x i ) ( t ) [ x i ( t )− w q ( t ) ] (2 η ( t ) rappresenta il valore del learning rate all’iterazion e h q, j ( x i ) rappresenta la funzione di vicinato. L’algorit continua la fase di training presentando alla rete tutti input scelti in maniera casuale fin quando non giunge convergenza. Durante il training è necessario impostare gli iperparame della rete, tra cui il numero di neuroni, la topologia de mappa, il numero di epoche, l'inizializzazione dei pesi altri. Per scegliere l'impostazione corretta, una buo pratica è quella di eseguire un’ottimizzazione de iperparametri. Essa consiste nel training di diverse reti c diverse configurazioni e scegliere la migliore. Alla fine training è possibile stabilire la qualità della SOM sulla b di misure di errore. Le misure più comuni so Quantization Error (QE), Topographic Error (TE) pr senta la funz one di vicinato. L’algoritmo continua la f se di training presentando alla rete tutti gli input scelti in maniera casuale fin qu ndo non giunge a convergenza. Durante il training è ecessario impostare gli iperparametri della rete, tra cui il numero di neuroni, la topologia della mappa, il numero di epoche, l'inizializzazione dei pesi e altri. Per scegliere l'impostazione corretta, na buona pratica è quella di eseguire un’ottimizzazione degli iperparametri. Essa consiste nel training di diverse reti con diverse configurazioni e scegliere la migliore. A la fine del training è possibile stabilire la qualità della SOM sulla base di misure di error . Le misure iù comuni sono: Quantization Error (QE), Topographic Error (TE) e Combination Error (CE) (Kaski e Lagus, 1996). Questi parametri possono essere utilizzati per scegliere la migliore configurazione della rete durante l’ottimizzazione degli iperparamet i. I pesi ttenuti dalla rete migliore sono usati poi ome input per un clustering tramite l’algoritmo k -means, il quale partizionerà i dati in k clusters. Ogni cluster è caratterizzato da un centroide e k è un numero intero definito dall’operatore. La scelta del corretto numero di classi è stata realizzata utilizzando l’indice Silhouette, il quale è un metodo statistico che identifica il numero di classi migliore basandosi sul calcolo di distanze inter-cluster e intra-cluster. Fig. 1 - Validazione delle classi tramite l’Indice Silhouette.

RkJQdWJsaXNoZXIy MjQ4NzI=