Likelihood Ratio
3.1.2 Revisione della letteratura sul rilevamento delle anomalie iperspettrali
I metodi e i modelli di base dell’HSI AD, compreso il test generalizzato del rapporto di verosimiglianza e i suoi derivati, sono stati oggetto di una serie di lavori di revisione e indagine, compresi i lavori di Manolakis e Shaw (2002) e Stein et al. (2002) che presentano una panoramica di full-pixel, subpixel, e un effetto di miscela lineare nel rilevamento; Chang (2003) che fornisce un trattamento approfondito delle basi del rilevamento iperspettrale; Manolakis et al. (2009) che fornisce una discussione critica e argomenti contro la complessità del rilevatore; e Matteoli et al. (2010) che presenta una panoramica tutorial sia degli approcci classici che di alcuni degli sviluppi più attuali.
Sicuramente il metodo più basilare e ben studiato è il rivelatore RX (Reed e Yu, 1990) derivato dal test di likelihood ratio generalizzato. L’immagine è modellata come gaussiana; per immagini reali complesse è approssimata stimando la matrice di covarianza locale e rimuovendo la media locale. La decisione su un pixel sotto test (PUT) viene presa sulla base di una statistica di test calcolata come la distanza Mahalanobis tra esso e lo sfondo (normalizzato). La distribuzione di questa statistica di test è indipendente dai parametri sconosciuti (dipende solo dalla dimensione del segnale), quindi, ha una proprietà di tasso di falso allarme costante (Stein et al., 2002). Tuttavia, nelle applicazioni pratiche, questa normalizzazione può non essere sufficiente; vari algoritmi sono utilizzati per supportare la stima selezionando un sottoinsieme di campioni, ad esempio, soglia iterativa (Billor et al., 2000), selezione casuale (Du e Zhang, 2011), ponderazione (Stein et al., 2002), o stima della salienza (Liu et al., 2018). L’articolo di Guo et al. (2016) confronta diversi approcci per mitigare l’allontanamento dalla distribuzione normale nella stima RX; conclude che diversi metodi di mitigazione offrono miglioramenti simili alla stima RX classica. Una forma di generalizzazione di questo supporto è l’utilizzo di una miscela di gaussiane come modello di sfondo; mentre richiede il numero di componenti da stimare, ha un potenziale molto maggiore di rappresentare scene complesse. Gli approcci utilizzati da Matteoli et al. (2010) o dividono i vettori iperspettrali in cluster utilizzando un certo numero di parametri o combinano l’intera verosimiglianza del modello di miscela gaussiana (GMM). Chang e Chiang (2002) analizzano diverse opzioni del rilevatore RX normalizzato proposto. Matteoli et al. (2013) estende l’approccio a miscela proponendo modelli diversi dalle distribuzioni gaussiane come modello di sfondo. Maryam (2018) utilizza un approccio iterativo con la prima esecuzione di RX per stimare il probabile sfondo, quindi esegue la riduzione delle caratteristiche.
Un certo numero di metodi AD si basa sull’osservazione della dimensionalità intrinseca dello spazio dati iperspettrale. In particolare, è stato notato che gli HSI o i loro frammenti, si trovano in un sottospazio di dimensionalità molto più bassa rispetto alla dimensione degli spettri originali. In questo sottospazio, possono spesso essere descritti da un simplex con i vertici che sono i materiali di base presenti nella scena. I pixel sono modellati come una miscela di quei materiali di base, di solito una lineare. Wang e Xue (2018) combinano il modello di miscelazione lineare e il test generalizzato del rapporto di verosimiglianza per testare la probabilità regolata per i sottospazi di destinazione e sfondo. I coefficienti PUT all’interno di quei sottospazi sono ottenuti con la stima regolarizzata a ℓ2-norme. Sun et al. (2018) generalizza l’approccio robusto delle componenti principali (RPCA). Il metodo proposto, randomized subspace learning-based anomaly detector, presuppone che la matrice delle anomalie sia sparsamente popolata da colonne non nulle, e che queste colonne formino un sottospazio diverso dallo sfondo. Per stimare ciò, propongono un algoritmo multistadio che include un campionamento casuale e proiezioni Hadamard casuali. Zhang et al. (2016) assumono un modello di immagine di un’immagine di sfondo a basso rango, outlier, e rumore aggiunto insieme. Usano l’algoritmo GoDec, basato sulle proiezioni casuali bilaterali, per stimare questa componente di sfondo di basso rango. L’inverso della matrice di covarianza necessaria per calcolare la distanza Mahalanobis tra un PUT e lo sfondo è stimato dagli autovettori di questa matrice recuperata. Qu et al. (2016) usano un algoritmo a tre stadi con le fasi di unmixing degli endmember, clustering e decomposizione di basso rango. Alcuni metodi si concentrano sull’estrazione di una decomposizione rada, cioè sulla stima di un pixel spettrale attuale come combinazione di un basso numero di pixel del dizionario. Questi metodi usano una decisione simile – classificando il PUT come sfondo o bersaglio a seconda dell’errore di rappresentazione del dizionario – ma si concentrano esplicitamente sulla minimizzazione della dimensione del dizionario. Sono state studiate una versione regolare (Chen et al., 2011) e una versione kernelizzata (Zhang et al., 2015) della decomposizione sparsa. Un metodo più complesso (Li et al., 2015) crea un dizionario e una rappresentazione sparsa dai pixel del quartiere, considerando diversi scenari di quartiere che non sono anomali e hanno singole anomalie, un cluster anomalo, o una composizione dei primi.
Un’altra classe di metodi si concentra sulla combinazione di informazioni spaziali e spettrali; un’anomalia è definita come un modello che non si adatta al quartiere spaziale. Yuan et al. (2015) utilizzano un approccio di filtraggio per individuare le differenze. Questo algoritmo multistep utilizza l’approccio center-surround e comprende un filtro passa alto, una soglia binaria e una funzione di discriminazione basata sul conteggio dei valori di soglia. Gu et al. (2015) estendono il test di ipotesi e la rappresentazione del sottospazio elaborando l’area di vicinato dei pixel. Inoltre, combinano l’elaborazione con la trasformazione wavelet e l’analisi dei componenti indipendenti. Liu e Li (2018) utilizzano la ponderazione esponenziale dei vicini più vicini dai set di allenamento positivi e negativi. Dopo l’ottimizzazione, che include il coefficiente per la descrizione delle informazioni locali, viene stimata una funzione di decisione. Lili e Zhao (2017) combinano le rappresentazioni locali del sottospazio per i domini spaziali e spettrali per ottenere la funzione per misurare il livello di similarità locale. Li et al. (2018) considerano un modello complesso della struttura dello sfondo nelle patch spaziali in un HSI per trovare una buona rappresentazione dei pixel; i pixel che non possono essere rappresentati sono classificati come anomalie. Wang et al. (2018) utilizzano un processo in cui le mappe spaziali delle anomalie rilevate vengono elaborate e reinserite come fonti di dati aggiuntive. Questo forma un processo iterativo con ogni iterazione che ha fasi distinte di AD e mappatura spaziale delle anomalie. L’algoritmo risultante è in grado di rilevare e classificare le anomalie in gruppi distinti.
Dato il loro successo nelle applicazioni in altri domini di dati, i metodi kernel e/o il classificatore a margine massimo vengono applicati anche al dominio iperspettrale. Heesung Kwon e Nasrabadi (2005) estendono il rilevatore RX introducendo dei kernel; il metodo kernel-RX proposto è molto più adatto a trattare con distribuzioni di sfondo non gaussiane. Dong et al. (2015) propongono un apprendimento metrico a margine massimo per il rilevamento dei target. Il metodo stima una matrice di trasformazione dei dati che fornisce la massima separazione tra i campioni di formazione di sfondo e obiettivi. L’algoritmo del piano di taglio viene utilizzato per ridurre il numero di vincoli nell’ottimizzazione e, quindi, migliorare le prestazioni. Zhao et al. (2016) usano l’espansione del kernel come elemento base di una tecnica di regressione robusta dello sfondo. L’ottimizzazione include termini per la corrispondenza delle etichette dei dati, la regolarizzazione per prevenire l’overfitting, e un adattamento alla densità media dello sfondo robusto. La decisione sulle anomalie è stata presa in base alla distanza dei vicini più vicini ai campioni di sfondo robusto e alle potenziali anomalie. Zhao et al. (2015) migliorano l’approccio di rappresentazione sparsa utilizzando metodi kernel. Questo metodo utilizza lo “stacking” dei kernel spaziali e spettrali, che equivale a una media ponderata delle rispettive matrici dei kernel. Banerjee et al. (2006) esplorano rappresentazioni lineari e kernel support vector data description (SVDD) per derivare un modello di dati. Questo permette una derivazione simile a un rilevatore RX, senza alcuna ipotesi di fondo sulla distribuzione.
Vari altri approcci vengono utilizzati. Li e Du (2015) propongono un approccio collaborativo per la rappresentazione dei pixel in cui i pixel della finestra esterna forniscono la rappresentazione per il PUT. Viene aggiunta un’adeguata regolarizzazione per fornire stabilità alla soluzione. Vengono anche studiate diverse estensioni tra cui un quadro kernel e RPCA. L’algoritmo risultante è semplice da applicare e può essere visto come una generalizzazione dell’approccio RX originale. Ma et al. (2018) utilizzano una rete di credenza profonda per la ricostruzione dell’area PUT. L’approccio di apprendimento profondo ha il potenziale per interiorizzare la struttura complessa di un quartiere iperspettrale. Utilizza quindi diversi scenari di anomalie presenti nel PUT, nel quartiere, in entrambi o in nessuno dei due per formare una funzione di decisione, in modo simile a quello di Li et al. (2015). Yuan et al. (2016) partono dall’embedding lineare locale, che è una rappresentazione locale dei dati basata sui pixel vicini. L’errore di rappresentazione permette ai diversi vicini di essere pesati nel grafo di vicinato. La post-elaborazione del grafico viene utilizzata per isolare i pixel anomali. Zheng et al. (2016) costruisce un modello di rumore basato sulla rappresentazione del modello di miscelazione lineare. Vengono proposti diversi rilevatori che combinano l’analisi dei coefficienti di abbondanza con il test di ipotesi.