Likelihood Ratio
3.1.2 Przegląd literatury dotyczącej hiperspektralnej detekcji anomalii
Podstawowe metody i modele HSI AD, w tym uogólniony test współczynnika prawdopodobieństwa i jego pochodne były przedmiotem wielu prac przeglądowych i badawczych, w tym prac Manolakisa i Shawa (2002) oraz Steina et al. (2002), którzy przedstawiają przegląd efektów pełnopikselowych, subpikselowych i liniowej mieszanki w detekcji; Chang (2003), który przedstawia dogłębną analizę podstaw detekcji hiperspektralnej; Manolakis et al. (2009), który przedstawia krytyczną dyskusję i argumenty przeciwko złożoności detektora; oraz Matteoli et al. (2010), którzy przedstawiają przegląd zarówno klasycznych podejść, jak i niektórych z bardziej aktualnych osiągnięć.
Prawdopodobnie najbardziej podstawową i dobrze zbadaną metodą jest detektor RX (Reed i Yu, 1990) wywodzący się z uogólnionego testu współczynnika prawdopodobieństwa. Obraz jest modelowany jako gaussowski; dla złożonych obrazów rzeczywistych jest on aproksymowany przez oszacowanie lokalnej macierzy kowariancji i usunięcie lokalnej średniej. Decyzja dotycząca testowanego piksela (PUT) podejmowana jest na podstawie statystyki testowej obliczanej jako odległość Mahalanobisa pomiędzy nim a (znormalizowanym) tłem. Rozkład tej statystyki jest niezależny od nieznanych parametrów (zależy tylko od wymiaru sygnału), dzięki czemu ma stałą wartość współczynnika fałszywych alarmów (Stein et al., 2002). W praktycznych zastosowaniach normalizacja ta może być jednak niewystarczająca; stosuje się różne algorytmy wspomagające estymację poprzez wybór podzbioru próbek, np. iteracyjne progowanie (Billor i in., 2000), losowy wybór (Du i Zhang, 2011), ważenie (Stein i in., 2002), czy estymację saliency (Liu i in., 2018). W pracy Guo et al. (2016) porównano kilka podejść do łagodzenia odstępstwa od rozkładu normalnego w estymacji RX; stwierdzono, że różne metody łagodzenia oferują podobne ulepszenia w stosunku do klasycznej estymacji RX. Formą uogólnienia tego wsparcia jest użycie mieszaniny gaussianów jako modelu tła; choć wymaga ona oszacowania liczby składowych, to ma znacznie większy potencjał reprezentowania złożonych scen. Podejścia stosowane przez Matteoli et al. (2010) albo dzielą wektory hiperspektralne na klastry przy użyciu pewnej liczby parametrów, albo łączą całe prawdopodobieństwo modelu mieszaniny gaussowskiej (GMM). Chang i Chiang (2002) analizują kilka wariantów proponowanego znormalizowanego detektora RX. Matteoli et al. (2013) rozszerza podejście mieszanki proponując modele inne niż rozkłady gaussowskie jako model tła. Maryam (2018) stosuje podejście iteracyjne z pierwszym przebiegiem RX w celu oszacowania prawdopodobnego tła, a następnie wykonuje redukcję cech.
Liczba metod AD opiera się na obserwacji wewnętrznej wymiarowości przestrzeni danych hiperspektralnych. W szczególności zauważono, że HSI lub ich fragmenty, leżą w podprzestrzeni o znacznie mniejszej wymiarowości niż oryginalne widma. W tej podprzestrzeni, często mogą być opisane przez simpleks, którego wierzchołkami są podstawowe materiały obecne w scenie. Piksele są modelowane jako mieszanina tych podstawowych materiałów, zwykle liniowa. Wang i Xue (2018) łączą liniowy model mieszania i uogólniony test współczynnika prawdopodobieństwa, aby przetestować prawdopodobieństwo skorygowane dla podprzestrzeni celu i tła. Współczynniki PUT w obrębie tych podprzestrzeni uzyskuje się za pomocą estymacji regularyzowanej ℓ2-normą. Sun et al. (2018) uogólnia metodę RPCA (ang. robust principal component approach). Proponowana metoda, randomized subspace learning-based anomaly detector, zakłada, że macierz anomalii jest słabo zaludniona niezerowymi kolumnami i że te kolumny tworzą inną podprzestrzeń niż tło. Aby to oszacować, proponują oni wieloetapowy algorytm obejmujący losowe próbkowanie i losowe projekcje Hadamarda. Zhang et al. (2016) zakładają model obrazu składający się z obrazu tła o niskiej randze, odstających kolumn i szumu dodanych razem. Wykorzystują oni algorytm GoDec, oparty na dwustronnych losowych projekcjach, do estymacji tego niskorangowego składnika tła. Odwrotność macierzy kowariancji potrzebna do obliczenia odległości Mahalanobisa pomiędzy PUT a tłem jest szacowana na podstawie wektorów własnych tej odzyskanej macierzy. Qu et al. (2016) stosują trzystopniowy algorytm z etapami endmember unmixing, clustering i low rank decomposition. Niektóre metody skupiają się na ekstrakcji dekompozycji sparse, czyli estymacji bieżącego piksela spektralnego jako kombinacji małej liczby pikseli słownikowych. Metody te wykorzystują podobną decyzję – zaklasyfikowanie PUT do tła lub celu w zależności od błędu reprezentacji słownikowej – ale skupiają się wyraźnie na minimalizacji rozmiaru słownika. Badano zwykłą (Chen et al., 2011) oraz kernelizowaną (Zhang et al., 2015) wersję dekompozycji sparse. Bardziej złożona metoda (Li et al., 2015) tworzy słownik i reprezentację sparse z pikseli sąsiedztwa, biorąc pod uwagę różne scenariusze sąsiedztwa, które są nieanomalne i posiadają pojedyncze anomalie, anomalne skupisko lub kompozycję tych pierwszych.
Inna klasa metod skupia się na połączeniu informacji przestrzennej i spektralnej; anomalia jest definiowana jako wzór, który nie pasuje do przestrzennego sąsiedztwa. Yuan et al. (2015) wykorzystują podejście filtrujące do wyodrębnienia różnic. Ten wieloetapowy algorytm wykorzystuje podejście center-surround i zawiera filtr górnoprzepustowy, progowanie binarne oraz funkcję dyskryminacji opartą na zliczaniu wartości progowych. Gu et al. (2015) rozszerzają testowanie hipotez i reprezentację podprzestrzeni o przetwarzanie obszaru sąsiedztwa pikseli. Dodatkowo łączą przetwarzanie z transformatą falkową i analizą niezależnych składowych. Liu i Li (2018) wykorzystują wykładnicze ważenie najbliższych sąsiadów z pozytywnych i negatywnych zestawów treningowych. Po optymalizacji, która obejmuje współczynnik do opisu informacji lokalnej, estymowana jest funkcja decyzyjna. Lili i Zhao (2017) łączą reprezentacje lokalnych podprzestrzeni dla domen przestrzennych i spektralnych, aby uzyskać funkcję do pomiaru poziomu lokalnego podobieństwa. Li et al. (2018) rozważają złożony model struktury tła w przestrzennych łatach w HSI, aby znaleźć dobrą reprezentację pikseli; piksele, które nie mogą być reprezentowane, są klasyfikowane jako anomalie. Wang et al. (2018) wykorzystują proces, w którym mapy przestrzenne wykrytych anomalii są przetwarzane i umieszczane z powrotem jako dodatkowe źródła danych. Tworzy to proces iteracyjny, w którym każda iteracja ma odrębne etapy AD i mapowania przestrzennego anomalii. Wynikowy algorytm jest w stanie wykryć i zaklasyfikować anomalie do wyróżniających się grup.
Dzięki sukcesom w zastosowaniach w innych domenach danych, metody jądrowe i/lub klasyfikator maksymalnego marginesu są również stosowane w domenie hiperspektralnej. Heesung Kwon i Nasrabadi (2005) rozszerzają detektor RX wprowadzając jądra; zaproponowana metoda kernel-RX jest znacznie lepiej dostosowana do radzenia sobie z niegaussowskimi rozkładami tła. Dong et al. (2015) proponują maksymalno-marginowe uczenie metryczne do wykrywania celów. Metoda estymuje macierz transformacji danych, która zapewnia maksymalną separację pomiędzy próbkami treningowymi tła i celów. Algorytm płaszczyzny tnącej jest wykorzystywany do zmniejszenia liczby ograniczeń w optymalizacji, a tym samym do poprawy wydajności. Zhao et al. (2016) wykorzystują rozszerzenie jądra jako podstawowy element odpornej techniki regresji tła. Optymalizacja zawiera warunki dopasowania etykiet danych, regularyzację zapobiegającą przepełnieniu oraz dopasowanie do średniej gęstości odpornego tła. Decyzja o anomaliach została podjęta na podstawie odległości najbliższych sąsiadów do próbek odpornego tła i potencjalnych anomalii. Zhao et al. (2015) udoskonalili metodę reprezentacji rzadkiej wykorzystując metody jądrowe. Metoda ta wykorzystuje „stacking” jąder przestrzennych i spektralnych, co sprowadza się do średniej ważonej odpowiednich macierzy jąder. Banerjee et al. (2006) badają liniowe i jądrowe reprezentacje opisu wektora wsparcia danych (SVDD) w celu uzyskania modelu danych. Pozwala to na derywację podobną do detektora RX, bez żadnych założeń dotyczących rozkładu.
Wykorzystywane są różne inne podejścia. Li i Du (2015) proponują kolaboracyjne podejście do reprezentacji pikseli, gdzie piksele z zewnętrznego okna zapewniają reprezentację dla PUT. Odpowiednia regularyzacja jest dodawana w celu zapewnienia stabilności rozwiązania. Badanych jest również kilka rozszerzeń, w tym rama jądra i RPCA. Otrzymany algorytm jest prosty w zastosowaniu i może być postrzegany jako uogólnienie oryginalnego podejścia RX. Ma et al. (2018) używają głębokiej sieci przekonań do rekonstrukcji obszaru PUT. Podejście głębokiego uczenia ma potencjał do internalizacji złożonej struktury hiperspektralnego sąsiedztwa. Następnie wykorzystuje kilka scenariuszy anomalii obecnych w PUT, sąsiedztwie, obu lub żadnym z nich do utworzenia funkcji decyzyjnej, w sposób podobny do tego, jak w Li et al. (2015). Yuan et al. (2016) rozpoczynają od lokalnego liniowego embedowania, które jest lokalną reprezentacją danych opartą na sąsiadujących pikselach. Błąd reprezentacji pozwala na ważenie różnych sąsiadów w grafie sąsiedztwa. Postprocessing grafu jest wykorzystywany do izolowania anomalnych pikseli. Zheng et al. (2016) buduje model szumu w oparciu o reprezentację liniowego modelu mieszania. Zaproponowano kilka detektorów, które łączą analizę współczynnika obfitości z testowaniem hipotez.
.