Articles

Likelihood Ratio

3.1.2 Revisão da literatura sobre detecção de anomalias hiper-espectrais

Os métodos e modelos básicos de HSI AD, incluindo testes generalizados de índice de probabilidade e seus derivados, foram sujeitos a uma série de trabalhos de revisão e inquérito, incluindo o trabalho de Manolakis e Shaw (2002) e Stein et al. (2002) que apresentam uma visão geral do pixel completo, subpixel, e um efeito de mistura linear na detecção; Chang (2003) que fornece um tratamento aprofundado dos fundamentos da detecção hiper-espectral; Manolakis et al. (2009) que fornecem uma discussão crítica e argumentos contra a complexidade do detector; e Matteoli et al. (2010) que apresentam uma síntese tutorial de ambas as abordagens clássicas e alguns dos desenvolvimentos mais actuais.

Arguavelmente o método mais básico e bem estudado é o detector RX (Reed e Yu, 1990) derivado do teste generalizado do rácio de verosimilhança. A imagem é modelada como gaussiana; para imagens complexas da vida real é aproximada através da estimativa da matriz de covariância local e da remoção da média local. A decisão sobre um pixel em teste (PUT) é tomada com base em estatísticas de teste computadas como a distância Mahalanobis entre ele e o fundo (normalizado). A distribuição desta estatística de teste é independente dos parâmetros desconhecidos (depende apenas da dimensão do sinal), pelo que tem uma propriedade de taxa de falsos alarmes constante (Stein et al., 2002). No entanto, em aplicações práticas, esta normalização pode não ser suficiente; vários algoritmos são utilizados para apoiar a estimativa através da selecção de um subconjunto de amostras, por exemplo, limiar iterativo (Billor et al., 2000), selecção aleatória (Du e Zhang, 2011), ponderação (Stein et al., 2002), ou estimativa de saliência (Liu et al., 2018). O documento de Guo et al. (2016) compara várias abordagens para mitigar o desvio da distribuição normal na estimativa RX; conclui que diferentes métodos de mitigação oferecem melhorias semelhantes à estimativa RX clássica. Uma forma de generalização deste apoio é utilizar uma mistura de gaussianos como modelo de fundo; embora exija a estimativa do número de componentes, tem um potencial muito maior de representar cenas complexas. As abordagens utilizadas por Matteoli et al. (2010) ou dividem os vectores hiper-espectrais em clusters usando um número de parâmetros ou combinam toda a probabilidade do modelo de mistura de Gaussians (GMM). Chang e Chiang (2002) analisam várias opções do detector RX normalizado proposto. Matteoli et al. (2013) estende a abordagem da mistura propondo outros modelos para além das distribuições gaussianas como modelo de fundo. Maryam (2018) utiliza uma abordagem iterativa com a primeira execução de RX para estimar o fundo provável, depois realiza a redução de características.

Um número de métodos AD baseia-se na observação da dimensionalidade intrínseca do espaço de dados hiper-espectrais. Especificamente, notou-se que o HSI ou os seus fragmentos, se encontram num subespaço de muito menor dimensionalidade do que o tamanho original dos espectros. Neste subespaço, podem muitas vezes ser descritos por um simplex, sendo os vértices os materiais básicos presentes na cena. Os pixéis são modelados como uma mistura desses materiais básicos, geralmente uma mistura linear. Wang e Xue (2018) combinam o modelo de mistura linear e o teste do rácio de verosimilhança generalizado para testar a probabilidade ajustada para os subespaços alvo e de fundo. Os coeficientes PUT dentro desses subespaços são obtidos com a estimativa regularizada de ℓ2-norma. Sun et al. (2018) generaliza a abordagem robusta da componente principal (RPCA). O método proposto, detector de anomalias baseado na aprendizagem aleatória do subespaço, assume que a matriz de anomalias é escassamente povoada com colunas não zero, e que estas colunas formam um subespaço diferente do de fundo. Para estimar isso, propõem um algoritmo em várias fases, incluindo amostragem aleatória e projecções Hadamard aleatórias. Zhang et al. (2016) assumem um modelo de imagem de fundo de baixa classificação, outliers, e ruído somados. Utilizam o algoritmo GoDec, baseado nas projecções aleatórias bilaterais, para estimar esta componente de fundo de baixa classificação. A matriz de covariância inversa necessária para calcular a distância Mahalanobis entre um PUT e o fundo é estimada a partir de vectores próprios desta matriz recuperada. Qu et al. (2016) utilizam um algoritmo de três fases com as etapas de desmembramento, agrupamento, e decomposição de baixa classificação. Alguns métodos concentram-se na extracção de uma decomposição esparsa, ou seja, estimar um pixel espectral actual como uma combinação de um baixo número de pixels de dicionário. Estes métodos utilizam uma decisão semelhante – classificando o PUT em fundo ou alvo, dependendo do erro de representação do dicionário – mas concentram-se explicitamente na minimização do tamanho do dicionário. Foram estudadas versões regulares (Chen et al., 2011) e kernelizadas (Zhang et al., 2015) de decomposição esparsa. Um método mais complexo (Li et al., 2015) cria um dicionário e uma representação esparsa de pixels de vizinhança, considerando diferentes cenários de vizinhança que são não anómalos e têm anomalias únicas, um agrupamento anómalo, ou uma composição do primeiro.

Outra classe de métodos concentra-se na combinação de informação espacial e espectral; uma anomalia é definida como um padrão que não se ajusta à vizinhança espacial. Yuan et al. (2015) utilizam uma abordagem de filtragem para destacar as diferenças. Este algoritmo de múltiplas etapas utiliza a abordagem centro-surround e inclui um filtro de passagem elevado, limiar binário, e função de discriminação baseada na contagem dos valores de limiar. Gu et al. (2015) alarga o teste de hipóteses e a representação subespacial através do processamento da área de vizinhança de píxeis. Além disso, combinam o processamento com a transformação wavelet e a análise independente de componentes. Liu e Li (2018) utilizam a ponderação exponencial dos vizinhos mais próximos a partir de conjuntos de treino positivos e negativos. Após a optimização, que inclui o coeficiente para descrição da informação local, é estimada uma função de decisão. Lili e Zhao (2017) combinam as representações subespaciais locais para os domínios espacial e espectral para obter a função de medição do nível de similaridade local. Li et al. (2018) consideram um modelo complexo da estrutura de fundo em manchas espaciais num HSI para encontrar uma boa representação de pixels; os pixels que não podem ser representados são classificados como anomalias. Wang et al. (2018) utilizam um processo em que os mapas espaciais das anomalias detectadas são processados e reintroduzidos como fontes de dados adicionais. Isto forma um processo iterativo, tendo cada iteração etapas distintas de AD e mapeamento espacial das anomalias. O algoritmo resultante é capaz de detectar e classificar as anomalias em grupos distintos.

Devido ao seu sucesso em aplicações noutros domínios de dados, os métodos de kernel e/ou o classificador de margem máxima são também aplicados ao domínio hiper-espectral. Heesung Kwon e Nasrabadi (2005) alargam o detector RX introduzindo kernels; o método kernel-RX proposto é muito mais adequado para lidar com distribuições de fundo não gaussianas. Dong et al. (2015) propõem uma aprendizagem métrica de margem máxima para a detecção de alvos. O método estima uma matriz de transformação de dados que proporciona uma separação máxima entre amostras de formação de fundo e alvos. O algoritmo do plano de corte é utilizado para reduzir o número de restrições na optimização e, assim, melhorar o desempenho. Zhao et al. (2016) utilizam a expansão do núcleo como elemento básico de uma robusta técnica de regressão de fundo. A optimização inclui termos para correspondência de etiquetas de dados, regularização para evitar sobreajustes, e um ajuste à densidade média de fundo robusta. A decisão sobre as anomalias foi tomada com base na distância dos vizinhos mais próximos às amostras de fundo robustas e às potenciais anomalias. Zhao et al. (2015) melhoram a abordagem de representação esparsa utilizando métodos de kernel. Este método utiliza o “empilhamento” de núcleos espaciais e espectrais, o que equivale a uma média ponderada das respectivas matrizes de núcleos. Banerjee et al. (2006) exploram representações de dados vectoriais lineares e de suporte de kernel (SVDD) para derivar um modelo de dados. Isto permite uma derivação semelhante a um detector RX, sem quaisquer suposições subjacentes sobre a distribuição.

Várias outras abordagens estão a ser utilizadas. Li e Du (2015) propõem uma abordagem colaborativa para a representação de píxeis onde os píxeis da janela exterior fornecem representação para o PUT. A regularização adequada é acrescentada para proporcionar estabilidade à solução. Várias extensões, incluindo uma estrutura de núcleo e RPCA, são também investigadas. O algoritmo resultante é simples de aplicar e pode ser visto como uma generalização da abordagem RX original. Ma et al. (2018) utilizam uma rede de crenças profunda para a reconstrução da área PUT. A abordagem de aprendizagem profunda tem o potencial de interiorizar a estrutura complexa de uma vizinhança hiper-espectral. Utiliza então vários cenários de anomalias presentes no PUT, o bairro, ambos, ou nenhum deles para formar uma função de decisão, de forma semelhante à de Li et al. (2015). Yuan et al. (2016) começam a partir de uma incorporação linear local, que é uma representação de dados local baseada nos pixéis vizinhos. O erro de representação permite a pesagem de diferentes vizinhos no gráfico de vizinhança. O pós-processamento do gráfico é utilizado para isolar os pixels anómalos. Zheng et al. (2016) constrói um modelo de ruído baseado na representação do modelo de mistura linear. São propostos vários detectores, que combinam a análise do coeficiente de abundância com testes de hipóteses.

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *