Defesa de Dissertação - Daniel Augusto Ramos Macedo Antunes de Souza

Título: Contributions on latent projections for Gaussian process modeling

Data: 09/09/2020

Horário: 10:00

Local: Videoconferência


Resumo:

Projetar dados num espaço latente é uma operação rotineira em aprendizado de máquina. Um dos incentivos para realizar tal transformação é a hipótese da variedade (manifoldhypothesis), que diz que a maioria dos dados amostrados de um processo empírico tendem a estar dentro de um espaço de dimensão menor. Já que essa representação menor não é visível no conjunto de dados, técnicas probabilísticas de aprendizado de máquina conseguem propagar as incertezas nos dados para a representação latente de forma acurada. Em particular, processos Gaussianos (GP) são uma família de métodos de kernel probabilísticos que foram aplicados com sucesso em tarefas de regressão e redução de dimensão. Contudo, no caso da redução de dimensão, inferência variacional determinística e eficiente só existe para um conjunto mínimo de kernels. Portanto, eu proponho o unscented Bayesian Gaussian process latent variable model (UGPLVM), um método de inferência alternativo para o Bayesian Gaussian process latent variable model que usa a transformação \textit{unscented} a fim de permitir o uso de kernels completamente arbitrários enquanto se mantem eficiente em amostragem. Para regressão com modelos GP, o deep Gaussian process (DGP) composicional é um modelo popular que utiliza transformações sucessivas entre espaços latentes para aliviar a dificuldade de escolher de um kernel. Contudo, essa não é a única construção possível para um DGP. Nessa dissertação, eu proponho outra construção para DGP onde cada camada controla a suavidade da próxima, ao invés de compor entradas com saídas diretamente. Esse modelo é chamado de deep Mahalanobis Gaussian process (DMGP), e ele é baseado em pesquisas anteriores sobre a integração de hiperparâmetros do kernel Mahalanobis e, então, incorpora a ideia de projeções localmente lineares. Ambas as propostas usam inferência variacional determinística mas ainda mantem os mesmos resultados e escabilidade que métodos não determinísticos em várias tarefas experimentais. Os experimentos para o UGPLVM cobrem tarefas de redução de dimensionalidade e simulação de sistemas dinâmicos com propagação de incerteza, e, para o DMGP, cobrem tarefas de regressão em conjuntos de dados sintéticos e empíricos.

 

Banca Examinadora:

- Prof. Dr. Amauri Holanda de Souza Junior (IFCE)

- Prof. Dr. João Paulo Pordeus Gomes (UFC - Orientador)

- Prof. Dr.César Lincoln Cavalcante Mattos (UFC - Coorientador)

- Prof. Dr. Felipe Tobar (UCHILE)

Última atualização (Ter, 01 de Setembro de 2020 11:47)