PROGRAMA DE PÓS-GRADUAÇÃO EM INFORMÁTICA (PPGI)
UNIVERSIDADE FEDERAL DA PARAÍBA
- Telefone/Ramal
-
Não informado
Notícias
Banca de DEFESA: CECILIA FLAVIA DA SILVA
Uma banca de DEFESA de MESTRADO foi cadastrada pelo programa.
DISCENTE: CECILIA FLAVIA DA SILVA
DATA: 31/07/2020
HORA: 17:00
LOCAL: meet.google.com/xmp-omst-zir
TÍTULO: Redes Residuais: Sobre Quantidade de Camadas e Variância Intraclasse Utilizando Aprendizagem Não Supervisionada
PALAVRAS-CHAVES: Deep Learning, Data Augmentation, Aprendizagem de Máquina Não Supervisionado, Variância Intraclasse.
PÁGINAS: 66
GRANDE ÁREA: Ciências Exatas e da Terra
ÁREA: Ciência da Computação
SUBÁREA: Metodologia e Técnicas da Computação
ESPECIALIDADE: Sistemas de Informação
RESUMO: Deep Learning é um termo que surgiu na literatura para, originalmente, definir abordagens de Redes Neurais Profundas (i.e. redes que possuem acima de duas camadas ocultas). A partir disso, diferentes arquiteturas de rede foram propostas na literatura e utilizadas como referência para diferentes aplicações, destacando-se redes como VGG-16, GoogLeNet e redes residuais (ResNets). Nesse contexto, redes residuais possuem uma topologia inspirada na VGG-16, utilizando assim pilhas de camadas convolucionais de filtros 3 x 3 e, como contribuição principal, formam blocos residuais por meio de shortcut connections, com o objetivo de reduzir problemas de degradação do modelo (i.e. aumento da taxa de erro do modelo conforme aumento de profundidade da rede). A partir disso, foram propostas ResNets de 20 até 1202 camadas, entretanto, a literatura não retrata um padrão de utilização desses modelos de acordo com um determinado contexto. Sendo assim, esse trabalho teve
como objetivo a realização de um estudo agnóstico, que analisa o desempenho de cinco redes residuais, assim como o custo computacional, para diferentes bases de dados. Ao todo, 15 bases de dados foram utilizadas e os modelos ResNet 20, 32, 44, 56 e 110 camadas foram treinados e avaliados para cada uma delas, sendo o desempenho dessas redes avaliado por meio da medida F1. Posteriormente, realizou-se um teste de significância, utilizando a distribuição t de Student, em que analisou-se a medida F1 de cada rede, para avaliar se houve melhoria significativa de desempenho
com o aumento de profundidade. Entretanto, os experimentos realizados indicaram que, apesar do aumento de custo computacional proporcional a profundidade, não houve melhoria de resultados. Além disso, analisou-se as características de variância intraclasse para cada classe das bases de dados desse estudo, utilizando o algoritmo de aprendizagem não supervisionada k-means, sendo os clusters formados por este algoritmo avaliados de acordo com o coeficiente de silhueta. Por meio dessa análise, percebeu-se que, dentre as classes com menor medida F1, para todas as redes avaliadas, pelo menos uma das classes retornou baixa diversidade, indicando-se assim, como solução, a melhoria de representatividade da base de dados ao invés do aumento de profundidade do modelo. Sendo assim, realizou-se treinamentos com a ResNet-20, tendo como diferencial a adição de diferentes técnicas de data augmentation, em que, para todas elas, o desempenho da rede ResNet-20 foi superior ao das demais redes previamente avaliadas. Dessa forma, por meio da análise, percebeu-se que o aumento de profundidade dessas redes resulta em alto custo computacional, sendo este também proporcional a quantidade de amostras na base de dados. Entretanto, este aumento não é proporcional a melhorias de resultados dos modelos de rede avaliados, resultando em medida F1 sem variações significativas, sendo a utilização de técnicas de data augmentation mais eficaz do que o aumento do número de camadas do modelo.
MEMBROS DA BANCA:
Presidente - 1743917 - THAIS GAUDENCIO DO REGO
Interno - 1167863 - LEONARDO VIDAL BATISTA
Externo ao Programa - 3089218 - TELMO DE MENEZES E SILVA FILHO
Externo ao Programa - 1827772 - YURI DE ALMEIDA MALHEIROS BARBOSA