Please use this identifier to cite or link to this item: http://repositoriosenaiba.fieb.org.br/handle/fieb/1187
Title: NEVOPT: desenvolvimento de um otimizador de hiperparâmetros baseado em algoritmos evolucionários para modelos de redes neurais artificiais
Other Titles: NEVOPT: development of a hyperparameter optimizer in artificial evolutionary model models
Authors: Reis Junior, Amilton Sales
metadata.dc.contributor.advisor: Nascimento, Erick Giovani Sperandio
metadata.dc.contributor.referees: Moreira, Davidson Martins
Silva Neto, Antônio José da
Keywords: Aprendizado profundo;Redes neurais;Algoritmos evolucionários;Otimização de hiperparâmetros
Issue Date: 7-Jul-2021
Publisher: Centro Universitário SENAI CIMATEC
Citation: REIS JUNIOR, Amilton Sales; NASCIMENTO, Erick Giovani Sperandio (orientador). NEVOPT: desenvolvimento de um otimizador de hiperparâmetros baseado em algoritmos evolucionários para modelos de redes neurais artificiais. Salvador, BA, 2021. 65 f. Dissertação (Mestrado em Modelagem Computacional e Tecnologia Industrial) - Centro Universitário SENAI CIMATEC, Salvador, 2021.
Abstract: O ajuste de hiperparâmetros é uma etapa fundamental durante o desenvolvimento de uma rede neural artificial (RNA). Um pesquisador que queira utilizar uma RNA em sua pesquisa, durante a criação de um modelo, geralmente passa considerável parte do tempo experimentando e buscando os melhores hiperparâmetros (quantidade de camadas, quantidade de neurônios por camada, função de ativação, taxa de aprendizado etc) para sua rede neural, o que pode implicar em um consumo de tempo considerável dedicado apenas a esta otimização durante a pesquisa. Algoritmos de busca como o Random Search ou Grid Search podem auxiliar esta tarefa, porém, ao passo que o Random Search depende do acaso para apresentar resultados ideais, o Grid Search torna-se, para muitos casos, inviável devido ao tempo de processamento gasto, dependendo do espaço de busca delimitado pelo pesquisador, o que consequentemente limita esta técnica, uma vez que é um algoritmo de força bruta. Alguns otimizadores de hiperparâmetros como o KerasTuner realizam a tarefa de buscar hiperparâmetros de maneira mais inteligente, porém ainda dependem que a arquitetura de redes neurais seja definida previamente pelo especialista. Assim posto, o presente trabalho tem como objetivo apresentar uma abordagem para um otimizador de hiperparâmetros para RNAs, especificamente Multi-layer Perceptron (MLP), Long-Short Term Memory (LSTM), Gated Recurrent Unit (GRU) e Convolutional Neural Networks (CNN), composto por um sistema integrado comparativo que contém os algoritmos evolucionários Artificial Immune Systems (AIS), Particle Swarm Optimization (PSO) e Genetic Algorithm (GA). O otimizador desenvolvido foi aplicado a conjuntos de dados de casos previamente publicados e a problemas amplamente conhecidos, visando avaliar sua capacidade de encontrar um conjunto otimizado de hiperparâmetros de forma automática. Para problemas de regressão, foram selecionados dois benchmarks. O primeiro consiste de um problema de previsão de velocidade do vento e o segundo se refere a um problema de previsão de níveis de ozônio troposférico. O otimizador também foi avaliado e aplicado ao problema amplamente conhecido de classificação de dígitos escritos a mão do Modified National Institute of Standards and Technology (MNIST) e ao problema de classificação de peças de roupa do fashionMNIST. Para esses problemas de regressão e classificação, foram encontrados melhores resultados quando comparados ao Random Search e melhores, ou equiparáveis, ao KerasTuner e aos encontrados na literatura.
Hyperparameter tuning is a fundamental step during the development of an artificial neural network (ANN). A researcher who wants to use an ANN in your research, during the creation of a model, usually spends considerable part of the time experimenting and looking for the best hyperparameters (number of layers, number of neurons per layer, activation function, learning rate, etc.) your neural network, which can imply a considerable time consumption dedicated just to this optimization during the search. Search algorithms like Random Search or Grid Search can help with this task, however, while Random Search depends on chance to deliver optimal results, Grid Search becomes, for many cases, unfeasible due to the processing time spent, depending on the search space delimited by the researcher, which consequently limits this technique, since it is a brute force algorithm. Some hyperparameter optimizers like KerasTuner perform the task of fetching hyperparameters more intelligently, but still depend that the architecture of neural networks is previously defined by the specialist. Thus, the present work aims to present an approach to a hyperparameter optimizer for ANNs, specifically Multi-layer Perceptron (MLP), Long-Short Term Memory (LSTM), Gated Recurrent Unit (GRU) and Convolutional Neural Networks (CNN), composed of an integrated comparative system that contains the evolutionary algorithms Artificial Immune Systems (AIS), Particle Swarm Optimization (PSO) and Genetic Algorithm (GA). The developed optimizer was applied to sets of data from previously published cases and widely known problems, with a view to evaluate its ability to find an optimized set of hyperparameters in a automatic. For regression problems, two benchmarks were selected. The first consists of a wind speed prediction problem and the second refers to a tropospheric ozone level prediction problem. The optimizer was also evaluated and applied to the well-known problem of sorting handwritten digits of the Modified National Institute of Standards and Technology (MNIST) and the problem of fashionMNIST clothing rating. For these regression problems and classification, better results were found when compared to Random Search and better, or comparable, to KerasTuner and those found in the literature.
URI: http://repositoriosenaiba.fieb.org.br/handle/fieb/1187
Appears in Collections:Dissertações de Mestrado (PPG MCTI)

Files in This Item:
There are no files associated with this item.


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.