Metadatos indizados

El Agente Rainbow en pocas palabras: de RL a la combinación de mejora de DQN


 
Dublin Core Metadatos PKP Metadatos de este documento
 
1. Título Título del documento El Agente Rainbow en pocas palabras: de RL a la combinación de mejora de DQN
 
2. Creador/a Nombre de autor/a, afiliación, país Alex Eduardo Pozo Valdiviezo; Escuela Superior Politécnica de Chimborazo (ESPOCH); Ecuador
 
3. Materia Disciplina(s)
 
3. Materia Palabras clave Palabras clave: Agente Rainbow; Framework RL; Algoritmo Vanilla DQN.
 
4. Descripción Resumen

En este documento, nuestro objetivo es centrarnos en alguna noción básica sobre el Aprendizaje por Refuerzo particularmente el algoritmo Q-learning. Luego cruzaremos el marco de RL dentro de la tecnología Neural Network, ya que un entorno de estado fuerte como los videojuegos no se puede administrar dentro de una simple optimización de la tabla Q. Este proceso de acoplamiento les da nacimiento a la Deep-Q-Network (DQN) que son la primera etapa de la llamada "Inteligencia Artificial". Vamos a aprovechar el algoritmo Vanilla DQN como punto de referencia y presentaremos las mejoras DQN más famosas y las clasificaremos dentro de la mejora de pérdida de error TD o la mejora de arquitectura: Double Deep Q-Network, Dueling Network, Priority Experience Replay, RL distributional, Dueling Network, aprendizaje Multi-Step Q. Cómo podemos combinarlos genuinamente para superar todos los algoritmos de márgenes y nuestro benchmark Vanilla DQN, llamaremos a esta combinación inteligente de todas estas mejoras como el agente Rainbow. Analizaremos su rendimiento utilizando líneas de base y comprenderemos el peso efectivo de cada componente mediante el método de ablación. También se examinaría el establecimiento de la metodología de los hiperparámetros. Se daría un código y una aplicación para la mayoría de los métodos. Nuestro punto de partida es el artículo de Hessel, M., Modayil, J., Van Hasselt, H., Schaul, T., Ostrovski, G., Dabney, W., & Silver, D. (2018, April), del cual tomamos la iniciativa de enfatizar un poco este efecto de investigación ilustrando el uso extensivo del agente de Rainbow en la mayoría de los concursos de Game como Sonic podría testificar.

 
5. Editorial Institución/entidad organizadora, localización Polo del Conocimiento
 
6. Colaborador Patrocinadores
 
7. Fecha (YYYY-MM-DD) 2022-08-02
 
8. Tipo Estado & genero Artículo revisado por pares
 
8. Tipo Tipo
 
9. Formato Formato del archivo PDF, HTML
 
10. Identificador URI (Universal Resource Indicator) https://polodelconocimiento.com/ojs/index.php/es/article/view/4382
 
10. Identificador Digital Object Identifier (DOI) https://doi.org/10.23857/pc.v7i7.4382
 
11. Fuente documental Revista/título de la conferencia; vol, no. (año) Polo del Conocimiento; Vol 7, No 7 (2022): JULIO 2022
 
12. Idioma Inglés=en es
 
13. Relación Archivos Supp.
 
14. Cobertura Localización geo-espacial, periodo cronológico, muestra de la investigación (género, edad, etc.)
 
15. Derechos Copyright y permisos Copyright (c) 2022 Polo del Conocimiento