Agentes Virtuales en Dispositivos Móviles
Virtual Agents on Mobile Devices
Agentes virtuais em dispositivos móveis
Wilson Eduardo Guaman - Carrazco I
https://orcid.org/0000-0002-8931-8781
Paulina Fernanda Mora- PiñaII
https://orcid.org/0000-0003-4736-8796
Paulina Sofía Valle-Oñate III
https://orcid.org/0000-0002-32533798
Galo Iván Vilcacundo-Reinoso IV
https://orcid.org/0000-000182109111
Correspondencia: wilson.guaman@espoch.edu.ec
Ciencias económicas y empresariales
Artículo de investigación
*Recibido: 20 de mayo de 2020 *Aceptado: 27 de junio de 2020 * Publicado: 15 de agosto de 2020
- Ingeniero en Sistemas Informáticos, Tecnólogo en Informática, Técnico Docente Escuela Superior Politécnica de Chimborazo, Riobamba, Ecuador.
- Magíster en Informática Educativa, Ingeniera en Sistemas Informáticos, Técnico Docente Escuela Superior Politécnica de Chimborazo, Riobamba, Ecuador.
- Docente de la Universidad Estatal de Bolívar, Guaranda, Ecuador
- Ingeniera en Sistemas Informáticos. Técnico Docente Escuela Superior Politécnica de Chimborazo, Riobamba, Ecuador.
Resumen
El incremento en las capacidades computacionales en los dispositivos móviles, ha despertado el interés de empresas e investigadores, en el desarrollo de Agentes Virtuales, que puedan ejecutarse sobre estos dispositivos. Este trabajo presenta el estado del arte, en lo referente al desarrollo de agentes virtuales sobre dispositivos móviles, nos permitirá ponernos en contexto sobre algunas plataformas que soportan su desarrollo y la arquitectura con la que se implementan, además de contextualizar las características y canales de comunicación utilizados para lograr que la interacción de un agente con el usuario sea la más real posible.
Palabras claves: Agentes virtuales; interacción persona ordenador; computación gráfica; comunicación multimodal.
The increase in the computational capacities in mobile devices has awakened the interest of companies and researchers in the development of Virtual Agents that can be executed on these devices. This work presents the state of the art, regarding the development of Virtual Agents on mobile devices, will allow us to put ourselves in context on some platforms that support their development and the architecture with which they are implemented, as well as contextualize the characteristics and communication channels used to make the interaction of an agent with the user as real as possible.
Keywords: Virtual agents; person computer interaction; computer graphics; multimodal communication.
Resumo
O aumento das capacidades computacionais nos dispositivos móveis despertou o interesse das empresas e investigadores no desenvolvimento de Agentes Virtuais que podem ser executados nestes dispositivos. Este trabalho apresenta o estado da arte, relativamente ao desenvolvimento de Agentes Virtuais em dispositivos móveis, permitir-nos-á contextualizar algumas plataformas que suportam o seu desenvolvimento e a arquitectura com que são implementados, bem como contextualizar as características e canais de comunicação utilizados para tornar a interacção de um agente com o utilizador tão real quanto possível.
Palavras-chave: Agentes virtuais; interação pessoa-computador; gráficos de computador; comunicação multimodal.
Introducción
Los continuos y rápidos avances tecnológicos, en el campo de dispositivos móviles han dado lugar a la aparición de nuevos y distintos terminales como Smartphones y Tablets con capacidades funcionales y desempeño, que eran impensables hasta hace algunos años. Esto conduce a que las compañías tecnológicas busquen ofrecer a sus usuarios una mejor experiencia con los dispositivos, cada vez más personalizada y que permita interaccionar con el usuario de forma activa y natural.
Tanto la industria como algunos grupos de investigación, se encuentran buscando nuevas interfaces de comunicación hombre – máquina, que interaccionen con los usuarios a través de diversos canales de comunicación intuitivos, tales como: comandos de voz, pantallas táctiles, sensores de movimiento, etc. A la comunicación del usuario a través de diversos canales es lo que se le ha denominado como interacción multimodal.
Se debe tener en cuenta que la calidad de la interacción mejora y se vuelve natural dependiendo del número de canales de comunicación utilizados. Por lo tanto, para lograr un comportamiento realmente vivo se requiere que múltiples canales del agente estén reproduciéndose simultáneamente, y además que estos canales sean capaces de expresar emociones humanas.
Un agente virtual puede ser utilizado en distintos campos, por ejemplo se los encuentra en el automovilismo, en domótica, en el campo del entrenamiento, en donde se ha utilizado especialmente el canal de comunicación oral mediante el uso de comandos, un ejemplo real es Max un agente virtual 3d creado en el Departamento de Informática de La Universidad de Zaragoza, está clasificado dentro de la domótica permite la interacción natural mediante voz entre el usuario y el agente permitiéndole al usuario tener control sobre una habitación inteligente, que administra luces, cafetera, televisión (Cerezo et al., 2007).
Los dispositivos móviles actuales se caracterizan por permitir el control por voz de diferentes aplicaciones, como por ejemplo la búsqueda, mediante GPS, así como la posibilidad de recibir la respuesta mediante una voz sintética. La arquitectura usada es una arquitectura distribuida cliente – servidor en donde el terminal móvil hace la función del cliente, además podemos considerar, que la totalidad de los agentes virtuales carecen de una presencia física lo que hace que estos no llamen la atención del usuario.
Aunque en la actualidad la potencia computacional de los dispositivos ha evolucionado notablemente todavía existen dificultades y barreras que hacen que se siga utilizando la arquitectura cliente servidor, Sin embargo, existen algunos intentos por desarrollar un agente virtual que se ejecute totalmente dentro de un dispositivo móvil, algunos de estos ejemplos son los que se analizan a continuación.
Agentes virtuales sobre dispositivos móviles
Un agente virtual se trata de un personaje (Avatar) generado por un software que interacciona con el usuario a través de múltiples canales de comunicación. Estos pueden proporcionar información precisa, personalizada e interactiva a través de sitios web, teléfonos móviles, redes sociales, kioscos, aplicaciones de mensajería instantánea y hasta juegos online, es decir son utilizados en un sin número de campos de aplicación (AgentBot, 2015).
Desde hace años se han desarrollado trabajos sobre agentes virtuales para dispositivos móviles, sin embargo debido a las exigencias computacionales requeridas en los dispositivos para su ejecución, estos se han desarrollado típicamente sobre dispositivos de escritorio y utilizando una arquitectura distribuida de tipo cliente – servidor, en donde el dispositivo móvil realiza el papel de cliente y los módulos de ejecución de funciones del agente se los ejecuta sobre un servidor externo quien devuelve la respuesta hacia el dispositivo es decir las funcionalidades del agente son ejecutadas de forma remota.
Esto trae problemas e insatisfacción al usuario debido especialmente a depender de una conexión a internet para el funcionamiento del agente, con la limitante de ancho de banda y los respectivos problemas de latencia que esto puede provocar, ocasionando que la experiencia de interacción usuario – máquina no sea satisfactoria y caiga en el desinterés del usuario para utilizar estos agentes.
En la fig. 1. Se muestra una arquitectura general del funcionamiento de un agente virtual tradicional para dispositivos móviles de tipo distribuido cliente servidor.
Figura. 1: Arquitectura de funcionamiento de un Agente Virtual Tradicional sobre dispositivos móviles
Fuente: (Da Silva, 2013).
En la actualidad, algunos grupos de investigación, se encuentran interesados en desarrollar agentes virtuales que funcionen completamente sobre el dispositivo, es decir dotar al dispositivo de una arquitectura empotrada, con el fin de lograr la interacción más natural posible.
Los datos que se extraen de sus investigaciones dejan claro que incluso hoy en día, la potencia computacional de este tipo de sistemas todavía puede ser insuficiente. En algunos casos, la literatura plantea la necesidad de volver a delegar alguna de las tareas internas más complejas de los Agentes de nuevo en servidores externos, (típicamente el reconocimiento de la voz), pero manteniendo un porcentaje elevado del agente en el terminal cliente (motor de animación, síntesis de voz, etc.). Este tipo de arquitecturas semi distribuidas o mixtas reducen la necesidad de comunicación de datos a ráfagas intermitentes en vez de una conexión continua (Pérez, 2014). En la fig. 2. se muestra una arquitectura general del funcionamiento de un Agente virtual empotrado en el dispositivo.
Figura 2: Arquitectura de funcionamiento de un Agente Virtual General Empotrado sobre dispositivos móviles.
Fuente: Pérez, 2014
Un Agente virtual está formado por dos componentes independientes, pero estrechamente integrados, que rara vez se pueden separar: la interfaz de usuario o aspecto y la base de conocimientos o inteligencia. La apariencia visual de los asistentes virtuales puede ir desde una foto hasta una imagen 3D con emociones, pero siempre requiere de un motor de diálogo inteligente y una base de conocimientos bien estructurada y amplia para poderse convertir en una herramienta eficaz de autoservicio que aumente la productividad.
Aunque los ámbitos de aplicación de los agentes virtuales desarrollados para ejecutarse sobre un dispositivo móvil pueden ser muy variados se pueden resaltar las siguientes características comunes que tienen estos agentes:
Personaje.- Uno de los aspectos más importantes que caracteriza a un agente virtual, es la dotación de una representación física virtual, una encarnación del agente, que puede consistir en simples caras animadas que hablan, pero si estamos hablando de interacción real estarán representadas por representaciones 3D de cara y cuerpo que incluyan, variaciones gestuales, sincronización labial, etc.
Animación.- Con el objetivo de dotar de mayor realismo a los agentes virtuales, todos ellos deberían incorporar una serie de animaciones que les permita actuar y reaccionar de forma similar al comportamiento humano. Dichas animaciones ya sean faciales, corporales o mistas, deben ser definidas por el desarrollador, es decir al personaje se le dotaría de personalidad y/o emociones dentro de la comunicación.
Interacción. Una de las características más importantes es que deben ser capaces de interactuar con los usuarios a través de distintos canales de comunicación, como: escrito, oral y visual, siendo motivo de investigación las formas como incluir emociones dentro de estos canales (Barriendos, 2014) A continuación describiremos de manera general las características de los diferentes canales de comunicación entre usuario y agente virtual.
Interacción Multimodal Usuario – Agente Virtual.
La interacción inteligente humano-computadora es un campo de investigación en desarrollo que tiene por objetivo proveer al hombre de vías naturales de comunicación con una computadora o en nuestro caso con un dispositivo móvil, a modo de convertirlas en herramientas de ayuda. El supuesto colectivo establece que para que un dispositivo sea capaz de interactuar con un humano este debe tener las capacidades de comunicación de los humanos (Jacko, 2009) (Lew et al., 2007).
En función a lo anteriormente expresado, un personaje virtual como interfaz de interacción deberá incluir el uso de diferentes canales de comunicación, verbales y no verbales, capaces de provocar una sensación de entidad viva.
De acuerdo al enfoque y complejidad del comportamiento implementado en un personaje, se pueden definir las siguientes líneas de investigación (Wilson, 2004):
Modalidad Sonora. Comunicación oral, implica la simulación por computadora de la capacidad inherente en los humanos de escuchar y hablar, en términos computacionales significa capturar y comprender la voz hablada del usuario. El proceso de comprensión involucra procesar el significado de lo hablado y generar una respuesta interna, lo cual, dependiendo del grado de coherencia y complejidad deseada puede incluir desde complejos algoritmos de Inteligencia Artificial hasta Búsqueda Semántica. Posteriormente la respuesta interna debe ser expresada mediante el lenguaje hablado realizando la correspondiente síntesis de voz por computadora (Pasinetti et al., 2015).
Modalidad Gestual. Se refiere a la comunicación Visual. Dentro de la comunicación no verbal, los gestos realizados por distintas partes del cuerpo humano, así como también del cuerpo completo son una herramienta natural que forma parte del ser humano. El desarrollo de interfaces basadas en gestos es otro medio de comunicación humano- computadora. Dichas interfaces podrían solucionar y dar soporte a problemas de distintas índoles, que van desde la in- perpetración de lengua de señas, control de drones mediante un protocolo gesticular, hasta la asistencia en entrenamientos físicos y atención médica (Erazo & Pico, 2014).
Modalidad Escrita. Se encarga de gestionar la interacción con el usuario a través del canal escrito. Se necesita de un módulo de lectura cuya función es trasladar los mensajes del área de texto, escritos por el usuario a través de un teclado a un gestor de dialogo, además supone un módulo de escritura, encargado de mostrar al usuario las respuestas generadas en el gestor de diálogo.
El reflejo de emociones en este canal no ha tenido significativa atención dentro de las plataformas de desarrollo, uno de los trabajos realizados intenta expresar emociones a través de la implementación de colores en la visualización del texto.
La fig. 3 muestra los colores adoptados para la representación de cada estado de ánimo (Barriendos, 2014).
Figura 3: Colores utilizados para representar emociones a través del canal escrit.
Fuente: (Barriendos, 2014).
Plataformas de desarrollo de agentes virtuales para dispositivos móviles
El desarrollo de las capacidades de los dispositivos móviles especialmente en lo que se refiere a capacidad de procesamiento y memoria han dado lugar a que algunos investigadores empiecen a interesarse en el desarrollo de agentes virtuales con una arquitectura empotrada, y otros que estaban desarrollados en una versión de escritorio - servidor intenten adecuarse a una versión para dispositivo móvil, sin embargo aún falta sortear algunos obstáculos, como la dependencia a una conexión de datos, el alto consumo de batería, la falta de realismo entre otros, lo que ha provocado que estos agentes no sean utilizados comercialmente, y se siga buscando alternativas de implementación que atraigan al usuario. A continuación, se hace referencia de algunas de las plataformas creadas por ciertos investigadores para el desarrollo de estos Agentes virtuales sobre dispositivos móviles.
Huijie Lin [Móvil TalkingAvatar3D 2013]. Estos investigadores deciden implementar su plataforma TalkingAvatar3D para desarrollo de agentes de arquitectura cliente–servidor y diseñada para pc a su versión de arquitectura empotrada en móviles Android, denominada Móvil TalkingAvatar3D.
Se ha centralizado todos los módulos necesarios para la aplicación dentro del dispositivo móvil para que sea independiente de la red. El sistema Android ofrece el Kit de desarrollo de software (SDK) con variedad de APIs que son necesarios para el desarrollo de aplicaciones para Android en Java, incluyendo procesamiento de gráficos, multimedia, etc. Es así que se ha implementado la interfaz de usuario de TalkingAndroid en Java utilizando el SDK de Android.
También se ha combinado la API de detección de multi-touch y Google API de reconocimiento de voz para interactuar con los módulos subyacentes de la prestación de animación facial para lograr la interacción multimodal. Los canales de comunicación soportados por esta plataforma son el Oral, Visual y Textual.
Los resultados de esta implementación, refuerzan la ventaja de la arquitectura empotrada. Estiman que el acceso desde un terminal móvil a un agente ejecutado en un servidor supone 3 veces más consumo de energía y el doble de tiempo de respuesta que su equivalente empotrado en el dispositivo. Además de validar la portabilidad de los Agentes Virtuales a sistemas empotrados, estos estudios también identifican las dificultades que supone esta adaptación.
Consiguen un agente conversacional 3D completo y funcional, aunque sea a costa de renunciar a cierta flexibilidad y funcionalidades. Deciden usar la implementación del sistema de reconocimiento de voz de Android, lo que les impide ajustar el modelo de dicho sistema a un dominio de aplicación concreto. Además, su gestión de dialogo es un sencillo algoritmo de pattern-matching difuso, que carece de capacidad para manejar información de contexto o el historial de la conversación, por ejemplo (Lin et al., 2013).
Danihelka [3D Talking-Head Interface 2011]. Esta es una plataforma para la creación de personajes 3D que permiten una comunicación mediante el canal visual y oral, se convierte en una plataforma con arquitectura hibrida puesto que no consiguen ejecutar el reconocimiento de voz en el dispositivo móvil más que en escenarios extremadamente simples que no permiten una comunicación fluida con el agente (limitan el número máximo de palabras del reconocedor a 50). Además, también reconocen que no alcanzan el rendimiento mínimo necesario si se ejecutan simultáneamente el reconocimiento de voz y el renderizado gráfico del avatar (Danihelka et al., 2011).
Klaassen [Elckerlyc, 2012]. - Es una plataforma, basada en modelos, que sirve para la especificación y animación de agentes virtuales que soporten una interacción multimodal en tiempo real. Su uso está centrado en dispositivos móviles como tablets y smartphones. Su diseño permite la interacción con el usuario a través de los canales Oral, Visual y Escrito, aunque uno de los contratiempos encontrados es que no logran resolver; el sistema de síntesis de voz por defecto de Android debido a que no ofrece la información necesaria para poder efectuar una sincronización labial correcta del avatar resolviendo este contratiempo utilizando este módulo mediante un servidor externo lo que la convertiría en una arquitectura de estilo mixta.
Santos Pérez [Proyecto AVATAR 2014]. - Implementa una plataforma de desarrollo de interfaces basadas en el uso de Agentes virtuales para Android en la Universidad de Málaga. La arquitectura de esta plataforma es totalmente empotrada sigue un diseño modular, donde cada componente se puede modificar sin afectar al resto, está diseñada para la utilización de los canales de comunicación Oral y Visual.
En la tabla 1 se muestra un resumen del uso de canales de comunicación por parte de algunos autores en sus trabajos de investigación, ha sido común encontrar la utilización de su personaje virtual en 3D y la utilización de los canales de comunicación oral y visual son los más utilizados.
Tabla 1: Arquitecturas para el desarrollo de Agentes Virtuales sobre Dispositivos Móviles
|
Erkerlic |
Avatar |
Talking Avatar 3D Movil |
3D TalkingHe ad Interface |
Autor |
Klassen |
Santos Pérez |
Huijie Lin |
Jiri Danihelka |
Personaje |
3D |
3D |
3D |
3D |
Arquitectura |
Mixta |
Empotrado |
Empotrado |
Híbrido |
Canales |
Oral Visual Escrito |
Oral Visual |
Oral Visual Escrito |
Oral Visual
|
Fuente: Autores
Ejemplos de Agentes Virtuales desarrollados para ejecutarse en dispositivos Móviles.
En este apartado se presentan algunos ejemplos de aplicaciones creadas con agentes virtuales sobre dispositivos móviles
The talkingandroid aplication
Es un agente conversacional implementado utilizando el api que ofrece Android una arquitectura totalmente empotrada y utiliza canales de comunicación de textos orales y visuales (Lin et al., 2013).
TalkingAndroid, permite algunas funciones con el fin de satisfacer las diversas necesidades con mayor desarrollo, como la lectura de un mensaje de texto o correo electrónico desde el teléfono, o la entrega de las últimas noticias o previsión del tiempo, etc. En la fig. 4 se presenta las imágenes de dos de los rostros de agentes utilizados por el autor.
Figura 4: The TalkingAndroid aplication.
Fuente: Talking android
Intérprete del lenguaje de signos
Esta es una aplicación de foro específico para personas con problemas auditivos, foro donde el agente virtual actúa como intérprete, transmitiendo mediante el lenguaje de signos los mensajes escritos por los usuarios. Este foro permite a cada uno de los usuarios componer de forma sencilla animaciones que expresen oraciones en lenguaje de signos.
Los usuarios únicamente deben escribir las oraciones utilizando la gramática propia de la lengua de signos, y el mismo sistema es el encargado de recuperar de la base de datos las animaciones correspondientes a cada una de las palabras de la oración. En caso de no encontrar una animación que corresponda con una de las palabras utilizadas por el usuario, el sistema permite que modele una nueva animación para dicha palabra a través del H-Animator.
De todos modos, para evitar que un solo usuario deba diseñar una gran cantidad de animaciones, MAge-AniM otorga a las comunidades del foro la posibilidad de compartir una base de datos de animaciones simples, reduciendo en gran medida el número de animaciones no disponibles. Además, se incorpora una función de deletreado dactilar en la que se muestra una palabra letra por letra a través de movimientos de dedos.
Esta función es de gran utilidad para expresar palabras no asociadas a signos como nombres propios. Por lo tanto, la aplicación del lenguaje de signos es capaz de recuperar o crear una animación para todas las palabras existentes en una oración, de forma que cualquier usuario pueda generar la animación que exprese su oración en el lenguaje de los signos.
Figura 5: Interprete de lenguaje de Signos.
Fuente: MAge-AniM
Guía de entrenamiento
Agente virtual que ayuda a los usuarios a realizar correctamente los ejercicios presentes en una determinada pista de fitness (Chittaro et al., 2006).
Una pista de fitness es una pista donde el usuario debe alternar la carrera continua con ejercicios estáticos. El usuario debe recorrer un circuito en el que se van alcanzando distintas estaciones de ejercicios.
En dichas estaciones el usuario encuentra un aparato o herramienta con el que realizar una serie de ejercicios específicos, los cuales se encuentran explicados en unas placas existentes en las propias estaciones. En general, estas placas son difíciles de entender para usuarios inexpertos, siendo conveniente en estos casos el uso de agentes virtuales que muestren de forma visual cómo debe ser realizado cada uno de los ejercicios de la estación. En la fig. 6 se muestra la imagen del agente guía de entrenamiento.
Figura 6: Guía de Entrenamiento.
Fuente: Chittaro et al., 2006
Presentador virtual
Otro ejemplo de sistema basado en agentes virtuales para dispositivos móviles es el de un Presentador virtual encargado de narrar los titulares de las noticias más importantes del momento al usuario. En este caso, la gestión del comportamiento del agente se lleva a cabo a través de una versión del Multimodal Presentation Markup Language específicamente diseñada para dispositivos móviles (Cerezo et al., 2007).
La aplicación consta de un analizador MPML, un controlador del agente virtual y un gestor de diálogo. El teléfono genera los datos MPML a partir de la información obtenida de un servidor remoto, el cual contiene las noticias más importantes del día y las va actualizando cada 30 minutos. Los títulos de estas noticas son reformateados en un documento de edición MPML, el cual contiene tanto el contenido como los controles del agente virtual.
La Fig. 7 muestra la reproducción de uno de estos documentos MPML sobre un teléfono móvil NTT Docomo Serie 540i.
Figura 7: Presentador Virtual.
Fuente: Cerezo et al., 2007
Agente conversacional
Un ejemplo de Agente virtual diseñado para trabajar en dispositivos móviles es el desarrollado en el seno del grupo de investigación GIGA de la Universidad de Zaragoza. En donde se ha desarrollado un Agente conversacional que interacciona con el usuario a través de los tres canales de comunicación el Oral, Visual y Textual, tiene la característica que es uno de los pocos trabajos que intentan representar emociones a través de todos sus canales.
La implementación del personaje virtual está basada en la plataforma Unity 3d y está dirigido a dispositivos tipo Android.
En la Fig. 8 observamos la imagen del personaje virtual creado para sistemas móviles en el grupo GIGA de la Universidad de Zaragoza.
Figura 8: Agente Conversacional.
Fuente: GIGA
En la Tabla 2 se presentan, en resumen, algunos trabajos desarrollados por investigadores sobre agentes virtuales para dispositivos móviles, los canales de interacción empleados y la existencia de la expresión de emociones dentro de los agentes. Cabe notar que uso de expresiones de emoción dentro de los agentes es poco desarrollado
Tabla 2: Arquitecturas para el desarrollo de Agentes Virtuales sobre Dispositivos Móviles
|
Canal Oral |
Canal visual |
Canal textual |
Expresión de Emociones |
TalkingAndroid |
x |
x |
x |
Canal visual |
Inter. Signos |
x |
|
|
No |
Asist. Fitnes |
|
x |
|
No |
Presentador |
x |
x |
|
Canal visual |
Agt. Conversacional |
x |
x |
x |
x |
Fuente: Autores
Conclusiones
Existen muchas aplicaciones de tipo asistente virtual dentro de empresas o instituciones que buscan ofrecer mejores servicios y satisfacción al cliente, no obstante, pese al gran desarrollo de la tecnología, estas aplicaciones se han limitado al uso de canales de comunicación textual y oral mediante la utilización de una arquitectura cliente servidor.
La complejidad en la implementación de aplicaciones con agentes virtuales, dependerá mucho de las funcionalidades que este pueda tener, mientras se requiera mayor realismo en la interacción con el agente se limitará la gama de dispositivos móviles que lo puedan implementar, tornándose la utilización y experiencia de interacción con un agente virtual en un privilegio de equipos móviles con gran capacidad computacional.
En la mayoría de aplicaciones y desarrollo de plataformas la implementación de emociones no es un tema que este muy desarrollado dentro de la modalidad de comunicación gestual se hace una breve intento por implementar las emociones mientras que en las modalidades textual y oral la utilización de emociones es casi nulo.
La complejidad a la hora de interpretar la forma como expresa el ser las emociones se ha convertido en un campo de investigación muy interesante, se debe considerar que no todos reaccionamos de la misma manera a un determinado estimulo, y ese análisis debe ser transmitido por un agente el cual deberá tener una fase de aprendizaje muy grande antes de poder acertar correctamente con las expresiones sobre emociones.
Para obtener un agente lo más cercano a la realidad es indispensable la colaboración entre diferentes campos de la informática, entre estos el de la inteligencia artificial, los gráficos por computador, computación afectiva entre otros en combinación con campos como el psicológico.
Referencias
1 Barriendos, J. (2014). Desarrollo de un Agente Virtual Multimodal para Dispositivos Móviles.
2 Cerezo, E., Baldassarri, S., Cuartero, E., Serón, F., Montoro, G., Haya, P. A., & Alamán, X. (2007). Agentes virtuales 3D para el control de entornos inteligentes dom{ó}ticos. Proceedings VIII Congreso Internacional de Interacci{ó}n Persona-Ordenador, 363–372.
3 Chittaro, L., Buttussi, F., & Nadalutti, D. (2006). MAge-AniM: A system for visual modeling of embodied agent animations and their replay on mobile devices. Proceedings of the Workshop on Advanced Visual Interfaces, 2006, 344–351. https://doi.org/10.1145/1133265.1133337
4 Da Silva, R. (2013). Utilização de Agentes Conversacionais em aplicações multimodais em plataformas móveis.
5 Danihelka, J., Hak, R., Kencl, L., & Zara, J. (2011). 3D talking-head interface to voice-interactive services on mobile phones. International Journal of Mobile Human Computer Interaction, 3(2), 50–64. https://doi.org/10.4018/jmhci.2011040104
6 Erazo, O., & Pico, R. (2014). Interfaces de usuario basadas en gestos manuales sin contacto para la sala de clases: una revisión bibliográfica. Enfoque UTE, 5(4), 34–53. https://doi.org/10.29019/enfoqueute.v5n4.46
7 Jacko, J. (2009). Human-Computer Interaction. Ambient, Ubiquitous and Intelligent Interaction: 13th International Conference.
8 Lew, M., Bakker, E. M., Sebe, N., & Huang, T. S. (2007). Human-computer intelligent interaction: A survey. Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 4796 LNCS, 1–5. https://doi.org/10.1007/978-3-540-75773-3_1
9 Lin, H., Jia, J., Wu, X., & Cai, L. (2013). TalkingAndroid: An interactive, multimodal and real-time talking avatar application on mobile phones. 2013 Asia-Pacific Signal and Information Processing Association Annual Summit and Conference, APSIPA 2013, 2–5. https://doi.org/10.1109/APSIPA.2013.6694211
10 Pasinetti, J., Alvarado, Y., Guerrero, R., & Fernández, J. (2015). Interacción humano-computadora, personajes virtuales. XVII Workshop de Investigadores en Ciencias de la Computación.
11 Pérez, M. (2014). Análisis y Optimización de Agentes Conversacionales 3D para Sistemas Empotrados.
12 Wilson, A. (2004). Sensor- and recognition- based input for interaction. En The Human Computer Interaction Handbook.
©2020 por los autores. Este artículo es de acceso abierto y distribuido según los términos y condiciones de la licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0) (https://creativecommons.org/licenses/by-nc-sa/4.0/).
Enlaces de Referencia
- Por el momento, no existen enlaces de referencia
Polo del Conocimiento
Revista Científico-Académica Multidisciplinaria
ISSN: 2550-682X
Casa Editora del Polo
Manta - Ecuador
Dirección: Ciudadela El Palmar, II Etapa, Manta - Manabí - Ecuador.
Código Postal: 130801
Teléfonos: 056051775/0991871420
Email: polodelconocimientorevista@gmail.com / director@polodelconocimiento.com
URL: https://www.polodelconocimiento.com/