
Un grupo de científicos del Instituto Avanzado de Ciencia y Tecnología de Japón ha logrado unir señales biológicas a sistemas de aprendizaje automático con el fin de desarrollar una Inteligencia Artificial dotada de una notable «inteligencia emocional». Según los expertos, esta sofisticada forma de inteligencia emocional posibilitaría interacciones mucho más fluidas y naturales entre las máquinas y los humanos.
La investigación ha sido publicada recientemente en el prestigioso periódico científico
Transacciones IEEE sobre informática afectiva
.
La aspiración a alcanzar una inteligencia emocional superior
Las tecnologías que emplean el reconocimiento de voz y lenguaje, tales como Alexa y Siri, están en constante proceso de mejora. El siguiente paso evolutivo en su desarrollo seria la incorporación de una inteligencia emocional avanzada. Gracias a esta mejora, estos sistemas serían capaces no solo de identificar los estados emocionales del usuario, sino también de entender el lenguaje verbal de una forma mucho más comprensiva y de generar respuestas más empáticas y adecuadas.
El «análisis de sentimiento multimodal» es una serie de métodos que forman el estándar para los sistemas de diálogo por IA dotados de detección de sentimientos. Este grupo de procesos permite analizar automáticamente el estado emocional y psicológico de una persona a partir de su tono de voz, sus gestos faciales, el color de su voz y su postura corporal. Estos métodos son fundamentales para la construcción de una IA que trate a los seres humanos de una forma más cercana y humana y que asimismo podría conducir al desarrollo de una IA con «capacidades más allá de las humanas».
Análisis en profundidad de las señales emocionales no evidentes a simple vista
La mayoría de métodos de análisis se basan principalmente en información observable, dejando de lado aquellas señales no evidentes que podrían contener mucha información relevante. Entre estas señales se incluyen las señales fisiológicas, cuyo análisis podría proporcionar una gran cantidad de datos útiles para mejorar la precisión en la estimación del sentimiento.
Durante la investigación se incorporaron al análisis de sentimiento multimodal las señales fisiológicas por primera vez. La brillante mente detrás de esta novedosa incorporación fue el profesor asociado Shogo Okada del Instituto Avanzado de Ciencia y Tecnología de Japón (JSAIT) junto con el profesor Kazunori Komatani del Instituto de Investigación Científica e Industrial de la Universidad de Osaka.
«Los seres humanos somos muy buenos ocultando nuestras emociones», dice el Dr. Okada. «El estado emocional interno de una persona rara vez se refleja con exactitud en el contenido de un diálogo, por lo que, puesto que a una persona le resultaría difícil alterar de forma consciente sus señales biológicas, como la frecuencia cardíaca, podría resultar provechoso utilizarlas a la hora de calcular su estado emocional actual. Esto nos permitiría desarrollar una IA con habilidades de estimación de sentimientos más profundas y precisas incluso que las humanas”.
La investigación de este equipo se llevó a cabo analizando 2.468 interacciones de 26 usuarios diferentes con un sistema de diálogo por IA. Utilizando esta valiosa colección de datos, el grupo de investigadores pudo estimar el nivel de disfrute que experimentaba el usuario durante cada conversación.
Finalmente, se le pidió al usuario que valorara su experiencia durante la conversación, clasificándola desde entretenida hasta aburrida. Para este análisis, el equipo utilizó el set de datos de diálogos multimodal conocido como «Hazumi1911». Este set de datos unifica el reconocimiento de voz, los sensores de color de voz, la detección de postura y la de expresión facial con el potencial de la piel, que es una forma de detección de respuesta fisiológica.
«Al comparar todas las fuentes de información de forma separada, observamos que los datos fisiológicos eran más efectivos que los datos vocales y los datos relacionados con la expresión facial», continuó el Dr. Okada. «Cuando integramos la información lingüística con los datos fisiológicos para estimar el estado emocional autoevaluado durante la interacción con el sistema, observamos que el rendimiento de la IA llegaba al nivel humano».
Los hallazgos de este estudio indican que la detección de señales fisiológicas en humanos podría revolucionar la creación de sistemas de diálogo basados en IA altamente emocionales. Estos sistemas de Inteligencia Artificial podrían ser empleados para reconocer y monitorear trastornos y enfermedades mentales detectando cambios en el estado emocional diario. Otra posible aplicación sería en el campo de la educación, ya que podrían determinar el interés o desinterés que siente un alumno por un determinado tema, lo que permitiría adaptar las estrategias de enseñanza en función de su interés.
LEE MÁS ARTÍCULOS SOBRE: Noticias de IA.
LEE LA ENTRADA ANTERIOR: La radiología intervencionista está preparada para la disrupción de la IA, según líderes de opinión.