
15th conferencia anual de Inteligencia Artificial en General (AGI-22), llevada a cabo en Seattle este pasado agosto.
Inteligencia Artificial General: Una visión futurista
Una AGI es una forma avanzada de IA que tiene la capacidad de generalizarse en diversos dominios y no está limitada en su alcance. Ejemplos de este tipo de IA limitada incluyen un vehículo autónomo, un chatbot, un robot de ajedrez o cualquier otra IA diseñada con un propósito único. Pero un AGI podría cambiar de forma flexible entre cualquiera de estos o cualquier otro campo de especialización. El AGI representa una forma de IA especulativa que haría uso de algoritmos emergentes como el aprendizaje por transferencia y el aprendizaje evolutivo, sin olvidar los algoritmos tradicionales como el aprendizaje por refuerzo profundo.
La opinión de los expertos en la Conferencia AGI-22
Ben Goertzel, investigador de IA, CEO y fundador de SingularidadNET y líder de la Fundación OpenCog, habló acerca de la coyuntura actual del sector en la sesión inaugural. En su discurso, parecía recibir con entusiasmo la dirección a futuro de AGI, al declarar que “estamos a años de distancia, no a décadas». Esto sugiere que podríamos presenciar el lanzamiento de un AGI en torno al 2029, coincidiendo con la predicción hecha por Ray Kurzweil, uno de los más prominentes inventores, pensadores y futuristas del mundo, acerca del surgimiento de una IA que alcanzaría la inteligencia humana.
Teoría de la superinteligencia y la perspectiva de los expertos
La teoría sostiene que una vez alcanzado este tipo de inteligencia, la IA iniciaría un ciclo de auto-mejora constante e inmediata para superar rápidamente a la inteligencia humana. Esta progresión se conoce como superinteligencia.
En este mismo evento, Charles J. Simon, fundador y director ejecutivo de
IA del futuro, destacó en otra conferencia que «la aparición de AGI será gradual» y aseguró que «AGI es inevitable y llegará antes de lo que la mayoría de la gente imagina; podría ser en tan solo un par de años».
A pesar del optimismo, existen desafíos formidables en este terreno. Ben Goertzel también reconoció que para conseguir AGI, necesitamos una infusión de nuevas ideas, y no solo mejoras en las redes neuronales. Gary Marcus, conocido por afirmar que «el aprendizaje profundo ha llegado a un punto muerto», comparte esta opinión.
Desafíos en el desarrollo de la Inteligencia Artificial General
Entre los desafíos principales para la creación de un AGI, se encuentra la necesidad de diseñar un sistema de recompensas que pueda escalar la inteligencia de manera apropiada. Esto se ve reflejado en la llamada paradoja de Moravec (Moravec’s paradox), que subraya la dificultad actual de alcanzar AGI con nuestra tecnología actual. Esta paradoja señala que ciertas habilidades intuitivas para un niño humano de un año, como aprender a caminar e imitar la realidad, son mucho más complicadas de programar en una IA que aquello que consideramos sofisticado para los humanos.
En cambio, para nosotros los humanos se cumple lo opuesto: dominar el ajedrez o realizar cálculos matemáticos avanzados puede requerir toda una vida para aprender, pero son tareas relativamente sencillas para las IA actuales.
Una posible solución a este enigma puede ser el enfoque del aprendizaje evolutivo, también conocido como algoritmos evolutivos. Fundamentalmente, esto permite a una IA buscar soluciones complejas imitando el proceso de evolución biológica.
En una sesión de preguntas y respuestas posterior, Ben Goertzel insistió en que «la AGI no es inevitable, pero es muy probable». Esta es la misma conclusión que he llegado a formular, aunque la distinción entre inevitabilidad y probabilidad puede ser bastante difusa.
Análisis y debates actuales sobre la AGI
Se presentaron muchos documentos destacables en la conferencia. Uno de ellos fue Funtores polinomiales: una teoría general de la interacción, discutido por David Spivak del Instituto Topos en Berkeley, CA y Nelson Niu de la Universidad de Washington en Seattle, WA. Este documento examina un concepto matemático denominado Poly que puede influir en la dirección futura de la IA en términos de su relación con los procesos dinámicos, la toma de decisiones y el almacenamiento y transformación de datos. Aunque aún no se sabe cómo repercutirá en la investigación de AGI, podría convertirse en uno de los elementos faltantes que nos acercarán a la AGI.
Por supuesto, había otros documentos más audaces en su especulación, como el Índice de Versatilidad-Eficiencia (VEI): Hacia una definición integral del coeficiente intelectual para los agentes AGI escrito por Mohammadreza Alidoust. La propuesta aquí es desarrollar una forma alternativa de medir el nivel de inteligencia de los sistemas inteligentes, esencialmente, un tipo de prueba de coeficiente intelectual para medir los agentes AGI de forma computacional.
Posibles adelantos en el campo de la AGI
Dos empresas que podrían hacer contribuciones significativas en este ámbito subyacente son OpenAI y DeepMind, las cuales estuvieron notoriamente ausentes en la conferencia. Podría ser que temen que la comunidad de IA no tome a AGI con la debida seriedad, sin embargo, son las dos compañías que tienen más posibilidades de lograr el primer gran avance en este campo. Esto tiene particular relevancia dado que la misión declarada de OpenAI es llevar a cabo una investigación fundamental a largo plazo para la creación de un AGI seguro.
Aunque no hubo grandes revelaciones revolucionarias en la conferencia, es evidente que la AGI está atrayendo la atención de muchos investigadores y es un área que la comunidad de IA debería considerar con más intensidad. Después de todo, una AGI puede ser la solución para sortear las múltiples amenazas existenciales para la humanidad.
LEE MÁS ARTÍCULOS SOBRE: Ciencia de Datos con IA.
LEE LA ENTRADA ANTERIOR: Cómo Integrar RapidMiner en Shopify.