Inteligencia Artificial: ¿Replicando el pensamiento humano?
El pensamiento analógico ha sido largamente reconocido como un aspecto distintivo de la cognición humana, atribuido únicamente a nosotros por nuestra capacidad de solucionar problemas nunca antes encontrados, dibujando paralelismos con situaciones ya conocidas. No obstante, un reciente e innovador estudio realizado por psicólogos de la UCLA ha arrojado resultados que podrían inducirnos a reevaluar esta idea.
GPT-3: ¿Una inteligencia a la altura de la humana?
El estudio realizado por los investigadores de la UCLA ha revelado que GPT-3, un innovador modelo de lenguaje de Inteligencia Artificial, desarrollado por OpenAI, muestra habilidades de razonamiento que rivalizan con las de estudiantes universitarios, particularmente cuando se les asigna la tarea de resolver problemas similares a los encontrados en exámenes estandarizados como el SAT o en pruebas de inteligencia. Esta sorprendente conclusión, publicada en la revista Nature Human Behaviour, nos enfrenta a una interrogante fascinante: ¿logra GPT-3 emular el razonamiento humano gracias a su extenso set de datos de entrenamiento lingüístico o, quizá, esta IA está llegando a adquirir un tipo de cognición totalmente nueva?
Los detalles precisos sobre cómo funciona GPT-3 han sido cuidadosamente resguardados por OpenAI, dejando a los investigadores de la UCLA y al mundo entero en vilo respecto al mecanismo que impulsa estas habilidades de razonamiento analítico. Mientras que GPT-3 ha demostrado ser excepcionalmente capaz en ciertos retos de razonamiento, no está exento de deficiencias. Taylor Webb, el principal autor del estudio e investigador postdoctoral en la UCLA, destacó: “Aunque nuestros descubrimientos son notables, es crucial recalcar que este sistema tiene limitaciones importantes. Aunque GPT-3 logra efectuar razonamiento analógico, le cuesta mucho resolver tareas que resultan triviales para los humanos, como el uso de herramientas para una tarea física”.
GPT-3 enfrentando desafíos inéditos
Las capacidades de GPT-3 fueron rigurosamente probadas utilizando problemas inspirados en matrices progresivas de Raven, un tipo de prueba que implica secuencias de formas complejas. Mediante la conversión de imágenes a un formato de texto que la IA pudiera interpretar, Webb garantizó que estos problemas fuesen totalmente nuevos para GPT-3. Al comparar los resultados de GPT-3 con los de 40 estudiantes universitarios de la UCLA, no solo se encontró que la IA logró igualar la efectividad humana, sino que también reprodujo los errores cometidos por los humanos. La IA fue capaz de resolver correctamente el 80% de los problemas, superando así el promedio humano pero aún dentro del rango de los mejores resultados humanos.
Siguiendo con las pruebas, el equipo de la UCLA puso a GPT-3 ante preguntas de analogías del SAT aún no publicadas, logrando superar el promedio de respuesta humana. No obstante, la IA tuvo un desempeño ligeramente peor al intentar establecer analogías con relatos cortos, aunque se vieron mejoras en el desempeño del modelo más reciente, GPT-4.
Acortando distancias entre Inteligencia Artificial y cognición humana
Los investigadores de la UCLA no se limitaron a simples comparativas. Están actualmente en el proceso de crear un modelo informático inspirado en la cognición humana, comparando continuamente sus habilidades con las de modelos de IA comerciales existentes. Keith Holyoak, profesor de psicología y coautor del estudio en la UCLA, apuntó: «Nuestro modelo de IA psicológica superó a todos los demás en problemas de analogía hasta que llegó la última actualización de GPT-3, que demostró habilidades superiores o al menos iguales a las nuestras».
De todas formas, el equipo identificó ciertos campos en los que GPT-3 aún tiene mucho por mejorar, específicamente en tareas que requieren una comprensión del espacio físico. Dentro de las tareas relacionadas al uso de herramientas, las soluciones propuestas por la IA estuvieron favorecidamente erradas.
En sintonía con estos hallazgos, Hongjing Lu, principal autor del estudio, expresó su asombro frente a los avances tecnológicos en la capacidad de razonamiento de la IA en tan solo dos años. Sin embargo, sigue en pie la pregunta de si estos modelos de realidad «piensan» como humanos o simplemente simulan el pensamiento humano. La búsqueda sobre los procesos cognitivos de la IA requiere acceso a la arquitectura interna de estos modelos, un avance que podría influir en el desarrollo futuro de la IA.
En palabras de Webb, “El acceso a la arquitectura interna de los modelos GPT beneficiaría enormemente a los investigadores de cognición e inteligencia artificial. Ahora mismo estamos limitados a entradas y salidas, y carecemos del nivel de profundidad que ambicionamos alcanzar”.
LEE MÁS ARTÍCULOS SOBRE: Salud con IA.
LEE LA ENTRADA ANTERIOR: Detrás de escena del primer servicio de transporte comercial completamente autónomo de Europa.