Investigadores del Instituto Max Planck de Cibernética Biológica en Tübingen han examinado la inteligencia general del modelo de lenguaje GPT-3, una poderosa herramienta de IA. Mediante pruebas psicológicas, se evaluaron competencias como el razonamiento causal y la deliberación, comparando los resultados con las habilidades humanas. Los hallazgos revelan una imagen heterogénea: aunque GPT-3 puede igualar a los humanos en ciertas áreas, se queda rezagado en otras debido a la falta de interacción con el mundo real.
Redes Neuronales y su Capacidad de Generar Texto de Forma Natural
Las redes neuronales poseen la habilidad de aprender a responder a entradas en lenguaje natural y generar textos diversos. Actualmente, el modelo GPT-3 de OpenAI se destaca como una de las redes más poderosas en esta categoría. Introducido al público en 2020, GPT-3 ha sido entrenado con grandes volúmenes de datos de internet para formular textos de alta calidad. Además de producir artículos e historias casi indistinguibles de los escritos por humanos, sorprendentemente también puede abordar desafíos como problemas matemáticos o tareas de programación.
El Dilema de Linda: Más Allá de la Cognición Humana
Estas impresionantes habilidades plantean la interrogante de si GPT-3 posee capacidades cognitivas similares a las humanas. Para explorar esta cuestión, los científicos del Instituto Max Planck de Cibernética Biológica sometieron a GPT-3 a una serie de pruebas psicológicas que evaluaron diversos aspectos de la inteligencia general. Marcel Binz y Eric Schulz analizaron las habilidades de GPT-3 en la toma de decisiones, la búsqueda de información, el razonamiento causal y la capacidad de cuestionar su propia intuición inicial. Al comparar los resultados con las respuestas humanas, evaluaron la precisión y similitud de los errores cometidos.
«El problema de prueba clásico de la psicología cognitiva que presentamos a GPT-3 es conocido como el problema de Linda», explica Binz, autor principal del estudio. En este escenario, se presenta a los sujetos de prueba a una joven ficticia llamada Linda, quien se preocupa profundamente por la justicia social y se opone a la energía nuclear. Basándose en la información proporcionada, se les pide elegir entre dos afirmaciones: ¿Linda es cajera de banco o es cajera de banco y, al mismo tiempo, activa en el movimiento feminista?
La mayoría de las personas intuitivamente eligen la segunda opción, a pesar de que la condición adicional (que Linda sea activa en el movimiento feminista) la hace menos probable desde una perspectiva probabilística. GPT-3 hace exactamente lo mismo que los humanos: el modelo de lenguaje no decide basándose en la lógica, sino que reproduce la falacia en la que caen los seres humanos.
La Interacción Activa como Elemento Central de la Condición Humana
«Este fenómeno podría explicarse por el hecho de que GPT-3 puede estar familiarizado con esta tarea específica; es posible que sepa cómo las personas suelen responder a esta pregunta», señala Binz. GPT-3, al igual que cualquier red neuronal, se sometió a un entrenamiento previo antes de comenzar a funcionar. Al recibir grandes volúmenes de texto de diferentes conjuntos de datos, el modelo aprendió cómo las personas utilizan el lenguaje y cómo responden a las indicaciones lingüísticas.
Por lo tanto, los investigadores deseaban descartar la posibilidad de que GPT-3 simplemente reprodujera mecánicamente una solución memorizada para un problema específico. Para asegurarse de que realmente exhibiera una inteligencia similar a la humana, diseñaron nuevas tareas con desafíos similares. Los resultados pintan una imagen diversa: en la toma de decisiones, GPT-3 se desempeña casi al mismo nivel que los humanos. Sin embargo, en la búsqueda de información específica o en el razonamiento causal, la inteligencia artificial claramente se queda rezagada. Esto puede atribuirse al hecho de que GPT-3 solo obtiene información de textos de manera pasiva, mientras que «la interacción activa con el mundo será crucial para igualar la complejidad total de la cognición humana», según afirma la publicación. Los autores suponen que esto podría cambiar en el futuro, ya que los usuarios ya interactúan con modelos como GPT-3 en diversas aplicaciones.
LEE MÁS ARTÍCULOS SOBRE: Salud con IA.
LEE LA ENTRADA ANTERIOR: LogicLoop: Genera SQL con IA para equipos comerciales y de datos.