
En septiembre del año anterior, figuras destacadas como Elon Musk, Mark Zuckerberg y Sam Altman, este último director ejecutivo de OpenAI, se dieron cita en Washington D.C. para discutir dos temas cruciales: cómo el sector público y privado pueden colaborar en el uso beneficioso de la Inteligencia Artificial (IA), y cómo afrontar los desafíos en torno a su regulación, un asunto siempre presente en el debate sobre esta tecnología.
Estas discusiones frecuentemente nos llevan al mismo punto de análisis, surgiendo preguntas como si es posible hacer que la IA actúe de manera más ética, como si se tratara de un ser humano cuya moral está en entredicho. Pero, ¿realmente podemos hablar de una IA ética? DeepMind, un laboratorio de investigación perteneciente a Google que se centra en IA, presentó un estudio con un esquema tripartito para evaluar los riesgos, incluyendo los éticos y sociales, concluyendo que el contexto es fundamental para determinar si un sistema de IA es seguro.
Un ejemplo de sistema criticado por su sesgo es ChatGPT, vetado en más de 15 países, aunque algunas prohibiciones fueron revocadas. A pesar de sus más de 100 millones de usuarios, se le ha acusado de favorecer ciertas parcialidades. Basándonos en el estudio de DeepMind, el contexto es crucial para identificar prejuicios en el contenido generado por estos modelos.
Estos sesgos pueden ser dañinos para la propia IA, limitando el aprovechamiento pleno de su potencial. Un estudio de la Universidad de Stanford sugiere que modelos como ChatGPT muestran deficiencias en su capacidad para entregar respuestas fiables y sin prejuicios, lo que representa un obstáculo para la utilización efectiva de la IA.
Causas del sesgo en la Inteligencia Artificial
Identificar la primera causa del sesgo es sencillo. Los datos con los que se alimenta el modelo suelen contener estereotipos y prejuicios que inadvertidamente la IA perpetúa. Pero la segunda causa es más compleja y contradictoria, cuestionando incluso los esfuerzos por hacer a la IA «ética» y segura.
Cuando imponemos restricciones a la IA, incluso justificables, limitamos su capacidad de aprendizaje de un espectro más amplio de datos, frenando su potencial para brindar información valiosa en escenarios no perjudiciales. Estas limitaciones también están sesgadas por su origen humano, precisamente lo que queremos corregir.
Incapacidad para predecir las consecuencias en los modelos de lenguaje grande (LLM)
Al introducir restricciones en sistemas complejos, corremos el riesgo de incentivar comportamientos o sesgos imprevistos, ya que los modelos de IA son sistemas complejos con múltiples parámetros, y alterar uno puede causar un efecto dominó impredecible en todo el modelo.
Dificultad para evaluar la «ética» de la IA
Es complicado establecer si la IA es ética porque no tiene intenciones, ni una brújula moral. Lo que importa es el uso que nosotros, seres humanos, hacemos de ella. Aspirar a que la IA cumpla con una ética es obviar la subjetividad humana detrás de estas máquinas.
Soluciones ante el desafío ético de la Inteligencia Artificial
Restringir la IA no es una solución efectiva y podría ser parte del problema. La clave está en la transparencia. Un modelo de código abierto promovería mejores LLM y permitiría abordar las preocupaciones éticas de manera cooperativa.
El Índice de transparencia del modelo de referencia, iniciativa de Stanford HAI, evalúa la apertura de los desarrolladores de IA. No obstante, los resultados bajos revelan que hay mucho por mejorar en este aspecto.
La IA es más efectiva cuando los modelos son abiertos y experimentales, permitiendo innovaciones en diferentes campos científicos. Pero sin transparencia, nos será difícil crear modelos que beneficien genuinamente a la humanidad y entender los daños potenciales si no se manejan adecuadamente.
LEE MÁS ARTÍCULOS SOBRE: Noticias de IA.
LEE LA ENTRADA ANTERIOR: Metaphor.