Saltar al contenido

Aprender a olvidar: un arma en el arsenal contra la IA perjudicial

14/11/2023

En medio de la fiebre de la Cumbre de Inteligencia Artificial, surge un enfoque clave para abordar riesgos: el «Desaprendizaje de Máquinas«. Este innovador campo, encabezado por expertos de la Universidad de Warwick y Google DeepMind, busca que las redes neuronales profundas (DNNs), como ChatGPT, olviden datos perjudiciales. La eficiencia de este proceso promete eliminar datos sesgados, anotaciones erróneas y violaciones de privacidad de manera rápida y económica. Este avance, detallado en «Hacia el Desaprendizaje Ilimitado de Máquinas», marca un hito crucial en la mitigación de los riesgos inherentes a la inteligencia artificial.

Desafiando sesgos: La Revolución del ‘Olvido de Máquinas’ en la IA

Aprendizaje automático e IA


Con la Cumbre de Inteligencia Artificial en pleno desarrollo, los investigadores están ansiosos por abordar el problema muy real asociado con esta tecnología: enseñarle cómo olvidar.

Error 403 The request cannot be completed because you have exceeded your quota. : quotaExceeded

La sociedad está sumida en el bullicio de la inteligencia artificial moderna y sus capacidades excepcionales; constantemente nos recuerdan sus beneficios potenciales, abarcando prácticamente todos los aspectos de nuestras vidas, pero también sus peligros.

En un campo emergente de investigación, los científicos destacan una herramienta importante en nuestra lucha para mitigar los riesgos de la inteligencia artificial: el «olvido de máquinas». Están trabajando en nuevas formas de hacer que los modelos de inteligencia artificial conocidos como redes neuronales profundas (DNNs) olviden datos que representan un riesgo para la sociedad.

El problema radica en que volver a entrenar programas de inteligencia artificial para «olvidar» datos es una tarea costosa y ardua. Las DNN modernas, como las basadas en «Grandes Modelos de Lenguaje» (como ChatGPT, Bard, etc.), requieren recursos masivos para ser entrenadas y tardan semanas o meses en hacerlo. También necesitan decenas de gigavatios-hora de energía para cada programa de entrenamiento, algunos estudios estiman tanto energía como para alimentar miles de hogares durante un año.

El «olvido de máquinas» es un campo de investigación en crecimiento que podría eliminar rápidamente, de manera económica y con menos recursos, los datos problemáticos de las DNNs. El objetivo es lograrlo manteniendo una alta precisión. Expertos en ciencias de la computación de la Universidad de Warwick, en colaboración con Google DeepMind, lideran esta investigación.

Energía Eficiente: Científicos Lideran la Carga en Desaprendizaje AI

El profesor Peter Triantafillou, del Departamento de Ciencias de la Computación de la Universidad de Warwick, coescribió recientemente una publicación llamada «Hacia el Desaprendizaje Ilimitado de Máquinas», que aparece en el servidor de preimpresiones arXiv. Él afirmó: «Las DNN son estructuras extremadamente complejas, compuestas por hasta billones de parámetros. A menudo, carecemos de una comprensión sólida de cómo y por qué logran sus objetivos. Dada su complejidad y el tamaño de los conjuntos de datos en los que se entrenan, las DNN pueden ser perjudiciales para la sociedad.

«Las DNN pueden ser perjudiciales, por ejemplo, al entrenarse con datos sesgados, propagando estereotipos negativos. Los datos pueden reflejar prejuicios existentes, estereotipos y suposiciones sociales erróneas, como el sesgo de que los médicos son hombres y las enfermeras mujeres, o incluso prejuicios raciales.

«Las DNN también pueden contener datos con ‘anotaciones erróneas’, como la etiquetación incorrecta de elementos, como etiquetar una imagen como deep fake o no.

«De manera alarmante, las DNN pueden entrenarse con datos que violan la privacidad de las personas. Esto supone un gran desafío para las megaempresas tecnológicas, con legislación significativa en vigor (por ejemplo, el Reglamento General de Protección de Datos) que busca salvaguardar el derecho al olvido, es decir, el derecho de cualquier individuo a solicitar que sus datos se eliminen de cualquier conjunto de datos y programa de inteligencia artificial.

Privacidad Protegida: Nueva Era en la Lucha contra Riesgos de la IA

«Nuestra investigación reciente ha derivado en un nuevo algoritmo de ‘olvido de máquinas’ que garantiza que las DNN puedan olvidar datos problemáticos sin comprometer el rendimiento general de la inteligencia artificial. El algoritmo se puede introducir en la DNN, haciendo que olvide específicamente los datos que necesitamos, sin tener que volver a entrenarla completamente desde cero. Es el único trabajo que diferencia las necesidades, requisitos y métricas de éxito entre los tres tipos diferentes de datos que deben olvidarse: sesgos, anotaciones erróneas y problemas de privacidad.

«El olvido de máquinas es un campo emocionante de investigación que puede ser una herramienta importante para mitigar los riesgos de la inteligencia artificial.»

Proporcionado por la Universidad de Warwick

LEE MÁS ARTÍCULOS SOBRE: Ciencia de Datos con IA.

LEE LA ENTRADA ANTERIOR: Google comunica el funcionamiento del modelo de IA de mayor precisión de su APP predicción del tiempo.