Saltar al contenido

El equipo de investigación del MIT crea una red de inteligencia artificial resistente a ejemplos contradictorios.

29/12/2023
El Equipo De Investigacion Del Mit Crea Una Red De

Asegurando la resistencia al aprendizaje adversarial en Inteligencia Artificial: Desarrollo de un algoritmo avanzado por el equipo de investigación del MIT

Optimizando la IA para Ultra-Resistencia a Ejemplos Adversariales

Un destacado equipo del MIT ha producto de un sistema de aprendizaje profundo con el objeto de capacitar a las IA contra ejemplos adversariales, los cuales son capaces de perturbar la precisión predictiva de la IA y desviar su correcto funcionamiento. El algoritmo excepcionalmente diseñado por estos investigadores del MIT puede apoyar a los sistemas de Inteligencia Artificial en conservar su precisión y alejarse de errores engendrares por los datos confusos.

Desafiando las Ilusiones Óptimas de una IA

Los sistemas de Inteligencia Artificial trabajan analizando las propiedades de input de los eventos para determinar su respuesta adecuada. Por ejemplo, si la IA está a cargo de un vehículo autónomo, necesita tomar los datos procedentes de las cámaras del automóvil para tomar acciones basadas en dicha información. Pero, ¿qué pasa si la entrada de datos que analiza la IA no es una imagen precisa del mundo real? Los fallos del sistema de la cámara podrían alterar algunos de los pixeles, llevando a la IA a deducir conclusiones incorrectas sobre la acción apropiada a seguir.

Error 403 The request cannot be completed because you have exceeded your quota. : quotaExceeded

Las llamadas «entradas adversas» representan ilusiones ópticas para un sistema de IA. Estas entradas pueden ser diseñadas con el propósito de engañar a una IA y provocarla para que cometa errores, alterando el modo en que la IA interpreta el contenido de un ejemplo. Un equipo de investigación del MIT ha diseñado un algoritmo para protegerse contra estos engaños introduciendo un cierto grado de «escepticismo» en el modelo de Inteligencia Artificial sobre las entradas que recibe.

CARRL: Robustez Adversaria Certificada para el Aprendizaje por Refuerzo Profundo

Lo que los investigadores del MIT han denominado como «CARRL«, esta tecnología se compone de una red de aprendizaje por refuerzo combinada con una red neuronal profunda tradicional. Este modelo de aprendizaje por refuerzo se utiliza para capacitar a una red de aprendizaje profundo Q o DQN, que funcionan acoplándose con los sistemas de aprendizaje por refuerzo. CARRL funciona creando un modelo de una gama de posibles valores para los datos de entrada, que considera que la IA está tratando de rastrear la posición de un punto.

Implicaciones Reales: Aplicabilidad del Algoritmo en Situaciones de la Vida Real

Los investigadores del MIT han probado su algoritmo con la IA en un juego de Pong, bajo el influjo de ejemplos contradictorios y adversos. Fueron adelante para probar a CARRL en una tarea de prevención de accidentes, desarrollada en un ambiente virtual donde dos agentes tratan de cambiar su posición sin chocarse entre ellos. El equipo de investigación alteró la percepción del primer agente hacia el segundo y CARRL fue capaz de dirigir exitosamente al primer agente alrededor del agente antagonista, aún en condiciones de altas incertidumbres.

Además, en una cita realizada por el post doctorado en el Departamento de Aeronáutica y Astronáutica del MIT, Michael Everett, quien dirigió el estudio, explicó que la investigación podría tener implicaciones en la capacidad de los robots para manejar situaciones impredecibles. El objetivo es que un robot pueda anticiparse a todas las posibles acciones humanas adversarias y tratar de contrarrestarlas.

LEE MÁS ARTÍCULOS SOBRE: Salud con IA.

LEE LA ENTRADA ANTERIOR: El aumento debe ser priorizado por la IA en medicina: la otra 'A'.