Un grupo de científicos pertenecientes al Laboratorio Nacional de Los Álamos, ha generado una estrategia distinta para comparar redes neuronales. Este enfoque innovador, planteado por el conjunto de expertos, permite explorar en el «corazón» de la inteligencia artificial (IA) y logra entender de forma más completa, el comportamiento de estas redes neuronales. Dichas redes, que se encargan del reconocimiento de patrones en bases de datos, son utilizadas en multitud de aplicaciones, incluyendo los sistemas de identificación facial y los automóviles autónomos.
El grupo de investigadores anunció los resultados de su trabajo, «Si has entrenado a uno de ellos, los has entrenado todos: la similitud entre arquitecturas incrementa con la robustez» durante la Conferencia sobre Indecisión en Inteligencia Artificial.
Haydn Jones, líder de la avanzada Investigación en Sistemas Cibernéticos de Los Alamos, es el autor principal del estudio.
Entender a mayor profundidad las redes neuronales
“La comunidad de investigación en inteligencia artificial no necesariamente entiende de manera completa lo que hacen las redes neuronales. Estas nos ofrecen excelentes resultados, pero aún no sabemos el cómo o el por qué”, afirmó Jones. “Nuestro nuevo enfoque tiene un mejor desempeño al comparar redes neuronales, siendo eso un avance significativo hacia la mayor comprensión de las matemáticas tras la IA.
El avance en la investigación coadyuvará a la mejor comprensión del comportamiento de redes neuronales robustas.
A pesar de que las redes neuronales despliegan un rendimiento significativamente bueno, también son frágiles. Cambios minúsculos en las circunstancias, como una señal de stop parcialmente cubierta que un auto autónomo está tratando de procesar, pueden llevar a la red neuronal a identificar erróneamente la señal, por lo que puede no detenerse, lo cual representa un peligro.
Entrenamiento adversario en redes neuronales
Los científicos han buscado mejoras en este tipo de redes neuronales, tratando de encontrar formas de robustecer la red neuronal. Un enfoque incluye «atacar» las redes durante su periodo de entrenamiento, introduciendo de manera deliberada irregularidades mientras se está entrenando a la IA para ignorarlas. Este proceso, conocido como entrenamiento adversario, hace que las redes sean más difíciles de engañar.
El grupo aplicó esta novedosa métrica de similitud de redes a las redes neuronales entrenadas por adversario. Quedaron sorprendidos al descubrir que el entrenamiento con adversario genera que las redes neuronales del dominio de la visión por computadora converjan hacia representaciones de datos similares, sin importar la arquitectura de la red, según incrementa la magnitud del ataque.
«Encontramos que al entrenar nuestras redes neuronales para que sean fuertes contra ataques adversarios, comienzan a ejecutar tareas similares», mencionó Jones.
Esto no es la primera vez que los expertos buscan la mejor arquitectura para las redes neuronales. Pero los recientes descubrimientos apuntan a que la implementación del entrenamiento adversario acorta considerablemente la brecha, lo que implica que el grupo de investigación de IA puede no necesitar explorar tantas nuevas arquitecturas, ya que se sabe que el entrenamiento adversario hace que diversas arquitecturas converjan hacia soluciones similares.
«Al encontrar que las redes neuronales robustas presentan similitudes entre sí, estamos facilitando la comprensión de cómo podría funcionar realmente una IA robusta», exclamó Jones. «Incluso podríamos descubrir indicios sobre cómo se lleva a cabo la percepción en humanos y otros animales».
LEE MÁS ARTÍCULOS SOBRE: Salud con IA.
LEE LA ENTRADA ANTERIOR: Cómo la IA, el Internet de las Cosas y la Nube están mejorando la seguridad de los conductores de flotas de vehículos hoy en día.