Saltar al contenido

Nuevo dispositivo de neuronas artificiales que disminuye los requerimientos energéticos para los cálculos neuronales

29/12/2023
Un Nuevo Dispositivo De Neuronas Artificiales Podria Disminuir Significativamente Los

Científicos de la prestigiosa Universidad de San Diego han concebido un revolucionario dispositivo de neurona artificial innovadora capaz de realizar cálculos neuronales con una eficiencia energética y espacial entre 100 y 1.000 veces mayor que los actuales dispositivos basados en tecnología CMOS.

El reciente hallazgo fue divulgado el 18 de marzo en un estudio publicado en la prestigiosa revista Nanotecnología de la Naturaleza.

Error 403 The request cannot be completed because you have exceeded your quota. : quotaExceeded

Para alimentar una de las capas de neuronas artificiales enlazadas en el sistema de redes neuronales, es imperativo aplicar una función matemática denominada función de activación no lineal. No obstante, esta demandante aplicación consume una potencia de computación significativa y requiere de numerosos circuitos debido a la necesidad de transferir datos entre la memoria y el procesador externo.

Así, los brillantes investigadores de la UC San Diego diseñaron un sofisticado dispositivo de dimensiones nanométricas capaz de ejecutar esta función de activación con una eficiencia asombrosa.

Duygu Kuzum es profesor de ingeniería eléctrica e informática en la distinguida Escuela de Ingeniería Jacobs de UC San Diego.

«La computación de redes neuronales en hardware se está volviendo cada vez más ineficiente conforme los modelos de redes neuronales crecen en complejidad y dimensión», expresó Kuzum. «Por ello, hemos desarrollado un dispositivo único de neurona artificial a nanoescala que ejecuta estos cálculos en hardware de manera tremendamente eficiente, en términos de espacio y consumo energético».

La investigación fue liderada por Kuzum y el estudiante de doctorado Shangheon Oh, en colaboración con el profesor de física de la UC San Diego Ivan Schuller, quien dirige un Centro de Investigación de Frontera Energética del DOE. Dicho centro participa activamente en el desarrollo de implementaciones de hardware para las redes neuronales artificiales con un enfoque en eficiencia energética.

Descripción del innovador dispositivo

Dicha innovación tecnológica se fundamenta en la unidad lineal rectificada o ReLU, la cual es una de las funciones de activación más recurrentes en el entrenamiento de redes neuronales. Este proceso exige un hardware que pueda experimentar cambios progresivos en la resistencia, lo cual era un objetivo clave para los ingenieros. El dispositivo puede transicionar de manera gradual desde un estado aislante hacia un estado conductor con una mínima cantidad de calor.

Este tránsito, conocido como transición de Mott, se lleva a cabo en una capa increíblemente fina de dióxido de vanadio, ubicada por encima de un calentador de nanocables constituido de titanio y oro. La mencionada capa de dióxido de vanadio se calienta paulatinamente cuando la corriente circula por los nanocables, provocando un cambio lento y controlado desde un estado aislante hacia conductor.

Oh tuvo la distinción de ser el autor principal del estudio.

«La arquitectura de este ingenioso dispositivo es asombrosamente interesante e innovadora», comentó Oh. «En este contexto, hacemos que la corriente fluya por un nanocable ubicado por encima del material con el objetivo de calentarlo e inducir un cambio de resistencia tremendamente gradual».

Implementación del revolucionario dispositivo

Para llevar a cabo la implementación, el equipo creó una serie de artefactos de activación y una serie de dispositivos sinápticos, y posteriormente integraron ambos en una placa de circuito impreso diseñada específicamente para este fin. Posteriormente, se interconectaron, resultando en una versión de hardware de una red neuronal.

Esta red neuronal fue empleada para procesar una imagen a través de la detección de bordes, identificando así los contornos y bordes de los objetos presentes en la imagen. El sistema de hardware integrado demostró ser capaz de realizar operaciones de convolución, vitales para diversos tipos de redes neuronales profundas.

«En este punto, esto es simplemente una demostración de concepto», explicó Kuzum. «Es un sistema minúsculo en el que sólo hemos apilado una capa de sinapsis con una capa de activación. Apilando más de estas, podríamos crear un sistema más complejo apto para diversas aplicaciones».

LEE MÁS ARTÍCULOS SOBRE: Ciencia de Datos con IA.

LEE LA ENTRADA ANTERIOR: Científicos buscan perfeccionar los sistemas de IA con nuevos modelos de "neuronas".