Saltar al contenido

La IA y la Realidad Aumentada están fomentando la necesidad de datos: el hardware de código abierto se enfrenta al reto

11/01/2024

En el dinámico entorno de la economía digital, los datos constituyen el epicentro del valor y del conocimiento. Con la aparición y evolución continua de nuevas tecnologías, las necesidades de velocidades de transferencia más elevadas, latencias reducidas y un incremento en la capacidad de cómputo se han intensificado notoriamente en los centros de datos. La vanguardia tecnológica está redefiniendo los horizontes en la transmisión y procesamiento de datos, y en este contexto, la tecnología de código abierto emerge como una solución formidable, equipando a los operadores de centros de datos con herramientas para optimizar sus operaciones presentes y pavimentar el camino hacia el porvenir. A continuación, examinaremos algunas de las tecnologías que están fomentando la necesidad de una computación de alto desempeño y exploraremos cómo las comunidades y estándares de código abierto están contribuyendo a satisfacer esta creciente demanda de manera eficiente y sustentable.

Impacto de la inteligencia artificial y el aprendizaje automático

Las soluciones de inteligencia artificial (IA) y de aprendizaje automático (ML) están provocando una transformación en sectores tan diversos como el procesamiento de lenguaje natural, la visión por computadora, el reconocimiento de voz, los sistemas de recomendaciones y los vehículos autónomos. Estas tecnologías equipan a los sistemas informáticos con la habilidad de aprender a partir de los datos y ejecutar tareas que, tradicionalmente, requerirían de la inteligencia humana.

Error 403 The request cannot be completed because you have exceeded your quota. : quotaExceeded

No obstante, la IA y el ML demandan una cantidad significativa de datos y de potencia computacional para el entrenamiento y la ejecución de modelos y algoritmos avanzados. Tomando como ejemplo el GPT-3, uno de los modelos de lenguaje natural más sofisticados a nivel global, que posee 175 mil millones de parámetros y fue entrenado con 45 terabytes de datos textuales. Para procesar conjuntos de datos de gran envergadura y modelos complejos de manera efectiva, las aplicaciones de IA y ML requieren de sistemas informáticos de alto rendimiento (HPC) que sean capaces de suministrar velocidades de transferencia de datos elevadas, latencias bajas y una amplia capacidad computacional.

Un tendencia al alza en HPC es la utilización de procesadores especializados, tales como las GPU o TPU, que están optimizados para el procesamiento en paralelo y las operaciones matriciales, característicos en las cargas de trabajo de IA y ML. Por ejemplo, la CPU Grace de NVIDIA, un nuevo procesador diseñado especialmente para aplicaciones HPC, se beneficia de la tecnología GPU de NVIDIA para entregar una capacidad diez veces superior a las CPU x86 actuales. Además, la CPU Grace es compatible con interconexiones veloces como NVLink, lo que posibilita velocidades de transferencia de datos ultrarrápidas entre CPU y GPU.

La convergencia de la realidad aumentada y la realidad virtual

El Apple Vision Pro ha generado gran expectación en su revelación. Las tecnologías de realidad aumentada (AR) y realidad virtual (VR) son dos de las experiencias interactivas más inmersivas, redefiniendo industrias como el entretenimiento, la educación, la sanidad y la manufactura. La AR realza el mundo real con superposiciones de información digital, en tanto que la VR introduce a los usuarios en un entorno completamente simulado accesible mediante auriculares especializados.

Estas tecnologías conllevan retos significativos relacionados con la transferencia y procesamiento de datos. A pesar del reciente anuncio, los detalles sobre el Apple Vision Pro son aún escasos. No obstante, al considerar otros dispositivos de VR disponibles desde hace tiempo, como el Oculus Quest 2, podemos inferir ciertos aspectos. Estos auriculares de VR requieren de una conexión de alta velocidad a un PC o servidor en la nube para la transmisión de contenido de audio y video de alta fidelidad, además de recabar los datos de seguimiento y entrada tanto de los auriculares como de los controladores. La tasa de bits de video, que se refiere a la cantidad de datos transferidos por segundo, depende de la capacidad de la GPU para codificar la señal en el PC o servidor, y de la habilidad del procesador Quest 2 para decodificar la señal recibida.

Oculus sugiere una tasa de bits recomendable para la transmisión de VR entre 150 Mbps y 500 Mbps, según la resolución y la tasa de fotogramas. Esto implica que la transmisión de VR exige una tasa de transferencia de datos significativamente mayor en comparación con otras actividades online como la navegación web o el streaming de música. Asimismo, la transmisión de VR precisa de una latencia baja, que es el tiempo que tarda una señal en transitar de un punto a otro. Una alta latencia puede ocasionar una experiencia de juego entrecortada, afectando la inmersión y provocando mareos.

Múltiples factores influyen en la latencia, incluyendo la velocidad de la red, la distancia entre dispositivos y los algoritmos de codificación y decodificación. Según Oculus, la latencia ideal para la transmisión VR es menor a 20 milisegundos. No obstante, alcanzar este estándar de rendimiento no es sencillo, especialmente a través de conexiones inalámbricas como Wi-Fi o 5G.

Adopción de tecnologías de código abierto para centros de datos optimizados

Conforme las tecnologías emergentes incrementan la demanda de velocidades de transferencia de datos más rápidas, latencias menores y un mayor poder computacional en los centros de datos, los operadores enfrentan diversos desafíos tales como el aumento del consumo energético, nuevas necesidades de refrigeración, la utilización del espacio, los costos operacionales y una rápida cadencia de innovación y actualización de hardware. Para afrontar estos desafíos, se hace imperativo que los operadores optimicen su infraestructura actual y adopten nuevos estándares y tecnologías que mejoren la eficiencia y la escalabilidad.

Estos son los objetivos del Proyecto Open19, una iniciativa que ahora forma parte de la Fundación Linux. El Proyecto Open19 establece un estándar abierto para el hardware de centros de datos, basándose en factores de forma comunes y suministrando una distribución de energía eficiente, componentes reutilizables y posibilidades para interconexiones de alta velocidad emergentes. Los estándares abiertos promovidos por SSIA y los esfuerzos del proyecto Open19 se alinean con la tendencia más amplia de la industria hacia el mejoramiento de la eficiencia, escalabilidad y sostenibilidad de la infraestructura que sustenta nuestras vidas digitales y nuestras comunidades. El Proyecto de Computación Abierta (OCP), un esfuerzo similar, fomenta la colaboración impulsada por la comunidad entre socios de la industria para desarrollar soluciones innovadoras para centros de datos, enfocándose en tamaños de rack de servidores de 21 pulgadas, comúnmente usados por grandes compañías y hiperescaladores. El alcance de OCP también incluye las instalaciones de centros de datos, así como los componentes internos de TI de los servidores.

Así, las tecnologías emergentes aumentan la necesidad de mejores velocidades de transferencia de datos, latencias menores y una mayor capacidad de cómputo en los centros de datos, mientras que comunidades, gobiernos y empresas se concentran en la gestión de recursos y las preocupaciones crecientes en torno a la sostenibilidad, incluyendo el uso del agua, la gestión energética y otros aspectos del uso de tecnología con alta huella de carbono. La adopción de tecnologías de código abierto, desarrolladas en espacios colaborativos impulsados por la comunidad como SSIA y la Fundación Linux, puede asistir a los operadores de centros de datos en la maximización de sus operaciones presentes y en la preparación para un futuro más sostenible, capaces de satisfacer las demandas de estas aplicaciones nuevas y emocionantes.

LEE MÁS ARTÍCULOS SOBRE: Noticias VR.

LEE LA ENTRADA ANTERIOR: 3 Acciones de IA con Tremendo Potencial para Ser Grandes Ganadoras en la Próxima Década.