Saltar al contenido

NIST crea una guía de protección de privacidad para la investigación con IA

25/12/2023

El NIST presenta una guía para proteger la privacidad en investigaciones impulsadas por Inteligencia Artificial

El Instituto Nacional de Estándares y Tecnología (NIST) ha desarrollado una guía para evaluar los algoritmos de privacidad diferencial, una herramienta que puede permitir la publicación de datos sin desvelar la identidad de las personas que forman parte del conjunto de datos.

Contexto e Importancia de la Guía

Esta iniciativa se enmarca en la Orden Ejecutiva de la Administración Biden sobre Ofertas de Inteligencia Artificial, en cumplimiento de la cual el NIST ha publicado un borrador de la guía enfocada en la evaluación de la protección de la privacidad de los datos para su uso con AI. El documento busca ayudar a las organizaciones basadas en datos a alcanzar un equilibrio entre la privacidad y la precisión.

Error 403 The request cannot be completed because you have exceeded your quota. : quotaExceeded

Según el NIST, la privacidad diferencial es uno de los recursos más potentes para la protección de la privacidad en el análisis de datos, pero la ausencia de estándares puede dificultar su aplicación efectiva.

Aplicación de la Privacidad Diferencial en la Salud

Un ejemplo de la utilidad de esta tecnología es el caso de los investigadores de la salud que quieran utilizar los datos de rastreadores de actividad física de los consumidores para mejorar los diagnósticos médicos. Con el uso de la privacidad diferencial, es posible extraer información valiosa sin comprometer la privacidad individual.

El borrador del NIST, Directrices para evaluar las garantías de privacidad diferencial, está dirigido a agencias federales, pero también es útil para desarrolladores de software, empresarios, y políticos para entender y analizar coherentemente las aseveraciones sobre la privacidad diferencial.

Desafío del Premio de Tecnologías para Mejorar la Privacidad

Esta metodología fue resultado del Desafío del premio de tecnologías que mejoran la privacidad del año pasado, donde se premió con un total de 1.6 millones de dólares por el desarrollo de novedosa criptografía destinada a mantener los datos cifrados durante el entrenamiento del modelo AI.

Retos y Posibles Riesgos

La implementación de la privacidad diferencial, que incluye la utilización de un agregador central o múltiples para introducir ruido, aún está en proceso de maduración. Aún hay riesgos, como señala Naomi Lefkovitz, gerente del Programa de Ingeniería de Privacidad del NIST y editora del borrador.

La privacidad diferencial puede añadir una capa de protección, pero no evitará todos los tipos de ataques. Esto requiere que los desarrolladores evalúen las garantías de privacidad adecuadas para el mundo real.

Para valorar correctamente una afirmación de privacidad diferencial, se deben tener en cuenta múltiples factores. El NIST ha identificado estos factores y los ha organizado en una «pirámide de privacidad diferencial», con las garantías de privacidad más directas en el nivel superior, los factores que podrían socavar una garantía de privacidad diferencial en el nivel medio, y los factores subyacentes como el proceso de recolección de datos en el nivel inferior.

El NIST aceptará comentarios públicos hasta el 25 de enero de 2024 y espera publicar la versión final para finales del próximo año.

Fuente

LEE MÁS ARTÍCULOS SOBRE: Salud con IA.

LEE LA ENTRADA ANTERIOR: Cómo GPT y LLM podrían iniciar una era de 'medicina basada en inteligencia artificial'.