Saltar al contenido

Google revela el uso de datos públicos de la web en la formación de IA

07/01/2024
Google Revela El Uso De Datos Publicos De La Web

En una reciente modificación de su política de confidencialidad, Google confesó de manera pública que ha estado usando datos disponibles en la web para entrenar a sus modelos de inteligencia artificial. Esta confesión, descubierta por Gizmodo, incluye servicios como Bard y Cloud AI. Christa Muldoon, representante de Google, comentó que la actualización simplemente especifica que nuevos servicios, como Bard, también participan en este método, y que Google aplica principios de confidencialidad y precauciones en el diseño de sus tecnologías relacionadas con la inteligencia artificial.

El compromiso con la transparencia en el adiestramiento de inteligencia artificial

La transparencia en los métodos de capacitación en IA representa un importante avance hacia el rumbo adecuado, aunque plantea incógnitas relevantes. ¿Qué benchmarks utiliza Google para garantizar la confidencialidad de las personas cuando se vale de información accesible en la web? ¿Existen estrategias para evitar el empleo indebido de dichos datos?

Error 403 The request cannot be completed because you have exceeded your quota. : quotaExceeded

Las consecuencias de las metodologías de adiestramiento de IA de Google

La política de confidencialidad actualizada ahora menciona que Google utiliza información para mejorar sus servicios y elaborar nuevos productos, funcionalidades y tecnologías que favorezcan a sus usuarios y a la sociedad. La política también indica que la empresa puede valerse de información de libre acceso para adiestrar los modelos de inteligencia artificial de Google y crear productos y funcionalidades como Google Translate, Bard y aptitudes de inteligencia artificial en la nube.

No obstante, la política no explica cómo Google evitará la inclusión de materiales sujetos a derechos de autor en el conjunto de datos empleados para la capacitación. Muchos sitios web abiertos al público tienen reglamentaciones que prohíben la recopilación de datos o el web scraping con el propósito de entrenar grandes modelos de lenguaje y otros conjuntos de herramientas de inteligencia artificial. Esta política podría entrar en conflicto con regulaciones internacionales como el GDPR, cuyo objetivo es proteger a las personas del uso indebido de sus datos sin su consentimiento explícito.

El uso de datos de libre acceso para el entrenamiento en IA no es intrínsecamente conflictivo, pero presenta problemas cuando infringe leyes de derechos de autor y la confidencialidad individual. Es un equilibrio delicado que empresas como Google deben manejar con sumo cuidado.

La relevancia de las prácticas de adiestramiento en IA

El uso de información de libre acceso para el adiestramiento de IA ha generado un intenso debate. Sistemas populares de IA generativa como el GPT-4 de OpenAI han mostrado reticencia sobre sus fuentes de datos y si incluyen publicaciones en redes sociales u obras protegidas por derechos de autor pertenecientes a artistas humanos y autores. En la actualidad, esta práctica se encuentra en un área legal gris, lo que ha originado diversas demandas y ha motivado a los legisladores de algunos países a introducir leyes más estrictas para regular cómo las empresas de IA recolectan y emplean sus datos de entrenamiento.

Gannett, la editorial de periódicos más prominente en Estados Unidos, está demandando a Google y a su empresa matriz, Alphabet, alegando que los avances en la tecnología de inteligencia artificial han contribuido a que el gigante de las búsquedas mantenga un monopolio sobre el mercado de publicidad digital. Entretanto, plataformas sociales como Twitter y Reddit han tomado acciones para impedir que otras empresas recopilen libremente sus datos, lo que ha desencadenado reacciones adversas por parte de sus respectivas comunidades.

Estos acontecimientos subrayan la imperiosa necesidad de directrices éticas sólidas en IA. A medida que la IA sigue evolucionando, es primordial que las empresas equilibren el progreso tecnológico con consideraciones éticas. Esto involucra respetar las leyes de derechos de autor, proteger la confidencialidad individual y asegurar que la IA beneficie a la sociedad en general, y no únicamente a unos pocos privilegiados.

La reciente actualización de Google a su política de confidencialidad ha arrojado luz sobre las prácticas de formación en IA de la empresa. Sin embargo, también plantea interrogantes sobre las implicaciones éticas del uso de información de libre acceso para el entrenamiento en IA, la posible infracción de las leyes de derechos de autor y el impacto en la confidencialidad del usuario. A medida que avanzamos, es esencial para nosotros continuar este diálogo y trabajar hacia un futuro en el que la IA sea desarrollada y utilizada de manera responsable.

LEE MÁS ARTÍCULOS SOBRE: Noticias de IA.

LEE LA ENTRADA ANTERIOR: Asíu es la IA que ha descubierto la actividad secreta revelada por las paredes en blanco.