Saltar al contenido

Samsung prohíbe el uso de herramientas de IA generativa por motivos de seguridad

20/06/2023

Samsung, uno de los gigantes tecnológicos líderes en el mercado, ha tomado una medida contundente al prohibir el uso de herramientas de inteligencia artificial generativa, como ChatGPT, debido a preocupaciones de seguridad. Esta decisión ha sido comunicada a través de un memorando interno, en el que la compañía informa a sus empleados sobre la nueva política implementada.

Restricción temporal para garantizar la seguridad

La nueva política de Samsung implica una restricción temporal en el uso de herramientas de IA generativa en dispositivos y redes internas de la empresa. Según el memorando, esta medida busca crear un entorno seguro para el uso de estas herramientas sin comprometer la seguridad de los datos confidenciales de la compañía. La prohibición se estableció luego de que se descubriera que algunos empleados habían subido código fuente interno a ChatGPT, lo que representaba una amenaza potencial.

Error 403 The request cannot be completed because you have exceeded your quota. : quotaExceeded

Un problema de seguridad en ChatGPT

Uno de los incidentes que llevó a la implementación de esta nueva política fue un error en ChatGPT que expuso temporalmente el historial de chat de IA de algunos usuarios. Aunque el error no reveló el contenido de las conversaciones, abrió los títulos de las mismas a otros usuarios. Esta falla despertó preocupaciones sobre la seguridad de las herramientas de IA generativa y llevó a Samsung a tomar medidas para proteger la confidencialidad de sus datos.

Samsung se une a otras empresas en la restricción del uso de herramientas de IA generativa

La prohibición de Samsung se suma a un conjunto creciente de empresas e instituciones que han restringido el uso de herramientas de inteligencia artificial generativa por preocupaciones de seguridad. JPMorgan, por ejemplo, ha limitado el uso de estas herramientas debido a inquietudes de cumplimiento. Del mismo modo, varios bancos y escuelas de la ciudad de Nueva York han prohibido o restringido el uso de bots de IA debido a temores de desinformación y fraude.

Riesgos de seguridad asociados con las herramientas generativas de IA

Una de las preocupaciones clave es que los datos transmitidos a plataformas de IA generativa, como Bing AI, ChatGPT y Google Bard, se almacenan en servidores externos, lo que dificulta su recuperación o eliminación. Además, existe la posibilidad de que otros usuarios puedan acceder a estos datos, lo que plantea preocupaciones sobre la privacidad y la confidencialidad de la información.

La popularidad y utilidad de las herramientas de IA generativa

Las herramientas de IA generativa, como ChatGPT, han ganado popularidad en los últimos tiempos debido a su eficiencia y utilidad en diversas tareas, como la redacción de respuestas a correos electrónicos y la síntesis de informes. Sin embargo, su creciente uso también ha generado preocupaciones sobre los riesgos asociados con la seguridad y la privacidad de los datos.

Acceso a información confidencial y riesgo de ciberdelincuencia

El acceso a información confidencial y la posibilidad de que los ciberdelincuentes utilicen herramientas de IA generativa para crear correos electrónicos de phishing auténticos son riesgos que deben abordarse. Aunque las empresas como OpenAI, el desarrollador de ChatGPT, implementan medidas para garantizar la seguridad de las conversaciones, es importante tener en cuenta los posibles riesgos y tomar precauciones al compartir información confidencial.

La necesidad de un enfoque seguro y responsable hacia la IA generativa

La decisión de Samsung de prohibir temporalmente el uso de herramientas de IA generativa refleja la creciente preocupación por los riesgos de seguridad asociados con estas tecnologías. A medida que la IA continúa avanzando, es esencial adoptar un enfoque seguro y responsable en su implementación, garantizando la protección de los datos confidenciales y la privacidad de los usuarios.

En conclusión, la prohibición de Samsung respecto al uso de herramientas de inteligencia artificial generativa como ChatGPT es una medida destinada a salvaguardar la seguridad de la compañía y proteger la confidencialidad de sus datos. Esta decisión se suma a una tendencia más amplia de empresas e instituciones que han restringido el uso de herramientas de IA generativa por preocupaciones de seguridad. Al adoptar un enfoque seguro y responsable, se puede aprovechar todo el potencial de la IA generativa mientras se protege la información confidencial y se mitigan los riesgos asociados.

LEE MÁS ARTÍCULOS SOBRE: Seguridad con IA.

LEE LA ENTRADA ANTERIOR: CollovGPT: Crea imágenes de producto cautivadoras en segundos con la IA.