
La Inteligencia Artificial generativa está consolidándose como un motor de innovación para corporaciones alrededor del planeta. Un informe de McKinsey destaca que el 60% de las empresas con adopción de IA ya está aprovechando el potencial de la IA generativa. Los líderes empresariales buscan incluir estas herramientas en su arsenal tecnológico para no perder competitividad, mientras los creadores de IA están lanzando más aplicaciones que nunca. No obstante, con esta rápida integración, muchas veces se pasan por alto las preocupaciones éticas y de seguridad asociadas, lo que está generando una disminución en la confianza hacia estas tecnologías.
Según una encuesta reciente, apenas un 48% de los ciudadanos en Estados Unidos consideran que la IA es confiable, y un 78% se manifiesta inquieto frente al uso malintencionado de la misma. Aunque la IA ha demostrado ser un valor añadido en la optimización de flujos de trabajo, existe preocupación sobre la habilidad de los actores maliciosos para manipular estas tecnologías. Herramientas como las capacidades de deepfake son un creciente motivo de alarma, tornándose cada vez más accesibles para el público en general.
Es evidente que poseer herramientas de IA se ha vuelto insuficiente. Las corporaciones necesitan integrar estas tecnologías de manera responsable y segura para maximizar su potencial beneficiario y, en consecuencia, fortalecer la confianza del usuario, especialmente en el ámbito de la ciberseguridad, donde la confiabilidad es crucial.
Retos en ciberseguridad con IA
Con el lanzamiento de plataformas como ChatGPT Enterprise, es palpable el rápido avance de la tecnología de IA generativa, y su importancia creciente para el mundo empresarial. Hoy en día, la inteligencia artificial no solo alcanza proezas previamente atribuidas a la ciencia ficción, sino que su evolución es una realidad constante y acelerada. Esto hace que la tecnología de IA sea altamente escalable y de fácil acceso para negocios, individuos y desafortunadamente también para estafadores. Las tecnologías avanzadas como los servicios de deepfake están emergiendo como una nueva amenaza, en muchos casos más sofisticada y difícil de detectar.
Los estafadores, en su búsqueda de la mayor rentabilidad posible, apuntan a sectores como fintech, pagos de facturas, servicios gubernamentales y comercio de bienes de alto valor. Al mismo tiempo, la democratización del acceso a la IA y la reducción de sus costos propicia un entorno donde incluso los estafadores novatos tienen a su alcance los medios para cometer fraudes utilizando manipulaciones complejas de imagen e identidad.
Los avances en modelos de lenguaje generativo basados en IA y Modelos de Lenguaje de Gran Escala (LLM, por sus siglas en inglés) han dado pie a estafas y ataques de phishing más refinados y difíciles de detectar. Además, en las plataformas sociales y apps de citas, el «fraude romántico» se ha vuelto una preocupación significativa, impulsando la consideración de implementar controles de «prueba de humanidad» para mantener la viabilidad de estos servicios.
Por otro lado, las actuales soluciones de seguridad, a menudo basadas en análisis de metadatos, no pueden frenar completamente el avance de estos actores malintencionados. Los métodos de detección de deepfake, aunque útiles, necesitan cada vez más datos para poder identificar de manera efectiva las amenazas avanzadas.
IA y verificación de identidad: una colaboración necesaria
Los desarrolladores de IA están poniendo sus esfuerzos en utilizar la tecnología para reforzar las medidas de seguridad cibernética existentes. Esto no solo provee casos de uso más confiables para la IA sino que también promueve prácticas más responsables y seguras. Un área con potencial significativo es la verificación de identidad, que frente a un panorama de amenazas de IA en constante evolución, requiere tecnología capaz de adaptarse y responder de manera ágil a las nuevas técnicas que emergen.
Algunas áreas donde la IA puede fortalecer la tecnología de verificación de identidad incluyen:
- Análisis profundo de atributos del dispositivo
- Uso de contra-IA para detectar manipulaciones: Esto se refiere a la capacidad de identificar cambios en imágenes, haciendo frente a intentos de fraude y protegiendo datos sensibles.
- Consideración de la ‘ausencia de datos’ como un factor de riesgo en contextos específicos
- Detección de patrones repetitivos en múltiples sesiones y entre clientes diversos.
Estas defensas en múltiples niveles, suministradas tanto por la IA como por la tecnología de verificación de identidad, investigan la identidad de la persona, atributos de red y dispositivo, reduciendo así el riesgo de manipulación por medio de deepfakes y asegurando que solo individuos reales y verificados accedan a los servicios ofrecidos.
Es esencial que la IA y la verificación de identidad sigan de la mano. Mientras más completo y robusto sea el conjunto de datos de entrenamiento, mejor será el modelo resultante. Considerando que la IA es tan eficaz como los datos que procesa, la acumulación de información amplia y variada resulta crucial para garantizar la exactitud tanto de la verificación de identidad como de la tecnología de IA.
Visión de futuro: IA y la verificación de identidad
Establecer confianza en el entorno digital requiere demostrar una identidad verificable. La creciente disposición de herramientas como los LLM y las plataformas deepfake representan un aumento en el riesgo de fraudes en línea. Las organizaciones criminales, con sus vastos recursos, pueden ahora explotar la tecnología más puntera a una escala alarmante.
Las empresas deben ampliar su estrategia defensiva e invertir en tecnología de seguridad sin temor al incremento de fricción que ello pueda significar. No es viable confiar en un único punto de defensa; se requiere el monitoreo de todos los puntos de datos asociados al individuo que busca acceso a sistemas, bienes o servicios, y mantener un proceso de verificación continuo a lo largo de su trayectoria en la plataforma.
Mientras los deepfakes se perfeccionan y se vuelven más complejos, los líderes empresariales tienen la responsabilidad de revisar continuamente los datos generados por las soluciones de seguridad, identificando patrones emergentes de fraude y evolucionar de forma paralela a las amenazas en materia de ciberseguridad.
LEE MÁS ARTÍCULOS SOBRE: Noticias de IA.
LEE LA ENTRADA ANTERIOR: Metaphor Search.