
La Amenaza Creciente de los Deepfakes
Desde las elecciones de 2016, cuando la desinformación irrumpió en la conciencia pública, expertos han estado alertando sobre los deepfakes. Las implicaciones de esta tecnología son—y siguen siendo—aterradoras. La proliferación descontrolada de medios sintéticos hiperrealistas representa una amenaza para todos —desde políticos hasta personas del común. En un ambiente ya combustible debido a la desconfianza generalizada, los deepfakes solo prometían avivar aún más las llamas.
No obstante, nuestros temores resultaron prematuros. El conocimiento tecnológico requerido para crear deepfakes, aunado a su frecuente baja calidad, ha significado que, al menos en los últimos dos ciclos de elecciones presidenciales en Estados Unidos, han sido una preocupación mínima.
El Avance de la Inteligencia Artificial Generativa
Pero todo esto está a punto de cambiar — ya está cambiando. En los últimos dos años, la tecnología de Inteligencia Artificial generativa ha cobrado protagonismo, simplificando radicalmente el proceso de crear deepfakes para el consumidor promedio. Estas mismas innovaciones han incrementado significativamente la calidad de los deepfakes, de tal manera que, en una prueba ciega, la mayoría de las personas no podrían distinguir un video alterado de uno real.
Este año, en particular, hemos comenzado a ver indicaciones de cómo esta tecnología podría afectar a la sociedad si no se toman medidas para combatirla. El año pasado, por ejemplo, una foto generada por IA del Papa Francisco luciendo un abrigo inusualmente estiloso se hizo viral, y muchos la tomaron por auténtica. Aunque a simple vista parezca una inofensiva diversión, revela la peligrosa potencia de los deepfakes y cuán difícil puede ser frenar la desinformación una vez que ha comenzado a difundirse. Podemos esperar encontrar ejemplos mucho menos divertidos—y mucho más peligrosos—de este tipo de falsificaciones virales en los meses y años venideros.
La Imperiosa Necesidad de Verificación de Autenticidad de Contenido
Por esta razón, es imperativo que organizaciones de todo tipo —desde los medios de comunicación hasta las finanzas, pasando por gobiernos y plataformas de redes sociales— adopten una postura proactiva hacia la detección de deepfakes y la verificación de autenticidad de contenido. Es crucial establecer una cultura de confianza mediante salvaguardas ahora, antes de que una ola de deepfakes pueda arrasar nuestra comprensión compartida de la realidad.
Comprendiendo la Amenaza del Deepfake
Antes de profundizar en lo que pueden hacer las organizaciones para combatir este aumento de deepfakes, merece la pena detallar por qué son necesarias las herramientas de protección. Generalmente, quienes se preocupan por los deepfakes citan su potencial efecto en la política y la confianza social. Estas posibles consecuencias son de suma importancia y no deben ser descuidadas en ninguna conversación sobre deepfakes. Sin embargo, el auge de esta tecnología tiene efectos potencialmente graves en múltiples sectores de la economía estadounidense.
Tomemos, por ejemplo, el sector de seguros. Actualmente, el fraude anual en seguros en Estados Unidos asciende a 308.6 mil millones de dólares—una cifra aproximadamente una cuarta parte del tamaño de toda la industria. Al mismo tiempo, las operaciones de back-end de la mayoría de las compañías de seguros están cada vez más automatizadas, con el 70% de las reclamaciones estándar proyectadas a ser sin contacto para 2025. Esto significa que las decisiones se toman cada vez más con mínima intervención humana: autoservicio al frente y automatización facilitada por IA en la retaguardia.
Ironicamente, justo la tecnología que ha permitido este aumento en automación—esto es, el aprendizaje automático y la inteligencia artificial—ha garantizado su explotación por actores malintencionados. Ahora es más fácil que nunca para la persona promedio manipular reclamaciones—por ejemplo, usando programas de IA generativa como Dall-E, Midjourney, o Stable Diffusion para hacer que un automóvil parezca más dañado de lo que está. Ya existen aplicaciones específicamente para este propósito, como Dude Your Car!, que permite a usuarios crear abolladuras artificiales en fotos de sus vehículos.
Lo mismo aplica para documentos oficiales, que ahora pueden ser fácilmente manipulados—con facturas, tasaciones de suscripciones y hasta firmas ajustadas o inventadas por completo. Esta habilidad no es solo un problema para las aseguradoras, sino para la economía en general. Es un problema para instituciones financieras, que deben verificar la autenticidad de un amplio rango de documentos. Es un problema para los comerciantes, que pueden recibir una queja de un producto llegado defectuoso, acompañado por una imagen alterada.
Las empresas simplemente no pueden operar con este grado de incertidumbre. Cierto grado de fraude es probablemente siempre inevitable, pero con deepfakes, no estamos hablando de fraude al margen—estamos hablando de una potencial catástrofe epistemológica en la que las empresas no tienen medios claros para determinar la verdad de la ficción, y terminan perdiendo miles de millones de dólares ante esta confusión.
Combatiendo Fuego con Fuego: Cómo la IA Puede Ayudar
¿Entonces, qué se puede hacer para combatir esto? Quizás no sorprendentemente, la respuesta yace en la propia tecnología que facilita los deepfakes. Si queremos detener este azote antes de que gane más impulso, necesitamos combatir fuego con fuego. La IA no solo puede ayudar a generar deepfakes, sino que también, afortunadamente, puede ayudar a identificarlos automáticamente y a gran escala.
Utilizando las herramientas de IA adecuadas, las empresas pueden determinar automáticamente si una fotografía, video o documento ha sido alterado. Aplicando decenas de modelos dispares para la tarea de identificación de falsificaciones, la IA puede informar automáticamente a las empresas sobre si una fotografía o video es sospechoso. Al igual que las herramientas que las empresas ya están implementando para automatizar operaciones diarias, estas herramientas pueden funcionar en segundo plano sin sobrecargar al personal desbordado o quitar tiempo de proyectos importantes.
Si y cuando se identifica una fotografía como potencialmente alterada, el personal humano puede ser alertado y puede evaluar el problema directamente, asistido por la información brindada por la IA. Utilizando análisis profundos, esta puede informar a las empresas por qué cree que una fotografía ha sido probablemente alterada—apuntando, por ejemplo, a metadatos manualmente modificados, la existencia de imágenes idénticas a través de la web, diversas irregularidades fotográficas, etc.
Nada de esto es para denigrar los increíbles avances que hemos visto en tecnología de IA generativa en los últimos años, los cuales efectivamente tienen aplicaciones útiles y productivas a través de industrias. Pero la muy potencia—sin mencionar la simplicidad—de esta tecnología emergente casi garantiza su abuso por aquellos que buscan manipular organizaciones, ya sea por ganancia personal o para sembrar el caos societal.
Las organizaciones pueden tener lo mejor de ambos mundos: los beneficios de productividad de la IA sin los inconvenientes de los deepfakes ubicuos. Pero hacerlo requiere un nuevo grado de vigilancia, especialmente dado que la producción de la IA generativa se está volviendo más persuasiva, detallada y verosímil día a día. Cuanto antes las organizaciones pongan atención a este problema, antes podrán cosechar los plenos beneficios de un mundo automatizado.
LEE MÁS ARTÍCULOS SOBRE: Ciencia de Datos con IA.
LEE LA ENTRADA ANTERIOR: API Alchemist.