Saltar al contenido

Las Alucinaciones de la IA Definieron su Reputación en 2023

25/12/2023
Las Alucinaciones De La Ia Definieron Su Reputacion En 2023

A medida que 2023 se acerca a su fin, es hora de comenzar a reflexionar sobre lo que definió el año. Los creadores de tendencias corporativas han salido con los colores, sabores, canciones y modas que sienten definen 2023. Recientemente, Dictionary.com publicó su Palabra del Año 2023, con la que todos en el sector de la tecnología se están familiarizando mucho: la definición específica de la IA de «alucinar».

Cuando las personas alucinan, tienen una percepción sensorial de algo que no está allí. Cuando la IA alucina, presenta información falsa como si fuera verdadera. A veces, esto proviene de información incorrecta que la IA utilizó para llenar sus bases de datos de «conocimiento interno». Pero a veces, la información es completamente inventada.

Error 403 The request cannot be completed because you have exceeded your quota. : quotaExceeded

Los desafíos de la Inteligencia Artificial

Independientemente de dónde provenga, la alucinación es uno de los mayores problemas para los chatbots de IA hoy en día. Bruce Y. Lee, colaborador senior de Forbes, enumeró varios casos de desinformación relacionada con la medicina de los chatbots. Según un artículo en JAMA Internal Medicine, a un chatbot de IA solo le tomó 65 minutos escribir 102 publicaciones de blog llenas de desinformación sobre vacunas y vapeo que estaban dirigidas a diferentes grupos de personas. Incluían testimonios falsos de pacientes y clínicos y referencias de apariencia científica. Un estudio presentado en una conferencia de farmacéuticos por investigadores de la Universidad de Long Island mostró que después de hacerle 39 preguntas relacionadas con medicamentos, ChatGPT solo pudo producir 10 con un consejo médico satisfactorio.

De ninguna manera las alucinaciones de la IA se limitan a la información médica. Los chatbots de IA han estado muy seguros de estar equivocados acerca de la historia, los eventos actuales y los casos judiciales. Han dicho cosas ofensivas. Los creadores de imágenes de IA han hecho imágenes que reflejan estereotipos arraigados. Las herramientas de selección basadas en IA han bloqueado a solicitantes calificados. Muchas personas y fuerzas laborales están comprendiendo la promesa y las posibilidades de la IA. Puede ser fácil olvidar que, aunque los sistemas tienen grandes capacidades, no son lo suficientemente sofisticados como para obtener siempre los resultados correctos de manera confiable.

A juzgar por la Palabra del Año, la IA en 2023 se definió por su propensión a equivocarse. Tal vez en 2024, algunas de sus posibilidades más nobles, como hacer que los lugares de trabajo sean más eficientes y acortar los plazos de investigación y desarrollo, sean lo que se conoce de la IA.

INTELIGENCIA ARTIFICIAL y PRIVACIDAD

La inteligencia artificial, aunque necesita ser programada para procesar correctamente diversos tipos de datos, dar una respuesta adecuada y mejorar continuamente por sí misma, eso es solo una parte de lo que la conforma. La otra parte es con qué datos se «entrena» inicialmente el sistema. Y resulta que Stable Diffusion, una popular herramienta de IA de texto a imagen creada por la startup Stability AI, fue entrenada con imágenes de material de abuso sexual infantil, encontraron investigadores del Stanford Internet Observatory. Las reglas de Stability AI dicen que sus modelos no pueden utilizarse para la explotación o daño de los niños, y las versiones más recientes de Stable Diffusion filtran más material explícito «inseguro». Pero eso no cambia el hecho de que el generador de IA ahora sabe cómo hacer este tipo de imágenes, que por sí mismas son ilegales. Además, puede crear imágenes que dificultan mucho más la detección de las fuerzas del orden cuando en realidad hay un menor en problemas.

Los datos que se introducen en los sistemas de IA también pueden causar problemas a quienes los utilizan. Claudia Salomón, presidenta del Tribunal Internacional de Arbitraje de la Cámara de Comercio Internacional, habló con un colaborador de Forbes sobre algunas de las posibles trampas legales. Es importante que se respeten las preocupaciones éticas y de privacidad de las personas cuando se trata de poner sus datos a disposición de los sistemas de IA. Después de todo, más del 63% de las personas han dicho que quieren una ley que impida a las plataformas de redes sociales y a los motores de búsqueda vender sus datos para anuncios dirigidos, un uso de la información relativamente menos invasivo.

Aunque el Vaticano no suele opinar sobre la tecnología, el Papa Francisco quiere la regulación de la IA. Ha pedido un tratado internacional para regular su desarrollo y ha advertido contra su uso como arma. Está preocupado por las alucinaciones de los chatbots que propagan desinformación viral, así como por las imágenes creadas por IA que generan confusión, como una de él con una chaqueta que se volvió viral a principios de este año. El Papa Francisco también desea asegurar que la IA se utilice de manera ética y responsable, no para funciones como la guerra y los sistemas de armas.

PRIVACIDAD DE LOS DATOS e IA

Las personas que utilizan Google Maps para encontrar su camino a diferentes lugares, así como aquellas que permiten que la aplicación rastree su ubicación de manera pasiva, pronto estarán más protegidas. La compañía está cambiando la duración del tiempo que almacena los datos de ubicación de los usuarios y la forma en que se almacenan, por lo que Google ya no podrá acceder a ellos. A menudo se pide a la plataforma que produzca datos de ubicación para la aplicación de la ley a través de una «orden de geovalla. Estas órdenes le piden a Google toda la información sobre todas las personas en una ubicación específica en un marco de tiempo específico, una especie de búsqueda inversa que los defensores de la privacidad y los abogados defensores dicen que a menudo implica a las personas por estar cerca de una escena del crimen. Google rara vez dice cuántas de estas órdenes recibe, aunque en 2021 dijo que el 25% completo de las solicitudes estadounidenses eran órdenes de geovalla.

Ayer, la Comisión Federal de Comercio propuso cambios a la regla de protección de los datos infantiles que limitaría aún más lo que se puede usar y monetizar para niños menores de 13 años. Actualmente, la regla requiere el consentimiento de los padres para que los niños accedan a sitios web y servicios en línea que recopilen datos. La actualización también requeriría el consentimiento de los padres para compartir la información personal de los niños con terceros, incluyendo los anunciantes. También prohibiría a los servicios utilizar información de contacto como números de teléfono para enviar notificaciones push a los niños. La regla está abierta a comentarios públicos durante dos meses antes de que la FTC vote sobre ella.

NOTICIAS DESTACADAS en IA

Esta semana, Adobe canceló su acuerdo de $20 mil millones para comprar la compañía de diseño basada en la nube Figma porque no veía un camino claro para recibir la aprobación regulatoria de la Comisión Europea y la Autoridad de Mercados y Competencia del Reino Unido. La decisión se preveía a fines de noviembre, cuando el regulador del Reino Unido encontró de manera provisional que el acuerdo eliminaría la competencia entre las dos compañías principales en el software de diseño de productos, y podría dañar potencialmente la innovación. Las empresas aún no habían obtenido la aprob

LEE MÁS ARTÍCULOS SOBRE: Salud con IA.

LEE LA ENTRADA ANTERIOR: Los grandes sistemas de salud se benefician de la genAI, dice KLAS.