
Con la Inteligencia Artificial adquiriendo mayor relevancia y complejidad en nuestra sociedad, uno de los aspectos más cruciales se refiere a la inteligencia artificial explicativa (Explainable AI), conocida también como XAI.
La Inteligencia Artificial Explicativa puede ser considerada como:
- Un conjunto de procedimientos y métodos que permiten a los usuarios humanos entender y tener confianza en los resultados producidos por algoritmos de aprendizaje automático.
Como podrás intuir, esta capacidad de explicación es extremadamente valiosa en el momento que los algoritmos de IA empiezan a dirigir muchos sectores de actividad, implicando riesgos de sesgos, algoritmos mal diseñados y otros problemas. Crear transparencia y explicabilidad es esencial para aprovechar al máximo el potencial de la IA.
La IA explicativa, como sugiere su denominación, contribuye a delinear un modelo de IA, su impacto y sesgos potenciales. También juega un papel importante en la definición de la precisión, equidad, transparencia y resultados del modelo en procesos de toma de decisiones impulsados por IA.
Las organizaciones actuales basadas en IA deben adoptar procesos de IA explicables para generar confianza en los modelos de IA en funcionamiento. La IA explicativa es también esencial para ser una organización responsable en el contexto actual de la inteligencia artificial.
Debido a que los sistemas modernos de inteligencia artificial son tan avanzados, los humanos suelen llevar a cabo un proceso de seguimiento para determinar cómo llegó el algoritmo a su resultado. Este procedimiento se convierte en lo que se conoce como una “caja negra”, algo que es imposible de comprender. Cuando estos modelos no explicables se crean directamente a partir de datos, nadie puede entender lo que ocurre dentro de ellos.
Entender cómo funcionan los sistemas de IA a través de la inteligencia artificial explicativa, permite a los desarrolladores asegurarse de que el sistema opere correctamente. También puede contribuir a garantizar que el modelo cumpla con los estándares reguladores y brinda la oportunidad de cuestionarlo o modificarlo.
Imagen: Dr. Matt Turek/DARPA
Diferencias entre Inteligencia Artificial y Inteligencia Artificial Explicativa
Existen características primordiales que distinguen la IA «tradicional» de la IA explicativa, destacando el hecho de que XAI aplica técnicas y métodos concretos que aseguran que todas las decisiones tomadas en el proceso de ML sean rastreables y explicables. Por contraste, la IA tradicional normalmente llega a su resultado mediante un algoritmo de ML, pero es casi imposible comprender de qué forma el algoritmo obtuvo dicho resultado. En el caso de la IA tradicional, verificar su precisión es extremadamente complejo, lo que puede acarrear la pérdida de control, responsabilidad y audibilidad.
Ventajas de la Inteligencia Artificial Explicativa
Hay numerosas ventajas para cualquier organización que busque adoptar la IA Explicativa, entre ellas:
- Obtención de resultados más rápidos: La Inteligencia Artificial Explicativa permite a las organizaciones supervisar y administrar modelos de manera sistemática para optimizar los resultados comerciales. Es posible evaluar y perfeccionar de forma continua el rendimiento del modelo y ajustar el desarrollo del mismo.
- Reducción de riesgos: Al aplicar procesos de IA explicativa, se garantiza que los modelos de IA sean comprensibles y transparentes. Permite el manejo de requerimientos regulatorios, de conformidad, de riesgos y de otro tipo al tiempo que minimiza la carga de la revisión manual. Todo esto también contribuye a mitigar el riesgo de sesgos indeseados.
- Cultivo de la confianza: La IA explicativa ayuda a generar confianza en la IA en producción. Los modelos de IA pueden implementarse de manera rápida, se puede garantizar la interpretabilidad y explicabilidad, y el proceso de evaluación del modelo se puede simplificar y hacer más transparente.
Técnicas para una Inteligencia Artificial Explicativa
Hay algunas técnicas XAI que todas las organizaciones deberían considerar y que comprenden tres métodos principales: precisión en la predicción, seguimientoy entendimiento de decisiones.
El primero de los tres métodos, precisión de la predicción, es clave para utilizar con éxito la IA en las operaciones cotidianas. Se pueden ejecutar simulaciones y los resultados de XAI se pueden comparar con los del conjunto de datos de entrenamiento, lo cual ayuda a determinar la exactitud de la predicción. Una de las técnicas más populares para lograr esto se conoce como Explicaciones Agnósticas de Modelos Interpretables Locales (LIME), una técnica que explica la predicción de clasificación mediante el algoritmo de aprendizaje automático.
El segundo método es rastreabilidad, que se consigue limitando cómo se pueden tomar decisiones y estableciendo un alcance más restringido para las reglas y las características del aprendizaje automático. Una de las técnicas más comunes de rastreabilidad es DeepLIFT, Deep Learning Important FeaTures. DeepLIFT compara la activación de cada neurona con su neurona de referencia, demostrando una conexión rastreable entre cada neurona activada. También muestra las dependencias entre ellas.
El tercer y último método es la comprensión de las decisiones, el cual está enfocado en las personas, en contraposición con los otros dos métodos. La comprensión de las decisiones implica instruir a la organización, en particular al equipo que trabaja con la IA, para que entiendan cómo y por qué la IA toma decisiones. Este método es crucial para establecer confianza en el sistema.
Principios de la Inteligencia Artificial Explicativa
Para dar una mejor comprensión de XAI y sus principios, el Instituto Nacional de Estándares (NIST), una parte del Departamento de Comercio de los Estados Unidos, provee las definiciones de cuatro principios de la Inteligencia Artificial Explicativa:
- Un sistema de IA debe proveer evidencias, respaldo o argumentos para cada resultado.
- Un sistema de IA debe ofrecer explicaciones que sus usuarios puedan entender.
- La explicación debe reflejar de manera precisa el proceso que utilizó el sistema para llegar a su resultado.
- El sistema de IA solo debe operar en situaciones para las que fue diseñado y no debería aportar resultados cuando no tenga suficiente seguridad en el mismo.
Estos principios pueden organizarse aún más en:
- Adecuado: Para alcanzar el principio de adecuación, el usuario debe entender la explicación aportada. Esto también podría significar que, si diferentes tipos de usuarios utilizan un algoritmo de IA, podrían haber múltiples explicaciones. Por ejemplo, en el caso de un vehículo autónomo, una explicación podría ser la siguiente: … «la IA clasificó la bolsa de plástico en la carretera como una piedra y por lo tanto, tomó medidas para evitar atropellarla». Mientras esta explicación pudiera funcionar para el conductor, no sería muy útil para un desarrollador de IA que busca corregir el problema. En ese caso, el desarrollador tendría que entender por qué se produjo una clasificación incorrecta.
- Precision en la explicación: A diferencia de la precisión de la salida, la precisión de la explicación implica que el algoritmo de IA explique con precisión cómo alcanzó su resultado. Por ejemplo, si un algoritmo de aprobación de préstamos explica una decisión en base a los ingresos de una solicitud cuando, en realidad, se basó en el lugar de residencia del solicitante, la explicación sería inexacta.
- Límites del conocimiento: Los límites del conocimiento de la IA se puede alcanzar de dos maneras, y implica que la entrada esté fuera de la experiencia del sistema. Por ejemplo, si se construye un sistema para clasificar especies de aves y se le da la imagen de una manzana, debería poder explicar que la entrada no es un pájaro. Si el sistema recibe una imagen borrosa, debería poder informar que no puede identificar el ave en la imagen o, alternativamente, que su identificación tiene muy poca confianza.
El papel de los datos en la Inteligencia Artificial Explicativa
Uno de los componentes más importantes de la IA explicativa son los datos.
Según Google, en relación con los datos y la IA explicativa, «un sistema de IA se comprende mejor mediante los datos y el proceso de entrenamiento subyacentes, así como el modelo de IA resultante». Esta comprensión depende de la capacidad de mapear un modelo de IA entrenado al conjunto de datos exacto usado para entrenarlo, así como de la capacidad de examinar en detalle los datos.
Para mejorar la explicabilidad de un modelo, es fundamental prestar atención a los datos de entrenamiento. Los equipos deben determinar el origen de los datos usados para entrenar un algoritmo, la legalidad y ética en torno a su obtención, cualquier sesgo posible en los datos y qué puede hacerse para mitigar cualquier sesgo.
Otro aspecto crítico de los datos y XAI es que se deben excluir los datos irrelevantes para el sistema. Para lograr esto, los datos irrelevantes no deben ser incluidos en el conjunto de entrenamiento ni en los datos de entrada.
Google ha recomendado un conjunto de prácticas para lograr interpretabilidad y responsabilidad:
- Planea tus opciones para lograr la interpretabilidad
- Trata la interpretabilidad como una parte esencial de la experiencia del usuario.
- Diseña el modelo para que sea interpretable.
- Elige métricas que reflejen el objetivo final y la tarea final
- Comprender el modelo entrenado
- Comunicar explicaciones a los usuarios del modelo.
- Lleve a cabo muchas pruebas para garantizar que el sistema de IA funcione según lo previsto.
Si sigues estas prácticas recomendadas, tu organización puede asegurarse de lograr una IA explicativa, que es clave para cualquier organización impulsada por la IA en el entorno actual.
LEE MÁS ARTÍCULOS SOBRE: Ciencia de Datos con IA.
LEE LA ENTRADA ANTERIOR: ¿Quieres formarte en inteligencia artificial? Descubre estos cursos online de Amazon.