Saltar al contenido

El desafío y las soluciones emergentes al problema de la caja negra en los LLM

27/12/2023
El Desafio Y Las Soluciones Emergentes Al Problema De La

El machine learning, una rama de la Inteligencia Artificial (IA), tiene tres componentes fundamentales: los algoritmos, los datos de aprendizaje y el consiguiente modelo generado. Un algoritmo, en esencia, es un grupo de procedimientos que aprende a reconocer patrones a partir de un amplio set de ejemplos, proporcionados por los datos de entrenamiento. Como resultado de este proceso de aprendizaje, se obtiene un modelo de machine learning. Para ilustrar, un algoritmo que se entrena con imágenes de perros, daría como resultado un modelo capaz de reconocer caninos en otras imágenes.

El fenómeno de la caja negra en machine learning

En el machine learning, cualquier componentes de los tres mencionados (algoritmo, datos de entrenamiento o modelo) puede convertirse en una caja negra. Aunque los algoritmos suelen ser de conocimiento común, los desarrolladores pueden decidir mantener en secreto el modelo o los datos de entrenamiento con el fin de proteger la propiedad intelectual. Esta falta de transparencia complica la comprensión del proceso de toma de decisiones de la IA.

Error 403 The request cannot be completed because you have exceeded your quota. : quotaExceeded

Las cajas negras de IA representan sistemas en los que el funcionamiento interno es opaco o invisible para los usuarios. Los usuarios pueden introducir datos y obtener resultados, sin embargo, la lógica o el código que genera los resultados permanece oculto. Esta es una característica habitual en muchos sistemas de IA, incluyendo los modelos generativos avanzados como ChatGPT y DALL-E 3.

Los LLM como GPT-4 suponen un desafío importante: su funcionamiento interno es en gran medida opaco, convirtiéndolos en «cajas negras». Tal falta de transparencia no es solo un enigma técnico; plantea preocupaciones éticas y de seguridad en la vida real. Por ejemplo, si no podemos entender cómo llegan a sus conclusiones, ¿cómo podemos confiar en ellos en áreas tan críticas como los diagnósticos médicos o las evaluaciones financieras?

Investigación en las técnicas de LIME y SHAP

La interoperabilidad en modelos de machine learning (ML) y deep learning (DL) nos permite analizar el funcionamiento interno de estos complejos sistemas. Las técnicas de interpretabilidad conocidas como Model-Agnostic Local Interpretable Explanations (LIME) y la SHApley Additive exPlanations (SHAP) son dos de las técnicas ampliamente utilizadas para esto.

LIME, por ejemplo, disminuye la complejidad mediante la creación de modelos sustitutos locales más sencillos que imitan el comportamiento del modelo original en torno a un input específico. Al hacer esto, LIME ayuda a comprender cómo las características individuales influyen en las predicciones de modelos complejos, proporcionando esencialmente una explicación «local» de por qué un modelo tomó una determinada decisión. Esta herramienta resulta muy útil para los usuarios que no tengan conocimientos técnicos, pues traduce el complejo proceso de toma de decisiones de los modelos en términos más simples.

En cambio, SHAP se basa en la teoría de juegos, específicamente en el concepto de valores de Shapley. Asigna un valor de «importancia» a cada característica, indicando cuánto contribuye cada característica a la diferencia entre la predicción actual y la predicción de referencia (la predicción promedio de todas las entradas). La fortaleza de SHAP radica en su coherencia y capacidad para proporcionar una visión global: no solo explica las predicciones individuales sino que también proporciona información sobre el modelo en su conjunto. Esto es especialmente valioso en los modelos de deep learning, donde las capas interconectadas y múltiples parámetros a menudo convierten el proceso de predicción en un viaje a través de un laberinto. SHAP desentraña esta complejidad cuantificando la contribución de cada característica, ofreciendo un mapa más claro de cómo toma decisiones el modelo.

Tanto LIME como SHAP se han convertido en herramientas esenciales en el campo de la IA y el machine learning, abordando la crítica necesidad de transparencia y confianza. A medida que seguimos integrando la IA más profundamente en varios sectores, la capacidad de interpretar y comprender estos modelos se transforma no solo en una necesidad técnica sino en un requisito indispensable para el desarrollo ético y responsable de la IA. Estas técnicas representan avances significativos para desentrañar las complejidades de los modelos ML y DL, transformándolos de «cajas negras» en sistemas comprensibles cuyas decisiones y comportamientos pueden entenderse, confiarse y utilizarse de manera efectiva.

La escala y complejidad en los modelos LLM

Con estos modelos, el incremento de su escala trae consigo un aumento de su complejidad. Por ejemplo, el GPT-3, con sus 175 billones de parámetros, y los modelos más recientes con incluso billones más. Cada parámetro interactúa dentro de la red neuronal de manera compleja, aportando a capacidades emergentes que no se pueden predecir únicamente examinando componentes individuales. Esta escala y complejidad hacen que sea prácticamente imposible entender completamente su lógica interna, lo que dificulta el diagnóstico de sesgos o comportamientos no deseados en dichos modelos.

El equilibrio: Escala vs. Interpretabilidad

Si se reduce la escala de los modelos LLM, se podría mejorar la interpretabilidad, pero podrían perderse algunas de sus avanzadas capacidades. La escala es lo que permite que los modelos desarrollen comportamientos que los modelos más pequeños no pueden lograr. Esto presenta un equilibrio inherente entre la escala, la habilidad y la interpretabilidad.

LEE MÁS ARTÍCULOS SOBRE: Ciencia de Datos con IA.

LEE LA ENTRADA ANTERIOR: Google Gemini IA multimodal: una inmersión técnica profunda.