Es un tipo de inteligencia artificial que busca proporcionar explicaciones y justificaciones de sus decisiones y recomendaciones. A diferencia de la IA opaca o "negra", que suele ser más potente y eficaz, pero también más difícil de comprender y controlar, la IA explicativa persigue el objetivo de ser transparente, comprensible y auditables por los humanos.

Existen diferentes razones por las que la IA explicativa es importante:


Seguridad y fiabilidad: La IA explicativa puede ayudar a detectar y corregir errores, sesgos y anomalías en los sistemas de IA, lo que aumenta su seguridad y fiabilidad.

Rendición de cuentas y responsabilidad: La IA explicativa permite identificar quién es el responsable de las acciones y decisiones de un sistema de IA, lo que facilita la rendición de cuentas y la asunción de responsabilidades en caso de problemas o consecuencias negativas.

Comprensión y aprendizaje: La IA explicativa puede ayudar a los humanos a comprender cómo funciona un sistema de IA, qué criterios y reglas sigue, y cuáles son las limitaciones y ventajas de su diseño e implementación.

Confianza y aceptación: La IA explicativa puede aumentar la confianza y la aceptación de los humanos en los sistemas de IA, especialmente en aquellos que tienen un alto impacto social o ético, como la medicina, la justicia o la educación.


Algunas técnicas y métodos que se utilizan en la IA explicativa son:


Extracción de reglas: Consiste en identificar y generalizar las reglas implícitas que sigue un sistema de IA a partir de su comportamiento observado o de sus datos de entrenamiento.

Visualización de decisiones: Consiste en representar gráficamente los factores, criterios y relaciones que intervienen en una decisión o recomendación de un sistema de IA.

Interpretabilidad de modelos: Consiste en diseñar y entrenar modelos de IA que sean simples, compactos y fáciles de interpretar por los humanos, a costa de sacrificar algo de su precisión o eficiencia.

Explicación de casos: Consiste en proporcionar explicaciones y justificaciones personalizadas y adaptativas para cada caso o situación concreta que un sistema de IA deba enfrentar o resolver.

Auditoría y validación: Consiste en evaluar y verificar el cumplimiento de los criterios y estándares éticos, legales y sociales que un sistema de IA debe respetar y promover.


.

¿ Que es un modelo de lenguaje AI ?