XIA: La Inteligencia Artificial Explicable que Revoluciona la Transparencia en Decisiones Automatizadas

-

Una inteligencia artificial es como una máquina que aprende a decidir mirando muchos ejemplos.

Esos ejemplos son, como para una persona, experiencias. Experiencias que tomará con un criterio estadístico. Cuantos más casos repitan un pensamiento, una reacción, una manifestación, una información, primeros estarán sus paradigmas entre las respuestas de IA.

Supongamos que se le muestra a la IA miles de casos de personas que pidieron un préstamo.

La IA aprende patrones. Y luego puede decidir si un crédito “se aprueba” o “no se aprueba”.

No obstante en ese acto de informarse y razonar que supone la decisión el proceso no resulta claro. Es lo que se ha denominado la “caja negra” de la IA.

Muchas IA modernas (sobre todo las muy potentes) funcionan como una caja negra: Ofrecen una respuesta, pero no revelan por qué ni cómo han llegado a ella.

¿Cómo reaccionarías si fueras al médico y te preescribiera una droga y cuando le preguntaras para qué es, te dijera… “Bueno, no importa eso, lo importante es que lo tomes. ¿Acaso no confías en mí?”

La IA opera en algunos ámbitos muy sensibles de nuestra realidad. Este hábito multiplica los peligros y podría acarrear problemas gravísimos. La Banca, la salud y la justicia utilizan la IA permanentemente.

¿Qué soluciones se han pensado últimamente para afrontar esta potencial fábrica de inconvenientes? Aquí es donde irrumpe la denominada XIA o Inteligencia Artificial Explicable.

El objetivo es comprender cómo procesa y cómo inteligue la IA la información con que se la entrena.

Para ello se reunió un conjunto de técnicas para transparentar esa información opaca que se ha dado en llamar “caja negra”.

En Europa, por ejemplo, la EU AI Act ya exige transparencia/explicabilidad en sistemas de “alto riesgo” (como crédito o scoring). Esto empuja a que XIA sea casi obligatoria en muchos sectores.

El propósito es que se pueda

confiar más en la herramienta y sus productos; detectar sesgos y eventualmente corregir errores.

Planteemos un ejemplo. Supongamos un motor de crédito cuya función principal es aprobar o denegar préstamos recientemente incorporado por un banco que desea acelerar sus procesos.

El modelo no “piensa” como humano: calcula probabilidades con patrones que aprendió de miles de préstamos anteriores.

Deberá considerar y decidir si “acepta” o “denega” el crédito. Si lo hace ofreciendo solamente el resultado, habrá de resolver como una gran caja negra.

Por regulación y por confianza, el banco necesitará, en cambio, una explicación clara. Ahí entra la IA Explicable (XIA).

Pongamos por caso a Ana R., de 29 años, que el sistema registra con un ingreso mensual de $1.200.000. Con una antigüedad laboral de seis meses y una deuda actual de 800.000 pesos. En su historial de pagos figuran 2 atrasos en el último año. El sistema también arroja que la cuota supuesta resultaría el 45 % de su sueldo.

El veredicto de la IA suscribe: “No aprobar.”

Tanto la misma institución financiera como el propio solicitante, en este caso, Ana R., habrán de preguntarse “¿Por qué no?”

Y aquí es donde la XIA se explicará para conservar su transparencia y acreditar su veracidad y valor. Y lo hará por medio de tres capas:

1) Explicación tipo “qué pesó más”

XIA usa técnicas como SHAP o LIME para decir cuáles variables empujaron la decisión hacia “no aprobar”.

El sistema podría devolver algo así:

  • Historial de pagos con atrasos → impacta mucho en contra
  • Relación cuota/ingreso 45% → riesgo alto
  • Antigüedad laboral 6 meses → poca estabilidad
  • Ingreso $1.200.000 → neutral / un poco en contra
  • Edad 29 → casi no influyó

Esto es súper útil para el analista porque convierte el “no” en algo entendible. SHAP se usa justamente para eso en scoring crediticio.

¿Cómo debiera traducir esta decisión el agente humano con el que la clienta trata?

“La rechazamos más que nada porque tuvo atrasos recientes y porque la cuota le queda demasiado pesada para su ingreso.”

2) Explicación contrafactual: “qué tendría que pasar para que sí”

Esta parte es la más fácil de entender para un cliente.

El sistema contesta:

“Con tu situación actual no se aprueba.

Si tu relación cuota/ingreso bajara a 30%

o si tuvieras 0 atrasos en 12 meses, la aprobación cambiaría a ‘sí’.”

Seguramente esta explicación diera lugar a esperanza de cambiar esas condiciones y obtenerlo en un tiempo, pero también podría generar el barrunto de que si la cifra que se pidiera fuera menor, quizá ya mismo podría obtener el crédito.

En suma, es como si se le dijera:“Ana, si pides un poco menos (o en más cuotas) para que la cuota pese menos, sí te lo otorgaríamos.” O, en cambio, “Si logras pasar un año sin atrasos, sí lo aprobaríamos.”

3) Explicación para auditoría: “reglas simples”

A veces el banco necesita reglas que pueda mostrarle a un regulador o a auditoría interna.

Entonces XIA resume algo así:

“Se rechaza por: atrasos recientes > 1; y cuota/ingreso > 40 %”

Este análisis colabora con model risk management, una práctica que los reguladores bancarios vienen reforzando.

Este sistema pasó de ser una innovación a una obligación en muy poco tiempo. El motivo es que los sistemas de crédito están clasificados como IA de alto riesgo en Europa, y la ley exige: transparencia, explicaciones diáfanas y comprensibles,

trazabilidad, monitoreo continuo.

Lo cual significa que no alcanza con que la IA acierte. Tiene que poder justificarse de manera transparente.

En resumen

Sin XIA, se daría este diálogo:

Cliente: “¿Por qué me rechazaron?”

Banco: “No sabemos, lo dijo el modelo.”

Con XIA, por el contrario, el Banco diría:

  • “Te rechazamos tu pedido por 3 motivos principales.”
  • “Si cambias X o Y, lo aprobaremos.”
  • “Nuestra decisión cumple reglas auditables.”

Resultado para la institución financiera:

  • Más confianza.
  • Menos riesgo legal.
  • Mejor experiencia del cliente.
  • Más posibilidades de mejorar cada proceso.

Compartir artículo

Contenido reciente

Categorías populares