Uma inteligência artificial é como uma máquina que aprende a decidir observando muitos exemplos.
Esses exemplos são, como para uma pessoa, experiências. Experiências que serão avaliadas com um critério estatístico. Quanto mais casos repitam um pensamento, uma reação, uma manifestação, uma informação, mais presentes estarão esses paradigmas entre as respostas da IA.
Suponhamos que sejam mostrados à IA milhares de casos de pessoas que solicitaram um empréstimo.
A IA aprende padrões. E depois pode decidir se um crédito “é aprovado” ou “não é aprovado”.
No entanto, nesse ato de se informar e raciocinar que envolve a decisão, o processo não fica claro. É o que se chama de “caixa-preta” da IA.
Muitas IAs modernas (especialmente as mais potentes) funcionam como uma caixa-preta: oferecem uma resposta, mas não revelam por que nem como chegaram até ela.
Como você reagiria se fosse ao médico e ele prescrevesse um medicamento e, ao perguntar para que serve, ele dissesse… “Bom, isso não importa, o importante é que você tome. Você não confia em mim?”
A IA opera em alguns âmbitos muito sensíveis da nossa realidade. Esse hábito multiplica os perigos e pode acarretar problemas gravíssimos. Bancos, saúde e justiça utilizam IA permanentemente.
Que soluções foram pensadas recentemente para enfrentar essa potencial fábrica de inconvenientes? Aqui entra a chamada XIA, ou Inteligência Artificial Explicável.
O objetivo é compreender como a IA processa e interpreta (“intelige”) a informação com a qual foi treinada.
Para isso, reuniu-se um conjunto de técnicas para tornar transparente essa informação opaca que é chamada de “caixa-preta”.
Na Europa, por exemplo, a EU AI Act já exige transparência/explicabilidade em sistemas de “alto risco” (como crédito ou scoring). Isso faz com que a XIA seja quase obrigatória em muitos setores.
O propósito é que seja possível:
confiar mais na ferramenta e nos seus produtos; detectar vieses e eventualmente corrigir erros.
Vamos a um exemplo. Suponhamos um motor de crédito cuja função principal é aprovar ou negar empréstimos recentemente incorporado por um banco que deseja acelerar seus processos.
O modelo não “pensa” como um humano: calcula probabilidades com padrões que aprendeu a partir de milhares de empréstimos anteriores.
Ele deverá considerar e decidir se “aceita” ou “nega” o crédito. Se fizer isso oferecendo apenas o resultado, estará atuando como uma grande caixa-preta.
Por regulamentação e por confiança, o banco precisará, em vez disso, de uma explicação clara. É aí que entra a IA Explicável (XIA).
Vejamos o caso de Ana R., 29 anos, registrada pelo sistema com renda mensal de R$ 1.200.000, com seis meses de antiguidade no trabalho e uma dívida atual de R$ 800.000. Em seu histórico de pagamentos constam dois atrasos no último ano. O sistema também indica que a parcela representaria 45% de seu salário.
O veredicto da IA é: “Não aprovar.”
Tanto a instituição financeira quanto a própria solicitante, neste caso Ana R., irão se perguntar: “Por quê?”
E aqui é onde a XIA se explicará para manter sua transparência e comprovar sua veracidade e valor. E fará isso por meio de três camadas:
1) Explicação do tipo “o que pesou mais”
A XIA usa técnicas como SHAP ou LIME para dizer quais variáveis empurraram a decisão para “não aprovar”.
O sistema poderia devolver algo assim:
- Histórico de pagamentos com atrasos → impacto muito negativo
- Relação parcela/renda 45% → risco alto
- Antiguidade no trabalho 6 meses → pouca estabilidade
- Renda R$ 1.200.000 → neutro / levemente negativo
- Idade 29 → pouca influência
Isso é extremamente útil para o analista porque transforma o “não” em algo compreensível. SHAP é usado justamente para isso em scoring de crédito.
Como deveria traduzir essa decisão o agente humano que atende a cliente?
“Negamos principalmente porque você teve atrasos recentes e porque a parcela ficaria muito pesada em relação à sua renda.”
2) Explicação contrafactual: “o que teria que mudar para que fosse aprovado”
Esta é a parte mais fácil de entender para um cliente.
O sistema responde:
“Com sua situação atual, não é aprovado.
Se sua relação parcela/renda baixasse para 30%
ou se você tivesse 0 atrasos em 12 meses, a aprovação mudaria para ‘sim’.”
Certamente essa explicação daria esperança de mudar essas condições e conseguir o crédito em breve, mas também poderia gerar a ideia de que, se o valor solicitado fosse menor, talvez já pudesse obter o empréstimo imediatamente.
Em resumo, é como dizer: “Ana, se você pedir um pouco menos (ou em mais parcelas) para que o valor pese menos no orçamento, nós aprovaríamos.” Ou então: “Se você passar um ano sem atrasos, aprovaremos.”
3) Explicação para auditoria: “regras simples”
Às vezes o banco precisa de regras que possa mostrar a um regulador ou auditoria interna.
Então a XIA resume algo assim:
“Rejeita-se por: atrasos recentes > 1; e parcela/renda > 40%.”
Essa análise contribui para o model risk management, uma prática que os reguladores bancários vêm reforçando.
Esse sistema deixou de ser uma inovação para se tornar uma obrigação em muito pouco tempo. A razão é que sistemas de crédito são classificados como IA de alto risco na Europa, e a lei exige: transparência, explicações claras e compreensíveis,
rastreabilidade, monitoramento contínuo.
O que significa que não basta a IA acertar. Ela precisa justificar-se de maneira transparente.
Em resumo
Sem XIA, o diálogo seria:
Cliente: “Por que meu pedido foi recusado?”
Banco: “Não sabemos, foi o modelo que disse.”
Com XIA, por outro lado, o banco diria:
- “Rejeitamos por três motivos principais.”
- “Se você mudar X ou Y, aprovaremos.”
- “Nossa decisão cumpre regras auditáveis.”
E o resultado para a instituição financeira será:
- Mais confiança.
- Menos risco legal.
- Melhor experiência do cliente.
- Mais oportunidades de melhorar cada processo.

