Você já se perguntou como as máquinas conseguem tomar decisões complexas e realizar previsões? O campo da inteligência artificial é muito fascinante, porém enfrenta frequentemente uma dificuldade considerável: como depositar confiança em um modelo cujos procedimentos são opacos e de difícil compreensão?
Os sistemas de aprendizado de máquina ainda são, em sua maioria, caixas pretas que, embora possam alcançar bons índices de precisão e acurácia, são muito difíceis de interpretar, explicar ou auditar. O termo caixa preta, nesse contexto, refere-se a modelos em que sabemos quais são as entradas e saídas, mas não compreendemos facilmente o que acontece internamente.
Essa falta de transparência é bem preocupante, principalmente em áreas críticas em que essas previsões podem ter consequências significativas, como por exemplo, saúde, finanças ou aplicação da lei. Nesses casos, é muito importante entender os motivos pelos quais determinada decisão foi tomada para que possamos garantir que tenha sido feito de forma justa, ética e sem preconceitos. Afinal, certas decisões impactam significativamente as vidas das pessoas e nem sempre de forma positiva.
Para lidar com esse problema e ajudar a desenvolver modelos de inteligência artificial transparentes e compreensíveis, temos a inteligência artificial explicável (ou XAI) que é um campo que faz uso de técnicas de aprendizado de máquinas combinadas com outras áreas de estudo e surgiu com o objetivo de desenvolver modelos mais explicáveis que permitam aos humanos entenderem o processo de tomada de decisão do sistema.
Algumas famílias de algoritmos de ML já possuem modelos transparentes que são interpretáveis por si só e fornecem uma explicação para as suas previsões. E para aqueles modelos chamados opacos que demandam um processo de explicação adicional, podemos usar as abordagens da XAI para obtermos sistemas explicáveis. Algumas delas são:
- LIME (Local Interpretable Model-Agnostic Explanations): é uma técnica que fornece explicações locais para as previsões fazendo uso de modelos substitutos que são treinados para aproximar as saídas de um modelo caixa preta e explicar previsões individuais;
- SHAP (SHapley Additive exPlanations): é um método para explicar previsões individuais que usa a teoria dos jogos para atribuir valores a cada recurso. Seu objetivo é explicar a previsão de uma determinada instância calculando a contribuição de cada característica para a previsão;
- Anchor: é uma técnica que fornece regras de decisão compreensíveis para os modelos de caixa preta. Ela identifica condições lógicas simples que são suficientes para uma determinada previsão ser verdadeira.
Essas são apenas algumas das técnicas existentes, para saber mais sobre esse tema e seus métodos recomendo o excelente livro do Christoph Molnar, Interpretable Machine Learning: A Guide for Making Black Box Models Explainable. Leitura essencial que aborda o tema de explicabilidade de forma simples e visual.
No mais, é importante destacar que a inteligência artificial explicável é um campo essencialmente novo e uma explicação completa pode não ser possível, especialmente em modelos muito complexos. No entanto, o uso desses métodos já oferece um nível de transparência e compreensão que pode ajudar a reduzir riscos e aumentar a confiança dos usuários nos sistemas de IA.