O aprendizado de máquina ou Machine Learning (ML) é uma área da inteligência artificial que confere aos sistemas a capacidade de aprender através dos dados. Estas tecnologias são uma parte integral das empresas e da vida das pessoas na atualidade. Contudo, um desafio que se mantém é a interpretabilidade dos modelos de ML, isto é, a capacidade de compreender as decisões tomadas por esses sistemas.
Afinal, se vamos confiar a vida a essas tecnologias, como saber se podemos confiar nelas?
Interpretabilidade em ML
Importância
Podemos dizer que um modelo de Machine Learning é interpretável se é possível entender as razões pelas quais ele gerou uma determinada resposta ou tomou determinada decisão. Esta interpretabilidade pode ajudar os desenvolvedores a otimizarem seus modelos. Já que, ao entender porque um modelo está tomando uma decisão errada, é possível ajustar o algoritmo para melhorar sua performance. Além disso, a transparência nos processos decisórios ajuda a construir a confiança do usuário final na aplicação, sendo essencial em contextos em que as decisões da máquina têm alto impacto na vida das pessoas. Finalmente, a interpretabilidade pode ser uma exigência legal ou ética, especialmente em campos sensíveis como o da medicina ou o de crédito.
Desafios na Interpretabilidade
A interpretabilidade em ML tem seus desafios, um deles é o trade-off entre precisão e interpretabilidade. As redes neurais profundas, por exemplo, têm alta performance em tarefas de classificação e regressão, mas são difíceis de interpretar, ganhando, inclusive, o apelido de “caixas-pretas”.
Outro desafio é que a interpretabilidade é subjetiva, pois o que é considerado interpretável para um especialista pode não ser para um leigo. Isso significa que é preciso encontrar um equilíbrio entre a complexidade do modelo e a capacidade de o público-alvo entender suas decisões.
Metodologias de Interpretabilidade
A interpretabilidade de um modelo de ML pode ser conseguida por meio de duas abordagens: a intrínseca e a pós-hoc. A interpretabilidade intrínseca está relacionada à estrutura inerente do modelo. Por exemplo, os modelos baseados em árvores de decisão são interpretáveis por natureza, pois baseiam-se em uma hierarquia clara de regras condicionais.
Já a interpretabilidade pós-hoc trata-se de técnicas aplicadas após o treinamento do modelo.
Técnicas para Interpretabilidade
Diversas técnicas têm sido desenvolvidas para mitigar estes desafios e aprimorar a interpretabilidade de modelos de ML. Estes métodos são frequentemente divididos em modelos globais e locais. Se você busca entender o comportamento geral do seu modelo, utilize um método global. Por outro lado, se está interessado em explicar uma previsão específica, um método local será mais apropriado.
Métodos Globais de Interpretabilidade
Esses métodos procuram dar uma visão geral do comportamento do modelo de aprendizado de máquina em relação ao conjunto completo de dados. Exemplos desses métodos incluem os Partial Dependence Plots (PDPs) e os Accumulated Local Effects (ALE) Plots. Eles ajudam a determinar quais características são as mais importantes em média, como uma característica específica influencia a previsão em média; ou qual é a importância relativa de cada característica para a previsão geral.
Métodos Locais de Interpretabilidade
Os métodos locais visam entender as decisões do modelo para instâncias individuais de dados. Eles tentam responder à pergunta: por que o modelo fez essa previsão específica?. Dessa forma explicam por que um exemplo particular foi classificado ou previsto de uma determinada maneira.
O LIME (Local Interpretable Model-Agnostic Explanations), o Individual Conditional Expectation (ICE) e os valores de Shapley são exemplos de tais técnicas.
Conclusão
A interpretabilidade no ML é um elemento crucial para a confiabilidade e otimização dos modelos, ainda que encontrar o equilíbrio entre precisão e interpretabilidade represente um desafio.
Avanços em técnicas e ferramentas promovem cada vez mais um cenário em que a interpretabilidade em ML se torna mais viável e compreensível, indicando um futuro no qual a confiança nas decisões das máquinas seja tanto justificável quanto verificável.