top of page

Inteligência Artificial Explicável, a forma segura de utilizar a tecnologia do século

  • AlfaZeta
  • 9 de jan. de 2024
  • 5 min de leitura

1 - O que é Inteligência Artificial Explicável?


A inteligência artificial explicável (XAI - Explainable Artificial Intelligence) consiste na capacidade de sistemas de inteligência artificial explicarem suas decisões e ações de uma forma capareceompreensível para nós seres humanos. É um campo de pesquisa em rápido crescimento, impulsionado pela necessidade de transparência e responsabilidade nos algoritmos de IA.


A importância da explicabilidade na IA reside no fato de que muitos algoritmos de aprendizado de máquina operam como "caixas pretas", ou seja, eles produzem resultados sem fornecer uma explicação clara sobre como chegaram a essas conclusões.


Embora os modelos de redes neurais sejam inspirados no cérebro humano, a forma como esses modelos aprendem durante o treinamento não tem relação direta com a forma com que o ser humano aprende, ele pode dar muita atenção a algum aspecto dos dados que um ser humano não daria e deixar passar outros que o ser humano daria mais importância. Isso acaba por fazer com que o conhecimento que está armazenado nos milhões de parâmetros do modelo de difícil compreensão. Essa característica pode ser problemática em várias situações, especialmente quando se trata de decisões críticas ou sensíveis, como diagnósticos médicos, decisões financeiras, seleção de candidatos, entre outros.


A explicabilidade da IA permite que os usuários compreendam as razões por trás das decisões tomadas pelos algoritmos, oferecendo insights e evidências que podem ser usados para validar e auditar as ações do sistema. Isso é particularmente importante em áreas regulamentadas, onde é necessário entender como as decisões são tomadas e como os resultados são justificados. Existem várias abordagens para alcançar a inteligência artificial explicável. Alguns métodos envolvem a interpretação de modelos de aprendizado de máquina, como a identificação de padrões importantes ou a geração de regras de decisão. Outras técnicas incluem o uso de técnicas de visualização para representar o processo de tomada de decisão de forma mais intuitiva.


A explicabilidade da IA também está relacionada à ética e à confiança nos sistemas de inteligência artificial. Ao fornecer explicações claras e transparentes, os usuários podem confiar mais nas decisões tomadas pelos algoritmos e ter uma melhor compreensão de como essas decisões podem afetá-los.

 

2 - Modelos de Contexto como forma de obter explicabilidade

 

Imagine que você tem um conjunto de variáveis e uma função objetivo e deseja construir um modelo de regressão. Imagine ainda que você tem motivos baseados nas características do fenômeno modelado que indicam que a relação deve ser linear entre as variáveis. Por simplicidade, vamos assumir que só existe uma variável, x, e uma função objetivo, y. Então, você tenta uma relação linear utilizando todos os dados e seu resultado não é bom, como ilustrado na Figura 1.


Figura 1 Tentativa de regressão linear com todos os dados disponíveis


Mas note que existem pontos azuis e pontos vermelhos. As cores dos pontos estão associadas a outras propriedades dos dados, diferentes de x. É visualmente claro que duas retas, uma para cada cor, ajustariam bem os dados, conforme pode ser visto na Figura 2. Neste caso simples, a escolha de qual modelo linear deve ser utilizado é feita por uma variável adicional, a cor. No caso geral, vamos chamar esta cor de CONTEXTO.

 

Figura 2 Tentativa de regressão linear dos dados disponíveis usando contexto

(uma regressão para cada cor)


Note que conseguimos manter a relação linear entre x e y, desde que separando os pontos pelo contexto (no caso, a cor). Então, para um novo valor de x que não esteja na base de dados, ou seja, para utilizar o modelo criado, precisamos antes saber qual é a cor e depois utilizar a equação da reta correspondente à cor do novo ponto. Neste caso foi muito simples, porque uma vez conhecida a cor do novo ponto, você sabe qual é a reta a utilizar, mas em casos reais não é tão simples.


Um analista de valuation, por exemplo, pode ter modelos setoriais para avaliação de empresas a partir de múltiplos. Normalmente esses modelos tem parâmetros que o analista estima com base em dados que possui e quando precisa avaliar uma nova empresa utiliza parâmetros que julga mais adequados para aquela situação. Mas será que esses parâmetros são independentes do contexto macroeconômico? E se fosse possível ajustar esses parâmetros a depender do contexto das condições de mercado? Ele ainda estaria utilizando o mesmo modelo que utilizava, com controle sobre quais variáveis estão levando à determinado resultado, mas parte do trabalho (no caso, a interpretação do contexto de mercado) estaria sendo feita por um modelo diferente, não necessariamente explicável. Modelos desse tipo é o que chamamos de modelo de contexto. O CONTEXT, criado pela AlfaZeta tem exatamente este propósito, foi criado para processar contexto e ajustar os parâmetros de modelos explicáveis.


A Figura 3 apresenta esquematicamente como funciona um modelo deste tipo. Dados de contexto são utilizados para construir um modelo que aprende a ajustar os parâmetros de um modelo explicável, idealmente um modelo já consolidado e bem aceito como forma de modelar um fenômeno. Então, para um certo contexto, o que o modelo de IA faz é definir quais são os parâmetros desse modelo conhecido.


Figura 3 Modelo de IA utilizando para aprender contexto e definir os parâmetros de um modelo explicável


3 - Vantagens dessa abordagem

 

Para comentar sobre vantagens vamos assumir como base de comparação um modelo de Inteligência Artificial não explicável ou cujas decisões sejam difíceis de explicar. Modelos desse tipo não necessariamente te deixam no escuro, você pode analisar seu comportamento através da realização de testes e construção de proxys.


Uma primeira vantagem é muito clara, o usuário continuará utilizando modelos que ele conhece e tem sensibilidade sobre seu comportamento. Além de ser bom do ponto de vista de facilidade para identificar distorções, há também a questão comportamental, uma vez que, embora seja uma mudança, a segurança do usuário ao utilizar um modelo híbrido de contexto e explicável tende a ser maior, uma vez que a decisão em si (embora com parâmetros definidos por um modelo de IA) sairá de um modelo que ele já domina.


Embora os modelos de contexto sejam tão complexos quanto os modelos não explicáveis, afinal são também modelos de IA com muitos parâmetros, baseados na maioria das vezes em redes neurais profundas, o fato de parte modelagem ser feita de forma conceitual pelo modelo fundamentalista explicável tende a fazer como um todo o modelo tenha menos parâmetros de ajuste, reduzindo o risco de overfitting.


Outra vantagem relevante do modelo explicável é a documentação do processo decisório. Imagine que um projeto de bilhões está sendo aprovado com base em estimativas de preço de petróleo. Se um modelo explicável está sendo utilizado na decisão, embora os parâmetros do modelo que aprende contexto sejam em quantidade muito grande, os do modelo fundamentalista explicável em geral não são, facilitando a documentação.


Você deve estar se perguntando “mas como explicar a decisão do modelo de IA por elevar tanto um certo parâmetro e reduzir tanto outro, o que justifica isso?” É um questionamento muito pertinente e, de fato, a explicabilidade desse modelo é ruim, uma vez que é preciso fazer análises de sensibilidades e ajuste de proxys para estimar quanto mudanças nas características do contexto mudam a saída desse modelo de IA (que são os parâmetros do modelo explicável). Dessa forma, o que estamos fazendo na verdade é incluindo uma camada explicável no processo. Mas não uma camada qualquer, a camada final, que é a que define o resultado e cuja interpretação já faz parte da rotina do analista.


Marcus Vinicius de Oliveira

AlfaZeta Tecnologia

 
 
  • Linkedin

©2026 by AlfaZeta

bottom of page