IARA: A inteligência artificial do CarfA sociedade civil, a academia, o empresariado, a advocacia pública e privadadeveriam ser convidados a acompanhar a construção deste sistema

Anunciou-se que a inteligência artificial desenvolvida pelo Serviço Federal de Processamento de Dados (Serpro) irá transformar o Conselho Administrativo deRecursos Fiscais (Carf), reduzindo o tempo médio de tramitação dos processos de 6 anos para 1 ano. A solução foi batizada de IARA. A princípio,pode ser uma boa notícia … ou não.


No folclore brasileiro, IARA é uma sereia – parte mulher, parte peixe – com grandebeleza e voz sedutora, conhecida por atrair homens que estão nas margens de rios,levando-os definitivamente para o fundo d´água.


Assim como a sereia IARA, há um não folclórico medo da outra IARA – a inteligênciaartificial do Carf – fazer submergirem os contribuintes, justificando alguma desconfiança no anúncio.

É inegável que recursos tecnológicos são necessários para imprimir eficiência emtodos os níveis da administração pública. É certo que a sociedade quer e deve apoiara iniciativa, desde que esteja segura da
imparcialidade e da neutralidade daferramenta.


Segundo informado pelo Serpro “o sistema analisa o cumprimento de requisitos,separa processos de acordo com os pedidos, elabora resumos e, ‘destaco’, atécompõe decisões com base em jurisprudências, substituindo tarefas antesdesempenhadas por assessores. A tecnologia introduz o conceito da AdministraçãoTributária 3.0, que vai além da digitalização, trazendo inteligência para interpretarrelatórios, identificar alegações dos contribuintes, consultar jurisprudência e sugerirdecisões.” Reitero que é louvável a iniciativa, mas o seu uso deve ser definido com cautela e transparência , especialmente para conferir a necessária credibilidade às decisõesque com o apoio de IARA serão proferidas.


Isso porque é cediço que “o viés de inteligência artificial, também chamado de viésde aprendizado de máquina ou viés de algoritmo, refere-se à ocorrência deresultados tendenciosos devido a vieses humanos que distorcem os dados detreinamento originais ou o algoritmo de IA, levando a resultados distorcidos epotencialmente prejudiciais” (Holdsworth, IBM, 2023).


Os dados disponibilizados para usar qualquer sistema de inteligência artificialprecisam ser suficientes e adequados para utilização prática e confiável do sistema.Os dados são sempre colhidos do passado, inclusive com erros e iniquidadesanteriores. A inteligência artificial não entende se os dados a ela oferecidos sãoobjetivos ou subjetivos, ou seja, podem já carregar um juízo de valor apto a interferirna conclusão.

Mais do que isso, os algoritmos podem ampliar os vieses daferramenta, pois “quem desenvolve IAs geralmente está focado em atingir um objetivo específico, visando obter o resultado mais preciso com os dadosdisponíveis” (ilumeo.com.br, 2021).


Os desenvolvedores da inteligência artificial, especialmente quando destinada aoperacionalizar questões ligadas ao mundo do direito, devem ter uma dificuldade amais para automatizarem decisões, tamanha a quantidade de ciências que seentrelaçam com o direito, potencializando, sobretudo, a dificuldade de definir o queé imparcial ou justo. E sabemos que no direito há “trade-offs” na aplicação denormas e princípios que se chocam, exigindo a ponderação humana na busca poruma solução mais justa.
Os vieses em todas as ferramentas de inteligência artificial são fontes de muitosdebates e não por outra razão ainda não foram adotados pelo Poder Judiciário para“compor decisões”. Parece claro, ainda que para não especialistas como eu, que oviés pode fazer um sistema apresentado como neutro e sem preconceitosreproduza formas de discriminação contra determinados grupos. O documentário“Coded Bias” (Preconceito Codificado) veiculado em um canal de streaming abordouexemplos de violações de direitos por força da inserção de vieses humanos emalgoritmos.


Os dados, os algoritmos e as pessoas são as fontes possíveis de vieses. Mas, emúltima análise, “todas se resumem às pessoas, pois são elas que constroem a IA eselecionam os dados de treinamento” (Ilumeo, op. cit).


No artigo “Notes from the AI Frontier: Tackling Bias in AI (and in Humans)” (fonte:McKinsey Global Institute) destaca-se a necessidade de julgamento humano paragarantir que decisões suportadas por sistemas de inteligência artificial sejam justas.Embora métricas estatísticas e definições de justiça sejam úteis, elas não capturamtotalmente as nuances dos contextos onde os sistemas serão implementados.
O Carf é uma instituição centenária e de extrema importância na pacificação delitígios entre o Fisco e contribuintes, contando com integrantes altamente técnicos ebuscando a máxima qualidade de suas decisões. Não se espera que as decisõessejam totalmente automatizadas, mas que as ferramentas tecnológicas sejamcautelosamente utilizadas como suporte de pesquisa aos seus julgadores.

A sociedade civil, a academia, o empresariado, a advocacia pública e privadadeveriam ser convidados a acompanhar a construção deste sistema , sempre com acerteza de que o pré-consentimento dos agentes que atuam no microssistema doprocesso administrativo fiscal decorre do atestado de que há imparcialidade,neutralidade e, enfim, eficiência da ferramenta que contribuirá para a desejadajustiça administrativa.


Nunca é demais relembrar que o Carf não é órgão arrecadador, mas órgãopacificador e estabilizador de conflitos fiscais. É preciso ter empatia e colocar-se nolugar do outro, notadamente daqueles contra quem o Estado arrecadador lança suapoderosa força, por não raras vezes de forma exagerada e injusta, atribuindo-lhes agenérica pecha de devedores, detentos ou sonegadores.


Em tempos de árduo esforço para restabelecer a relação de confiança entre Fisco econtribuinte, não poderá IARA, nem a sereia e nem a inteligência artificial, assumir omenor risco de seduzir e afundar aqueles que se encantarem por sua beleza.

Fonte: Valor Econômico, 10/12/2024.

Facebook
X
LinkedIn
WhatsApp
Abrir bate-papo
Podemos ajudá-lo?