Personalizar preferências de consentimento

Utilizamos cookies para ajudar você a navegar com eficiência e executar certas funções. Você encontrará informações detalhadas sobre todos os cookies sob cada categoria de consentimento abaixo.

Os cookies que são classificados com a marcação “Necessário” são armazenados em seu navegador, pois são essenciais para possibilitar o uso de funcionalidades básicas do site.... 

Sempre ativo

Os cookies necessários são cruciais para as funções básicas do site e o site não funcionará como pretendido sem eles. Esses cookies não armazenam nenhum dado pessoalmente identificável.

Bem, cookies para exibir.

Cookies funcionais ajudam a executar certas funcionalidades, como compartilhar o conteúdo do site em plataformas de mídia social, coletar feedbacks e outros recursos de terceiros.

Bem, cookies para exibir.

Cookies analíticos são usados para entender como os visitantes interagem com o site. Esses cookies ajudam a fornecer informações sobre métricas o número de visitantes, taxa de rejeição, fonte de tráfego, etc.

Bem, cookies para exibir.

Os cookies de desempenho são usados para entender e analisar os principais índices de desempenho do site, o que ajuda a oferecer uma melhor experiência do usuário para os visitantes.

Bem, cookies para exibir.

Os cookies de anúncios são usados para entregar aos visitantes anúncios personalizados com base nas páginas que visitaram antes e analisar a eficácia da campanha publicitária.

Bem, cookies para exibir.

Conteúdo Jurídico

7 de abril de 2025

Assimetria Algorítmica: o risco jurídico que as empresas ainda não enxergam

Por: Francisco Petros e Bárbara Peixoto

As tecnologias disruptivas representam marcos de transformação profunda nas estruturas tradicionais da sociedade. Seus riscos e impactos decorrem não apenas do grau de inovação, mas, sobretudo, de sua potencial ruptura com padrões já consolidados. No caso da inteligência artificial (IA), à medida que essa tecnologia se torna cada vez mais indissociável da dinâmica e das estratégias empresariais, os riscos usuais da operação podem ser exponencialmente majorados.

Ferramentas de Inteligência Artificial já são utilizadas para a redação e análise de contratos, elaboração de relatórios financeiros, pareceres jurídicos, nos processos de due diligence, na seleção de candidatos, além de diversas outras atividades essenciais para as companhias. Mas, além dos riscos típicos associados ao uso da tecnologia, há aquele invisível aos olhos dos administradores e gestores: a assimetria algorítmica.

Diferentemente da assimetria informacional clássica, tal modalidade trata da disparidade de entendimento e de controle. Isso porque, ao passo que os fornecedores detêm o conhecimento sobre os dados de treinamento, a engenharia e os parâmetros decisórios daquela tecnologia, as empresas usuárias adquirem apenas o seu “produto final”, sem acesso aos critérios que regem as decisões daquela IA.

Trata-se, portanto, de um fenômeno conhecido como “caixa preta algorítmica”, e que dificulta a auditoria das respostas desses sistemas.

Então, como garantir que as respostas sejam neutras e isentas de vieses? E se tal distorção informacional não for apenas um aspecto intrínseco ao mercado, mas sim algo deliberadamente incentivado por certos negócios , como pelas grandes empresas de IA? Quais são os riscos e os impactos para um negócio administrado sob as “regras” de terceiros? Quem e quais são as responsabilidades daqueles envolvidos na operação – e fora dela?

Do ponto de vista jurídico, mesmo com as iniciativas do Projeto de Lei nº 2.338/2023, a ausência de regulação específica no Brasil cria um cenário de incertezas, marcado pela dificuldade de mensuração de impactos e de atribuição de responsabilidades. Ora, se um algoritmo de recrutamento discrimina candidatos ou, ainda, se há interpretações equivocadas na análise de contratos, quais serão as consequências jurídicas, financeiras e até operacionais para a empresa?

Sob a ótica da Governança Corporativa, há nuances ainda mais delicadas. A utilização dessas soluções tecnológicas, sem a correta compreensão de seus parâmetros, pode acabar por alterar os padrões de atuação, a forma de comunicação, a tomada de decisões, e até mesmo o referencial ético de uma determinada empresa – ou seja, toda a sua cultura organizacional.

De fato, no contexto da IA, ainda há mais perguntas do que respostas. O que se pode ter de certo é que a melhor forma de mitigar os riscos ainda está associada à robustez dos Programas de Compliance. É preciso, contudo, de um novo olhar sobre a governança tecnológica, com a criação de comitês específicos, definição de critérios para a aprovação de algoritmos, políticas internas adequadas aos novos comportamentos, revisão de cláusulas contratuais e treinamentos estratégicos aos colaboradores e parceiros.

Ao deixar de lado os riscos decorrentes da assimetria algorítmica, as empresas não apenas renunciam ao controle estratégico, mas se expõem a vulnerabilidades silenciosas e potencialmente devastadoras. A inteligência artificial está moldando não só a eficiência dos negócios, mas também a sua integridade e perenidade – isso sem que sequer seja percebido. Cabe às empresas, portanto, a decisão de serem protagonistas nesses processos ou apenas meras espectadoras das transformações de sua própria operação.