
Assimetria Algorítmica: o risco jurídico que as empresas ainda não enxergam
Por: Francisco Petros e Bárbara Peixoto
As tecnologias disruptivas representam marcos de transformação profunda nas estruturas tradicionais da sociedade. Seus riscos e impactos decorrem não apenas do grau de inovação, mas, sobretudo, de sua potencial ruptura com padrões já consolidados. No caso da inteligência artificial (IA), à medida que essa tecnologia se torna cada vez mais indissociável da dinâmica e das estratégias empresariais, os riscos usuais da operação podem ser exponencialmente majorados.
Ferramentas de Inteligência Artificial já são utilizadas para a redação e análise de contratos, elaboração de relatórios financeiros, pareceres jurídicos, nos processos de due diligence, na seleção de candidatos, além de diversas outras atividades essenciais para as companhias. Mas, além dos riscos típicos associados ao uso da tecnologia, há aquele invisível aos olhos dos administradores e gestores: a assimetria algorítmica.
Diferentemente da assimetria informacional clássica, tal modalidade trata da disparidade de entendimento e de controle. Isso porque, ao passo que os fornecedores detêm o conhecimento sobre os dados de treinamento, a engenharia e os parâmetros decisórios daquela tecnologia, as empresas usuárias adquirem apenas o seu “produto final”, sem acesso aos critérios que regem as decisões daquela IA.
Trata-se, portanto, de um fenômeno conhecido como “caixa preta algorítmica”, e que dificulta a auditoria das respostas desses sistemas.
Então, como garantir que as respostas sejam neutras e isentas de vieses? E se tal distorção informacional não for apenas um aspecto intrínseco ao mercado, mas sim algo deliberadamente incentivado por certos negócios , como pelas grandes empresas de IA? Quais são os riscos e os impactos para um negócio administrado sob as “regras” de terceiros? Quem e quais são as responsabilidades daqueles envolvidos na operação – e fora dela?
Do ponto de vista jurídico, mesmo com as iniciativas do Projeto de Lei nº 2.338/2023, a ausência de regulação específica no Brasil cria um cenário de incertezas, marcado pela dificuldade de mensuração de impactos e de atribuição de responsabilidades. Ora, se um algoritmo de recrutamento discrimina candidatos ou, ainda, se há interpretações equivocadas na análise de contratos, quais serão as consequências jurídicas, financeiras e até operacionais para a empresa?
Sob a ótica da Governança Corporativa, há nuances ainda mais delicadas. A utilização dessas soluções tecnológicas, sem a correta compreensão de seus parâmetros, pode acabar por alterar os padrões de atuação, a forma de comunicação, a tomada de decisões, e até mesmo o referencial ético de uma determinada empresa – ou seja, toda a sua cultura organizacional.
De fato, no contexto da IA, ainda há mais perguntas do que respostas. O que se pode ter de certo é que a melhor forma de mitigar os riscos ainda está associada à robustez dos Programas de Compliance. É preciso, contudo, de um novo olhar sobre a governança tecnológica, com a criação de comitês específicos, definição de critérios para a aprovação de algoritmos, políticas internas adequadas aos novos comportamentos, revisão de cláusulas contratuais e treinamentos estratégicos aos colaboradores e parceiros.
Ao deixar de lado os riscos decorrentes da assimetria algorítmica, as empresas não apenas renunciam ao controle estratégico, mas se expõem a vulnerabilidades silenciosas e potencialmente devastadoras. A inteligência artificial está moldando não só a eficiência dos negócios, mas também a sua integridade e perenidade – isso sem que sequer seja percebido. Cabe às empresas, portanto, a decisão de serem protagonistas nesses processos ou apenas meras espectadoras das transformações de sua própria operação.