Direito no Tribunal da IA: quando a máquina inventa leis e o advogado assina embaixo - Blog A CRÍTICA

Últimas

Post Top Ad

segunda-feira, 16 de março de 2026

Direito no Tribunal da IA: quando a máquina inventa leis e o advogado assina embaixo

Alerta do Ministério Público de Contas de SP expõe uma crise silenciosa que já rendeu multas, advertências e processos disciplinares na OAB em pelo menos seis tribunais brasileiros: advogados que usam inteligência artificial sem supervisão técnica e acabam apresentando leis, súmulas e jurisprudências que simplesmente não existem

Internet Direito e IA - Grupo RG Eventos


A cena se repete em câmaras e plenários de norte a sul do país: um desembargador lê uma petição, tenta localizar a jurisprudência citada nas bases oficiais e não encontra nada. Porque ela não existe. Foi criada por uma inteligência artificial que, ao ser pressionada por uma resposta, simplesmente inventou uma, com número de processo, nome de relator e ementa impecável. Tudo inverídico.

O episódio mais recente a acender o sinal de alerta veio do Ministério Público de Contas do Estado de São Paulo (MPC-SP). Durante sessão do Tribunal de Contas, a procuradora-geral Letícia Formoso Delsin Feres identificou irregularidades em autos submetidos à Corte: referências legais incorretas, relatorias divergentes da realidade e menção a dispositivos legais inexistentes no ordenamento jurídico brasileiro. O diagnóstico foi direto:

"Isso tem potencial de induzir o Tribunal a erro, de violar deveres de veracidade e de boa-fé e pode caracterizar, inclusive, litigância de má-fé"alertou Letícia Formoso Delsin Feres, procuradora-geral do MPC-SP durante sessão.

O que a procuradora-geral chamou de "alucinação jurídica por IA" não é um caso isolado. É um fenômeno em expansão e que já cobra um preço concreto de quem o ignora.

Modelos de linguagem como o ChatGPT e o Gemini funcionam prevendo qual palavra vem a seguir em uma sequência textual. Quando não têm a resposta certa, não dizem "não sei": constroem uma resposta minimamente plausível. No campo jurídico, isso pode significar a citação de um acórdão que nunca existiu, redigido com linguagem técnica perfeita, número de processo incluído.

José de Souza Junior, diretor do Grupo RG Eventos, especialista em inteligência artificial e segurança cibernética, responsável pela proteção cibernética de eventos institucionais internacionais como a COP30 entre outros, acompanha esse fenômeno de perto e alerta para a raiz do problema:

"Segundo vários relatos, o que vem acontecendo é que as pessoas têm utilizado a Inteligência Artificial, principalmente o ChatGPT, o Gemini, como uma forma de facilitador do trabalho. Só que as inteligências, muitas vezes, se elas não tiverem sido formatadas, configuradas da forma correta, ela pode gerar alucinações", pontua José de Souza Junior, do Grupo RG Eventos

O especialista ressalta que o problema não é novo, mas que o volume de casos revelados nos tribunais brasileiros indica que a questão saiu do campo teórico e entrou definitivamente na prática forense:

"Tem sido recorrente, em alguns tribunais, verificar, citar leis, artigos, jurisprudências, de uma forma que não existe. E isso tem gerado uma preocupação entre os gestores dos tribunais, os desembargadores e as pessoas responsáveis", afirma o especialista.

Os casos já documentados pela imprensa jurídica especializada revelam um padrão que se repete em diferentes regiões do país, e com consequências cada vez mais severas.

No Tribunal de Justiça de Santa Catarina (TJ-SC), dois casos em sequência chamaram atenção. No primeiro, a desembargadora Cinthia Beatriz da Silva Bittencourt Schaefer advertiu formalmente um advogado por apresentar habeas corpus com jurisprudências inexistentes, classificando a conduta como "ato de má-fé e desrespeito ao tribunal". No segundo, a mesma corte aplicou multa a advogado cujo recurso continha citações jurisprudenciais e referências a obras doutrinárias que eram, segundo o relator, "totalmente fictícias". O caso foi encaminhado à OAB/SC para apuração disciplinar.

No Tribunal Regional do Trabalho do Ceará (TRT-CE), a 3ª Turma condenou advogado ao pagamento de multa de 2% sobre o valor da causa — além de ofício à OAB-CE — após constatar a apresentação de decisões inexistentes com "fortes evidências de uso de ferramentas de inteligência artificial generativa". Em Minas Gerais, o TRT-MG confirmou multa por litigância de má-fé após advogado citar súmula que não existia nas bases oficiais.

Na Grande São Paulo, a 6ª Turma do TRT-2 foi além: além da multa por má-fé, rejeitou a tentativa do advogado de responsabilizar os estagiários do escritório pelo erro:

Além das alucinações jurídicas, José de Souza Junior chama atenção para uma dimensão do problema que ainda é pouco debatida nos círculos jurídicos: o risco à confidencialidade das informações inseridas nessas ferramentas:

"Às vezes, podem ter dados sensíveis, algumas informações que podem ser disseminadas na rede. E os dados sigilosos, às vezes, podem ser disponibilizados com a IA, porque hoje não tem uma regulamentação expressa. E isso pode gerar alguns problemas, devido a trabalhos com dados sigilosos, que podem ser compartilhados na rede, e essas perguntas, informações, serem disponibilizadas. E isso pode afetar, de uma forma, a estratégia da empresa, ou até comprometer a questão de sigilo”, alerta o diretor do Grupo RG Eventos.

Em um processo judicial, as informações que um advogado insere em uma ferramenta de IA generativa para redigir uma petição podem incluir dados do cliente, detalhes da estratégia defensiva, provas ainda não juntadas aos autos, informações empresariais sigilosas. Ao alimentar um modelo de linguagem com esse conteúdo sem verificar sua política de uso de dados, o profissional pode estar inadvertidamente tornando essas informações disponíveis para retreinamento de modelos ou armazenamento em servidores externos.

"Essa questão da Inteligência Artificial e da segurança cibernética, eles estão muito alinhados", alerta Souza Junior. Para o especialista, ignorar essa dimensão é tratar o sintoma, ou seja, a peça mal redigida, e ignorar a doença subjacente: a ausência de protocolo de segurança no uso corporativo e profissional de IA.

Desde 2024, o Conselho Federal da OAB editou a Recomendação 001/2024, que estabelece diretrizes para o uso de inteligência artificial generativa na prática jurídica. O documento exige entendimento adequado das limitações da ferramenta, verificação rigorosa das informações geradas, transparência com clientes e vedação à delegação de atos privativos do advogado sem supervisão qualificada.

A norma, no entanto, não tem força de lei. É uma recomendação. E os casos multiplicados nos tribunais indicam que boa parte da classe ainda não a incorporou à rotina. Em pelo menos dois processos documentados, os relatos apontam que advogados transferiram a responsabilidade pela pesquisa jurídica inteiramente a ferramentas de IA sem qualquer revisão posterior.

O magistrado de um dos casos foi preciso ao avaliar esse comportamento: uma peça gerada por IA sem verificação humana configuraria, em sua interpretação, "um ato processual inexistente".

Nem a procuradora-geral do MPC-SP nem os especialistas consultados defendem o banimento da inteligência artificial do Direito. O alerta é outro: a tecnologia chegou antes da preparação técnica e cultural dos profissionais para usá-la com responsabilidade.

Letícia Formoso Delsin Feres foi explícita ao ressalvar que a IA continua sendo um recurso importante para ganhos de eficiência, desde que acompanhada de controle humano rigoroso. E José de Souza Junior concorda, mas vai além ao diagnosticar o que está faltando:

"Todo mundo tem utilizado a Inteligência Artificial, só que as pessoas não estão tendo a informação, conhecimento técnico necessário para poder usar da forma correta. E isso é um problema. Independente do auxílio da Inteligência Artificial, que é uma transformação que, no meu ponto de vista, não volta, mas ele tem que ser usado com conhecimento técnico da pessoa para fazer revisão, checar as informações, de uma forma garantindo a veracidade de conteúdo e de dados", finaliza o diretor do Grupo RG EventosJosé de Souza Junior, especialista em segurança cibernética

O ponto central, segundo o especialista, não é proibir, mas capacitar. E estabelecer protocolos claros de verificação antes que a peça saia do escritório e chegue ao juiz.

O sinal emitido pelo MPC-SP é relevante justamente porque vem de dentro do sistema. Quando um órgão de controle usa uma sessão plenária para alertar sobre o problema, está sinalizando que a tolerância institucional com o erro por IA está chegando ao fim.

Os tribunais que já aplicaram multas e encaminharam casos à OAB estabeleceram um precedente claro: a ferramenta tecnológica não é uma desculpa. O advogado responde pelo conteúdo que assina. 

E enquanto o Marco Legal da Inteligência Artificial ainda tramita no Congresso Nacional sem regulamentação específica para o uso forense, a responsabilidade recai inteiramente sobre o profissional e sobre sua capacidade de entender o que está colocando em juízo. 

Leia mais em: https://gruporgeventos.com.br/index.php/blog/ 

Nenhum comentário:

Postar um comentário

Post Bottom Ad

Pages