Banimento do Grok: problemas reais com soluções frágeis - Blog A CRÍTICA

"Imprensa é oposição. O resto é armazém de secos e molhados." (Millôr Fernandes)

Últimas

Post Top Ad

segunda-feira, 19 de janeiro de 2026

Banimento do Grok: problemas reais com soluções frágeis

Alexander Coelho é especialista em Direito Digital e Proteção de Dados Divulgação/M2 Comunicação


Alexander Coelho*


A recente mobilização de entidades pedindo o banimento do Grok, ferramenta de inteligência artificial vinculada à plataforma X, sob o argumento de que estaria gerando imagens sexualizadas, inclusive envolvendo menores, reacende um velho vício do debate regulatório brasileiro: reagir a problemas reais com soluções juridicamente frágeis e simbolicamente barulhentas.

É importante ser claro desde o início. A criação, manipulação ou disseminação de imagens sexualizadas de crianças e adolescentes é crime grave, no Brasil e no mundo. Não há zona cinzenta aqui. O Estatuto da Criança e do Adolescente, o Código Penal e tratados internacionais já oferecem base normativa suficiente para repressão severa dessas condutas. O problema, portanto, não é a ausência de lei. É a dificuldade de aplicação eficaz em um ecossistema digital complexo.

O erro começa quando se desloca o foco da conduta ilícita, praticada por indivíduos, para a tecnologia em si, como se o simples banimento de uma ferramenta resolvesse o fenômeno. Não resolve. Apenas cria a ilusão de ação estatal enquanto o problema migra para a próxima plataforma, o próximo modelo, o próximo país.

Há ainda um risco institucional relevante: transformar casos extremos, moralmente chocantes, em justificativa para decisões amplas, genéricas e pouco proporcionais. Banir uma ferramenta de IA porque seus filtros falharam não é muito diferente de defender o fechamento de uma gráfica porque alguém imprimiu material ilegal. A analogia pode incomodar, mas é juridicamente correta.

Isso não significa isentar plataformas de responsabilidade. Pelo contrário. A discussão correta não é “banir ou não banir”, mas sim quais deveres concretos de diligência, mitigação de riscos e respostas rápidas devem ser exigidos de quem desenvolve e opera sistemas de IA generativa. Especialmente quando envolvem imagem, voz e identidade de terceiros.

Do ponto de vista da proteção de dados, há questões sérias: uso indevido de dados pessoais, violação do direito à imagem, falhas de segurança e ausência de salvaguardas adequadas para públicos vulneráveis. Tudo isso pode e deve ser apurado pela ANPD, pelo Ministério Público e pelo Judiciário, caso a caso, com base em evidências técnicas, não em manchetes.

O perigo maior é permitir que episódios legítimos de indignação sejam instrumentalizados para acelerar agendas regulatórias maximalistas, que tratam a IA como um risco abstrato a ser contido, e não como uma tecnologia concreta a ser governada. A história recente mostra que esse caminho costuma resultar em dois efeitos colaterais: sufocamento da inovação responsável e concentração de mercado nas mãos de poucos players capazes de suportar custos regulatórios excessivos.

Proteger crianças é obrigação inegociável. Mas isso se faz com investigação qualificada, responsabilização proporcional, cooperação internacional e exigência técnica real das plataformas, não com proibições genéricas que produzem aplausos imediatos e resultados práticos quase nulos.

A Inteligência Artificial impõe desafios inéditos ao Direito, mas não autoriza sua erosão. Pelo contrário: quanto maior a complexidade tecnológica, maior deve ser o compromisso com a racionalidade normativa, a proporcionalidade regulatória e o respeito ao devido processo legal. Substituir análise técnica por reação, proporcionalidade por proibição e garantias processuais por decisões sumárias pode até gerar conforto simbólico e manchetes imediatas, mas não produz justiça nem soluções duradouras.

O papel do Direito não é oferecer atalhos regulatórios movidos por comoção pública, e sim construir respostas institucionais maduras, baseadas em evidência, responsabilização individual e garantias que preservem a legitimidade do próprio sistema jurídico, cada vez mais tensionada nos últimos tempos.



*Alexander Coelho é sócio do Godke Advogados, advogado especializado em Direito Digital, IA e Cibersegurança. CIPM (Certified Information Privacy Manager) pela IAPP (International Association of Privacy Professionals). É membro da Comissão de Privacidade e Proteção de Dados e Inteligência Artificial (IA) da OAB/São Paulo. Pós-graduado em Digital Services pela Faculdade de Direito de Lisboa (Portugal).

Nenhum comentário:

Postar um comentário

Post Bottom Ad

Pages