Alexander Coelho é especialista em Direito Digital e Proteção de Dados Divulgação/M2 Comunicação
Alexander Coelho*
A recente mobilização de entidades pedindo o banimento do Grok, ferramenta de inteligência artificial vinculada à plataforma X, sob o argumento de que estaria gerando imagens sexualizadas, inclusive envolvendo menores, reacende um velho vício do debate regulatório brasileiro: reagir a problemas reais com soluções juridicamente frágeis e simbolicamente barulhentas.
É importante ser claro desde o início. A criação, manipulação ou disseminação de imagens sexualizadas de crianças e adolescentes é crime grave, no Brasil e no mundo. Não há zona cinzenta aqui. O Estatuto da Criança e do Adolescente, o Código Penal e tratados internacionais já oferecem base normativa suficiente para repressão severa dessas condutas. O problema, portanto, não é a ausência de lei. É a dificuldade de aplicação eficaz em um ecossistema digital complexo.
O erro começa quando se desloca o foco da conduta ilícita, praticada por indivíduos, para a tecnologia em si, como se o simples banimento de uma ferramenta resolvesse o fenômeno. Não resolve. Apenas cria a ilusão de ação estatal enquanto o problema migra para a próxima plataforma, o próximo modelo, o próximo país.
Há ainda um risco institucional relevante: transformar casos extremos, moralmente chocantes, em justificativa para decisões amplas, genéricas e pouco proporcionais. Banir uma ferramenta de IA porque seus filtros falharam não é muito diferente de defender o fechamento de uma gráfica porque alguém imprimiu material ilegal. A analogia pode incomodar, mas é juridicamente correta.
Isso não significa isentar plataformas de responsabilidade. Pelo contrário. A discussão correta não é “banir ou não banir”, mas sim quais deveres concretos de diligência, mitigação de riscos e respostas rápidas devem ser exigidos de quem desenvolve e opera sistemas de IA generativa. Especialmente quando envolvem imagem, voz e identidade de terceiros.
Do ponto de vista da proteção de dados, há questões sérias: uso indevido de dados pessoais, violação do direito à imagem, falhas de segurança e ausência de salvaguardas adequadas para públicos vulneráveis. Tudo isso pode e deve ser apurado pela ANPD, pelo Ministério Público e pelo Judiciário, caso a caso, com base em evidências técnicas, não em manchetes.
O perigo maior é permitir que episódios legítimos de indignação sejam instrumentalizados para acelerar agendas regulatórias maximalistas, que tratam a IA como um risco abstrato a ser contido, e não como uma tecnologia concreta a ser governada. A história recente mostra que esse caminho costuma resultar em dois efeitos colaterais: sufocamento da inovação responsável e concentração de mercado nas mãos de poucos players capazes de suportar custos regulatórios excessivos.
Proteger crianças é obrigação inegociável. Mas isso se faz com investigação qualificada, responsabilização proporcional, cooperação internacional e exigência técnica real das plataformas, não com proibições genéricas que produzem aplausos imediatos e resultados práticos quase nulos.
A Inteligência Artificial impõe desafios inéditos ao Direito, mas não autoriza sua erosão. Pelo contrário: quanto maior a complexidade tecnológica, maior deve ser o compromisso com a racionalidade normativa, a proporcionalidade regulatória e o respeito ao devido processo legal. Substituir análise técnica por reação, proporcionalidade por proibição e garantias processuais por decisões sumárias pode até gerar conforto simbólico e manchetes imediatas, mas não produz justiça nem soluções duradouras.
O papel do Direito não é oferecer atalhos regulatórios movidos por comoção pública, e sim construir respostas institucionais maduras, baseadas em evidência, responsabilização individual e garantias que preservem a legitimidade do próprio sistema jurídico, cada vez mais tensionada nos últimos tempos.
*Alexander Coelho é sócio do Godke Advogados, advogado especializado em Direito Digital, IA e Cibersegurança. CIPM (Certified Information Privacy Manager) pela IAPP (International Association of Privacy Professionals). É membro da Comissão de Privacidade e Proteção de Dados e Inteligência Artificial (IA) da OAB/São Paulo. Pós-graduado em Digital Services pela Faculdade de Direito de Lisboa (Portugal).


Nenhum comentário:
Postar um comentário