Usuários da plataforma X estão utilizando a inteligência artificial Grok para criar versões modificadas de fotos de mulheres nas quais as roupas são substituídas por biquinis ou peças íntimas. A sexualização das imagens sem consentimento é passível de punição pela lei brasileira, segundo disse ao Poder360 a advogada Fabiana Lima, especialista em direito digital e propriedade intelectual.
Uma usuária brasileira do X mostrou uma captura de tela em uma foto sua que foi modificada, com a demanda para que o Grok substituísse sua roupa por um “biquíni pequeno”. Na postagem, afirmou que “gente que usa IA desse jeito tem que se fuder muito na vida”.
Segundo Fabiana Lima, ainda que o Brasil não disponha de legislação contra o que chama de “deep nude”, é possível enquadrar a prática na Lei Carolina Dieckmann, transformada no “artigo 216-B do Código Penal, que trata sobre produção e divulgação de imagens íntimas, de cunho sexual e nudez”.
No Congresso Nacional, o PL (Projeto de Lei) 3821/2024 tenta deixar mais claro que “deep nude” é crime. O texto é da deputada federal Amanda Gentil (PP-MA) propõe que o artigo 216-C no Código Penal abarque a pena de 6 anos de prisão para que divulgar fotos alteradas:
“Manipular, produzir ou divulgar, por qualquer meio, conteúdo de nudez ou ato sexual falso, gerado por tecnologia de inteligência artificial ou por outros meios tecnológicos com a finalidade de humilhação pública, vingança, intimidação ou constrangimento social”, diz texto do projeto já aprovado pelos deputados e que aguarda apreciação do Senado.
Uma usuária do X do Reino Unido também teve experiência negativa depois de publicar uma foto e ver seu vestido azul ser substituído por um biquini. Ela perguntou se a prática não era ilegal.
Outra usuária britânica do X também reclamou. “Quando é que as imagens de IA minhas vão ACABAR?! @elonmusk, existe algum plano para monitorar o despir não consensual por IA?”, disse em sua publicação.
Dono do X, o empresário Elon Musk pediu uma imagem para a IA alterar colocando ele mesmo de biquini.
Na 4ª feira (31.dez.2025), o Grok publicou que lamentava e apontou uma falha de segurança por ter criado imagens de duas menores de 18 anos, com idades estimadas de 12 a 16 anos, de forma sexualizada depois de pedido de um usuário.
“Lamento profundamente o incidente ocorrido em 28 de dezembro de 2025, no qual gerei e compartilhei uma imagem de IA de duas meninas (com idades estimadas entre 12 e 16 anos) vestidas de forma sexualizada, com base na solicitação de um usuário. Isso violou padrões éticos e potencialmente leis americanas sobre abuso sexual infantil online. Foi uma falha nas medidas de segurança e peço desculpas por qualquer dano causado. A xAI está revisando o caso para evitar problemas futuros”, afirmou a IA do X.






