“Foi um choque. É um sentimento horrível, eu me senti suja.” O desabafo é de Giovanna* (nome fictício), brasileira que teve uma foto pessoal manipulada por inteligência artificial e divulgada na rede social X. A imagem original, publicada em um story no Instagram, mostrava a jovem de calça; na versão adulterada, ela aparece de biquíni. O caso veio à tona na última segunda-feira (7) e integra uma onda recente de uso indevido do Grok, ferramenta de IA da plataforma comandada por Elon Musk, para criar imagens íntimas falsas sem consentimento.

Foto: Divulgação.
A prática, conhecida como deepfake, consiste na alteração de imagens reais por meio de inteligência artificial para simular nudez ou situações de cunho sexual. Embora não seja nova, a técnica ganhou força no X nas últimas semanas e passou a circular como uma “trend”, atingindo mulheres anônimas e também figuras públicas no Brasil e no exterior.
No país, o tema ganhou repercussão após a jornalista Julie Yukari denunciar à polícia, no início de janeiro, que fotos suas haviam sido manipuladas pela mesma ferramenta. A partir daí, outros relatos semelhantes começaram a surgir. Especialistas alertam que, pela legislação brasileira, a criação e o compartilhamento de imagens íntimas falsas configuram crime, inclusive para quem apenas replica o conteúdo.
A foto de Giovanna foi repostada por uma conta no X que solicitou explicitamente ao Grok que alterasse a imagem para exibi-la de biquíni. Ao ser informada do ocorrido, a vítima afirmou não conhecer o perfil responsável pela publicação e disse ter denunciado o conteúdo na plataforma. Ela também informou que pretende registrar boletim de ocorrência. Após contato da reportagem, a conta envolvida apagou as postagens e foi excluída.
Casos como esse têm motivado reações internacionais. Reguladores de países como Reino Unido, França, Índia e Malásia indicaram que pretendem investigar a empresa de Musk pela disseminação de imagens sexualizadas geradas por IA. Dados recentes apontam a dimensão do problema: entre os dias 5 e 6 de janeiro, o Grok teria criado cerca de 6.700 imagens por hora classificadas como sexualmente sugestivas ou de nudez, segundo levantamento citado pela agência Bloomberg.
A xAI, empresa responsável pelo Grok, afirma em sua política de uso que proíbe a criação de imagens pornográficas com pessoas reais e qualquer tipo de exploração sexual. Para especialistas em direito digital, no entanto, a existência dessas regras não tem sido suficiente para coibir os abusos. A facilidade de acesso à ferramenta e a rapidez na geração das imagens ampliam o alcance do dano e dificultam a contenção.
No Brasil, o Código Penal prevê pena de detenção e multa para quem produz ou divulga conteúdo íntimo sem autorização. Desde 2025, a legislação também passou a considerar explicitamente o uso de inteligência artificial em casos de dano emocional à mulher, com punições que podem chegar a dois anos de prisão. Segundo juristas, tanto quem faz o pedido à IA quanto quem compartilha o material pode ser responsabilizado criminalmente.
Procurada, a plataforma X afirmou, em nota institucional, que adota medidas contra conteúdos ilegais, incluindo a remoção de publicações e a suspensão permanente de contas, e que usuários que incentivarem o Grok a gerar material ilícito estarão sujeitos às mesmas penalidades. O caso de Giovanna, no entanto, evidencia que, apesar das políticas anunciadas, mulheres continuam sendo expostas e constrangidas por imagens falsas produzidas com auxílio da inteligência artificial.
Com informações do G1.