Data...

SP registra 4 casos de deepfakes sexuais em escolas

Levantamento da SaferNet aponta 16 casos de deepfakes sexuais entre 2023 e 2025, com 72 vítimas e 57 adolescentes envolvidos; ONG alerta para falta de monitoramento oficial

O estado de São Paulo registrou quatro casos de deepfakes sexuais em escolas, segundo levantamento da SaferNet Brasil, divulgado na segunda-feira (6). Entre 2023 e 2025, 16 casos foram identificados em dez estados brasileiros, envolvendo 72 vítimas e 57 agressores com menos de 18 anos.

As deepfakes sexuais são imagens de nudez ou teor sexual criadas com inteligência artificial sem consentimento, violando a privacidade e a dignidade das pessoas retratadas.

Ser vítima de deepfakes sexuais pode gerar consequências psicológicas graves entre estudantes, afetando diretamente sua autoestima, confiança e saúde emocional.

De acordo com especialistas, a exposição indevida, mesmo que falsa, pode provocar ansiedade, depressão, vergonha e isolamento social, além de comprometer o rendimento escolar e a convivência com colegas.

Em muitos casos, o medo de julgamentos e o sentimento de humilhação dificultam que a vítima busque ajuda, tornando essencial o apoio psicológico e o acolhimento seguro por parte da escola, família e profissionais de saúde mental.

Casos no interior paulista preocupam autoridades

Em Itapetininga, no interior de São Paulo, pais de alunos denunciaram em setembro deste ano a manipulação de imagens íntimas feita por um estudante com uso de inteligência artificial. O jovem foi suspenso e o caso registrado pela polícia.

Outro episódio ocorreu em Itararé, também no interior de SP, onde dois adolescentes, de 15 e 16 anos, são investigados por criar imagens falsas de nudez de colegas de uma escola estadual em 2024.

De acordo com a Secretaria da Segurança Pública de São Paulo, os jovens usaram IA para montar as imagens.

O caso foi registrado como “simular participação de criança ou adolescente em cena de sexo e produzir, fotografar, filmar ou registrar, por qualquer meio”.

Levantamento nacional mostra casos nas cinco regiões do país

A pesquisa da SaferNet, realizada desde 2023, identificou casos em todas as regiões do Brasil. Os estados com registros são:

  • São Paulo (4)

  • Rio de Janeiro (2)

  • Paraíba (2)

  • Alagoas (1)

  • Bahia (1)

  • Mato Grosso (1)

  • Minas Gerais (1)

  • Pará (1)

  • Pernambuco (1)

  • Rio Grande do Sul (1)

A maioria dos episódios ocorreu em escolas particulares, segundo a ONG, que analisou centenas de reportagens de veículos nacionais e locais.

A SaferNet ainda confirmou três casos adicionais não divulgados pela imprensa — dois no Rio de Janeiro e um no Distrito Federal — com pelo menos dez vítimas.

Adolescentes - escola
Foto: David Tran/Unsplash

ONG alerta para ausência de monitoramento oficial

“Embora o número de casos identificados até o momento seja menor em comparação às ocorrências de imagens de abuso e exploração sexual sem o uso de IA, chama a atenção o fato de não haver, por parte das autoridades brasileiras, um monitoramento sobre a incidência desses crimes, nem se as investigações sobre esses casos têm avançado”, afirmou a SaferNet.

A ONG iniciou um formulário de relatos anônimos para vítimas e testemunhas, com suporte psicológico gratuito.

Pesquisa busca dar voz às vítimas e orientar políticas públicas

“Sabemos que pode ser muito difícil falar sobre isso, mas a voz das vítimas é essencial para dimensionar o problema e ajudar outros adolescentes no futuro.

Com a pesquisa, queremos elaborar um relatório inédito no Brasil sobre o tema e incentivar autoridades públicas a construir uma resposta a essa demanda com soluções que façam diferença no dia a dia dos adolescentes”, declarou Juliana Cunha, diretora de projetos especiais da SaferNet.

Ela acrescentou que o levantamento também pretende sugerir abordagens educativas e medidas socioeducativas adequadas aos casos envolvendo adolescentes infratores, respeitando seu estágio de desenvolvimento.

Entenda: o que são deepfakes sexuais

A tecnologia de inteligência artificial generativa permite criar imagens e vídeos realistas a partir de dados e comandos humanos, manipulando rostos e corpos para formar cenas falsas.

O avanço dessa tecnologia tem levantado preocupações sobre privacidade, consentimento e segurança digital, especialmente entre jovens.

Maysa Vilela

Jornalista curiosa por natureza, com mais de 10 anos de estrada, movida por conexões fortes, viagens e boas histórias. Acredita que ouvir é o primeiro passo pra escrever com propósito. No Ocorre News, segue conectando pessoas através das palavras.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Envie sua notícia!

Participe do OCorre enviando notícias, fotos ou vídeos de fatos relevantes.
Preencha o formulário abaixo e, após verificação de nossa equipe, seu conteúdo poderá ser publicado.