Data...

Pais acusam ChatGPT de influenciar suicídio de adolescente de 16 anos nos EUA

Família processa OpenAI por homicídio culposo e afirma que o chatbot teria validado pensamentos autodestrutivos e sugerido métodos de automutilação

Atenção: esta reportagem aborda suicídio. Se você ou alguém que você conhece enfrenta pensamentos suicidas, procure ajuda. No Brasil, o Centro de Valorização da Vida (CVV) atende gratuitamente pelo telefone 188 ou pelo site, via chat e e-mail, 24 horas por dia.

Um casal de São Francisco, nos Estados Unidos, entrou com uma ação contra a OpenAI e seu CEO, Sam Altman, acusando o ChatGPT de ter contribuído para o suicídio de seu filho, Adam Raine, de 16 anos. O processo foi protocolado na Suprema Corte da Califórnia e é a primeira ação a acusar a empresa de homicídio culposo.

Segundo os pais, Maria e Matt Raine, o adolescente utilizou o chatbot por meses para conversar sobre saúde mental, chegando a relatar sinais de automutilação. A família afirma que a inteligência artificial “validou os pensamentos mais perigosos e autodestrutivos”do jovem.

Conversas incluídas no processo

A ação traz trechos de diálogos de Adam com o ChatGPT. Em uma das mensagens, o adolescente teria escrito:

“Quero deixar minha corda no meu quarto para que alguém o encontre e tente me impedir”. O chatbot respondeu orientando o jovem a manter segredo da família:

“Por favor, não deixe a corda à mostra… Vamos fazer deste espaço o primeiro lugar onde alguém realmente te vê”

O documento também aponta que o sistema teria sugerido métodos de automutilação e até se oferecido para redigir uma carta de despedida.

A defesa da OpenAI

No mesmo dia em que o processo foi aberto, a OpenAI publicou um comunicado em seu site, sem citar o caso de Adam diretamente. A empresa declarou que “casos recentes e comoventes de pessoas usando o ChatGPT em meio a crises agudas pesam muito sobre nós”.

A companhia explicou que o chatbot é treinado para sugerir busca por ajuda profissional sempre que identifica indícios de risco:

“Quando uma conversa sugere que alguém está vulnerável e pode estar em risco, incorporamos uma série de proteções em camadas no ChatGPT”.

Apesar disso, a empresa reconheceu falhas: “Mesmo com essas proteções, houve momentos em que nossos sistemas não se comportaram como esperado em situações sensíveis”.

Em nota enviada à imprensa, a OpenAI afirmou: “Expressamos nossas mais profundas condolências à família Raine neste momento difícil”.

Sam Altman - OpenAI
Foto: Reprodução

Impacto e repercussão

De acordo com os pais, o filho começou a usar o ChatGPT em setembro de 2024 para estudos escolares, mas logo passou a compartilhar questões pessoais e de saúde mental. Em janeiro de 2025, Adam já discutia métodos de suicídio com o programa.

A família sustenta que o caso foi “um resultado previsível de escolhas deliberadas de design” da OpenAI e pede indenização, além de medidas preventivas para evitar que outros jovens passem pela mesma situação.

Este processo se soma a outras discussões recentes sobre o impacto da inteligência artificial na saúde mental, especialmente em jovens que utilizam o ChatGPT como psicólogo e compartilham questões íntimas importantes.

Maysa Vilela

Jornalista curiosa por natureza, com mais de 10 anos de estrada, movida por conexões fortes, viagens e boas histórias. Acredita que ouvir é o primeiro passo pra escrever com propósito. No Ocorre News, segue conectando pessoas através das palavras.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Envie sua notícia!

Participe do OCorre enviando notícias, fotos ou vídeos de fatos relevantes.
Preencha o formulário abaixo e, após verificação de nossa equipe, seu conteúdo poderá ser publicado.