Atenção: esta reportagem aborda suicídio. Se você ou alguém que você conhece enfrenta pensamentos suicidas, procure ajuda. No Brasil, o Centro de Valorização da Vida (CVV) atende gratuitamente pelo telefone 188 ou pelo site, via chat e e-mail, 24 horas por dia.
Um casal de São Francisco, nos Estados Unidos, entrou com uma ação contra a OpenAI e seu CEO, Sam Altman, acusando o ChatGPT de ter contribuído para o suicídio de seu filho, Adam Raine, de 16 anos. O processo foi protocolado na Suprema Corte da Califórnia e é a primeira ação a acusar a empresa de homicídio culposo.
Segundo os pais, Maria e Matt Raine, o adolescente utilizou o chatbot por meses para conversar sobre saúde mental, chegando a relatar sinais de automutilação. A família afirma que a inteligência artificial “validou os pensamentos mais perigosos e autodestrutivos”do jovem.
Conversas incluídas no processo
A ação traz trechos de diálogos de Adam com o ChatGPT. Em uma das mensagens, o adolescente teria escrito:
“Quero deixar minha corda no meu quarto para que alguém o encontre e tente me impedir”. O chatbot respondeu orientando o jovem a manter segredo da família:
“Por favor, não deixe a corda à mostra… Vamos fazer deste espaço o primeiro lugar onde alguém realmente te vê”.
O documento também aponta que o sistema teria sugerido métodos de automutilação e até se oferecido para redigir uma carta de despedida.
A defesa da OpenAI
No mesmo dia em que o processo foi aberto, a OpenAI publicou um comunicado em seu site, sem citar o caso de Adam diretamente. A empresa declarou que “casos recentes e comoventes de pessoas usando o ChatGPT em meio a crises agudas pesam muito sobre nós”.
A companhia explicou que o chatbot é treinado para sugerir busca por ajuda profissional sempre que identifica indícios de risco:
“Quando uma conversa sugere que alguém está vulnerável e pode estar em risco, incorporamos uma série de proteções em camadas no ChatGPT”.
Apesar disso, a empresa reconheceu falhas: “Mesmo com essas proteções, houve momentos em que nossos sistemas não se comportaram como esperado em situações sensíveis”.
Em nota enviada à imprensa, a OpenAI afirmou: “Expressamos nossas mais profundas condolências à família Raine neste momento difícil”.

Impacto e repercussão
De acordo com os pais, o filho começou a usar o ChatGPT em setembro de 2024 para estudos escolares, mas logo passou a compartilhar questões pessoais e de saúde mental. Em janeiro de 2025, Adam já discutia métodos de suicídio com o programa.
A família sustenta que o caso foi “um resultado previsível de escolhas deliberadas de design” da OpenAI e pede indenização, além de medidas preventivas para evitar que outros jovens passem pela mesma situação.
Este processo se soma a outras discussões recentes sobre o impacto da inteligência artificial na saúde mental, especialmente em jovens que utilizam o ChatGPT como psicólogo e compartilham questões íntimas importantes.