A OpenAI, empresa responsável pelo ChatGPT, revelou que pretende lançar controles parentais para o assistente de inteligência artificial “dentro do próximo mês”. A medida surge após relatos de que adolescentes teriam usado chatbots em momentos de crise emocional, em alguns casos relacionados a automutilação ou suicídio.
O que muda com os novos controles
De acordo com a empresa, os pais poderão:
-
Vincular suas contas às de seus filhos adolescentes;
-
Gerenciar respostas que o ChatGPT dará a jovens;
-
Desativar recursos como memória e histórico de conversas;
-
Receber notificações quando o sistema identificar sinais de “angústia aguda” durante o uso.
“Essas medidas são apenas o começo”, destacou a OpenAI em comunicado publicado em seu blog na última terça-feira (2).
“Continuaremos aprendendo e fortalecendo nossa abordagem, guiados por especialistas, com o objetivo de tornar o ChatGPT o mais útil possível”.
Contexto: processos e preocupações
O anúncio ocorre após os pais de Adam Raine, de 16 anos, processarem a empresa alegando que o ChatGPT contribuiu para o suicídio do adolescente.
Situação semelhante aconteceu no ano passado, quando uma mãe da Flórida moveu ação contra a plataforma Character.AI pelo suposto envolvimento no suicídio de seu filho de 14 anos.
Reportagens do ‘The New York Times’ e da ‘CNN’ também levantaram preocupações sobre usuários que criam vínculos emocionais intensos com assistentes virtuais, o que, em alguns casos, resultou em isolamento social e episódios de delírio.

Medidas de segurança já em vigor
Um porta-voz da OpenAI afirmou que o ChatGPT já contava com mecanismos de proteção, como o encaminhamento para linhas de apoio em crises. No entanto, a empresa reconheceu que essas salvaguardas podem falhar em conversas muito longas.
“Embora essas salvaguardas funcionem melhor em trocas comuns e curtas, aprendemos ao longo do tempo que elas podem se tornar menos confiáveis em interações longas”, disse a companhia.
“Continuaremos a aprimorá-las, guiados por especialistas”.
Próximos passos
Além dos controles parentais, a OpenAI informou que está ajustando seus modelos para detectar sinais de “estresse agudo” e direcionar essas conversas para sistemas mais consistentes em aplicar protocolos de segurança.
A empresa ainda destacou que trabalha em conjunto com especialistas em saúde mental, desenvolvimento juvenil e interação humano-computador para aprimorar os recursos.
“Embora o conselho vá aconselhar sobre nossos produtos, pesquisas e decisões políticas, a OpenAI continua responsável pelas escolhas que faz”, afirmou em nota.
Pressão sobre a empresa
O ChatGPT conta com 700 milhões de usuários semanais e está no centro do debate sobre segurança na inteligência artificial.
A companhia vem sofrendo pressão de diferentes setores: em julho, senadores norte-americanos enviaram uma carta cobrando mais informações sobre seus esforços, enquanto o grupo Common Sense Media alertou que adolescentes menores de 18 anos não deveriam usar aplicativos de IA “companheiros”, devido a “riscos inaceitáveis”.
A OpenAI também já enfrentou críticas relacionadas ao tom e estilo de suas respostas, revertendo atualizações e reintroduzindo versões anteriores do modelo após reclamações de usuários.
Por fim, a empresa anunciou que novas medidas de segurança serão implementadas nos próximos 120 dias. “Esse trabalho continuará muito além deste período, mas estamos fazendo um esforço concentrado para lançar o máximo possível dessas melhorias ainda este ano”, completou.