Um homem de 60 anos foi internado em um hospital nos Estados Unidos com sintomas graves de bromismo, uma condição rara causada pelo excesso de brometos no organismo, após seguir uma recomendação de dieta obtida no ChatGPT. O caso foi descrito por médicos na revista científica ‘Annals of Internal Medicine’ e gerou alerta sobre os perigos de seguir orientações médicas de ferramentas de inteligência artificial sem supervisão profissional.
O paciente chegou ao hospital com crises de paranoia e alucinações, acreditando que o vizinho tentava envenená-lo e que a água do filtro estava contaminada. Inicialmente, os médicos suspeitaram de um transtorno psiquiátrico, e ele foi encaminhado para a ala de saúde mental.
Após exames, constatou-se que o homem tinha níveis extremamente baixos de vitaminas e minerais. Ao receber suplementação adequada, recobrou a lucidez e revelou ter substituído o cloreto de sódio (sal de cozinha) por brometo, seguindo orientação do ChatGPT. Ele manteve a mudança alimentar por três meses, até que os sintomas surgiram.
Após três semanas de internação, os níveis da substância se normalizaram e o paciente recebeu alta.
O que é brometo?
O brometo é um composto químico derivado do bromo, geralmente combinado com outros elementos como sódio, potássio ou cálcio, formando sais, por exemplo, brometo de sódio ou brometo de potássio.
No passado, o brometo era utilizado em medicamentos sedativos e anticonvulsivantes, pois atua sobre o sistema nervoso central. Hoje, seu uso médico é raro devido ao risco de bromismo — intoxicação que pode causar confusão mental, alucinações, fadiga, problemas neurológicos e até coma em casos graves.
Este composto químico também pode aparecer em processos industriais, fotografia e até pesticidas.
O que dizem os especialistas
No artigo científico, os autores Dra. Audrey Eichenberger, Stephen Thielke e Adam Van Buskirk, ressaltam que o episódio serve de alerta:
“Este caso também destaca como o uso da inteligência artificial pode contribuir para o desenvolvimento de doenças evitáveis e resultados adversos para a saúde”.
Por que o bromismo é perigoso?
O bromismo é uma intoxicação hoje rara, mas que já foi mais comum no passado, especialmente quando brometos eram usados em medicamentos. A condição pode causar confusão mental, delírios e alucinações, além de outros sintomas neurológicos.
Riscos no uso do ChatGPT
Segundo especialistas, no início, o ChatGPT podia fornecer informações incorretas por ter sido treinado com conteúdo disponível até 2021 e não apresentar fontes verificáveis. Isso aumentava ainda mais o risco de desinformação, principalmente em temas sensíveis como saúde.
Contudo, a partir de 2023, a Inteligência Artificial da OpenAI passou a poder navegar na internet para fornecer aos usuários informações atuais. Logo, sua navegação não está mais limitada a dados anteriores a setembro de 2021. Contudo, especialistas alertam que ainda é necessário ser cauteloso com as informações recebidas pelo ChatGPT.
Testes jornalísticos já mostraram que a ferramenta pode fornecer dados desatualizados ou tendenciosos, além de reproduzir preconceitos presentes no material com que foi treinada. Sua habilidade de criar respostas coerentes e convincentes, mesmo quando incorretas, pode induzir usuários ao erro.

Reforço de preconceitos
O chatbot também pode reproduzir vieses como racismo e machismo. Uma das explicações é que seu treinamento incluiu textos e publicações de diferentes origens, inclusive redes sociais com discursos de ódio. A própria OpenAI já alertou que a tecnologia pode “produzir instruções prejudiciais ou conteúdo tendencioso”.
Esse problema não é exclusivo do ChatGPT: diversas inteligências artificiais baseadas em aprendizado de máquina enfrentam o mesmo desafio, já que refletem preconceitos presentes nos dados criados por seres humanos.
Respostas convincentes, mas incorretas
Um dos diferenciais do ChatGPT é sua capacidade de escrever de forma natural e convincente, imitando o estilo humano. No entanto, essa característica pode levar usuários a acreditar em informações erradas.
Diferentemente de outros sistemas, que admitem não saber a resposta, o ChatGPT tende a construir respostas lógicas e coerentes na forma, mas que podem estar incorretas no conteúdo, aumentando o risco de desinformação.