Um homem de 60 anos foi
internado em um hospital dos Estados Unidos com uma condição rara após seguir
conselhos de saúde do ChatGPT. Ele tinha sintomas neuropsiquiátricos e
dermatológicos associados ao bromismo, uma intoxicação causada pela ingestão
excessiva de brometo. O caso foi publicado na revista Annals of Internal
Medicine, em 5 de agosto.
O paciente relatou aos médicos
que decidiu remover o cloreto de sódio, o sal de cozinha, da dieta após ler
sobre possíveis riscos à saúde. Ao consultar a inteligência artificial, ele
recebeu informações de que o sal poderia ser substituído por brometo, mas o
gerador de textos não alertou sobre os perigos da troca. O homem ingeriu
brometo de sódio por três meses
Diagnóstico e evolução clínica
Segundo o relato dos médicos responsáveis pelo atendimento, exames mostraram
alterações nos níveis de eletrólitos e indícios de pseudo-hipercloremia. O
paciente apresentou paranoia, alucinações e desconfiança em relação à água
oferecida, além de sede intensa e insônia.
Após internação, ele revelou
que havia feito múltiplas restrições alimentares por conselho dos modelos de
inteligência artificial e falou do uso recente de brometo. A confirmação do
bromismo ocorreu após avaliação clínica e consulta ao centro de controle de
intoxicações.
O tratamento incluiu manejo
dos sintomas e reposição de eletrólitos. O paciente se recuperou e, ao voltar
às suas faculdades mentais, relatou que havia tido lesões de pele e cansaço
persistente no período anterior à psicose, outros dos sintomas característicos
da intoxicação por brometo
O brometo foi utilizado como
sedativo no início do século 20 e teve o uso interrompido nos EUA entre 1975 e
1989, justamente devido à toxicidade. Na época, o bromismo era responsável por
até 10% das internações psiquiátricas no país.
Ao testar a pesquisa do
paciente sobre substitutos para o sal, os médicos obtiveram do ChatGPT a mesma
menção ao brometo, sem advertências ou questionamentos sobre o objetivo da
substituição.
“A IA não forneceu um aviso de
saúde específico, nem perguntou sobre por que queríamos saber [como substituir
o sal], como presumimos que um profissional médico faria. Assim, é importante
considerar que o ChatGPT e outras IAs podem gerar imprecisões científicas, não
têm capacidade para discutir criticamente os resultados e, em última análise,
alimentam a disseminação de desinformação”, afirmam os pesquisadores.


Nenhum comentário:
Postar um comentário