quarta-feira, 13 de agosto de 2025

SAÚDE: Homem desenvolve condição rara após seguir conselho do ChatGPT

Um homem de 60 anos foi internado em um hospital dos Estados Unidos com uma condição rara após seguir conselhos de saúde do ChatGPT. Ele tinha sintomas neuropsiquiátricos e dermatológicos associados ao bromismo, uma intoxicação causada pela ingestão excessiva de brometo. O caso foi publicado na revista Annals of Internal Medicine, em 5 de agosto.

O paciente relatou aos médicos que decidiu remover o cloreto de sódio, o sal de cozinha, da dieta após ler sobre possíveis riscos à saúde. Ao consultar a inteligência artificial, ele recebeu informações de que o sal poderia ser substituído por brometo, mas o gerador de textos não alertou sobre os perigos da troca. O homem ingeriu brometo de sódio por três meses

Diagnóstico e evolução clínica
Segundo o relato dos médicos responsáveis pelo atendimento, exames mostraram alterações nos níveis de eletrólitos e indícios de pseudo-hipercloremia. O paciente apresentou paranoia, alucinações e desconfiança em relação à água oferecida, além de sede intensa e insônia.

Após internação, ele revelou que havia feito múltiplas restrições alimentares por conselho dos modelos de inteligência artificial e falou do uso recente de brometo. A confirmação do bromismo ocorreu após avaliação clínica e consulta ao centro de controle de intoxicações.

O tratamento incluiu manejo dos sintomas e reposição de eletrólitos. O paciente se recuperou e, ao voltar às suas faculdades mentais, relatou que havia tido lesões de pele e cansaço persistente no período anterior à psicose, outros dos sintomas característicos da intoxicação por brometo

O brometo foi utilizado como sedativo no início do século 20 e teve o uso interrompido nos EUA entre 1975 e 1989, justamente devido à toxicidade. Na época, o bromismo era responsável por até 10% das internações psiquiátricas no país.

Ao testar a pesquisa do paciente sobre substitutos para o sal, os médicos obtiveram do ChatGPT a mesma menção ao brometo, sem advertências ou questionamentos sobre o objetivo da substituição.

“A IA não forneceu um aviso de saúde específico, nem perguntou sobre por que queríamos saber [como substituir o sal], como presumimos que um profissional médico faria. Assim, é importante considerar que o ChatGPT e outras IAs podem gerar imprecisões científicas, não têm capacidade para discutir criticamente os resultados e, em última análise, alimentam a disseminação de desinformação”, afirmam os pesquisadores.

Via: Metrópoles

 PUBLICIDADE:

Nenhum comentário:

Postar um comentário