
Um caso médico recente publicado na revista Annals of Internal Medicine: Clinical Cases acende um alerta sobre os riscos de confiar cegamente em inteligências artificiais para orientações de saúde. Um homem, buscando reduzir o consumo de sal por motivos de saúde, consultou o ChatGPT sobre possíveis substitutos para o cloreto de sódio. A IA sugeriu o uso de brometo de sódio — um composto químico utilizado em aplicações industriais e na limpeza de banheiras e piscinas, mas totalmente inadequado para consumo humano.
Sem saber dos riscos, o paciente seguiu a orientação e ingeriu o brometo de sódio regularmente por três meses. O resultado foi uma intoxicação severa, com sintomas psiquiátricos graves como delírios paranoicos, alucinações auditivas e visuais, e comportamento desorganizado. Ele chegou a ser internado involuntariamente em uma unidade psiquiátrica após tentar fugir do hospital.
Exames laboratoriais revelaram níveis de brometo de 1.700 mg/L no organismo do paciente — mais de 170 vezes o limite considerado seguro. O diagnóstico foi bromismo, uma condição rara nos dias atuais, mas que no início do século 20 era responsável por até 8% das internações psiquiátricas, antes da proibição do uso medicinal de brometos nas décadas de 1970 e 1980.
Após três semanas de tratamento com antipsicóticos e procedimentos de desintoxicação, o paciente recebeu alta sem sequelas permanentes. O caso serve como exemplo do potencial de desinformação gerado por sistemas de IA, que, segundo os autores do estudo, carecem de senso crítico e podem oferecer respostas cientificamente imprecisas ou perigosas.
Os pesquisadores destacam que é “altamente improvável que um médico recomendasse brometo de sódio como substituto do sal”, reforçando a importância da supervisão humana em qualquer orientação relacionada à saúde.


