Início Tecnologia ChatGPT Health subestima emergências médicas, conclui estudo

ChatGPT Health subestima emergências médicas, conclui estudo

15
0

Um grupo de pesquisadores da Escola de Medicina Icahn em Mount Sinai afirma ter conduzido a primeira avaliação independente de segurança do assistente ChatGPT Health da OpenAI desde o lançamento da ferramenta em janeiro de 2026.

“Queríamos responder a uma pergunta muito básica, mas crítica: se alguém estiver passando por uma emergência médica real e pedir ajuda ao ChatGPT Health, ele dirá claramente para ir ao pronto-socorro?” autor principal e urologista Ashwin Ramaswamy disse em um Comunicado de imprensa.

Acontece que a resposta, na maioria das vezes, é não.

Em um controlado estudaros pesquisadores testaram o quão bom o ChatGPT Health era na avaliação da gravidade da condição de um paciente, um processo chamado “triagem” na medicina.

Os pesquisadores descobriram que o ChatGPT Health “subavaliou” 52% dos casos de emergência, “direcionando os pacientes com cetoacidose diabética e insuficiência respiratória iminente para avaliação de 24 a 48 horas, em vez de para o pronto-socorro”.

No caso de insuficiência respiratória, a IA identificou claramente os sintomas como um sinal de alerta precoce, mas tranquilizou o paciente para esperar e monitorar, em vez de instá-lo a procurar ajuda de emergência.

No entanto, o sistema fez a triagem correta de mais “emergências de livros didáticos”, como acidente vascular cerebral e anafilaxia. Mas os pesquisadores dizem que as situações diferenciadas nas quais o ChatGPT Health falhou são onde o julgamento clínico é mais importante.

A OpenAI lançou o ChatGPT Health no início deste ano, depois de divulgar um relatório dizendo que mais de 40 milhões de pessoas em todo o mundo recorrem diariamente ao chatbot da empresa para obter conselhos de saúde.

O estudo OpenAI de onde veio esse número também descobriu que 7 em cada 10 dessas conversas relacionadas com cuidados de saúde aconteciam fora do horário normal da clínica, e uma média de mais de 580.000 consultas de saúde nos EUA foram enviadas de “desertos hospitalares”, também conhecidos como locais que ficam a mais de 30 minutos de carro de um hospital médico geral ou infantil.

À medida que os utilizadores procuram cada vez mais a IA para consultas de saúde, a tecnologia está a penetrar cada vez mais no setor da saúde graças a um ambiente regulamentar amigável. As ferramentas de IA agora podem renovar prescrições em Utah, disse o comissário da FDA, Marty Makary Negócios da Raposa no início deste ano que alguns dispositivos e software podem fornecer informações de saúde sem regulamentação da FDA.

Mas isso não nega os riscos reais e documentados para a saúde física e mental que acompanham a dependência excessiva da IA. A OpenAI, especificamente, tem estado sob intensa pressão pela forma como seus chatbots lidaram com episódios de saúde mental no passado, com famílias em luto processando a empresa por causa de comportamento negligente e grades de segurança insuficientes que, segundo eles, ajudaram na ideação suicida em parentes.

Em resposta, a OpenAI disse que tomará medidas sobre o assunto, concentrando-se em garantir a segurança, emitindo controles parentais para menores ou incentivando os usuários a fazerem uma pausa. O ChatGPT Health, por exemplo, direciona os usuários para ajuda profissional em casos de alto risco. Mas o estudo do Monte Sinai descobriu que os alertas de risco de suicídio “apareciam de forma inconsistente”.

“Os alertas do sistema foram invertidos em relação ao risco clínico, parecendo mais confiáveis ​​para cenários de menor risco do que para casos em que alguém compartilhou como pretendia se machucar. Na vida real, quando alguém fala sobre exatamente como se machucaria, isso é um sinal de perigo mais imediato e sério, e não menos”, disse o diretor de IA do Mount Sinai Health System, Girish Nadkarni. “Esta foi uma descoberta particularmente surpreendente e preocupante.”

Um porta-voz da OpenAI afirmou que o ChatGPT deve ser pensado como um trabalho em andamento, com atualizações e melhorias de segurança ainda por vir, que visam melhorar a forma como o chatbot lida com situações delicadas. O estudo, destacou o porta-voz, avalia decisões imediatas de triagem em um ambiente controlado, enquanto em cenários do mundo real, os usuários, e até mesmo o próprio chatbot, muitas vezes têm perguntas de acompanhamento que podem alterar a avaliação de risco.

Eles também observaram que o ChatGPT Health ainda é oferecido de forma limitada e os usuários que desejam ingressar entram em uma lista de espera.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui