ChatGPT quer brincar de médico com um modo especial, mas vou pular

Há algumas semanas, um pesquisador médico relatou um caso bastante curioso de erro médico induzido por IA, detalhando o caso de um indivíduo que consultou o ChatGPT e entrou em um surto psicótico devido a envenenamento por brometo. Essas preocupações vêm sendo levantadas por especialistas há algum tempo, e parece que a OpenAI pretende combatê-las com um modo ChatGPT dedicado para aconselhamento médico.

A grande esperança

Tibor Blaho, engenheiro da empresa AIPRM, focada em IA, compartilhou um trecho interessante que encontrou no código do aplicativo web do ChatGPT. As strings mencionam um novo recurso chamado "Modo Clínico". O código não entra em detalhes sobre como ele funciona, mas parece um modo dedicado à busca de aconselhamento sobre saúde, da mesma forma que as proteções de segurança são implementadas para contas de adolescentes.

Vale ressaltar que a OpenAI não fez nenhum anúncio oficial sobre esse recurso, então leve essa notícia com a devida cautela. Mas existem algumas teorias circulando sobre como ele poderia funcionar. Justin Angel, um desenvolvedor conhecido na comunidade Apple e Windows, compartilhou no X que poderia ser um modo protegido que limita a fonte de informações a artigos de pesquisa médica.

Por exemplo, se você procurar aconselhamento médico relacionado a problemas ou sintomas de bem-estar, o ChatGPT responderá apenas com base em informações extraídas de fontes médicas confiáveis. Dessa forma, há menos chances de o ChatGPT fornecer conselhos enganosos sobre saúde .

A dura realidade

A ideia por trás de algo como o "Modo Clínico" não é tão absurda. Há apenas um dia, a Consensus lançou um recurso chamado "Modo Médico". Quando uma consulta relacionada à saúde é enviada, a IA conversacional busca respostas "exclusivamente com base em evidências médicas da mais alta qualidade", um corpus que inclui mais de oito milhões de artigos e milhares de diretrizes clínicas verificadas. A abordagem parece segura à primeira vista, mas os riscos persistem.

Um artigo publicado na revista Scientific Reports no mês passado destacou as armadilhas de promover o ChatGPT no contexto médico. "É preciso ter cautela e educar colegas e pacientes sobre o risco de alucinações e incorporação de jargões técnicos, o que pode dificultar a interpretação dos resultados", alertou o artigo. Mas parece que a indústria está caminhando firmemente em direção à IA.

A Escola de Medicina de Stanford está testando um software com tecnologia de IA chamado ChatEHR, que permite que médicos interajam com prontuários médicos de forma mais conversacional. A OpenAI também testou um "assistente de IA médica" em parceria com a Penda Health há alguns meses e anunciou que a ferramenta reduziu as chances de erro de diagnóstico em uma margem de 16%.