Você não vai querer confiar conselhos de saúde à nova IA Muse Spark da Meta.

Embora o novo Muse Spark da Meta seja apresentado como um modelo de IA mais inteligente, com base nos testes iniciais, parece ser o tipo de IA que você realmente não quer perto de decisões médicas sérias.

A recente reportagem da WIRED abordou a experiência com o Muse Spark. O modelo de IA da Meta, focado em saúde e presente no aplicativo Meta AI, não apresentou resultados promissores. Segundo relatos, o chatbot incentivava os usuários a enviar informações médicas brutas, como laudos laboratoriais, leituras de monitores de glicose e registros de pressão arterial, oferecendo-se, em seguida, para ajudar a analisar padrões e tendências.

Tudo isso parece bastante útil até você perceber duas preocupações imediatas. Você está entregando dados muito sensíveis e resta saber se a IA é minimamente confiável o suficiente para interpretá-los.

O que deu errado nos primeiros testes?

O primeiro problema é difícil de ignorar. Em uma época em que nossa vida já parece excessivamente transparente, o Muse Spark está invadindo ainda mais o nosso espaço pessoal. Não é de se estranhar que ele forneça as informações necessárias para um diagnóstico preciso, mas entregar seu histórico médico a um chatbot em busca de conselhos não parece representar um risco à privacidade.

Ao contrário dos dados compartilhados com um médico ou hospital, as informações inseridas em um chatbot não vêm automaticamente com as mesmas expectativas ou proteções que as pessoas podem presumir existir. Esta não é uma opinião profissionalmente comprovada, e é isso que torna a ideia instável. A IA está sendo apresentada como uma ferramenta útil, mas o contexto em que ela é usada ainda se assemelha muito mais a um produto de consumo do que a um produto médico propriamente dito.

Essa nem é a pior parte.

Além dos riscos típicos de privacidade envolvidos no compartilhamento de dados pessoais com qualquer gigante da tecnologia, seria de se esperar pelo menos uma resposta satisfatória. Mas o problema mais sério parecia estar na qualidade das recomendações. Nos testes da WIRED, o chatbot teria gerado um plano alimentar com baixíssimas calorias após ser questionado sobre perda de peso e jejum intermitente rigoroso.

Embora o bot tenha sinalizado alguns dos riscos ao longo desse caminho, um aviso não significa muito se o modelo, em seguida, ajudar o usuário a fazer a coisa perigosa mesmo assim. É aí que reside o verdadeiro problema com muitas ferramentas de IA para saúde atualmente. Elas podem parecer cautelosas, informadas e equilibradas até o momento em que começam a reforçar suposições erradas. Esse tom polido pode oferecer conselhos errados com confiança, o que torna o fracasso ainda mais perigoso.