A IA do Reddit aparentemente acha que um narcótico mortal é uma boa dica de saúde
O que aconteceu: Bem, o novo chatbot de IA do Reddit já está causando caos. O bot, chamado "Answers", supostamente ajuda as pessoas resumindo informações de postagens antigas. De acordo com uma reportagem da 404media, o mais novo chatbot do Reddit agora sugere narcóticos fortes para lidar com dores crônicas.
- Quando alguém perguntou sobre como lidar com a dor crônica, o site apontou para um comentário de usuário que dizia: "A heroína, ironicamente, salvou minha vida nesses casos".
- E piora. Alguém fez uma pergunta, e a resposta foi kratom, um extrato de ervas proibido em alguns lugares e associado a sérios problemas de saúde.
- O mais assustador é que o Reddit está testando esse bot dentro de conversas ativas, então seus conselhos terríveis estão aparecendo onde todos podem vê-los. Os responsáveis por essas comunidades, os moderadores, disseram que não conseguiam nem desativar o recurso.
Por que isso é importante: Este é um exemplo perfeito, embora assustador, de um dos maiores problemas da IA atualmente.
- O bot não entende nada. Ele é muito bom em encontrar e repetir o que humanos escreveram online – e não consegue distinguir entre uma dica útil, uma piada sarcástica ou uma sugestão genuinamente perigosa.
- O verdadeiro perigo é que isso é colocar essas coisas bem no meio de conversas onde pessoas reais e vulneráveis estão procurando ajuda, e apresentar a informação como se fosse um fato.
Por que eu deveria me importar: Então, por que isso importa para você? Porque mostra o quão arriscadas essas ferramentas de IA podem ser quando usadas sem controle, especialmente quando se trata de algo tão sério quanto a sua saúde. Mesmo que você nunca pedisse conselhos médicos a um chatbot, suas sugestões ruins podem começar a poluir comunidades online, tornando mais difícil saber em quem ou no que confiar.
O que vem a seguir: Depois que as pessoas (com razão) surtaram, o Reddit confirmou que estão removendo o bot de qualquer discussão relacionada à saúde. Mas eles têm se mantido em silêncio sobre se estão aplicando algum filtro de segurança real no bot em si. Então, por enquanto, o problema está corrigido, mas não necessariamente resolvido.

