O rival ChatGPT do Google é uma bagunça ética, dizem os próprios funcionários do Google
O Google lançou o Bard , seu rival do ChatGPT, apesar das preocupações internas de que ele era um “mentiroso patológico” e produzia resultados “cringeworthy”, afirmou um novo relatório. Funcionários dizem que essas preocupações foram aparentemente ignoradas em uma tentativa frenética de alcançar o ChatGPT e evitar a ameaça que ele poderia representar para o negócio de busca do Google .
As revelações vêm de um relatório da Bloomberg que mergulhou fundo no Google Bard e nas questões levantadas pelos funcionários que trabalharam no projeto. É um relato revelador de como o chatbot aparentemente saiu dos trilhos e as dúvidas que esses incidentes levantaram entre os trabalhadores preocupados.
Por exemplo, Bloomberg cita um funcionário anônimo que pediu a Bard instruções sobre como pousar um avião e ficou horrorizado ao ver que a descrição de Bard levaria a um acidente. Um outro trabalhador disse que as dicas de mergulho de Bard “provavelmente resultariam em ferimentos graves ou morte”.
Essas questões foram aparentemente levantadas pouco antes do lançamento do Bard, de acordo, mas o Google avançou com a data de lançamento, tal era seu desejo de acompanhar o caminho aberto pelo ChatGPT . Mas o fez desconsiderando seus próprios compromissos éticos, resultando não apenas em conselhos perigosos, mas também na possível disseminação de desinformação.
Correndo para o lançamento
Em 2021, o Google prometeu dobrar sua equipe de funcionários que estudam as consequências éticas da inteligência artificial (IA) e investir mais fortemente na determinação de possíveis danos. No entanto, essa equipe agora está “desempoderada e desmoralizada”, afirma o relatório da Bloomberg. Pior ainda, os membros da equipe foram instruídos a “não atrapalhar ou tentar matar nenhuma das ferramentas generativas de IA em desenvolvimento”, questionando o compromisso do Google com a ética da IA.
Isso foi visto em ação pouco antes do lançamento de Bard. Em fevereiro, um funcionário do Google enviou uma mensagem a um grupo interno para dizer: “Bard é pior do que inútil: por favor, não lance”, com dezenas de outros funcionários concordando. No mês seguinte, Jen Gennai, líder de governança de IA do Google, rejeitou uma avaliação de risco que dizia que Bard poderia causar danos e não estava pronto para o lançamento, avançando com o primeiro lançamento público do chatbot.
O relatório da Bloomberg mostra uma empresa desconfiada de questões éticas que ela sente que podem atrapalhar a lucratividade de seus próprios produtos. Por exemplo, um trabalhador pediu para trabalhar com justiça no aprendizado de máquina, mas foi repetidamente desencorajado, a ponto de afetar sua avaliação de desempenho. Os gerentes reclamaram que as preocupações éticas estavam obstruindo seu “trabalho real”, afirmou o funcionário.
É uma postura preocupante, principalmente porque já vimos muitos exemplos de má conduta de chatbots de IA que produziram informações ofensivas, enganosas ou totalmente falsas. Se o relatório da Bloomberg estiver correto sobre a abordagem aparentemente hostil do Google às questões éticas, isso pode ser apenas o começo quando se trata de problemas causados pela IA.