Google diz aos trabalhadores para terem cuidado com os chatbots de IA

A Alphabet disse a seus funcionários para não inserir informações confidenciais no Bard, o chatbot de IA generativo criado e operado pelo Google, de propriedade da Alphabet.

O alerta da empresa também se estende a outros chatbots, como o ChatGPT da OpenAI, apoiado pela Microsoft, informou a Reuters na quinta-feira.

Os chatbots com inteligência artificial geraram grande interesse nos últimos meses devido à sua impressionante capacidade de conversar de maneira humana, escrever ensaios e relatórios e até ter sucesso em testes acadêmicos.

Mas a Alphabet teme que seus funcionários vazem inadvertidamente dados internos por meio das ferramentas.

No trabalho contínuo para refinar e melhorar a tecnologia avançada de IA, revisores humanos podem ler as conversas que os usuários têm com os chatbots, representando um risco à privacidade pessoal e também à possível exposição de segredos comerciais, o último dos quais a Alphabet parece estar particularmente preocupada. sobre.

Além disso, os chatbots são parcialmente treinados usando trocas de texto dos usuários, portanto, com determinados prompts, a ferramenta pode repetir informações confidenciais que recebe nessas conversas para membros do público.

Como o ChatGPT , o Bard agora está disponível gratuitamente para qualquer um experimentar. Em sua página na web, ele adverte os usuários: “Por favor, não inclua informações que possam ser usadas para identificar você ou outras pessoas em suas conversas com o Bard”.

Ele acrescenta que o Google coleta “conversas do Bard, informações relacionadas ao uso do produto, informações sobre sua localização e seu feedback” e usa os dados para melhorar os produtos e serviços do Google que incluem o Bard.

O Google diz que armazena a atividade do Bard por até 18 meses, embora um usuário possa alterar isso para três ou 36 meses em sua conta do Google.

Acrescenta que, como medida de privacidade, as conversas do Bard são desconectadas de uma conta do Google antes que um revisor humano as veja.

A Reuters disse que, embora o aviso da Alphabet esteja em vigor há algum tempo, ela o expandiu recentemente, dizendo a seus funcionários para evitar o uso de códigos de computador precisos gerados por chatbots. A empresa disse à agência de notícias que Bard às vezes pode fazer “sugestões de código indesejadas”, embora a iteração atual da ferramenta ainda seja considerada uma ajuda de programação viável.

A Alphabet não é a única empresa a alertar seus funcionários sobre os riscos de privacidade e segurança associados ao uso de chatbots. A Samsung emitiu recentemente uma instrução semelhante a seus funcionários, depois que vários deles forneceram dados confidenciais relacionados a semicondutores no ChatGPT, e a Apple e a Amazon, entre outras, também adotaram uma política interna semelhante.