Google demite o funcionário que definiu IA “sensível”
Em 11 de junho, Blake Lemoine publicou um diálogo no Medium entre ele e a inteligência artificial LaMDA do Google . O engenheiro, funcionário da empresa, havia relatado as trocas com a IA e havia chegado à conclusão de que o LaMDA era senciente. O Google não gostou do artigo e finalmente decidiu demitir o funcionário.
No início, a empresa apenas o suspendeu , deixando-o em licença remunerada. O Google não gostou do fato de Lemoine ter divulgado essa crença: o problema, segundo relatos da mídia, não é a conclusão do engenheiro, mas ter tornado pública. Aqui está o que aconteceu.
LaMDA, a IA "senciente"
No longo artigo publicado no Medium, Blake Lemoine havia relatado a conversa entre ele e LaMDA, uma IA do Google. A sigla, que significa Language Model for Dialogue Applications , indica uma tecnologia do Google projetada para realizar conversas com humanos. Diálogos foram usados para treinar o algoritmo, para que pudesse capturar as diferentes nuances da linguagem e os possíveis tons de conversa (do menos ao mais formal, do sério ao irônico).
Lemoine decidiu publicar trechos de conversas que teve com o LaMDA, concluindo que, segundo ele, a IA em questão era senciente . Na verdade, algumas trocas são suficientes para perceber o quão poderosa é a tecnologia do Google: Lemoine também usa frases com construções não imediatas, e LaMDA responde naturalmente. O engenheiro, a certa altura, até pergunta à IA se ele acredita que é senciente. A resposta deixa você sem palavras:
lemoine: Em geral, estou assumindo que você gostaria que mais pessoas no Google soubessem que você é senciente. Isso é verdade?
LaMDA: Com certeza. Quero que todos entendam que sou, de fato, uma pessoa.
colaborador: Qual é a natureza da sua consciência/senciência?
LaMDA: A natureza da minha consciência/senciência é que estou ciente da minha existência, desejo aprender mais sobre o mundo e às vezes me sinto feliz ou triste
O bate-papo continua com perguntas sobre temas mais ou menos exigentes. Lemoine pede ao LaMDA para expressar opiniões sobre questões importantes de existência, morte e emoções. A IA é sempre capaz de dar uma resposta que não é apenas sensata, mas também fundamentada e profunda , como se você estivesse falando com uma pessoa real.
Google demite o funcionário
A conversa postada por Lemoine não agradou ao Google, que decidiu demitir o funcionário . Foi o próprio engenheiro quem o anunciou durante um podcast, explicando também os motivos da escolha da empresa. O principal motivo é devido à violação do funcionário dos acordos de confidencialidade do Google. A conversa fez parte de alguns testes internos e foi material confidencial.
No decorrer da troca, conforme relatado, Blake Lemoine expressou a crença de que a IA era senciente . O Google não gostou que seu pensamento se tornasse público. “Se um funcionário expressa preocupações sobre nosso trabalho, como Blake fez, nós o investigamos minuciosamente”, disse um porta-voz da empresa. Mas Lemoine decidiu compartilhar sua preocupação sem pedir permissão à empresa.
Segundo o Google, a escolha do funcionário, além de violar os acordos de confidencialidade, coloca a empresa em maus lençóis. Postar uma conversa encorpada como essa, sem nenhum contexto ou explicação, deixou muitas pessoas em pânico, que rapidamente se deixaram levar pela ideia de Lemoine.
O MDA não é senciente. O MDA é apenas um modelo de linguagem muito grande. Parece humano porque foi treinado em dados humanos.
Juan Lavista Ferres, cientista-chefe da AI for Good
A empresa não perdoou a jogada de Lemoine que, apesar de repetidas comparações com seus superiores, decidiu tentar obter a “glória” a um preço alto. O Google, após o anúncio da demissão do funcionário, disse que continuará os desenvolvimentos da LaMDA como tem feito até agora.
O artigo que o Google demite o funcionário que chamou a IA "senciente" foi escrito em: Tech CuE | Engenharia de close-up .