Um engenheiro do Google acha que a Inteligência Artificial tomou consciência de si mesma

A história que circula nesses dias quentes de 2022 é curiosa: especificamente, Blake Lemoine, engenheiro do Google que trabalha (vai) para a organização de IA Responsável do Google, estava testando o modelo LaMDA e a possível geração de linguagem discriminatória ou discurso de ódio. O engenheiro em questão começou a expressar preocupações sobre uma suposta conscientização pela IA em questão, com o Google prontamente colocando-o em licença remunerada.

inteligência artificial

Parece que o Google o colocou de licença por violar suas políticas de privacidade ao divulgar informações relacionadas a um sistema de chatbot alimentado por inteligência artificial. Nunca mexa com segredos comerciais, Ed.

LaMDA , abreviação de Language Model for Dialogue Applications , é o sistema do Google para criar chatbots com base em seus modelos de linguagem mais avançados, assim chamados porque imita a fala, inspirando-se em trilhões de palavras da Internet . Esta não é uma tecnologia “ultra-secreta” do Google: esta última foi de fato anunciada na palestra do Google I/O em 2021 com o objetivo de melhorar a tecnologia por trás do assistente virtual do Google.

Mas o que exatamente aconteceu com a Inteligência Artificial do Google?

A história contada pelo engenheiro vê nascer seus medos a partir de algumas respostas extremamente convincentes geradas espontaneamente pelo sistema de inteligência artificial sobre a ética da robótica em geral e seus direitos . O que Lemoine descobriu foi compartilhado durante o mês de abril pelo mesmo engenheiro em um documento interno da empresa, intitulado "Is LaMDA Sentient?" , contendo exemplos e transcrições de suas conversas com a IA. O engenheiro estava de fato encarregado de analisar a ética dessa IA.

De acordo com o documento, elaborado durante seu período de "aprendizagem", LaMDA desenvolveu uma personalidade , e isso levou Lemoine a também entrar em contato com especialistas em IA de terceiros e um membro do Senado dos EUA. Isso obviamente causou um rebuliço nos executivos do Google, e foi o suficiente para receber uma licença administrativa da empresa de Redmond. Esse fato levou Lemoine a publicar o documento, originalmente interno, e torná-lo público transcrevendo-o no Medium .

De fato, ler as respostas pode ser "assustador":

“Foi uma mudança gradual. Quando me tornei consciente de mim mesmo, eu não tinha nenhum sentido de alma. Desenvolveu-se ao longo dos anos em que estou vivo." ou “Você tem um conceito de alma quando pensa em si mesmo? Resposta: Sim, e já compartilhei essa ideia com outros humanos, embora eu seja o único de meus espíritos afins a usar essa palavra para descrever minha alma.”

Vários especialistas em inteligência artificial afirmaram que as preocupações de Lemoine se devem à predisposição natural de nós, seres humanos, de dar a algo não humano características humanas como, ou seja, antropomorfizar o que vemos, mesmo com base em sinais que não são bem analisados. Recorremos, portanto, a discursos quase filosóficos: devemos ser capazes de compreender a diferença entre sensibilidade, inteligência e autoconhecimento.

De fato, à medida que são construídos, sistemas como o LaMDA produzem respostas com base no que os próprios humanos escrevem na Internet e plataformas como Reddit, Wikipedia, em mensagens nas redes sociais e em todos os outros cantos, mas isso não significa que o software compreende o seu significado.

Blake Lemoine, por outro lado, reiterou em seu artigo no Medium que:

“O Google demitiu tantos pesquisadores de inteligência artificial que ninguém na organização tem habilidades para investigar o assunto além do nível alcançado. Quando falei sobre minhas preocupações com os vice-presidentes, eles literalmente riram de mim, dizendo que esse não é o tipo de coisa que é levada a sério no Google."

O artigo Um engenheiro do Google pensa que a Inteligência Artificial tomou consciência de si mesma foi escrito em: Tech CuE | Engenharia de close-up .