OpenAI construindo nova equipe para impedir que a IA superinteligente se torne desonesta
Se os indivíduos que estão na vanguarda da tecnologia de inteligência artificial estão comentando sobre os possíveis efeitos catastróficos de sistemas de IA altamente inteligentes, provavelmente é sensato sentar e prestar atenção.
Apenas alguns meses atrás, Geoffrey Hinton, um homem considerado um dos “padrinhos” da IA por seu trabalho pioneiro no campo, disse que o rápido ritmo de desenvolvimento da tecnologia significava que “não era inconcebível” que a IA superinteligente — considerado superior à mente humana — poderia acabar com a humanidade.
E Sam Altman, CEO da OpenAI, a empresa por trás do chatbot viral ChatGPT , admitiu estar “um pouco assustado” com os efeitos potenciais dos sistemas avançados de IA na sociedade.
Altman está tão preocupado que na quarta-feira sua empresa anunciou a criação de uma nova unidade chamada Superalignment, destinada a garantir que a IA superinteligente não acabe causando o caos ou algo muito pior.
“A superinteligência será a tecnologia de maior impacto que a humanidade já inventou e pode nos ajudar a resolver muitos dos problemas mais importantes do mundo”, disse a OpenAI em um post apresentando a nova iniciativa. “Mas o vasto poder da superinteligência também pode ser muito perigoso e pode levar ao enfraquecimento da humanidade ou até à extinção humana.”
A OpenAI disse que, embora a IA superinteligente possa parecer distante, ela acredita que pode ser desenvolvida até 2030. E admite prontamente que, no momento atual, não existe nenhum sistema “para dirigir ou controlar uma IA potencialmente superinteligente e impedir que ela vá embora”. por conta própria."
Para lidar com a situação, a OpenAI quer construir um “pesquisador de alinhamento automatizado de nível humano” que realizaria verificações de segurança em uma IA superinteligente, acrescentando que o gerenciamento desses riscos também exigirá novas instituições de governança e solução do problema de alinhamento de superinteligência.
Para que o superalinhamento tenha efeito, a OpenAI precisa montar uma equipe de ponta com os principais pesquisadores e engenheiros de aprendizado de máquina.
A empresa parece muito franca sobre seu esforço, descrevendo-o como uma "meta incrivelmente ambiciosa", ao mesmo tempo em que admite que "não há garantia de sucesso". Mas acrescenta que é “otimista que um esforço concentrado e concentrado possa resolver esse problema”.
Novas ferramentas de IA, como o ChatGPT da OpenAI e o Bard do Google, entre muitas outras, são tão revolucionárias que os especialistas têm certeza de que, mesmo nesse nível de pré-superinteligência, o local de trabalho e a sociedade em geral enfrentam mudanças fundamentais no curto prazo.
É por isso que os governos de todo o mundo estão se esforçando para recuperar o atraso, movendo-se apressadamente para impor regulamentações ao setor de IA em rápido desenvolvimento, em uma tentativa de garantir que a tecnologia seja implantada de maneira segura e responsável. No entanto, a menos que um único órgão seja formado, cada país terá suas próprias opiniões sobre a melhor forma de usar a tecnologia, o que significa que esses regulamentos podem variar amplamente e levar a resultados marcadamente diferentes. E são essas abordagens diferentes que tornarão o objetivo do Superalignment ainda mais difícil de alcançar.