OpenAI é criticada por se opor a uma proposta de lei de segurança de IA

Os ex-funcionários da OpenAI William Saunders e Daniel Kokotajlo escreveram uma carta ao governador da Califórnia, Gavin Newsom, argumentando que a oposição da empresa a um projeto de lei estadual que imporia diretrizes e protocolos de segurança rígidos no desenvolvimento futuro de IA é decepcionante, mas não surpreendente.

“Aderimos à OpenAI porque queríamos garantir a segurança dos sistemas de IA incrivelmente poderosos que a empresa está desenvolvendo”, escreveram Saunders e Kokotajlo. “Mas renunciamos à OpenAI porque perdemos a confiança de que ela desenvolveria seus sistemas de IA de forma segura, honesta e responsável.”

Os dois argumentam que um maior desenvolvimento sem protecções suficientes “representa riscos previsíveis de danos catastróficos para o público”, quer se trate de “ataques cibernéticos sem precedentes ou de assistência na criação de armas biológicas”.

A dupla também foi rápida em apontar a hipocrisia do CEO da OpenAI, Sam Altman, em matéria de regulamentação. Eles apontam para o seu recente testemunho no Congresso apelando à regulamentação da indústria da IA, mas observam que “quando a regulamentação real está sobre a mesa, ele opõe-se a ela”.

De acordo com uma pesquisa de 2023 da corporação MITRE e da Harris Poll, apenas 39% dos entrevistados acreditavam que a tecnologia de IA atual é “segura e protegida”.

O projeto de lei em questão, SB-1047, a Lei de Inovação Segura e Protegida para Modelos Artificiais de Fronteira, exigiria, “entre outras coisas, que um desenvolvedor, antes de começar a treinar inicialmente um modelo coberto… cumpra vários requisitos, incluindo a implementação da capacidade para decretar imediatamente um desligamento total… e implementar um protocolo de segurança e proteção escrito e separado.” A OpenAI sofreu vários vazamentos de dados e invasões de sistema nos últimos anos.

A OpenAI supostamente discorda veementemente da “caracterização incorreta de nossa posição sobre o SB 1047” pelos pesquisadores, como disse um porta-voz ao Business Insider . Em vez disso, a empresa argumenta que “um conjunto de políticas de IA impulsionadas pelo governo federal, em vez de uma colcha de retalhos de leis estaduais, promoverá a inovação e posicionará os EUA para liderar o desenvolvimento de padrões globais”, disse o diretor de estratégia da OpenAI, Jason Kwon, em uma carta para O senador do estado da Califórnia, Scott Wiener, em fevereiro.

Saunders e Kokotajlo contestam que a pressão da OpenAI por regulamentações federais não é de boa fé. “Não podemos esperar que o Congresso aja – eles disseram explicitamente que não estão dispostos a aprovar uma regulamentação significativa sobre IA”, escreveram a dupla. “Se o fizerem, isso pode anular a legislação da CA.”

O projeto também encontrou apoio de uma fonte surpreendente: o CEO da xAI, Elon Musk. “Esta é uma decisão difícil e deixará algumas pessoas chateadas, mas, considerando todas as coisas, acho que a Califórnia provavelmente deveria aprovar o projeto de lei de segurança de IA SB 1047”, escreveu ele no X na segunda-feira. “Por mais de 20 anos, tenho defendido a regulamentação da IA, assim como regulamentamos qualquer produto/tecnologia que seja um risco potencial.” Musk, que anunciou recentemente a construção do “mais poderoso cluster de treinamento de IA do mundo” em Memphis, Tennessee, já havia ameaçado transferir a sede de suas empresas X (anteriormente Twitter) e SpaceX para o Texas para escapar da regulamentação do setor na Califórnia.

Atualização: esta postagem foi atualizada para incluir os comentários de Elon Musk.