Líderes de tecnologia pedem pausa no desenvolvimento de GPT-4.5 e GPT-5 devido a “riscos em larga escala”

A IA generativa tem se movido a uma velocidade inacreditável nos últimos meses, com o lançamento de várias ferramentas e bots, como o ChatGPT da OpenAI , o Google Bard e muito mais. No entanto, esse rápido desenvolvimento está causando sérias preocupações entre os veteranos experientes no campo da IA ​​- tanto que mais de 1.000 deles assinaram uma carta aberta pedindo aos desenvolvedores de IA que pisem no freio.

A carta foi publicada no site do Future of Life Institute , uma organização cuja missão declarada é “dirigir a tecnologia transformadora para beneficiar a vida e afastá-la de riscos extremos em larga escala”. Entre os signatários estão vários acadêmicos proeminentes e líderes em tecnologia, incluindo o cofundador da Apple, Steve Wozniak, o CEO do Twitter, Elon Musk, e o político Andrew Yang.

O artigo pede que todas as empresas que trabalham com modelos de IA mais poderosos do que o GPT-4, lançado recentemente , interrompam imediatamente o trabalho por pelo menos seis meses. Essa moratória deve ser “pública e verificável” e permitiria tempo para “desenvolver e implementar em conjunto um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA que são rigorosamente auditados e supervisionados por especialistas externos independentes”.

A carta diz que isso é necessário porque “os sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a sociedade e a humanidade”. Esses riscos incluem a disseminação de propaganda, a destruição de empregos, a possível substituição e obsolescência da vida humana e a “perda de controle de nossa civilização”. Os autores acrescentam que a decisão de avançar nesse futuro não deve ser deixada para “líderes tecnológicos não eleitos”.

IA 'para o claro benefício de todos'

ChatGPT versus Google em smartphones.

A carta vem logo após as alegações de que o GPT-5, a próxima versão da tecnologia que alimenta o ChatGPT, poderia alcançar inteligência geral artificial . Se correto, isso significa que seria capaz de entender e aprender qualquer coisa que um ser humano possa compreender. Isso pode torná-lo incrivelmente poderoso de maneiras que ainda não foram totalmente exploradas.

Além disso, a carta afirma que o planejamento e o gerenciamento responsáveis ​​em torno do desenvolvimento de sistemas de IA não estão acontecendo, “mesmo que nos últimos meses os laboratórios de IA fiquem presos em uma corrida descontrolada para desenvolver e implantar mentes digitais cada vez mais poderosas que não um – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável.

Em vez disso, a carta afirma que novos sistemas de governança devem ser criados para regular o desenvolvimento da IA, ajudar as pessoas a distinguir o conteúdo criado pela IA do conteúdo criado pelo homem, responsabilizar laboratórios de IA como o OpenAI por qualquer dano que causem, permitir que a sociedade lide com a interrupção da IA ​​( especialmente para a democracia), e muito mais.

Os autores terminam com uma nota positiva, afirmando que “a humanidade pode desfrutar de um futuro próspero com a IA… Fazer uma pausa em sistemas de IA mais poderosos que o GPT-4 permitiria que isso acontecesse, afirmam.

A carta terá o efeito pretendido? Isso é difícil de dizer. Existem claramente incentivos para a OpenAI continuar trabalhando em modelos avançados, tanto financeiros quanto de reputação. Mas com tantos riscos potenciais – e com muito pouca compreensão deles – os autores da carta sentem claramente que esses incentivos são perigosos demais para perseguir.