Inteligência Artificial coloca a humanidade em risco de extinção: o CEO da OpenAI também afirma isso
A Inteligência Artificial (IA) assumiu o controle de nossa sociedade, mas os especialistas do setor estão alertando. De fato, o uso descontrolado e irresponsável da IA pode levar à extinção da humanidade. Nomes reconhecidos como Sam Altman da OpenAI , Demis Hassabis do Google DeepMind e Dario Amodei da Anthropic juntam-se em uma chamada para abordar o perigo iminente e mitigar os riscos associados à IA. Veja quais são suas preocupações e por que é importante fazer da IA uma prioridade global.
Os riscos da Inteligência Artificial
Entre os especialistas que deram o alarme também está Sam Altman, CEO da OpenAI. Segundo ele e outros especialistas, o perigo não está tanto em uma superinteligência dominando a humanidade , mas sim nas consequências do uso irresponsável de algoritmos no trabalho e na vida cotidiana. Um dos principais riscos diz respeito à interferência na divulgação de notícias falsas e à manipulação da opinião pública. De fato, a Inteligência Artificial pode prejudicar a humanidade através da criação de canais de desinformação.
Os signatários do apelo destacam a importância de se preparar para enfrentar esses riscos emergentes. O uso extensivo de IA está levando a uma revolução em muitos setores , mas ao mesmo tempo apresenta sérios problemas. A IA permeia diferentes aspectos da vida social, econômica, financeira, política, educacional e ética. Os especialistas concordam que tais situações precisam ser gerenciadas e medidas devem ser tomadas para enfrentar os desafios apresentados pela IA, como a produção de notícias falsas ou o controle de carros autônomos.
O apelo à prioridade global
Altman, Hassabis e Amodei se reuniram recentemente com o presidente dos Estados Unidos, Joe Biden, e a vice-presidente, Kamala Harris, para discutir a Inteligência Artificial. Após a reunião, Altman testemunhou perante o Senado, alertando que os riscos associados à IA avançada eram sérios o suficiente para justificar a intervenção do governo . Ele argumenta que esses riscos exigem regulamentação precisa para evitar danos. No entanto, os especialistas não apenas alertaram sobre os perigos da tecnologia, mas também propuseram soluções concretas para o gerenciamento responsável de sistemas avançados de IA.
Especialistas em Inteligência Artificial alertam que o risco de extinção da humanidade deve ser considerado uma prioridade global. A IA tem o potencial de afetar significativamente o destino da humanidade, por isso é essencial abordar esses riscos com urgência. Numa pequena carta publicada pelo Center for AI Safety (Cais), lemos
“Mitigar o risco de extinção representado pela inteligência artificial deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear”
Entre os signatários da carta estão Sam Altman, CEO da OpenAI, também conhecido pela criação do ChatGPT , juntamente com Geoffrey Hinton e Yoshua Bengio, que são considerados pioneiros no campo da IA. Geoffrey Hinton é comumente considerado o "padrinho da IA", atualmente descrevendo essa tecnologia como "assustadora". Yoshua Bengio, por outro lado, é professor de ciência da computação na Universidade de Montreal e um dos principais especialistas do setor que já expressou preocupação com os riscos associados a essa tecnologia.
O ponto de vista de Sam Altman, CEO da OpenAI
Sam Altman é o CEO da OpenAI, empresa responsável pela criação do ChatGPT, o famoso chatbot que catalisou o interesse do público pela inteligência artificial. Junto com Demis Hassabis, CEO do Google DeepMind, e Dario Amodei da Anthropic, Altman profetizou o risco de extinção da humanidade. Mas qual é o significado dessa afirmação? A votação do Parlamento Europeu sobre o AI Act, primeiro regulamento mundial sobre inteligência artificial, acontecerá de 12 a 15 de junho. É interessante notar que neste momento, em que uma importante instituição se prepara para limitar a liberdade de ação e os desenvolvimentos econômicos relacionados à inteligência artificial, Altman se manifesta contra sua própria tecnologia . Isso pode parecer um verdadeiro paradoxo. À primeira vista, essa posição parece absurda. Por que essa declaração inesperada?
as motivações de Altman
Existem várias teorias possíveis para entender a posição de Altman. Uma possível explicação é que chamar a IA de todo-poderosa é uma ótima propaganda para a indústria como um todo. O setor de IA está em pleno andamento e limitá-lo parece ser um desafio difícil, senão impossível. Outra explicação poderia ser de natureza econômica. De fato, os dados mostram que a corrida pela Inteligência Artificial envolve principalmente duas nações, a China e os Estados Unidos. Os primeiros correspondem a investimentos privados de 13,4 bilhões de dólares, os segundos um total de 47 bilhões de dólares. A ação de Altman pode ter como objetivo limitar a concorrência perigosa e limitar o alcance da IA pelo menos na Europa e nos Estados Unidos. Basicamente, jogos de poder complexos estão escondidos por trás de tal afirmação. Espera-se que US$ 800 bilhões sejam investidos em IA no futuro, gerando um valor estimado em cerca de US$ 6 trilhões.
A gestão responsável da Inteligência Artificial
Os especialistas propõem várias estratégias para gerenciar a IA com responsabilidade. Eles enfatizam a necessidade de cooperação entre os participantes do setor e de mais pesquisas sobre padrões de linguagem. Eles também sugerem a criação de uma organização internacional de segurança de IA semelhante à Agência Internacional de Energia Atômica (IAEA). Além disso, alguns defendem a importância de redigir leis que exijam que os criadores de modelos avançados de IA se registrem e obtenham uma licença regulamentada pelo governo .
A ampla difusão da IA generativa , com a proliferação de chatbots como o ChatGPT, gerou muitos pedidos para avaliar as implicações do desenvolvimento de tais ferramentas. Entre eles, uma carta aberta também assinada por Elon Musk em março passado levantou a questão de uma pausa de seis meses no desenvolvimento de modelos mais poderosos que o GPT-4 da OpenAI . O objetivo é gastar o tempo necessário para desenvolver protocolos de segurança compartilhados para inteligência artificial avançada. De fato, como afirmado na carta,
“Sistemas poderosos de IA só devem ser desenvolvidos quando houver confiança de que seus efeitos serão positivos e seus riscos gerenciáveis”.
O artigo Inteligência Artificial coloca a humanidade em risco de extinção: o CEO da OpenAI também afirma que foi escrito em: Tech CuE | Engenharia de close-up .