Estudo diz que o hype da IA ​​​​está impedindo pesquisas genuínas sobre inteligência artificial

Um novo estudo da AAAI (Associação para o Avanço da Inteligência Artificial) com centenas de pesquisadores contribuintes de IA foi publicado este mês, e a principal conclusão é esta: é improvável que nossa abordagem atual à IA nos leve à inteligência artificial geral .

IA tem sido uma palavra da moda há alguns anos, mas a inteligência artificial como campo de pesquisa já existe há muitas décadas. O famoso artigo “Computing Machinery and Intelligence” de Alan Turing e oteste de Turing de que ainda falamos hoje, por exemplo, foram publicados em 1950.

A IA de que todos falam hoje nasceu dessas décadas de pesquisa, mas também diverge delas. Em vez de ser uma busca científica, agora também temos um ramo divergente da inteligência artificial que você poderia chamar de “IA comercial”.

Os esforços em IA comercial são liderados por grandes monopólios tecnológicos como Microsoft, Google, Meta, Apple e Amazon – e seu objetivo principal é criar produtos de IA . Isso não deveria ser um problema, mas no momento parece que pode ser.

Em primeiro lugar, porque a maioria das pessoas nunca acompanhou a investigação em IA até há alguns anos, tudo o que uma pessoa comum sabe sobre IA vem destas empresas, e não da comunidade científica. O estudo cobre este tópico no capítulo “Percepção da IA ​​versus Realidade”, com 79% dos cientistas envolvidos acreditando que a percepção atual das capacidades da IA ​​não corresponde à realidade da pesquisa e desenvolvimento da IA.

Por outras palavras, o que o público em geral pensa que a IA pode fazer não corresponde ao que os cientistas pensam que a IA pode fazer. A razão para isto é tão simples quanto lamentável: quando um grande representante da tecnologia faz uma declaração sobre IA, não é uma opinião científica – é marketing de produto. Eles querem divulgar a tecnologia por trás de seus novos produtos e garantir que todos sintam a necessidade de aderir a esse movimento.

Quando Sam Altman ou Mark Zuckerberg dizem que os empregos de engenharia de software serão substituídos por IA, por exemplo, é porque querem influenciar os engenheiros a aprenderem habilidades de IA e influenciar as empresas de tecnologia a investirem em planos empresariais caros . Até que eles comecem a substituir seus próprios engenheiros (e se beneficiem disso), no entanto, eu pessoalmente não ouviria uma palavra do que eles dizem sobre o assunto.

Contudo, não é apenas a percepção pública que a IA comercial está influenciando. Os participantes do estudo acreditam que o “hype da IA” fabricado pelas grandes tecnologias está prejudicando os esforços de pesquisa. Por exemplo, 74% concordam que a direção da investigação em IA está a ser impulsionada pelo hype – isto provavelmente porque a investigação que se alinha com os objetivos comerciais da IA ​​é mais fácil de financiar. 12% também acreditam que a investigação teórica sobre IA está a sofrer com isso.

Então, até que ponto isso é um problema? Mesmo que as grandes empresas tecnológicas estejam a influenciar o tipo de investigação que fazemos, seria de pensar que as enormes somas de dinheiro que estão a injetar neste campo deveriam ter um impacto global positivo. No entanto, a diversidade é fundamental quando se trata de investigação – precisamos de seguir todos os tipos de caminhos diferentes para ter a oportunidade de encontrar o melhor.

Mas as grandes tecnologias estão realmente focadas apenas em uma coisa no momento: grandes modelos de linguagem . Este tipo extremamente específico de modelo de IA é o que alimenta quase todos os produtos de IA mais recentes, e figuras como Sam Altman acreditam que escalar cada vez mais estes modelos (ou seja, dar-lhes mais dados, mais tempo de formação e mais poder computacional) acabará por nos dar inteligência artificial geral.

Esta crença, apelidada de hipótese de escala, diz que quanto mais poder alimentamos uma IA, mais as suas capacidades cognitivas aumentarão e mais as suas taxas de erro diminuirão. Algumas interpretações também dizem que novas habilidades cognitivas surgirão inesperadamente. Portanto, mesmo que os LLMs não sejam bons em planejar e pensar em problemas no momento, essas habilidades deverão surgir em algum momento.

Nos últimos meses, no entanto, a hipótese de escalonamento foi alvo de críticas significativas. Alguns cientistas acreditam que o dimensionamento de LLMs nunca levará à AGI e acreditam que todo o poder extra que estamos alimentando em novos modelos não está mais produzindo resultados. Em vez disso, atingimos um “muro de escala” ou “limite de escala”, onde grandes quantidades de poder computacional e dados extras estão produzindo apenas pequenas melhorias em novos modelos. A maioria dos cientistas que participaram do estudo da AAAI estão deste lado da discussão:

A maioria dos entrevistados (76%) afirma que “ampliar as atuais abordagens de IA” para gerar AGI é “improvável” ou “muito improvável” de sucesso, sugerindo dúvidas sobre se os atuais paradigmas de aprendizagem de máquina são suficientes para alcançar inteligência geral.

Os grandes modelos atuais de linguagem podem produzir respostas muito relevantes e úteis quando as coisas vão bem, mas dependem de princípios matemáticos para isso. Muitos cientistas acreditam que precisaremos de novos algoritmos que utilizem raciocínio, lógica e conhecimento do mundo real para chegar a uma solução se quisermos avançar mais perto do objetivo da AGI. Aqui está uma citação picante sobre LLMs e AGI de um artigo de 2022 de Jacob Browning e Yann Lecun.

Um sistema treinado apenas na linguagem nunca se aproximará da inteligência humana, mesmo que seja treinado a partir de agora até à morte térmica do universo.

No entanto, não há uma maneira real de saber quem está aqui – ainda não. Por um lado, a definição de AGI não é imutável e nem todos almejam a mesma coisa. Algumas pessoas acreditam que a AGI deveria produzir respostas semelhantes às humanas através de métodos semelhantes aos humanos – portanto, deveriam observar o mundo ao seu redor e resolver os problemas de maneira semelhante à nossa. Outros acreditam que a AGI deveria se concentrar mais nas respostas corretas do que nas respostas humanas, e que os métodos que eles usam não deveriam importar.

De muitas maneiras, entretanto, realmente não importa em qual versão de AGI você está interessado ou se você é a favor ou contra a hipótese de escalabilidade – ainda precisamos diversificar nossos esforços de pesquisa. Se nos concentrarmos apenas na expansão dos LLMs, teremos que começar do zero se não funcionar, e poderemos não conseguir descobrir novos métodos que sejam mais eficazes ou eficientes. Muitos dos cientistas neste estudo temem que a IA comercial e o entusiasmo que a rodeia atrasem o progresso real — mas tudo o que podemos fazer é esperar que as suas preocupações sejam resolvidas e que ambos os ramos da investigação em IA possam aprender a coexistir e progredir juntos. Bem, você também pode esperar que a bolha da IA ​​estoure e todos os produtos de tecnologia alimentados por IA desapareçam na irrelevância, se preferir.