A IA pode fazer muitas coisas, mas ainda não pode criar jogos – ou mesmo jogá-los

À medida que as ferramentas de IA melhoram, continuamos sendo encorajados a transferir tarefas cada vez mais complexas para elas. LLMs podem escrever nossos e-mails para nós, criar apresentações, criar aplicativos, gerar vídeos, pesquisar na internet e resumir os resultados e muito mais. Uma coisa com a qual eles ainda estão lutando são os videogames.

Até agora, neste ano, dois dos maiores nomes da IA ​​(Microsoft e Anthropic) tentaram fazer com que seus modelos gerassem ou jogassem jogos, e os resultados são provavelmente muito mais limitados do que muitas pessoas esperam.

Isso os torna exemplos perfeitos de onde a IA generativa realmente está agora – em resumo: ela pode fazer muito mais do que antes, mas não pode fazer tudo.

Microsoft gera Quake II

A geração de videogames tem problemas semelhantes aos da geração de vídeos – o movimento é estranho e metafórico, e a IA começa a perder contato com a “realidade” após um determinado período de tempo. A última tentativa da Microsoft, que qualquer pessoa pode experimentar , é uma versão do Quake II gerada por IA.

Joguei algumas vezes e é uma experiência verdadeiramente alucinante, com inimigos estranhos e borrados aparecendo do nada e o ambiente mudando ao seu redor conforme você se move. Várias vezes, quando entrei em uma nova sala, a entrada desapareceria quando eu me virasse para encará-la – e quando olhasse para frente novamente, as paredes teriam se movido.

A experiência dura apenas alguns minutos antes de ser interrompida e solicitar que você inicie um novo jogo – mas se você não tiver sorte, ela pode parar de responder adequadamente às suas entradas antes mesmo disso.

No entanto, é um ótimo experimento e acho que seria útil para mais pessoas verem. Ele permite que você experimente por si mesmo no que a geração AI é boa e quais são suas limitações atuais. Por mais impressionante que seja podermos gerar uma experiência de videogame interativa, é difícil imaginar que alguém possa jogar esta demonstração tecnológica e pensar que o próximoAssassin's Creed será feito por IA.

No entanto, esses tipos de pensamentos e suposições existem, e isso ocorre principalmente porque as pessoas não conseguem escapar de ouvir falar sobre IA agora. Mesmo que você não se importe com a inteligência artificial, ela ainda será jogada na sua cara onde quer que você vá. O problema é que as informações que uma pessoa comum obtém são quase inteiramente compostas de grandes marketing de tecnologia e comentários de CEOs que são captados por publicações de notícias.

Isso significa que eles ouvem afirmações exageradas e conflitantes como estas:

Tem potencial para resolver alguns dos maiores problemas do mundo, como as alterações climáticas, a pobreza e as doenças. ( Bill Gates )

Provavelmente em 2025, nós da Meta, assim como as outras empresas que estão basicamente trabalhando nisso, teremos uma IA que pode efetivamente ser uma espécie de engenheiro de nível médio que você tem em sua empresa e que pode escrever código. ( Mark Zuckerberg )

Usar a IA de forma eficaz agora é uma expectativa fundamental de todos no Shopify. É uma ferramenta para todos os negócios hoje e só crescerá em importância. Francamente, não acho que seja viável optar por não aprender a habilidade de aplicar IA em seu ofício. ( Tobi Lutke , CEO da Shopify)

Agora estamos confiantes de que sabemos como construir a AGI tal como a entendemos tradicionalmente. Acreditamos que, em 2025, poderemos ver os primeiros agentes de IA “juntarem-se à força de trabalho” e alterar substancialmente a produção das empresas. ( Sam Altman , CEO da OpenAI)

A IA é mais perigosa do que, digamos, a concepção mal gerida de aeronaves, a manutenção da produção ou a má produção de automóveis, no sentido em que o é, tem o potencial – por mais pequena que se possa considerar essa probabilidade, mas não é trivial – tem o potencial de destruição da civilização. ( Elon Musk )

Isso tudo é muito extremo, certo? Isso nos salvará e nos destruirá, é uma ferramenta de todos os ofícios para profissionais e uma ferramenta que substituirá os profissionais – e, aparentemente, poderemos obter AGI de nível de ficção científica ainda este ano. Quando isso é tudo que as pessoas ouvem, elas começam a esperar coisas incríveis dessas ferramentas e a acreditar que todos os funcionários de escritório passam os dias conversando com seus computadores como personagens de Star Trek.

No entanto, não é assim que a realidade parece. A realidade parece um Quake II borrado e alucinante, com formas incompreensíveis para os inimigos. Os LLMs de nível ChatGPT foram realmente um avanço emocionante em 2022 e muito divertidos para todos brincarem – mas para a maioria dos usos que a grande tecnologia está nos pressionando agora, a IA simplesmente não é capaz o suficiente. Os níveis de precisão são muito baixos, as habilidades de seguir instruções são muito baixas, as janelas de contexto são muito pequenas e eles são apenas treinados em bobagens da Internet em vez de conhecimento do mundo real.

Mas gerar um videogame é um objetivo bastante complexo – afinal, equipes inteiras de humanos levam anos para fazer essas coisas. Que tal jogar videogame?

Claude “joga” Pokémon Red

Bem, acontece que as pessoas também estão experimentando isso. O mais novo modelo da Anthropic, Claude 3.7 Sonnet , joga Pokémon Red no Twitch há cerca de dois meses e está fazendo o melhor trabalho que um LLM já fez jogando Pokémon. Uma pequena ressalva, no entanto, é que ele ainda está quilômetros atrás da média humana de 10 anos.

Um dos problemas é a velocidade – Claude leva milhares de ações durante vários dias para fazer coisas como atravessar a Floresta Viridian.

Por que demora tanto? Não é porque ele não consegue descobrir como vencer batalhas Pokémon estrategicamente – essa é na verdade a parte em que ele é melhor. Navegar pelo ambiente e evitar árvores e edifícios, por outro lado – não é tão bom. Claude nunca foi treinado para jogar Pokémon e não é fácil para ele entender a pixel art e o que ela representa.

Passar por áreas labirínticas como o Monte. Moon é particularmente difícil para ele, pois ele se esforça para formar um mapa da área e evitar refazer seus passos. Certa vez, ele ficou tão preso em um canto que concluiu que o jogo estava quebrado e gerou um pedido formal para reiniciar o jogo.

Ele também não é bom em lembrar quais são seus objetivos, quais coisas ele já tentou ou em quais lugares já esteve.

Há uma razão bastante direta para isso: os LLMs têm uma “janela de contexto” finita que atua como memória. Ele só pode conter uma determinada quantidade de informações e, quando Claude atinge o limite, ele condensa o que tem para abrir espaço para mais. Portanto, uma informação como “Visitei a cidade de Viridian, entrei em todos os edifícios e falei com todos os NPCs” pode ser condensada em apenas “Visitei a cidade de Viridian” – levando Claude a voltar e verificar se havia mais o que fazer na cidade.

Resumindo: Claude não consegue descobrir para onde está indo, ele bate nas paredes, confunde objetos aleatórios com NPCs, esquece onde esteve e o que está tentando fazer, e cada decisão que toma requer parágrafos e mais parágrafos de raciocínio. Isto não é uma crítica – ambos são experimentos interessantes que estão levando os LLMs o mais longe possível.

Mas com todo o entusiasmo em torno da IA, parece importante que as pessoas vejam demonstrações como essas e decidam sobre a IA. Certas figuras estão a tentar forçar a narrativa de que estamos prestes a atingir o pico – que dentro de anos, a IA estará além até dos humanos mais inteligentes – mas não creio que estejam a ser sinceros, estão apenas a ser vendedores. Não estamos nem perto do pico, tudo isso está apenas começando.