O Firebase Studio do Google permite criar protótipos de aplicativos em minutos – sem necessidade de código
O Google está dando à sua plataforma de desenvolvimento de aplicativos móveis e web, Firebase, uma reformulação de codificação de vibração – transformando-a de uma ferramenta de desenvolvimento em um construtor de aplicativos DIY AI. No momento, está em fase de visualização, mas qualquer usuário individual do Google pode experimentar.
Assim como chatbots como o ChatGPT geram texto ou imagens a partir de seus prompts, o Firebase Studio se esforça para gerar protótipos de aplicativos. Para as empresas, a ideia é acelerar significativamente o processo de prototipagem, mas o motivo pelo qual a “codificação vibratória” está chamando a atenção agora é que indivíduos não técnicos também podem usar essas ferramentas para criar aplicativos pessoais.
Cursor AI é um dos aplicativos mais populares para esse uso no momento, ganhando 360.000 assinantes pagantes e US$ 200 milhões em receita em cerca de 12 meses. Kevin Roose, do The New York Times , por exemplo, parece estar se divertindo com aplicativos de codificação de vibração que o ajudam a preparar a merenda escolar de seu filho ou a decidir se algo cabe no porta-malas de seu carro. Com os novos recursos do Firebase Studio, parece que o Google quer entrar em ação.

Você pode usar um modelo que se aproxime da sua ideia ou começar do zero simplesmente digitando o que deseja. O Firebase Studio enviará a você um plano descrevendo os tipos de recursos que incluirá, qual será o esquema de cores e o layout e como o aplicativo será chamado. Você pode ajustar todos esses detalhes e clicar em “protótipo” para começar a construir.
Bem, não sou desenvolvedor de aplicativos, então o que aconteceu a seguir pareceu um pouco louco para mim – apenas linhas de código caindo em cascata pela tela enquanto o modelo de IA presumivelmente fazia toda a sua geração. Quando terminei, a parede de código foi substituída por um pequeno protótipo de aplicativo web – escolhi um aplicativo que transformaria imagens de comida de anime em receitas, então o aplicativo estava esperando que eu carregasse uma imagem.

Neste ponto, o Firebase Studio solicita uma “ chave de API Gemini ”, então, no verdadeiro estilo de codificação vibe, apenas cliquei no botão “Gerar chave de API” para ver o que aconteceria. Parecia que funcionava, mas quando carreguei minha imagem e cliquei em “Identificar ingredientes”, o aplicativo encontrou outro problema.
A IA se ofereceu para tentar consertar o problema para mim – mas, honestamente, eu já terminei esse pequeno experimento. Para mim, vibe coding é apenas clicar em botões sem ter nenhuma ideia real do que eles farão, e isso não é muito divertido. Mas se você quiser experimentar, a ideia é basicamente continuar pedindo à IA para consertar as coisas, continuar pedindo para fazer alterações e continuar testando o protótipo no lado esquerdo até conseguir o que deseja.
A única coisa agora é esperar e ver se o Google consegue atrair alguns programadores de vibração ou se a base de usuários do Firebase permanecerá principalmente profissional.