O Google pode finalmente ter uma resposta para o Chat GPT-4
O Google anunciou o lançamento de seu mais extenso modelo de inteligência artificial, o Gemini , e ele apresenta três versões: Gemini Ultra, a maior e mais capaz; Gemini Pro, versátil em diversas tarefas; e Gemini Nano, projetado para tarefas específicas e dispositivos móveis. O plano é licenciar o Gemini para clientes por meio do Google Cloud para uso em seus aplicativos, em um desafio ao ChatGPT da OpenAI.
Gemini Ultra se destaca na compreensão massiva de linguagem multitarefa, superando especialistas humanos em assuntos como matemática, física, história, direito, medicina e ética. Espera-se que ele potencialize produtos do Google como o chatbot Bard e o Search Generative Experience. O Google pretende monetizar a IA e planeja oferecer o Gemini Pro por meio de seus serviços em nuvem.
“Gemini é o resultado de esforços colaborativos em grande escala entre equipes do Google, incluindo nossos colegas do Google Research”, escreveu o CEO Sundar Pichai em um blog na quarta-feira. “Ele foi construído desde o início para ser multimodal, o que significa que pode generalizar e compreender, operar e combinar diferentes tipos de informações, incluindo texto, código, áudio, imagem e vídeo.”
A partir de 13 de dezembro, desenvolvedores e empresas poderão acessar o Gemini Pro por meio da API Gemini no Google AI Studio ou no Google Cloud Vertex AI, enquanto os desenvolvedores Android poderão criar com o Gemini Nano. Gemini aprimorará o chatbot Bard do Google, usando Gemini Pro para raciocínio, planejamento e compreensão avançados. Um próximo Bard Advanced, usando Gemini Ultra, está previsto para ser lançado no próximo ano e provavelmente estará posicionado para desafiar o GPT-4 .
Apesar das dúvidas sobre a monetização com o Bard, o Google enfatiza a criação de uma boa experiência do usuário e não fornece detalhes específicos sobre preços ou acesso ao Bard Advanced. O modelo Gemini, especialmente o Gemini Ultra, passou por extensos testes e avaliações de segurança, de acordo com o Google. Embora seja o maior modelo, afirma-se que é mais rentável e eficiente do que os seus antecessores.
O Google também introduziu sua unidade de processamento tensor de próxima geração, TPU v5p , para treinar modelos de IA. O chip promete melhor desempenho pelo preço em comparação com o TPU v4. Este anúncio segue os recentes desenvolvimentos em silício personalizado dos rivais em nuvem Amazon e Microsoft.
O lançamento do Gemini, após um atraso relatado, ressalta o compromisso do Google com o avanço das capacidades de IA. A empresa tem sido investigada sobre como planeja transformar a IA em empreendimentos lucrativos, e a introdução do Gemini está alinhada com sua estratégia de oferecer serviços de IA por meio do Google Cloud. Os detalhes técnicos do Gemini serão descritos mais detalhadamente num próximo documento técnico, fornecendo informações sobre as suas capacidades e inovações.