A Apple apostou seu futuro em IA na Gemini. Veja como ela pode reinventar o iPhone para você.
Um dos maiores anúncios do mundo da tecnologia — e entre duas das maiores empresas de tecnologia do planeta — foi condensado em uma breve declaração conjunta com menos de cem palavras. A Apple anunciou que a Gemini será a plataforma que impulsionará o renascimento da assistente Siri e a estrutura que dará suporte às experiências de software de IA em iPhones e Macs.
“Esses modelos ajudarão a impulsionar os futuros recursos de Inteligência Artificial da Apple, incluindo uma Siri mais personalizada que chegará ainda este ano”, disse a empresa. Esta é uma grande vitória para o Google, uma ótima notícia para os usuários de dispositivos Apple e uma admissão de que a Apple não conseguiu liderar a corrida da IA com a mesma capacidade que o Google, a Meta ou a OpenAI.
Já se previa isso há algum tempo . Em certo momento, a Apple estaria testando os modelos Claude, da Anthropic, e GPT, da OpenAI, para alimentar a Siri. Mas, no fim, a empresa optou pelo Google, o que representa uma enorme validação das capacidades do Gemini. Vamos analisar o que provavelmente acontecerá a seguir com milhões de usuários de iPhone como você e eu.
Então, eh, privacidade?
Com a IA, há um grande dilema difícil de ignorar. Os chatbots de IA penetram em nossas vidas mais profundamente do que as redes sociais jamais conseguiram. Eles têm acesso aos nossos e-mails, calendário, galeria de fotos, arquivos e, claro, aos nossos pensamentos cotidianos. Especialistas já estão lidando com o crescente problema da profunda conexão emocional entre humanos e IA .
Mas isso não é tudo. Cada vez que interagimos com um chatbot de IA, dados são enviados para o servidor da empresa para processamento. Em alguns casos, esses dados são armazenados para treinamento do modelo ou por segurança, e você não pode optar por não participar. A solução? IA no dispositivo. Por exemplo, o Gemini Nano é uma abordagem que funciona no próprio chip do seu celular ou computador.
Nenhum dado sai do seu telefone. Mas é lento e menos eficiente. Para tarefas relacionadas a mídia ou outras atividades exigentes, o processamento em nuvem é obrigatório. Então, você está preparado para isso, agora que o Google está impulsionando as experiências de IA no seu iPhone e Mac, especialmente considerando seu histórico? Bem, a Apple já tem uma solução para isso e é bastante transparente em relação à privacidade, agora que o Gemini impulsionará as experiências de IA.
“A Apple Intelligence continuará a funcionar em dispositivos Apple e no Private Cloud Compute, mantendo os padrões de privacidade líderes do setor da Apple”, afirma a empresa. Isso significa que seus dados e interações com IA serão roteados apenas por meio de servidores do Private Cloud Compute, que utilizam chips personalizados da Apple e o sistema operacional da empresa, que prioriza a segurança.
“Acreditamos que o PCC seja a arquitetura de segurança mais avançada já implementada para computação de IA em nuvem em grande escala”, afirma a Apple. Com o PCC, os dados são criptografados assim que saem do seu telefone. E, uma vez concluída a tarefa atribuída, a solicitação do usuário e o material compartilhado são excluídos dos servidores.
Nenhum dado do usuário é armazenado e, independentemente do que seja enviado para os servidores em nuvem, nada disso é acessível à Apple. O Gemini simplesmente fornece a inteligência para processar seus comandos de texto ou voz. Todo o processamento subsequente é realizado com segurança nos servidores da Apple, em vez de ser enviado para o Google.
E agora?
Se você já usou o Gemini e depois pediu para a Siri realizar as mesmas tarefas (e viu que ela falhou), você sabe a diferença . A mais recente parceria entre Google e Apple está diminuindo essa diferença. E, mais importante, está fornecendo à Apple os elementos necessários para oferecer suas próprias experiências exclusivas de IA.
De forma geral, a estrutura subjacente de IA Gemini aprimorará a Siri e a Inteligência Artificial da Apple. Como exatamente? Isso não está claro, porque a Apple não fará simplesmente um trabalho de copiar e colar. É provável que você não veja nenhuma menção explícita à marca Gemini ao implementar esses recursos de IA de última geração no seu iPhone.
A Apple está apenas utilizando o cérebro. O corpo e o comportamento serão os mesmos de sempre da Apple.
No entanto, se você comparar o que o Gemini já consegue fazer em celulares Android — e o que a Siri não consegue — você pode ter uma ideia do progresso que chegará ao seu iPhone, iPad e Mac. Veja bem, a Apple não está apenas usando a tecnologia de IA subjacente do Gemini para o Apple Intelligence e a Siri. Ela vai muito além disso.
A Apple usará o conjunto de ferramentas de IA do Google para a próxima geração de modelos do Apple Foundation. Pense nesses modelos como o ingrediente secreto que possibilita recursos de inteligência artificial da Apple, como resumo, ferramentas de escrita, geração de imagens e até mesmo ações entre aplicativos.
Esses modelos, lançados em 2024, podem ser executados localmente em um dispositivo (sem necessidade de conexão com a internet) ou nos servidores em nuvem da Apple. Um ano depois, a Apple lançou versões atualizadas mais rápidas, com maior capacidade de processamento de mídia, melhor compreensão de linguagem e suporte a mais idiomas.
O grande atrativo era que a estrutura Foundation Models permitiria aos desenvolvedores aproveitar esses recursos inteligentes de IA integrados aos dispositivos e aprimorar a experiência do usuário. Imagine abrir o Spotify e, em vez de fazer tudo manualmente, você aciona a Siri e dá um comando como "crie uma playlist com as músicas que mais ouvi neste mês".
Isso ainda não é possível em iPhones.
Outra fragilidade reside na inteligência inerente da Siri. Sempre que você faz uma pergunta que vai além de questões básicas, ela a encaminha para o ChatGPT. Com o Gemini em dispositivos Android, como o Google Pixel 10 Pro, as respostas são oferecidas instantaneamente e as tarefas podem ser executadas em outros aplicativos sem problemas.
Por exemplo, posso dizer ao Gemini para "enviar uma mensagem para a Saba, perguntando sobre as aulas dela no WhatsApp", e ele enviará uma mensagem para minha irmã no aplicativo de mensagens. Os aplicativos e serviços do Google Workspace já estão bem integrados, permitindo que os usuários gerenciem tarefas no Gmail, Agenda, Drive e outros serviços semelhantes por meio de comandos de voz.
Encontrar informações sobre uma reserva de viagem na minha caixa de entrada, consultar o conteúdo de um arquivo ou simplesmente verificar minha agenda no calendário: o Gemini faz tudo isso. A Siri não chega nem perto desse nível de praticidade. E é aí que o Gemini também entra em cena para salvar a Apple.
Um novo começo
A Apple deixa claro que o Gemini dará suporte à “próxima geração de modelos da Apple Foundation”. Isso significa que a Siri poderá entender comandos em linguagem natural de forma mais fluida do que em seu estado robótico atual e executar tarefas no iPhone. Há muitos benefícios que podem advir dessa integração do Gemini.
O sistema de busca universal do iPhone ou Mac será aprimorado e se tornará mais conversacional. Tarefas dentro dos produtos Apple, como Notas, Música, Mail e outros, poderão ser executadas por meio de comandos de voz ou texto, sem a necessidade de abrir esses aplicativos. E o mais importante: isso também funcionará em outros aplicativos.
Com o App Intents, a empresa já possui a estrutura pronta para realizar ações em aplicativos de terceiros. Ainda não se popularizou completamente, provavelmente porque os modelos de IA disponíveis não foram considerados suficientemente inteligentes pelos desenvolvedores. Com o Gemini impulsionando as ações de IA no dispositivo, mais desenvolvedores poderão adotar com confiança ações baseadas em IA conversacional em seus aplicativos.
Imagine a Siri trabalhando para você em vários aplicativos, sem precisar abri-los. No iPhone, você já pode experimentar um pouco de como isso funciona . Abra o aplicativo ChatGPT, ative os conectores de aplicativos e, com comandos de linguagem natural, você poderá realizar tarefas em dezenas de aplicativos, incluindo o Apple Music.
Mas há uma ressalva. Você está vinculando outro aplicativo (via login) ao ChatGPT, o que significa que a OpenAI aprende mais sobre você. Quando a mesma tarefa é executada usando a estrutura integrada do sistema operacional, o risco à privacidade é teoricamente menor. Além disso, todo o fluxo de trabalho será mais integrado.
A Apple pode replicar a estratégia Gemini do Google de diversas outras maneiras. Basta que ela implemente a Siri em seus próprios aplicativos, mas de forma menos intrusiva e mais ponderada do que a implementação descontrolada que vimos com o Copilot, o Alexa+ e, sim, o próprio Gemini. A Apple é boa nisso, e estou bastante ansioso para ver a visão da empresa para IA se concretizar ainda este ano.
A Apple pode aprender muito com a execução do Gemini no Android e na web por meio dos serviços do Google. E agora que tem o cérebro do Gemini em mãos, pode modificá-lo e integrá-lo em seus próprios aplicativos e serviços — ao estilo característico da Apple.
A grande questão é: onde isso deixa o ChatGPT, que já está no centro da Inteligência Artificial da Apple? Saberemos mais nos próximos meses e, provavelmente, na próxima conferência de desenvolvedores da Apple, em junho. Mas, por enquanto, o futuro da Siri (e da IA nos dispositivos da Apple) parece mais promissor do que nunca para um usuário comum como eu, e para você!
O artigo " A Apple apostou seu futuro em IA na Gemini. Veja como ela pode reinventar o iPhone para você" foi publicado originalmente no Digital Trends .

