Especialista revela os telefones que os fãs de IA precisam para levar Gemini e ChatGPT ao limite

Uma das tendências mais óbvias – e honestamente, mais monótonas – na indústria de smartphones nos últimos anos tem sido a conversa incessante sobre experiências de IA. Os guerreiros do silício, em particular, frequentemente elogiavam como seu mais recente processador móvel permitiria processos de IA no dispositivo, como a geração de vídeo.

Já estamos lá, embora não completamente. Em meio a todo o hype com truques de IA para usuários de smartphones , o debate quase nunca foi além das apresentações chamativas sobre os novos processadores e chatbots em constante evolução.

Foi somente quando a ausência do Gemini Nano no Google Pixel 8 levantou sobrancelhas que as massas souberam da importância crítica da capacidade de RAM para IA em dispositivos móveis. Logo, a Apple também deixou claro que estava mantendoo Apple Intelligence bloqueado para dispositivos com pelo menos 8 GB de RAM.

Mas a imagem do “telefone AI” não se trata apenas da capacidade de memória. O quão bem o seu telefone pode executar tarefas alimentadas por IA também depende das otimizações de RAM invisíveis, bem como dos módulos de armazenamento. E não, não estou falando apenas da capacidade.

Inovações de memória direcionadas para telefones com IA

A Digital Trends conversou com a Micron, líder global em soluções de memória e armazenamento, para analisar a função da RAM e do armazenamento para processos de IA em smartphones. Os avanços feitos pela Micron devem estar no seu radar na próxima vez que você for comprar um telefone de primeira linha.

O mais recente da empresa sediada em Idaho inclui o armazenamento móvel UFS 4.1 G9 NAND e módulos de RAM LPDDR5X 1γ (1 gama) para smartphones principais. Então, como exatamente essas soluções de memória impulsionam a causa da IA ​​nos smartphones, além de aumentar a capacidade?

Vamos começar com a solução de armazenamento G9 NAND UFS 4.1. A promessa geral é o consumo econômico de energia, menor latência e alta largura de banda . O padrão UFS 4.1 pode atingir velocidades máximas de leitura e gravação sequencial de 4.100 MBps, o que equivale a um ganho de 15% em relação à geração UFS 4.0, ao mesmo tempo que reduz os números de latência.

Outro benefício crucial é que os módulos de armazenamento móvel de última geração da Micron vão até 2 TB de capacidade. Além disso, a Micron conseguiu reduzir seu tamanho, tornando-os uma solução ideal para telefones dobráveis ​​e telefones finos de última geração, como o Samsung Galaxy S25 Edge .

Passando para o progresso da RAM, a Micron desenvolveu o que chama de módulos de RAM 1γ LPDDR5X. Eles oferecem uma velocidade de pico de 9.200 MT/s, podem conter 30% mais transistores devido à redução de tamanho e consomem 20% menos energia. A Micron já serviu a solução RAM 1β (1-beta) ligeiramente mais lenta incluída nos smartphones da série Samsung Galaxy S25 .

A interação entre armazenamento e IA

Ben Rivera, Diretor de Marketing de Produto da Unidade de Negócios Móveis da Micron, me disse que a Micron fez quatro melhorias cruciais em suas soluções de armazenamento mais recentes para garantir operações de IA mais rápidas em dispositivos móveis. Eles incluem UFS zoneado, desfragmentação de dados, WriteBooster fixado e rastreador de latência inteligente.

“Esse recurso permite que o processador ou host identifique e isole ou “fixe” os dados usados ​​com mais frequência de um smartphone em uma área do dispositivo de armazenamento chamada buffer WriteBooster (semelhante a um cache) para permitir acesso rápido e rápido”, explica Rivera sobre o recurso Pinned WriteBooster.

Cada modelo de IA – pense no Google Gemini ou ChatGPT – que busca realizar tarefas no dispositivo precisa de seu próprio conjunto de arquivos de instruções armazenados localmente em um dispositivo móvel. A Apple Intelligence, por exemplo, precisa de 7 GB de armazenamento para todas as suas travessuras.

Para executar uma tarefa, você não pode delegar todo o pacote de IA para a RAM, porque seria necessário espaço para lidar com outras tarefas críticas, como ligar ou interagir com outros aplicativos importantes. Para lidar com a restrição do módulo de armazenamento Micron, é criado um mapa de memória que carrega apenas os pesos de IA necessários do armazenamento para a RAM.

Quando os recursos ficam escassos, o que você precisa é de uma troca e leitura de dados mais rápida. Isso garante que suas tarefas de IA sejam executadas sem afetar a velocidade de outras tarefas importantes. Graças ao Pinned WriteBooster, essa troca de dados é acelerada em 30%, garantindo que as tarefas de IA sejam realizadas sem atrasos.

Então, digamos que você precise que o Gemini abra um PDF para análise . A rápida troca de memória garante que os pesos de IA necessários sejam rapidamente transferidos do armazenamento para o módulo de RAM.

Em seguida, temos Desfragmentação de Dados. Pense nele como um organizador de mesa ou almirah, que garante que os objetos sejam agrupados ordenadamente em diferentes categorias e colocados em seus armários exclusivos para que seja fácil encontrá-los.

No contexto dos smartphones, à medida que mais dados são salvos durante um longo período de uso, todos eles geralmente são armazenados de forma bastante aleatória. O impacto líquido é que quando o sistema integrado precisa de acesso a um determinado tipo de arquivo, fica mais difícil encontrá-los todos, levando a uma operação mais lenta.

Segundo Rivera, o Data Defrag não só ajuda no armazenamento ordenado dos dados, mas também altera a rota de interação entre o armazenamento e o controlador do dispositivo. Ao fazer isso, aumenta a velocidade de leitura dos dados em impressionantes 60% , o que naturalmente acelera todos os tipos de interações usuário-máquina, incluindo fluxos de trabalho de IA.

“Esse recurso pode ajudar a agilizar os recursos de IA, como quando um modelo generativo de IA, como aquele usado para gerar uma imagem a partir de um prompt de texto, é chamado do armazenamento para a memória, permitindo que os dados sejam lidos mais rapidamente do armazenamento para a memória”, disse o executivo da Micron à Digital Trends.

O Intelligence Latency Tracker é outro recurso que basicamente monitora eventos de atraso e fatores que podem estar diminuindo o ritmo normal do seu telefone. Posteriormente, ajuda na depuração e otimização do desempenho do telefone para garantir que tarefas regulares, bem como de IA, não sofram redutores de velocidade.

O aprimoramento de armazenamento final é o Zoned UFS. Este sistema garante que os dados com natureza de E/S semelhante sejam armazenados de forma ordenada. Isso é crucial porque torna mais fácil para o sistema localizar os arquivos necessários, em vez de perder tempo vasculhando todas as pastas e diretórios.

“O recurso ZUFS da Micron ajuda a organizar os dados para que, quando o sistema precisar localizar dados específicos para uma tarefa, seja um processo mais rápido e tranquilo”, disse Rivera.

Indo além da capacidade de RAM

Quando se trata de fluxos de trabalho de IA, você precisa de uma certa quantidade de RAM. Quanto mais, melhor. Embora a Apple tenha definido a linha de base em 8 GB para sua pilha Apple Intelligence, os jogadores do ecossistema Android mudaram para 12 GB como padrão seguro. Por que isso?

"As experiências de IA também exigem muitos dados e, portanto, consomem muita energia. Portanto, para cumprir a promessa da IA, a memória e o armazenamento precisam oferecer baixa latência e alto desempenho com a máxima eficiência energética", explica Rivera.

Com sua solução de RAM LPDDR5X 1γ (1 gama) de última geração para smartphones, a Micron conseguiu reduzir a tensão operacional dos módulos de memória. Depois, há a importante questão do desempenho local. Rivera diz que os novos módulos de memória podem funcionar a até 9,6 gigabits por segundo, garantindo desempenho de IA de alto nível.

A Micron afirma que as melhorias no processo de litografia ultravioleta extremo (EUV) abriram as portas não apenas para velocidades mais altas, mas também para um salto saudável de 20% na eficiência energética.

O caminho para experiências de IA mais privadas?

As soluções de RAM e armazenamento de próxima geração da Microns para smartphones têm como objetivo não apenas melhorar o desempenho da IA, mas também o ritmo geral das tarefas diárias do seu smartphone. Eu estava curioso para saber se o armazenamento móvel UFS 4.1 do G9 NAND e os aprimoramentos de RAM LPDDR5X de 1γ (1 gama) também acelerariam os processadores de IA offline.

Os fabricantes de smartphones, bem como os laboratórios de IA, estão cada vez mais migrando para o processamento local de IA . Isso significa que em vez de enviar suas consultas para um servidor em nuvem onde a operação é realizada e o resultado ser enviado para o seu telefone por meio de uma conexão com a internet, todo o fluxo de trabalho é executado localmente no seu telefone.

Desde a transcrição de chamadas e anotações de voz até o processamento de seu complexo material de pesquisa em arquivos PDF, tudo acontece no seu telefone e nenhum dado pessoal sai do seu dispositivo. É uma abordagem mais segura e mais rápida, mas, ao mesmo tempo, requer muitos recursos do sistema. Um módulo de memória mais rápido e eficiente é um desses pré-requisitos.

As soluções de última geração da Micron podem ajudar no processamento local de IA? Pode. Na verdade, também irá agilizar processos que exigem conexão em nuvem, como a geração de vídeos usando o modelo Veo do Google , que ainda exige servidores de computação poderosos.

"Um aplicativo de IA nativo executado diretamente no dispositivo teria a maior parte do tráfego de dados, pois além de ler os dados do usuário do dispositivo de armazenamento, também conduziria inferências de IA no dispositivo. Nesse caso, nossos recursos ajudariam a otimizar o fluxo de dados para ambos", diz Rivera.

Então, quando você pode esperar que os telefones equipados com as soluções Micron mais recentes cheguem às prateleiras? Rivera diz que todos os principais fabricantes de smartphones adotarão RAM e módulos de armazenamento de próxima geração da Micron. No que diz respeito à chegada ao mercado, “modelos emblemáticos lançados no final de 2025 ou início de 2026” devem estar no seu radar de compras.