Ah, não! Virei agente!
Como usuário de um telefone Pixel que usa o telefone há seis anos e meio, assisti à conferência Made by Google ontem de manhã com uma carranca no rosto.
#MortoPorDentro
Como o produto de décima geração da linha de produtos, o Pixel 10 não nos trouxe uma transformação da forma de produto para a forma de uso como o anterior iPhone X. Em vez disso, ele adotou uma abordagem conservadora em um momento em que até mesmo o iPhone estava se preparando para fazer grandes mudanças de design.
Somente da perspectiva do hardware, os quatro novos telefones Pixel deste ano — 10, 10 Pro, Pro XL e Pro Fold — não têm destaques além do processador TSMC, e seus recursos de imagem tiveram progressos e retrocessos.
Já tivemos um nome mais adequado para essa atualização: Pixel 9s.
Considerando que o produto em si já é mediano, a conferência Made by Google é ainda mais difícil de descrever.
De uma perspectiva normal, o propósito do lançamento de um produto deve ser apresentar e exibir claramente o produto, destacar suas vantagens na maior extensão possível e, então, informar a todos o preço.
Mas o Google parece ter ideias diferentes sobre o lançamento.
O evento Made by Google deste ano foi mais uma reunião anual do Google altamente comercializada do que uma coletiva de imprensa. Nem mesmo Jimmy Fallon conseguiu juntar as várias cenas fragmentadas para responder à pergunta mais importante:
Quais atualizações foram feitas no Pixel deste ano?
O hardware de IA real requer apenas a forma mais simples
Temos que admitir: o Google, com seu Gemini, Veo 3, Flow, Genie 3 e outras ferramentas, é sem dúvida um dos modelos de IA mais poderosos do planeta, e nem precisa de um.
O Genie 3 pode gerar "ambientes de simulação interativos" em tempo real a 720P e 24 quadros, em vez de vídeo. | YouTube @Fireship
O Google naturalmente reconhece o valor da afirmação de Alan Kay de que "pessoas que levam software a sério deveriam criar seu próprio hardware". Isso pode ser comprovado pelo fato de que, há dez anos, o Google abandonou a série de celulares Nexus, fabricada pelos fabricantes, e adotou um processo de desenvolvimento totalmente interno para o Pixel.
O problema é que, com o tempo, a definição de "software" muda:
- A primeira geração do Pixel em 2016 representou um hardware padronizado para o sistema Android.
- O Pixel 2 em 2017 representou o hardware padronizado para fotografia computacional.
- O Pixel 6 2021 retorna ao hardware padronizado para o design Material You com Android 12.
Quanto ao Pixel 10 deste ano, após analisar toda a coletiva de imprensa, o departamento editorial do iFan sente que as intenções do Google já estão claras:
A série Pixel 10 é um conjunto de hardware de IA desenvolvido inteiramente para a Gemini. Seja o Rabbit R1, o Humane AI Pin ou o acessório de IA desenvolvido pela OpenAI e Jony Ive, em comparação com o Pixel 10, eles precisam admitir que não são puros o suficiente.
Se usarmos a fórmula de Alan Kay para descrever isso, o Google gradualmente mudou de "levar o sistema Android a sério o suficiente" para "levar a IA a sério o suficiente" — o telefone Pixel, como uma forma de hardware, não requer nenhuma mudança.
Foto|PhoneArena
Em outras palavras, a série Pixel 10 deste ano não é tão importante para o Android 16 ou para a fotografia computacional do Google.
Pelo contrário, o Pixel 10 é uma extensão real do Gemini, um portal de US$ 799 para IA que também pode fazer chamadas e tirar fotos.
Mas esse não é o hardware de IA que queremos.
Claro, não há nada de errado em o Google transformar o Pixel em um portal de hardware exclusivo para o Gemini. Afinal, não importa o quanto o hardware do telefone seja aprimorado, ele é muito mais prático do que a aparência deliberadamente diferenciada do Rabbit R1 e do Humane AI Pin.
Imagem: CNET
Entretanto, mesmo que o Pixel atual possa ser considerado um hardware de IA, ele ainda não resolve um problema muito importante:
Sua lógica de funcionamento é diferente do hardware de IA que esperávamos.
Seja na ficção científica ou em representações conceituais, frequentemente damos à IA uma forma concreta com uma função, seja um T-1000 Terminator feito de metal líquido ou os olhos vermelhos de HAL 9000 e MOSS:
Imagem|The Wandering Earth Wiki
Como podemos aceitar o MOSS instalado no chassi, não há problema algum em instalar o Gemini no smartphone Pixel. Mas o problema é que a forma como os usuários usam o Gemini é muito diferente da forma como Liu Peiqiang imaginou usar o MOSS.
Ao longo desta coletiva de imprensa, os dois novos recursos de IA que o Google demonstrou principalmente, o Camera Coach e o Magic Cue, bem como a edição de fotos Gemini no álbum, estão todos espalhados em várias funções do sistema, e alguns só aparecerão durante o uso .
Isso é completamente inconsistente com a imaginação das pessoas sobre IA nas últimas décadas.
Não preciso que o Magic Cue exiba informações relevantes sobre a conversa na tela somente depois que eu fizer uma ligação. Quero que a IA verifique automaticamente as informações do meu itinerário e o e-mail da reserva e, se encontrar algo errado, ligue para a companhia aérea de forma inteligente para reembolsar a passagem.
Não preciso que o Google Fotos me obrigue a clicar no botão Editar antes que a caixa de diálogo do Gemini apareça. Preciso ativar o Gemini diretamente: ajude-me a apagar as fotos borradas das 200 fotos de bar que acabei de tirar, ajuste o brilho e a cor e, em seguida, selecione 9 fotos diferentes de coquetéis para postar no WeChat Moments .
Nas obras de ficção científica e nos conceitos de IA da última década, a lógica operacional da IA deveria ser que os usuários humanos emitisse instruções, a IA entendesse automaticamente as instruções e combinasse ativamente todos os recursos ao redor para executar tarefas automaticamente , em vez de eu usar uma cadeira de rodas para enviar a IA para a frente da mesa, dando a ela caneta, tinta, papel e tinteiro, e então ela começasse a pintar.
Imagem: 36Kr
Em outras palavras, os recursos de IA do Pixel agora estão espalhados por todo o sistema . Você precisa iniciar uma tarefa antes de obter a ajuda correspondente da IA — isso inclui muitas funções que poderiam ter sido facilmente conectadas e gerenciadas pela IA em nosso nome, como postar fotos em um determinado aplicativo social.
Sete anos atrás, a Bixiby podia usar a adaptação ativa para implementar funções de aplicativos semelhantes, mas o Pixel, com sua integração mais forte de hardware e software, não consegue fazer isso. | YouTube @爱否科技
O que é ainda mais difícil de entender é o assistente de composição Camera Coach na câmera. Quando vimos a demonstração pela primeira vez, pensamos que ele poderia ler o conteúdo da tela em tempo real e gerar sugestões de composição por meio da interface subjacente do sistema.
No entanto, a realidade é que você precisa ativar a função manualmente, e o Gemini tirará uma foto silenciosamente e recomendará diferentes métodos de composição com base nela. Se a perspectiva não corresponder, ele até chamará diretamente a IA para ajudar você a desenhá-la grosseiramente. Depois, você ajusta a posição aos poucos, de acordo com a orientação da IA, até pressionar o obturador:
Imagem | YouTube @9to5Google
Sem mencionar como a operação de interrupção de fluxo de levantar a mão deliberadamente para clicar foi pensada, toda a função Camera Coach parece ser algo que o Google forçou para encontrar uma maneira de integrar os KPIs funcionais do departamento Gemini e do departamento Pixel.
A intenção original da assistência de composição deveria ser ajudar você a tirar fotos, mas depois de tal operação, mesmo com o poder de computação do Tensor G5 suportando o modelo pequeno na extremidade, a velocidade de inferência atual e os resultados de sugestão não são tão satisfatórios.
Enquanto aguardam as operações da IA, amigos eficientes já mudaram várias posturas, movendo-se para frente e para trás, para a esquerda e para a direita, para cima e para baixo para tirar uma série de fotos, e podem aproveitar melhor o desempenho do ISP atualizado do Tensor G5.
Essa inversão de controle, assim como outros recursos de IA do Gemini no Android 16 que exigem que você execute algumas ações antes que eles intervenham, subverte completamente nossas expectativas anteriores de IA.
Como me tornei um agente que transporta dados e fornece informações para a Gemini?
Ironicamente, usar Gêmeos para gerar
Pense nisso de outra perspectiva. O Pixel 10 não é como um telefone com IA para as pessoas, mas sim como um telefone com IA para a Gemini. Todos os novos recursos são usados pelas pessoas que fornecem informações à Gemini, que são então integradas pela IA.
Embora esse tipo de IA espalhada por processos funcionais impeça objetivamente o envolvimento excessivo, também pode fazer com que a experiência do usuário pareça que a IA está assumindo o controle. Gêmeos é como um pai construindo um castelo de areia com o filho. Eles esperam até que a criança junte a areia e faça um pedido antes de começar a moldar o contorno do castelo.
Além disso, uma coisa com a qual devemos ter cuidado é que o Pixel 10 pode facilmente se tornar um mau exemplo para outros fabricantes de celulares — um mau exemplo que depende apenas do progresso da IA e ignora a base do hardware.
Imagem: Android Central
Se o Google continuar a usar as mesmas táticas no futuro, um resultado muito ruim ocorrerá: o Pixel que os usuários do Pixel desejam desaparecerá, e o verdadeiro telefone com IA que os usuários com IA desejam não será nada parecido com este .
Esse tipo de produto futuro provavelmente é algo que nem o Google nem os consumidores querem ver.
#Bem-vindo a seguir a conta pública oficial do WeChat do iFaner: iFaner (ID do WeChat: ifanr), onde mais conteúdo interessante será apresentado a você o mais breve possível.