O recurso “Olhar e falar” significa que você não precisa dizer “Ok Google”

Quantas vezes você precisa dizer “Ei, Google” no dia-a-dia? Durante o evento Google I/O, a empresa anunciou dois novos recursos: “Look and Talk” e expandiu “Quick Phrases”.

O Look and Talk permite que você olhe diretamente para seu dispositivo Nest e faça uma pergunta sem usar a hotword. Você pode optar por esse recurso e, assim que fizer isso, todo o processamento será feito no dispositivo. Isso significa que o Google – ou qualquer outra pessoa – não verá seu rosto ou ouvirá seus comandos.

Então, como isso funciona, exatamente? O Google usa seis modelos diferentes de aprendizado de máquina para distinguir um olhar passageiro de um contato visual prolongado. Se você está fazendo várias perguntas, esta é uma ótima solução. O exemplo que o Google deu foi “Mostre-me praias perto de Santa Cruz”, com perguntas de acompanhamento sobre respostas específicas.

Google Nest Hub 2ª geração na mesa.
John Velasco / Tendências Digitais

O próximo é o Quick Phrases, uma lista de perguntas que o Google pode responder imediatamente sem a hotword. Isso inclui comandos comuns, como definir um cronômetro, pausar a música e muito mais.

Alimentando todas essas atualizações estão os novos modelos de fala que são executados no próprio dispositivo para torná-lo mais rápido. Redes neurais mais abrangentes podem entender melhor a fala humana, mesmo que esteja quebrada e instável. No exemplo, o Google Assistant deu um leve empurrãozinho para o orador terminar a pergunta, mas conseguiu distinguir o que o orador queria mesmo com informações incompletas. O Google diz que o Tensor Chip é a força motriz por trás dessa atualização, fornecendo o poder de computação necessário para possibilitar o processamento de fala no dispositivo.

Para mais notícias sobre o Google I/O 2022, confira aqui.