Um novo chip coloca o turbo na Inteligência Artificial para dispositivos IoT

Uma equipe de pesquisadores projetou e construiu um novo chip, chamado NeuRRAM, que promete turbinar a inteligência artificial : pequeno e versátil, consome menos energia que os chips convencionais e realiza cálculos precisos diretamente na memória, sem a necessidade de depender de uma nuvem externa e, assim, realizar tarefas cognitivas sofisticadas em qualquer lugar e a qualquer hora sem depender de uma conexão de rede com um servidor centralizado. Isso permite uma gama mais ampla de aplicativos e oferece um duplo benefício: melhor proteção de dados confidenciais e a capacidade de executar algoritmos de IA em um espectro mais amplo de dispositivos de borda .

inteligência artificial

Um mundo de aplicações baseadas em Inteligência Artificial

Os aplicativos são abundantes em todos os cantos do mundo e em todos os aspectos de nossas vidas e variam de relógios inteligentes, fones de ouvido VR, fones de ouvido inteligentes, sensores inteligentes em fábricas e rovers para exploração espacial. O estudo foi publicado na revista Nature com o título "Um chip de computação em memória baseado em memória resistiva de acesso aleatório" .

Atualmente, os algoritmos de inteligência artificial exigem um gasto significativo de energia, principalmente por serem computacionalmente caros . A maioria dos aplicativos de inteligência artificial em dispositivos de borda envolve a movimentação de dados dos dispositivos para a nuvem , onde vários softwares de inteligência artificial os processam e analisam. Em seguida, os resultados são movidos de volta para o dispositivo. Isso ocorre porque a maioria dos dispositivos de borda são alimentados por bateria e, como resultado, possuem apenas uma quantidade limitada de energia que pode ser dedicada ao processamento de dados , limitando-se assim à captura de dados e/ou exibição de resultados. "É o equivalente a uma jornada de trabalho de oito horas a duas horas", disse Wan, um dos pesquisadores que trabalhou no projeto.

Ao reduzir o consumo de energia necessário para inferência de IA na borda, esse chip NeuRRAM pode levar a dispositivos de borda mais robustos, inteligentes e acessíveis e a uma fabricação mais inteligente . Também pode levar a uma melhor privacidade de dados, pois mover dados de dispositivos para a nuvem traz maiores riscos de segurança.

Outro gargalo nas arquiteturas computacionais tradicionais é o movimento de dados da memória para as unidades de computação. Em chips de IA, mover dados da memória para unidades de computação é um grande gargalo . Para resolver esse problema de transferência de dados, os pesquisadores usaram o que é conhecido como memória resistiva de acesso aleatório (RRAM), um tipo de memória não volátil que permite a computação diretamente na memória, e não em unidades de computação separadas .

A computação com um chip RRAM não é necessariamente nova, mas geralmente leva a uma diminuição na precisão dos cálculos realizados no chip e à falta de flexibilidade na arquitetura do chip. O chip NeuRRAM, por outro lado, foi projetado para ser extremamente versátil e suporta muitos modelos e arquiteturas diferentes de redes neurais. Como resultado, o chip pode ser usado para muitas aplicações diferentes, incluindo reconhecimento e reconstrução de imagem, bem como reconhecimento de fala .

"A computação em memória tem sido uma prática comum na engenharia neuromórfica desde que foi introduzida há mais de 30 anos (…) A novidade do NeuRRAM é que a extrema eficiência agora une grande flexibilidade para diferentes aplicações de inteligência artificial. com quase nenhuma perda de precisão em comparação com plataformas de computação digital padrão para uso geral".

O artigo Um novo chip coloca o turbo na Inteligência Artificial para dispositivos IoT foi escrito em: Tech CuE | Engenharia de close-up .