O minicomputador Jetson Orin Nano de US $ 200 da Nvidia é 80 vezes mais rápido que a versão anterior

A Nvidia anunciou o próximo lançamento do Jetson Orin Nano, um sistema em módulo (SOM) que alimentará a próxima geração de IA e robótica de nível básico, durante sua palestra GTC 2022 hoje.

A Nvidia diz que esta nova versão oferece um aumento de 80x no desempenho em relação ao Jetson Nano de US$ 99 . A versão original foi lançada em 2019 e tem sido usada como uma entrada básica no mundo da IA ​​e da robótica, principalmente para amadores e estudantes de STEM. Esta nova versão parece aumentar seriamente o poder.

Processador robótico Jetson Orin Nano da Nvidia.

Um módulo de sistema (também conhecido como módulo de computador) apresenta uma única placa com um microprocessador. Ele também possui memória e entradas/saídas (IOs), e geralmente possui uma placa de suporte. Não é a mesma coisa que um sistema em um chip (SOC), lembre-se — um SOM é baseado em placa e pode ter espaço para incluir componentes extras; pode até incluir um SOC. Em suma, um SOM é uma solução de computação pronta para uso, mas não é um computador completo.

Com os detalhes técnicos fora do caminho, vamos falar sobre o mais recente desenvolvimento da Nvidia, o Jetson Orin, que chega com seis módulos de produção baseados em Orin que foram feitos para lidar com aplicativos de IA e robótica a um preço acessível. Entre eles está o Nvidia Jetson Orin Nano.

Apesar de ser o menor formato Jetson SOM, o Jetson Orin Nano pode lidar com até 40 trilhões de operações por segundo (TOPS) de tarefas relacionadas à IA. O desempenho atinge novos patamares com o AGX Orin, servindo até 275 TOPS para lidar com máquinas autônomas avançadas.

O Jetson Orin da Nvidia vem com uma GPU baseada em Ampere, uma CPU baseada em ARM e suporte a sensor multimodal. Também é totalmente compatível com os módulos Orin NX da Nvidia, incluindo suporte completo à emulação que permitirá aos clientes da Nvidia projetar em torno de vários módulos Jetson. Outras vantagens incluem suporte para vários pipelines de aplicativos de IA simultâneos, completos com entradas e saídas rápidas.

Os módulos Jetson Orin Nano estarão disponíveis em duas variantes, uma com 8GB de memória e até 40 TOPS, e outra com 4GB de memória e até 20 TOPS. Em termos de consumo de energia, o SOM precisa de quase nada: o primeiro requer entre 7 watts e 15 watts, enquanto o último precisa apenas de 5 watts a 10 watts.

Nvidia Jetson Orin Nano sistema em módulo.
Nvidia

A Nvidia prevê que os módulos serão usados ​​por uma ampla variedade de clientes, desde engenheiros que lidam com aplicativos de IA de ponta até desenvolvedores de sistemas operacionais de robótica. O preço baixo, a partir de apenas US$ 199, tornará essa tecnologia mais acessível a uma ampla gama de usuários. A Nvidia cita Canon, John Deere, Microsoft Azure e outros como pioneiros do Jetson Orin Nano.

“Com um aumento de ordem de magnitude no desempenho de milhões de desenvolvedores de IA e ROS de ponta hoje, Jetson Orin é a plataforma ideal para praticamente todos os tipos de implantação de robótica imaginável”, disse Deepu Talla, vice-presidente da divisão de computação embarcada e de ponta da Nvidia. .

A Nvidia afirma que o Jetson Orin oferecerá um aumento de 80x no desempenho em relação à geração anterior de Jetson SOMs. Isso é um grande passo a um preço razoável. Os módulos estarão disponíveis a partir de janeiro de 2023.