Nvidia esclarece como está treinando sua IA generativa de jogos após preocupações com dados
A Nvidia esclareceu quais dados está usando para treinar seu microsserviço generativo AI Ace , que teve uma expansão na CES este ano. A empresa agora confirma que suas ferramentas são “comercialmente seguras” e treinadas apenas com dados aos quais tem direito.
O anúncio da Nvidia foi recebido com ceticismo no início desta semana, quando a empresa deu à Digital Trends uma resposta ambígua sobre o uso de dados. Quando perguntamos em que o programa foi treinado (citando especificamente o que ele usa para gerar vozes), a Nvidia disse que “não havia uma resposta simples” e que é difícil definir devido ao número de ferramentas diferentes que Ace usa. Os comentários geraram especulações nas redes sociais, com muitos especulando que os dados incluíam material copiado. A Nvidia agora confirma que não é o caso.
“Os microsserviços NVIDIA ACE, Audio-2-Face e Riva Automatic Speech Recognition, são comercialmente seguros, treinados em dados licenciados de parceiros confiáveis, bem como conjuntos de dados de código aberto comercialmente licenciáveis”, disse Nvidia à Digital Trends em um e-mail esclarecendo sua declaração original. “Semelhante à maioria dos trabalhos na indústria de dublagem e captura de movimento, a NVIDIA paga antecipadamente pelo uso contínuo de dados de voz e mocap.”
A Digital Trends fez o acompanhamento para confirmar em termos claros que Ace só é treinado em dados que a Nvidia possui ou sobre os quais tem direito, sem descarte de material copiado fora desse pool. A empresa confirmou isso.
Também entramos em contato com a Convai , um parceiro terceirizado por trás de algumas das tecnologias de IA da Ace, para confirmar isso. Atualizaremos esta história quando recebermos uma resposta.