A Microsoft já tem sua mira legal definida no DeepSeek

DeepSeek AI rodando em um iPhone.
A interface de bate-papo da página inicial do DeepSeek AI. Nadeem Sarwar / Tendências Digitais

A Microsoft, principal investidora na OpenAI, está agora a explorar se a empresa chinesa DeepSeek utilizou métodos nefastos para treinar os seus modelos de raciocínio. De acordo com a Bloomberg Law, a empresa agora acredita que a DeepSeek violou seus termos de serviço ao usar sua interface de programação de aplicativos (API) para treinar seu modelo R1 recentemente anunciado.

A notícia chega não muito depois de a IA da Casa Branca e o czar da criptografia, David Sacks, ter dito à Fox News em uma entrevista na terça-feira que era “possível” que o DeepSeek “roubou propriedade intelectual dos Estados Unidos”.

“Há evidências substanciais de que o que o DeepSeek fez aqui foi destilar o conhecimento dos modelos da OpenAI”, disse Sacks ao canal.

A indústria de IA tem elogiado a capacidade do DeepSeek de treinar modelos de IA de maneira rápida e econômica em um ano, com apenas US$ 5,6 milhões. Existe uma possibilidade subjacente de que a razão para a eficiência da empresa seja o facto de ter utilizado o modelo de outra empresa como base.

DeepSeek pode ter usado um processo chamado destilação, que envolve dois modelos com uma dinâmica professor-aluno para que um possa coletar informações do outro. Por um lado, isso poderia explicar os custos operacionais baratos da empresa e o uso de chips Nvidia H800 menos potentes. A DeepSeek pode agora ter que provar se realizou todas as ações ilegais ao desenvolver seus modelos.

Antes deste desenvolvimento recente, especialistas do setor especularam anteriormente que o DeepSeek provavelmente usava engenharia reversa para treinar seus modelos. Este processo analisa modelos para identificar seus padrões e preconceitos para melhorar modelos futuros. A engenharia reversa é uma prática comum entre desenvolvedores de código aberto considerada legal.

Pesquisadores de segurança sancionados pela Microsoft já descobriram que DeepSeek pode ter exumado uma quantidade considerável de código da API da OpenAI durante o outono de 2024. A Microsoft supostamente alertou a OpenAI sobre a violação na época. O modelo R1 foi anunciado na semana passada, chamando a atenção para a empresa chinesa de IA e partes associadas.

DeepSeek também foi elogiado como um aplicativo de IA de código aberto, no qual qualquer pessoa pode desenvolver. É daí que vem grande parte do entusiasmo em torno da plataforma – além de sua comparação com ferramentas importantes como ChatGPT e Google Gemini. OpenAI não é um serviço de código aberto; no entanto, qualquer pessoa pode se inscrever para acessar sua API. A empresa deixa claro em seus termos de serviços que outras entidades não podem usar resultados para treinar outros modelos de IA, observou o TechCrunch .

Um porta-voz da OpenAI disse à Reuters que, independentemente das regulamentações, várias empresas internacionais que tentam copiar modelos de empresas conhecidas nos EUA são agora uma ocorrência comum.

“Nós nos envolvemos em contramedidas para proteger nossa PI, incluindo um processo cuidadoso para o qual as capacidades de fronteira devem ser incluídas nos modelos lançados, e acreditamos que, à medida que avançamos, é extremamente importante que trabalhemos em estreita colaboração com o governo dos EUA para melhor proteger a modelos mais capazes a partir dos esforços de adversários e concorrentes para tomar a tecnologia dos EUA”, disse o porta-voz.