A Microsoft passou anos promovendo o Copilot, mas agora diz para não confiarmos nele.

Nos últimos dois anos, a Microsoft tem apostado tudo no Copilot . Ele está literalmente em todos os lugares, seja no Windows , no Edge , no Office ou até mesmo integrado aos fluxos de trabalho principais, onde é praticamente impossível ignorá-lo. A mensagem tem sido clara: este é o futuro da produtividade, seu assistente de IA para realizar trabalho de verdade.

E agora, de repente, a Microsoft está dizendo… não levem isso tão a sério.

A Microsoft está recuando na proposta de "uso sério" do Copilot.

Conforme relatado inicialmente pelo Tom's Hardware , os Termos de Uso do Microsoft Copilot afirmam que o Copilot destina-se "apenas a fins de entretenimento" e não deve ser usado para decisões importantes ou de alto risco. Isso inclui assuntos como aconselhamento financeiro, jurídico ou médico. Basicamente, o tipo de coisa para a qual as pessoas estão usando cada vez mais a IA.

O Copilot destina-se apenas a fins de entretenimento. Pode cometer erros e pode não funcionar como esperado. Não confie no Copilot para obter conselhos importantes. Use o Copilot por sua conta e risco.

Em teoria, isso faz sentido. A IA pode ter alucinações, cometer erros e, ocasionalmente, parecer muito mais confiante do que deveria. Do ponto de vista jurídico, essa ressalva é quase esperada, pois funciona como uma rede de segurança para evitar possíveis responsabilidades à medida que essas ferramentas se expandem.

Mas é aqui que a coisa começa a ficar estranha. Este é o mesmo Copilot que a Microsoft integrou profundamente ao Word, Excel, Outlook e Teams . Aliás, ele está até mesmo incorporado às próprias soluções corporativas da Microsoft, como apontado pelos usuários . Ferramentas que as pessoas usam para trabalho de verdade, não para experimentação casual. Quando sua IA está resumindo e-mails, redigindo relatórios ou analisando dados, chamar isso de "entretenimento" parece estranhamente fora de sintonia com a realidade.

A internet não está exatamente acreditando nisso.

Como era de se esperar, a internet não está exatamente aplaudindo. A reação tem sido, em sua maioria, de confusão misturada com muitas reviradas de olhos. Porque, sejamos honestos, se o Copilot não foi feito para uso profissional, por que ele está em destaque em ferramentas que as pessoas usam para realizar trabalhos sérios?

Está começando a parecer menos uma redefinição e mais uma rede de segurança. Imponha o Copilot em todos os lugares, torne-o indispensável, venda-o como o futuro e, em seguida, discretamente adicione um aviso de "não confie nele" quando as coisas ficarem complicadas. É uma maneira inteligente de aproveitar as vantagens da IA ​​enquanto se esquiva da responsabilidade que vem com ela.

É claro que a Microsoft não está sozinha nessa. Toda ferramenta de IA vem com alguma versão desse aviso escondida nas letras miúdas. Mas a maioria dessas ferramentas é opcional. Você as instala, experimenta e decide o quanto confiar nelas. Infelizmente, o Copilot não seguiu esse caminho. Ele apareceu no Windows e no Office e se tornou parte da experiência, quer você o tenha solicitado ou não.

Comentário
por u/BusyHands_ da discussão
em tecnologia

E é exatamente por isso que isso parece estranho. Depois de meses ouvindo que o Copilot era o futuro da produtividade, chamá-lo de "apenas entretenimento" agora soa como uma mudança repentina e inesperada. Neste ponto, os usuários não estão apenas questionando a mensagem; estão questionando toda a integração. Porque se isso é só para diversão, talvez não devesse ser tão difícil desativá-lo.