A Microsoft tem uma nova maneira de manter o ChatGPT ético, mas será que vai funcionar?

A Microsoft recebeu muitas críticas quando desligou sua equipe de ética e sociedade de inteligência artificial (IA) em março de 2023. Não foi uma boa olhada, dados os escândalos quase simultâneos envolvendo a IA, mas a empresa acabou de definir como pretende para manter seus esforços futuros responsáveis ​​e sob controle no futuro.

Em uma postagem no blog On the Issues da Microsoft , Natasha Crampton – diretora de IA responsável da empresa de Redmond – explicou que a equipe de ética foi dissolvida porque “Uma única equipe ou uma única disciplina encarregada de IA responsável ou ética não atingiria nossos objetivos .”

Bing Chat mostrado em um laptop.

Em vez disso, a Microsoft adotou a abordagem adotada com suas equipes de privacidade, segurança e acessibilidade e “incorporou IA responsável em toda a empresa”. Na prática, isso significa que a Microsoft tem uma equipe sênior “encarregada de liderar a IA responsável em cada grupo de negócios principal”, bem como “uma grande rede de “campeões” de IA responsável com uma variedade de habilidades e funções para um envolvimento mais regular e direto”.

Além disso, Crampton disse que a Microsoft tem “quase 350 pessoas trabalhando em IA responsável, com pouco mais de um terço delas (129 para ser preciso) dedicado a isso em tempo integral; o restante tem responsabilidades de IA responsáveis ​​como parte essencial de seus trabalhos.”

Depois que a Microsoft fechou sua equipe de Ética e Sociedade, Crampton observou que alguns membros da equipe foram posteriormente incorporados a equipes em toda a empresa. No entanto, sete membros do grupo foram demitidos como parte dos extensos cortes de empregos da Microsoft, que viram 10.000 trabalhadores demitidos no início de 2023.

Navegando nos escândalos

Bing Chat dizendo que quer ser humano.

A IA dificilmente esteve livre de escândalos nos últimos meses, e são essas preocupações que alimentaram a reação contra a dissolução da equipe de ética da IA ​​pela Microsoft. Se a Microsoft não tivesse uma equipe dedicada para ajudar a orientar seus produtos de IA em direções responsáveis, pensava-se, seria difícil reduzir os tipos de abusos e comportamentos questionáveis ​​pelos quais seu chatbot do Bing se tornou famoso.

A última postagem no blog da empresa certamente visa aliviar essas preocupações entre o público. Em vez de abandonar totalmente seus esforços de IA, parece que a Microsoft está tentando garantir que as equipes da empresa tenham contato regular com especialistas em IA responsável.

Ainda assim, não há dúvida de que encerrar sua equipe de Ética e Sociedade de IA não foi bem aceito, e é provável que a Microsoft ainda tenha um caminho a percorrer para aliviar a mente coletiva do público sobre esse assunto. De fato, até a própria Microsoft acha que o ChatGPT – cujo desenvolvedor, OpenAI, é propriedade da Microsoft – deveria ser regulamentado .

Ontem mesmo, Geoffrey Hinton – o “padrinho da IA ​​– saiu do Google e disse ao New York Times que tinha sérias dúvidas sobre o ritmo e a direção da expansão da IA, enquanto um grupo de especialistas em tecnologia assinou recentemente uma carta aberta pedindo uma pausa na Desenvolvimento de IA para que seus riscos possam ser melhor compreendidos.

A Microsoft pode não estar desconsiderando as preocupações com o desenvolvimento ético da IA, mas ainda não se sabe se sua nova abordagem é a correta. Após o início controverso do Bing Chat, Natasha Crampton e seus colegas esperam que as coisas mudem para melhor.