A investigação expõe o lado mais obscuro do ChatGPT e da indústria de chatbots de IA

Uma investigação da Time expôs o lado mais obscuro da indústria de chatbots de IA, destacando como pelo menos uma startup tem usado práticas questionáveis ​​para melhorar sua tecnologia.

Publicado na quarta-feira, o relatório da Time se concentra no OpenAI apoiado pela Microsoft e em seu chatbot ChatGPT , uma tecnologia que ganhou muita atenção recentemente por sua notável capacidade de produzir texto de conversação altamente natural.

A investigação da Time descobriu que, para treinar a tecnologia de IA, a OpenAI usou os serviços de uma equipe no Quênia para examinar textos que incluíam assuntos perturbadores, como abuso sexual infantil, bestialidade, assassinato, suicídio, tortura, automutilação e incesto. E por seus esforços para rotular o conteúdo repugnante, muitos membros da equipe receberam menos de US$ 2 por hora.

O trabalho, que começou em novembro de 2021, era necessário porque o antecessor do ChatGPT, GPT-3, embora impressionante, tinha tendência a divulgar conteúdo ofensivo, pois seu conjunto de dados de treinamento foi compilado raspando centenas de bilhões de palavras de todos os cantos da web. .

A equipe sediada no Quênia, operada pela Sama, empresa de São Francisco, rotularia o conteúdo ofensivo para ajudar a treinar o chatbot da OpenAI, melhorando assim seu conjunto de dados e reduzindo as chances de qualquer resultado censurável.

A Time disse que todos os quatro funcionários da Sama que entrevistou descreveram terem sido mentalmente marcados por seu trabalho. A Sama ofereceu sessões de aconselhamento, mas os funcionários disseram que eram ineficazes e raramente aconteciam devido às exigências do trabalho, embora um porta-voz da Sama tenha dito à Time que os terapeutas estavam acessíveis a qualquer momento.

Um trabalhador disse à Time que ler o material chocante às vezes parecia uma “tortura”, acrescentando que eles se sentiam “perturbados” no final da semana.

Em fevereiro de 2022, as coisas ficaram ainda mais sombrias para Sama quando a OpenAI lançou um projeto separado, não relacionado ao ChatGPT, que exigia que sua equipe do Quênia coletasse imagens de natureza sexual e violenta. A OpenAI disse à Time que o trabalho era necessário para tornar suas ferramentas de IA mais seguras.

Poucas semanas após o início deste projeto baseado em imagem, a natureza alarmante das tarefas levou Sama a cancelar todos os seus contratos com a OpenAI, embora a Time sugira que também pode ter sido motivado pelas consequências de relações públicas de um relatório sobre um assunto semelhante que publicado sobre o Facebook mais ou menos na mesma época.

A Open AI disse à Time que houve “uma falha de comunicação” sobre a natureza das imagens que pediu a Sama para coletar, insistindo que não havia solicitado as imagens mais extremas e não havia visto nenhuma das que foram enviadas.

Mas o término dos contratos afetou a subsistência dos trabalhadores, com alguns membros da equipe no Quênia perdendo seus empregos, enquanto outros foram transferidos para projetos com salários mais baixos.

A investigação da Time oferece uma visão desconfortável, mas importante, do tipo de trabalho que está sendo realizado nos chatbots com tecnologia de IA que recentemente deixaram a indústria de tecnologia tão empolgada.

Embora transformadora e potencialmente benéfica, a tecnologia claramente tem um custo humano e levanta uma série de questões éticas sobre como as empresas desenvolvem suas novas tecnologias e, de maneira mais ampla, sobre como os países mais ricos continuam a distribuir tarefas menos desejáveis ​​para as nações mais pobres. para um menor gasto financeiro.

As startups por trás da tecnologia passarão por um escrutínio mais focado nos próximos meses e anos e, portanto, fariam bem em revisar e melhorar suas práticas na primeira oportunidade.

A Digital Trends entrou em contato com a OpenAI para comentar o relatório da Time e atualizaremos este artigo quando recebermos uma resposta.