O YouTube está terceirizando o problema da sua IA para você, e isso é uma péssima ideia.
O YouTube tem um novo plano para lidar com a onda de conteúdo gerado por IA que inunda sua plataforma, e você participa. A empresa agora pede aos espectadores que avaliem se um vídeo parece ser uma produção de IA de baixa qualidade . À primeira vista, isso parece uma maneira razoável de lidar com o conteúdo de IA de baixa qualidade no seu feed. Na prática, pode causar mais problemas do que soluções.
Os humanos são ruins em identificar conteúdo gerado por IA, e essa situação está piorando.
O problema mais básico dessa abordagem é que as pessoas não são boas em identificar conteúdo gerado por IA, e a diferença entre a detecção humana e a capacidade da IA está aumentando rapidamente. Os primeiros conteúdos de IA apresentavam sinais óbvios, como vozes robóticas, mãos deformadas ou rostos com aparência artificial. Os modelos mais recentes corrigiram esses problemas em grande parte.
As vozes agora soam naturais, os rostos são convincentes e os sinais óbvios de manipulação estão desaparecendo. As ferramentas claramente evoluíram, mas os espectadores casuais não acompanharam essa evolução. E há pesquisas que comprovam isso.
Um estudo recente sobre detecção facial por IA revelou que as pessoas tiveram um desempenho apenas ligeiramente melhor do que o esperado pelo acaso ao serem solicitadas a identificar rostos gerados por IA. O que é ainda mais preocupante é que a confiança delas em serem capazes de identificar rostos de IA foi consistentemente maior do que a precisão real. Pesquisas mostram padrões semelhantes em outros contextos.
Um estudo sobre detecção de deepfakes descobriu que as pessoas têm dificuldade em detectar deepfakes, mas ainda acreditam que conseguem, enquanto pesquisas sobre detecção de voz gerada por IA sugerem que as vozes de IA agora são quase indistinguíveis das vozes reais para o ouvinte médio.
O próprio histórico do YouTube não ajuda em nada. Um estudo da Kapwing descobriu que cerca de 21% dos primeiros 500 vídeos recomendados para uma nova conta foram classificados como conteúdo gerado por IA de baixa qualidade, enquanto uma investigação do The New York Times constatou que mais de 40% dos vídeos curtos recomendados para crianças em uma sessão de 15 minutos continham conteúdo de IA de baixa qualidade.
Este é um conteúdo que já passou pelos sistemas de revisão automatizados e humanos do YouTube. Se esses sistemas deixaram passar tanta coisa ruim feita por IA, esperar que os espectadores façam algo melhor parece irrealista.
O sistema de classificação também abre caminho para abusos.
Mesmo que os espectadores fossem detectores confiáveis de IA, o novo sistema de classificação é suscetível a abusos. Campanhas coordenadas contra criadores são um problema bem documentado no YouTube, com pessoas mal-intencionadas visando canais por meio de denúncias em massa e bombardeio de dislikes. Um recurso que permite aos usuários rotular conteúdo como "lixo de IA" lhes dá uma nova ferramenta para explorar. Canais rivais, comunidades revoltadas ou grupos organizados poderiam usá-lo indevidamente para denunciar vídeos, independentemente de a IA ter sido de fato utilizada.
O YouTube não explicou como verificará ou ponderará essas avaliações, deixando bastante espaço para manipulação. Criadores que passaram anos construindo seu público agora podem ter que lidar com um novo risco que pouco tem a ver com a qualidade de seu trabalho. Se o sistema for implementado amplamente sem salvaguardas, poderá acabar prejudicando criadores legítimos tanto quanto prejudica conteúdo de baixa qualidade gerado por IA.
E o que os espectadores ganham com isso?
Mesmo que o YouTube consiga, de alguma forma, combater o abuso, há outro problema evidente no sistema: o incentivo. Denunciar conteúdo gerado por IA exige esforço e certo nível de conhecimento sobre as reais capacidades das ferramentas de IA, mas o YouTube não oferece nenhum benefício claro aos espectadores que ajudam a identificar conteúdo gerado por IA de forma inadequada. A plataforma, por outro lado, obtém um feed mais limpo e um fluxo constante de dados de usuários, sem oferecer muito em troca.
Existe também uma preocupação legítima de que nada impeça o YouTube de usar esse feedback para treinar futuros modelos de IA, o que poderia tornar os vídeos gerados por IA ainda mais difíceis de detectar. Na prática, isso poderia transformar um sistema criado para combater a baixa qualidade dos vídeos gerados por IA em um sistema que ajuda a aprimorá-los.
A abordagem do YouTube não atinge o objetivo.
O novo sistema de classificação é mais uma tentativa do YouTube de mostrar que está levando a sério o problema da baixa qualidade do conteúdo gerado por IA, mas a plataforma ainda não está fazendo o suficiente. Ela não proíbe explicitamente os criadores de conteúdo de publicarem conteúdo gerado por IA e, embora exija a divulgação de mídias alteradas por IA ou sintéticas, essa regra só se aplica em certos casos. A penalidade de monetização também é limitada, já que depende dos mesmos sistemas de detecção que já estão deixando passar muito conteúdo de baixa qualidade gerado por IA.
O YouTube ajudou a criar as condições para esse problema ao permitir e monetizar conteúdo gerado por IA durante anos, e seus esforços para contê-lo têm falhado em todas as tentativas. Terceirizar a limpeza para os espectadores, sem explicar como seus dados serão usados e sem oferecer nada em troca, os trata mais como um recurso gratuito do que como uma comunidade. Se o YouTube está realmente empenhado em combater o conteúdo gerado por IA, precisa assumir a responsabilidade pela solução, em vez de repassar a tarefa para quem assiste.
O artigo "O YouTube está terceirizando o problema da IA para você, e essa é uma péssima ideia" foi publicado originalmente no Digital Trends .

