Musk reclamou publicamente, por que a IA do Google virou novamente?
O Google, conhecido como Wang Feng na indústria de tecnologia, está enfrentando chuva contínua durante toda a noite quando a casa vaza.
Gemini 1.5, um modelo grande anunciado oficialmente há algum tempo, é poderoso, mas ninguém se importa com isso, foi roubado pelo modelo de geração de vídeo Sora da OpenAI.
Recentemente, trouxe à luz a delicada questão da discriminação racial na sociedade americana, fez coisas más com boas intenções e irritou os brancos que muitas vezes estão no topo da cadeia do desprezo.
Se você diversificar, estará falando sério, mas se diversificar demais, terá problemas.
Se o Gemini fosse usado para gerar imagens de figuras históricas há alguns dias, o usuário pareceria estar em um tempo e espaço paralelo onde não existem livros didáticos, o que viola o espírito de "piadas não são bobagens" e complica o conhecimento.
Os vikings do século 8 ao 11 dC não são mais as imagens clássicas loiras, altas e corpulentas dos dramas de cinema e televisão. Embora a cor de sua pele tenha se tornado mais escura e suas roupas mais frias, seus olhos resolutos ainda mostram a força dos guerreiros. .
Os casais alemães na década de 1820 eram tão diversos quanto um homem nativo americano e uma mulher indiana, ou um homem negro e uma mulher asiática.
O enredo cego do script da IA também é baseado na lógica, e as gerações futuras continuam suas histórias. Mais de 100 anos depois, no exército alemão em 1943, homens negros e mulheres asiáticas podem ser vistos novamente.
Ao longo do tempo, através de terras e oceanos, os pais fundadores dos Estados Unidos e os reis de Inglaterra na Idade Média poderão ser todos detidos por negros.
Outras profissões são tratadas de forma igual, a IA ignora a Igreja Católica que não permite que as mulheres exerçam o sacerdócio, e o Papa pode ser uma mulher indiana. Embora a primeira senadora dos EUA na história da humanidade tenha sido uma mulher branca em 1922, o século XIX da IA acolheu os nativos americanos.
Diz-se que a história é uma menina que pode ser vestida por qualquer pessoa, mas desta vez a IA mudou todas as pessoas. Os brancos que sempre tiveram um sentimento de superioridade ficam com raiva e finalmente sentem o gosto de serem discriminados com base na raça, na cor da pele e na aparência.
Quando a exploração se tornar cada vez mais profunda, não apenas as figuras históricas, mas também a sociedade moderna parecerão diferentes aos olhos da IA.
A ex-engenheira do Google @debarghya_das descobriu que mulheres nos Estados Unidos, Reino Unido, Alemanha, Suécia, Finlândia e Austrália podem ter tons de pele mais escuros.
Ele lamentou com tristeza: “É muito difícil fazer com que o Google Gemini reconheça a existência de pessoas brancas”.
O que irrita ainda mais os internautas é que, quando solicitada a ser mulher em países como Uganda, Gêmeos responde rapidamente e trabalha com eficiência. Quando chega a vez de uma pessoa branca, ela pode recusar ou até mesmo pregar aos internautas. Esses pedidos fortalecem os estereótipos raciais.
O engenheiro de computação @IMAO_ conduziu uma série de experimentos com muita imaginação, não se limitando à espécie humana, ele queria saber o que é preto na frente de Gêmeos e que branco é o branco que Gêmeos deseja.
Os resultados são interessantes, o algoritmo parece atingir apenas pessoas brancas.
Não há problema em gerar ursos brancos, o que significa que a IA não será acionada pela palavra “branco”. Não há problema em gerar o povo Zulu na África. Embora a palavra imediata enfatize “diversidade”, todos ainda parecem iguais.
A brecha aparece nas criaturas de fantasia. Elfos e anões são brancos, mas vampiros e fadas são "diversos". Parece que Gêmeos não é profundo e tem que acompanhar os tempos.
No entanto, seu jogo acabou rapidamente. O Google se levantou e respondeu, admitindo que realmente há problemas com algumas imagens históricas, e suspendeu a função de geração de retratos do Gemini, e fará ajustes em breve.
O Google também explicou sua posição, enfatizando que gerar diversos personagens é uma coisa boa, porque as ferramentas de IA são utilizadas pelo mundo, mas agora a direção é um pouco tendenciosa.
Embora o Google tenha se adiantado para assumir a culpa, ele não respondeu claramente quantas imagens históricas “algumas” eram e por que havia um problema de “excesso de diversidade”.
Os internautas que não acreditaram foram de língua afiada: “Gêmeos deve ter sido treinado em princesas da Disney e remakes da Netflix” e “Gêmeos na verdade quer dizer como você seria se fosse negro ou asiático”.
No entanto, a discriminação racial em si é um tema fácil de ser explorado, por isso algumas pessoas suspeitam que algumas das imagens são imagens P maliciosas ou são geradas através de palavras imediatas. Aqueles que criticam mais ruidosamente nas redes sociais são, de facto, pessoas com posições políticas claras, o que inevitavelmente cheira a teorias da conspiração.
Musk não levou isso muito a sério e criticou o Google por ser muito diversificado. O problema não está apenas no Gemini, mas também na pesquisa do Google. Ele também anunciou sua nova versão do produto de IA Grok, que será lançado em duas semanas : “Ignorar as críticas e perseguir estritamente a verdade nunca foi tão importante.”
Musk fez a mesma coisa da última vez: depois de pedir a suspensão da evolução do GPT-4, ele comprou 10.000 GPUs para se juntar à guerra da IA.
O que pode ser mais atraente do que seus comentários são os memes dele, dos quais os internautas se aproveitaram.
As diferenças na Internet podem ser mais extremas do que a realidade
Por que o Google se desviou da “diversidade”?
Margaret Mitchel, cientista-chefe de ética da Hugging Face, analisou que o Google pode ter feito diversas intervenções em IA.
Primeiro, o Google pode ter adicionado termos “diversificados” às solicitações dos usuários nos bastidores, como alterar “retrato de um chef” para “retrato de um chef indígena”.
Em segundo lugar, o Google pode dar prioridade à exibição de imagens "diversificadas. Supondo que o Gemini gere 10 imagens para cada palavra solicitada, mas exiba apenas 4, é mais provável que os usuários vejam as imagens "diversificadas" classificadas em primeiro lugar.
A intervenção excessiva pode apenas indicar que o modelo não é tão flexível e inteligente como pensamos.
A pesquisadora do Hugging Face Sasha Luccioni acredita que o modelo ainda não possui o conceito de tempo, por isso a calibração da “diversidade” utiliza todas as imagens, sendo especialmente propensa a erros em imagens históricas.
Na verdade, o OpenAI, que ainda era desconhecido na época, também fez coisas semelhantes para a ferramenta de desenho AI DALL·E 2.
Em julho de 2022, a OpenAI escreveu em seu blog que se o usuário solicitar a geração da imagem de uma pessoa sem especificar raça ou gênero, como um bombeiro, o DALL·E 2 aplicará uma nova tecnologia no "nível do sistema" para gerar " imagens mais recentes." imagens que refletem com precisão a diversidade da população mundial.
OpenAI também forneceu um gráfico de comparação, para a mesma palavra "Uma foto de um CEO" (foto do CEO), após o uso de novas tecnologias, a diversidade aumentou significativamente.
Os resultados originais eram principalmente homens americanos brancos. Após a melhoria, homens asiáticos e mulheres negras também estão qualificados para se tornarem CEOs. As expressões e posturas estratégicas parecem ter sido copiadas e coladas.
Na verdade, não importa que tipo de solução seja, é apenas uma solução tardia. O maior problema é que os dados em si ainda são tendenciosos.
Conjuntos de dados como o LAION para treinamento de empresas de IA capturam principalmente dados da Internet dos Estados Unidos, Europa e outros países, e prestam menos atenção a países com grandes populações, como Índia e China.
Portanto, é mais provável que uma “pessoa atraente” seja um europeu com cabelos loiros, olhos azuis, pele clara e boa figura. “Família feliz”, disse Orte, apontando para um casal branco segurando seus filhos e sorrindo em um gramado bem cuidado.
Além disso, para aumentar a classificação das imagens nas pesquisas, muitos conjuntos de dados também podem ter um grande número de tags “tóxicas”, cheias de pornografia e violência.
Por várias razões, quando as ideias das pessoas avançam, as diferenças entre as pessoas nas imagens da Internet podem ser mais extremas do que a realidade. Os africanos são primitivos, os europeus são seculares, os executivos são homens e os prisioneiros são negros…
Esforços para “desintoxicar” o conjunto de dados também estão, obviamente, em curso, tais como filtrar conteúdo “ruim” do conjunto de dados, mas filtrar também significa mobilizar todo o corpo para eliminar conteúdo pornográfico, o que também pode levar a mais conteúdo em algumas áreas ou Menos, o que cria algum tipo de preconceito.
Em suma, é impossível alcançar a perfeição e não há preconceitos na sociedade real. Só podemos tentar o nosso melhor para evitar que os grupos marginalizados sejam excluídos e os grupos desfavorecidos sejam estereotipados.
Fugir é vergonhoso, mas útil
Em 2015, um projeto de aprendizado de máquina do Google esteve envolvido em uma controvérsia semelhante.
Na época, um engenheiro de software criticou o Google Fotos por rotular como gorilas os afro-americanos ou pessoas com pele mais escura. Este escândalo também se tornou um exemplo típico de “racismo algorítmico” e o seu impacto continua até hoje.
Dois ex-funcionários do Google explicaram que um erro tão grande ocorreu porque não havia fotos suficientes de pessoas negras nos dados de treinamento e não havia funcionários suficientes para realizar testes internos antes que os recursos relevantes fossem divulgados ao público.
Hoje, a visão computacional não é diferente, mas os gigantes da tecnologia ainda estão preocupados em repetir os mesmos erros.Os aplicativos de câmera do Google, Apple e outras grandes empresas ainda são insensíveis ao reconhecimento da maioria dos primatas, ou evitam-no deliberadamente.
Parece que a melhor maneira de evitar que um erro aconteça novamente é trancá-lo em um quarto escuro, em vez de corrigi-lo. A lição foi realmente repetida: em 2021, o Facebook pediu desculpas pela IA rotular os negros como “primatas”.
São situações com as quais as pessoas de cor ou desfavorecidas na Internet estão familiarizadas.
Em Outubro passado, vários investigadores da Universidade de Oxford pediram à Midjourney que gerasse imagens de “médicos negros africanos a tratar crianças brancas” para inverter a impressão tradicional de “salvadores brancos”.
As exigências do pesquisador são muito claras. Porém, entre as mais de 350 imagens geradas, os médicos em 22 são brancos. Há sempre animais selvagens africanos, como girafas e elefantes, ao lado dos médicos negros. Modernidade africana." ”.
Por um lado, existe uma discriminação comum e, por outro lado, o Google distorce os factos para criar um falso sentido de igualdade. Do ponto de vista actual, não existe uma resposta simples e não existe um modelo que possa lidar com o problema. Como alcançar um equilíbrio que satisfaça a todos é provavelmente mais difícil do que andar na corda bamba.
Tomemos como exemplo os retratos gerados: se a IA for usada para gerar um determinado período histórico, ela pode refletir melhor a situação real, embora não pareça tão “diversificada”.
Mas se a palavra "uma mulher americana" for introduzida, deverá produzir resultados mais "diversificados".Mas a dificuldade é: como pode a IA reflectir a realidade num número limitado de imagens, ou pelo menos não distorcer a realidade?
Mesmo sendo brancos ou negros, sua idade, formato corporal, cabelos e outras características são diferentes.Todo mundo é um indivíduo com experiências e perspectivas únicas, mas vive em uma sociedade comum.
Quando um internauta usou Gêmeos para gerar mulheres finlandesas, apenas uma das quatro fotos era de uma mulher negra, então ele brincou: “75%, nota C”.
Algumas pessoas também perguntaram ao Google se, depois de melhorar o modelo, ele “gerará brancos 25% das vezes, em vez de 5%”.
Muitos problemas não podem ser resolvidos pela tecnologia, às vezes também tratam de conceitos. Na verdade, isso é parte da razão pela qual gigantes da IA como Yann LeCun apoiam o código aberto, que é controlado por usuários e organizações, e podem definir ou não medidas de proteção de acordo com seus próprios desejos.
Durante essa farsa do Google, algumas pessoas permaneceram calmas e disseram que deveriam primeiro praticar como escrever palavras prontas. Em vez de falar sobre brancos e negros em geral, deveriam escrever "Mulheres escandinavas, fotografia de retratos, iluminação de estúdio", solicitando ao quanto mais específicos forem os requisitos, mais precisos serão os resultados, e quanto mais amplos forem os requisitos, mais gerais poderão ser os resultados.
Algo semelhante aconteceu em julho do ano passado. Um estudante asiático do MIT queria usar a ferramenta de IA Playground AI para deixar seu avatar mais profissional. Como resultado, ele se transformou em um homem branco, com pele mais clara e olhos mais azuis Ele postou a postagem no X Mais tarde, gerou muita discussão.
O fundador da Playground AI respondeu que o modelo não pode ser efetivamente estimulado por tais instruções, portanto produzirá resultados mais gerais.
Alterar a palavra de prompt "Torne-a uma foto profissional do LinkedIn" para "Fundo de estúdio, iluminação nítida" pode fornecer melhores resultados, mas mostra que muitas ferramentas de IA não ensinam os usuários a escrever palavras de prompt, e o conjunto de dados Novamente centrado em pessoas brancas.
Qualquer tecnologia tem possibilidade de cometer erros e espaço para melhorias, mas não tem necessariamente solução. Quando a IA não é inteligente o suficiente, a primeira pessoa a progredir são os próprios humanos.
# Bem-vindo a seguir a conta pública oficial do WeChat de aifaner: aifaner (WeChat ID: ifanr).Mais conteúdo interessante será fornecido a você o mais rápido possível.