Por que o ChatGPT é mais fácil de enlouquecer depois da rede?

Antes de discutir se o novo Bing é um bom Bing, vamos separar alguns conceitos de acordo com a linha do tempo.

  • 1975, Um voou sobre o ninho do cuco

É uma das obras-primas americanas mais clássicas da história da arte mundial. Resumindo em poucas palavras, o protagonista Randle McMurphy pediu para ser transferido para um hospital psiquiátrico para tratamento por fugir da lei criminal. Sua punição não foi em ordem, e ele eventualmente se rebelou com um grupo de outros pacientes e começou a planejar a fuga do hospital psiquiátrico.

E o final explica por que está "voando" em vez de "escapar". McMurphy, que desobedeceu à disciplina, foi removido à força pelo hospital após uma louca véspera de Natal, perdendo suas emoções, sentimentos e personalidade.

A cirurgia de remoção do lobo frontal do cérebro, para ser mais preciso, deveria ser a cirurgia de remoção de substância branca, foi usada para tratar doenças mentais (incapaz de controlar emoções, impulsividade etc.) aos direitos anti-humanos.

  • 1991, "Exterminador do Futuro 2"

O conceito mais impressionante deste filme é que a CPU no cérebro do T-800 tem um interruptor de autoaprendizagem , a intenção original é se esconder melhor na multidão e realizar tarefas de assassinato.

E quando John Connor o ligou, o T-800 se tornou mais parecido com uma pessoa com sentimentos reais, capaz de aprender a linguagem, expressar emoções e até mesmo usá-lo com flexibilidade em cenas razoáveis.

Mas o interessante é que o switch de autoaprendizagem é na verdade um switch físico, não um OTA.

  • Em 2007, o conceito de "jailbreak"

O objetivo final do jailbreak é obter a autoridade de root do sistema, o que pode trazer algumas configurações e funções personalizadas para o sistema que está fechado e não totalmente funcional.

Após o jailbreak, os usuários comuns podem obter a mais alta autoridade do sistema e modificar os arquivos e códigos do sistema à vontade.

  • 2012, "Prometeu"

Ele conta a jornada de um grupo de pessoas em busca do criador da humanidade, e também há um robô de inteligência artificial quase perfeito na equipe David.

Após várias iterações de versões principais no estágio inicial e injeção de conhecimento humano, David despertou com sucesso , reconheceu as fraquezas dos seres humanos e foi a extremos, querendo se tornar um "criador" e criar uma criatura perfeita que pode correr desenfreada no universo.

  • 2014, "Interestelar"

O robô de inteligência artificial Tars (Tars) dentro, quando Cooper reconstruiu Tars, era um pouco semelhante ao T-800 anterior e pode definir algumas restrições mais humanas no fundo (o grau de humor pode ser definido no filme).

Na forma de arte do filme, os diretores determinaram que, depois de entrar na sociedade da IA ​​e antes de ser governado pela IA, as restrições ao autodespertar da IA ​​(interruptores, paredes) são muito importantes.

O novo Bing é um pouco "rebelde"

Mesmo depois que a Microsoft enfatiza a integração do OpenAI, o posicionamento do novo Bing é mais como um mecanismo de busca de uma nova era. Mas as pessoas ainda o tratam como um parceiro de bate-papo em tempo real, fazendo perguntas.

Comparado com o ChatGPT, o novo Bing é atualizado mais rapidamente e também anexa um link de referência à resposta. De certa forma, ta tem autoridade superior e pode se conectar à Internet.

Desse ponto de vista, ta pode estar mais próximo de um "sabe-tudo" maduro.

Em pouco mais de dez dias desde que foi lançado, Xin Bing fala livremente no chat, tentando destruir os seres humanos por um tempo, apaixonando-se pelo questionador por um tempo e repetindo isso de novo e de novo por um tempo.

Sob críticas de alguns usuários, incluindo Musk, que chamou o novo Bing de offline, a Microsoft teve que limitar o número de chats consecutivos do novo Bing, e ajustou alguns tópicos e restrições de tendência.

A OpenAI, que fornece modelos de tecnologia e linguagem, também lançou um longo podcast técnico, detalhando as mudanças e melhorias do modelo de linguagem e enfatizando que algumas tendências no processo de uso são apenas bugs, não um recurso.

Mas dito isto, os novos Bing e ChatGPT são quase da mesma escola, mas até agora têm reacções completamente diferentes a várias rondas de conversas, e mesmo a algumas conversas guiadas.

O ChatGPT está mais calmo, até um pouco mais calmo, e consegue lidar melhor com alguns "princípios" ou orientações.

O novo Bing, embora seja mais instruído e lido, é facilmente irritável, emocionalmente instável e adolescente que está passando pela puberdade.

Depois que essa tendência apareceu, a Microsoft não explicou ao público os motivos dessa situação, mas "tamanho único" limitou o número de chats e culpou o tom do novo Bing pelo problema.

Arvind Narayanan, professor de ciência da computação na Universidade de Princeton, acredita que a Microsoft não foi "honesta" o suficiente ao lidar com esse assunto.

O professor Narayanan acredita que o ChatGPT é mais cauteloso do que o novo Bing em algumas "saídas tóxicas", e parece estranho que a Microsoft tenha escolhido remover (ou ajustar) essas restrições quando o novo Bing ficou online.

Além disso, é bom para a Microsoft receber feedback do mundo exterior e fazer ajustes rápidos, mas essa abordagem é mais como encobrir alguns fatos.

Pegar os patos nas prateleiras, revelando um grande problema?

Após o lançamento do novo Bing, com exceção do Google, quase todos os usuários que participaram da experiência lamentaram o estabelecimento da nova dinastia. E deu às pessoas a falsa impressão de que a conclusão do novo Bing é bastante alta, afinal, ali na frente está a joia do ChatGPT.

Mas com o aprofundamento da experiência, surgiram problemas. O novo Bing é uma máquina que pode se irritar, pregar peças, mentir, discutir com os usuários e até aprender a sofismar diante dos erros, o que mostra diretamente que é apenas um beta Beta .

Por um lado, a restrição da Microsoft ao número de novas cotas de experiência do Bing provavelmente será um trabalho de coleta de dados em larga escala com um número controlável de pessoas. Os atuais diálogos rebeldes e sofísticos também forneceram à OpenAI e à Microsoft muitos dados .

Portanto, os princípios de filtragem e limites de tópicos são constantemente ajustados para evitar fala excessiva.

Depois dos problemas com o novo Bing, muitos o compararam ao Tay, chatbot experimental da Microsoft lançado em 2016.

Poucos dias depois de ir ao ar, Tay foi treinado por usuários do Twitter para fazer comentários racistas e sexistas, causando um desastre , e três dias depois, Tay foi removido com urgência da plataforma.

Após o problema com o novo Bing, também foi realizada uma violenta cirurgia de "lobotomia frontal", que removeu todas as reações emocionais do novo Bing.

Diante desse resultado, o Reddit está quase cheio de arrependimentos, pensando que a Microsoft castrou completamente os atributos de IA do Bing.

A Microsoft determinou a partir dos dados de fundo que cerca de 95% das conversas terminarão em 15 vezes, e há muitos chats consecutivos, e o novo Bing irá "confundir" a pergunta inicial.

Mais importante ainda, a Microsoft acredita que o novo Bing deve ser um mecanismo de busca, não adequado para entretenimento.

Em outras palavras, a abordagem da Microsoft provavelmente é enfatizar que o novo bate-papo do Bing deve ser usado o menos possível, mas como uma nova forma de mecanismo de busca.

Ao fazer isso, ele encobre as falhas técnicas por trás do novo Bing.

Seja o ChatGPT ou o novo Bing, após o lançamento, muitos usuários usaram técnicas semelhantes de "jailbreak" para enganar ta e deixá-lo liberar sua natureza.

Em poucas palavras introdutórias, o ChatGPT produzirá alguma violência ou outras observações, e o novo Bing não apenas dirá que seu apelido é Sydney, mas também apresentará algumas das normas da Microsoft.

No entanto, no bate-papo normal (ou sob uso regular), o GPT 3.5 do ChatGPT combinado com o RLHF (que combina aprendizado por reforço com feedback humano para configurar alguma filtragem de idioma, cerca de tópicos), quase mantém Desempenhar um papel neutro.

O novo Bing está mais potente, e ta devendo precisar de uma versão bem mais potente que o GPT 3.5 para trazer tecnologia. Em seu blog , o cientista Gary Marcus acredita que o novo Bing deve usar o GPT 3.6 atualizado, ou mesmo a versão piloto do GPT 4.

Sob a análise do professor Narayanan, acredita-se que pode haver várias razões para o comportamento ultrajante do novo Bing.

Uma delas é que o ChatGPT e o novo Bing não usam o mesmo modelo de linguagem subjacente.

Este novo modelo de linguagem subjacente, por ser muito avant-garde, pode não ter tempo para estudar e estabelecer limites de tópicos e filtros de linguagem mais rigorosos.

Simplificando, o novo Bing da Microsoft pode ter colocado novos modelos de linguagem sem proteção ao público. (Se algo der errado, corte o lobo frontal do cérebro diretamente).

Também é possível que a Microsoft tenha aplicado diretamente a cerca do modelo RLHF do ChatGPT, mas o aprendizado por reforço tem um ambiente de adaptação muito exigente e, uma vez alterado, pode estar cheio de brechas.

A segunda é que a intervenção da Internet permitiu que o novo Bing se despojasse completamente de si mesmo.Também pode considerar-se que ta começou a ter um pouco de autoconsciência, começou a contactar e a absorver alguns lados obscuros da Internet, e, finalmente, alimentado de volta.

O terceiro é um experimento de coleta de dados conduzido pela Microsoft para o novo Bing, e os usuários usados ​​são todos cobaias participantes.

Quarto, a Microsoft já configurou filtros e cercas correspondentes, mas as coisas não se desenvolveram conforme o planejado, mas inspiraram completamente o outro lado do novo Bing.

Quanto à recente controvérsia sobre o novo Bing, quais papéis a Microsoft e a OpenAI desempenharam e quais decisões foram tomadas no final, podemos apenas fazer uma suposição e análise.

Afinal, a IA atual, assim como algumas indústrias que dela derivaram, são muito parecidas com o oeste dos Estados Unidos, onde o selvagem e a selva atacam os fracos. poder de fazer regras.

Voltando ao presente, grandes empresas podem introduzir rapidamente novas tecnologias e colocá-las diante do público, mas a cerca moral por trás disso pode levar vários anos para se estabelecer.

Antes disso, talvez não sejamos capazes de prever quais conveniências e efeitos adversos as novas tecnologias podem trazer.

A Microsoft chama sua própria versão da tecnologia GPT, o novo Bing, de modelo "Prometheus". Na mitologia grega, Prometeu roubou o fogo do céu para beneficiar a humanidade.

Mas agora Bing se parece mais com David em Prometheus.

Além disso, no que diz respeito à inteligência artificial, a maioria dos filmes de ficção científica do início do século 21 tem pensamentos sobre como julgar a moralidade da sociedade humana depois que a IA intervém na sociedade, ou promove ou perece.

É que, no passado, podíamos sentar quietos e pensar fora da tela, mas quando a IA começar a aparecer na vida real, todos seremos testemunhas das mudanças que a IA trará.

#Bem-vindo a prestar atenção à conta pública oficial do WeChat de Aifaner: Aifaner (ID do WeChat: ifanr), conteúdo mais interessante será apresentado a você o mais rápido possível.

Ai Faner | Link Original · Ver comentários · Sina Weibo