Do que estamos falando quando dizemos que “estudantes de ciências humanas também podem trabalhar com IA”?

"Estudantes de ciências humanas também podem trabalhar com IA" "Um retorno triunfal!" Na internet chinesa, a combinação de ciências humanas e IA se tornou um tema recorrente.

De tempos em tempos, esse rótulo é atribuído a alguém, gerando um breve aumento no tráfego online. É uma história de superação ou motivo de chacota, dependendo do humor da seção de comentários.

Um rótulo, três abordagens

O exemplo mais recente é Yang Tianrun, um empreendedor de IA com formação em finanças, que está desenvolvendo uma plataforma de coordenação multiagente. Ele se descreve como um "estudante de humanas que não consegue escrever uma única linha de código" e construiu um grupo de agentes de IA para contribuir com código em massa para o OpenClaw, um dos projetos de código aberto mais populares do GitHub.

Quero testar uma hipótese: alguém que não entende absolutamente nada de tecnologia pode participar de projetos de código aberto de alto nível simplesmente controlando a IA?

O resultado foi: 134 solicitações de pull request, 21 aceitas e 113 rejeitadas. As primeiras solicitações de pull request eram de qualidade razoável e foram aprovadas e aceitas pelos mantenedores. No entanto, depois que o mantenedor emitiu um comando de aceleração para o Agente, as coisas rapidamente saíram do controle — o Agente começou a produzir em massa código de baixa qualidade como em uma linha de montagem, marcando freneticamente os mantenedores na seção de comentários para instá-los a revisá-lo. Os administradores do OpenClaw intervieram para resolver o problema e, posteriormente, o GitHub alterou as regras de limite de submissão de pull requests.

Mesmo a publicidade negativa ainda é publicidade, e ser criticado depois de ter alcançado popularidade é ainda pior. Yang Tianrun foi apresentado como um representante de "estudantes de artes liberais que conquistam o sucesso contra todas as probabilidades", e ele próprio parece feliz em aceitar esse papel. Em uma entrevista ao PingWest, ele disse o seguinte:

Não entender de código é, na verdade, uma vantagem. A IA é Van Gogh, e você é apenas um pintor de quinta categoria. Que direito você tem de dizer a Van Gogh quais pinceladas usar no meio da pintura?

É assustador pensar nisso. Ele interpretou "não entender a estrutura subjacente" como uma forma de libertação: não precisar saber o que o sistema está fazendo, apenas dizer a ele o que se quer. O resultado é que, quando o agente começa a despejar código de spam em massa, ele nem consegue diagnosticar o que está acontecendo porque não tem ideia do que está fazendo.

Ele pensava que estava dirigindo Van Gogh, mas na realidade estava dirigindo às cegas um carro sem freios e não tinha ideia de onde eles ficavam.

A discussão em torno desse assunto acabou se dividindo em dois extremos: ou "estudantes de humanidades também podem trabalhar com IA", ou "estudantes de humanidades devem se manter afastados da IA"; o primeiro é uma façanha de cruzar o abismo, enquanto o segundo é uma piada de cair nele.

Se nossa imaginação sobre "estudantes de ciências humanas trabalhando com IA" se limita a isso, então ela é muito limitada.

Por que Claude precisa de um filósofo?

Como escrevemos anteriormente, havia um estudante de artes liberais de verdade no escritório da Anthropic que estava profundamente envolvido no desenvolvimento de Claude. Não se tratava de testar suas habilidades de programação ou examinar suas competências matemáticas, mas sim de manter longas conversas com ele sobre valores, nuances da linguagem e "como se expressar diante da incerteza".

Amanda Askell, escocesa, tem 37 anos. Sua trajetória profissional é uma história incomum: inicialmente, estudou belas artes e filosofia na universidade, depois migrou para a filosofia pura, obtendo um bacharelado em filosofia (BPhil) pela Universidade de Oxford e, em seguida, um doutorado em filosofia pela Universidade de Nova York. Sua pesquisa de doutorado focou no princípio de Pareto na ética infinita: quais regras devem governar a ordenação ética ao lidar com um número infinito de agentes morais ou um período de tempo infinito.

Isso parece o caminho acadêmico mais distante do Vale do Silício, mas ela posteriormente se juntou à equipe de políticas da OpenAI e à equipe de alinhamento da Anthropic. Desde 2021, ela lidera a equipe de "alinhamento de personalidade" da Anthropic, focando em moldar como Claude conversa com humanos, expressa sua posição em situações de incerteza e toma decisões em conflitos de valores. Em 2024, ela foi incluída na lista TIME100 de IA. O Wall Street Journal descreveu seu trabalho diário como "aprender os padrões de raciocínio de Claude e corrigir seus vieses comportamentais com mais de 100 páginas de instruções". Diz-se que ela é a pessoa que mais conversou com Claude no planeta.

Por que uma empresa de IA precisaria de um filósofo para fazer isso? A resposta reside em algumas escolhas tecnológicas muito específicas.

Em janeiro deste ano, a Anthropic divulgou um documento de 80 páginas apelidado de "constituição" de Claude. A atenção da mídia se concentrou na especulação em torno da consciência da IA ​​no final do documento — um ponto que o CEO Dario Amodei também insinuou implicitamente.

Mas o que é ainda mais notável é a sua lógica subjacente: ensinar a IA a compreender por que ela deve fazer algo é mais eficaz do que dizer-lhe como deve fazê-lo. Trata-se de um julgamento tecnológico que acredita que internalizar valores produz um comportamento mais confiável do que seguir regras, e a base de conhecimento para esse julgamento provém de alguém que estudou arte e filosofia.

O caso de Amanda responde a uma pergunta: o conhecimento específico de uma área, considerado "inútil", pode se tornar uma competência essencial de um sistema tecnológico? A resposta não é apenas sim, mas também que, sem sua formação filosófica, o problema de alinhamento de Claude não poderia ser resolvido usando os métodos de engenharia existentes.

A disciplina renomeada

Se a história de Amanda ilustra que a formação em certas áreas categorizadas como "humanidades" pode ser uma competência essencial para a IA, então a história de Lin Junyang revela algo ainda mais importante: existe toda uma disciplina que vem operando na camada mais baixa das grandes estruturas tecnológicas de modelos.

Após a saída de Lin Chun-yang da Tongyi Qianwen, relatos na internet chinesa repetidamente usaram a mesma afirmação: ele tinha formação em linguística aplicada. Depois de circular algumas vezes, essa afirmação foi distorcida, passando a ser que ele era um "estudante de artes liberais".

Este rótulo é o mesmo que estava afixado em Yang Tianrun, mas foi severamente distorcido.

Lin Junyang estudou linguística, uma disciplina abrangente cujos ramos englobam o ensino de línguas, as políticas linguísticas, os estudos da tradução e a linguística computacional. De fato, a linguística computacional pode ser considerada um desdobramento do Processamento de Linguagem Natural (PLN).

Chomsky propôs a gramática formal na década de 1950, uma ferramenta teórica que impulsionou diretamente o desenvolvimento das primeiras técnicas de análise sintática em PNL; Daniel Jurafsky e Christopher Manning, autores de dois dos livros didáticos mais citados na área de PNL, têm formação em linguística.

▲ Chomsky

Em outras palavras, "um estudante de linguística que se especializa em PNL" é como "um estudante de física que se especializa em design de chips" — é um caminho legítimo, não interdisciplinar.

Essa sensação de "surpresa" foi inteiramente criada pelo contexto chinês. A inércia do sistema de vestibular que divide as áreas de artes e ciências fez com que a "linguística" se encaixasse no modelo mental das "artes". Mas a metodologia central da linguística — formalização, modelagem estatística e anotação de corpus — é essencialmente pensamento de engenharia. Os colaboradores de Lin Junyang na Universidade de Pequim, Sun Xu e Su Qi, são ambos pesquisadores em PNL (Processamento de Linguagem Natural); quando ele ingressou na DAMO Academy em 2019, juntou-se à equipe de PNL. Esta não é a história de um estudante de artes que entrou acidentalmente na área técnica; nunca foi essa a intenção desde o início.

Mais relevante do que a afirmação "Lin Chun-yang não conta como aluno de humanas" é o papel real que a linguística desempenha na arquitetura tecnológica de modelos em larga escala. É um papel muito mais profundo e oculto do que a maioria das pessoas imagina.

Tomemos como exemplo a segmentação de palavras. O primeiro passo em qualquer modelo de linguagem que processa texto é dividir a entrada em unidades básicas que o modelo possa processar. Em inglês, os espaços fornecem limites naturais para as palavras, o que parece simples. Mas em chinês, não existem espaços, e o uso de cada sinal de pontuação pode afetar o significado de uma frase.

A frase "Estou estudando na Universidade de Pequim" deve ser dividida em "Eu/estou/na/Universidade/de/Pequim/Estudando" ou "Eu/estou/na/Universidade/de/Pequim/Estudando"? Esta não é uma questão de engenharia com uma resposta padrão; depende da sua compreensão da estrutura lexical e das unidades semânticas do chinês.

No final de 2024, pesquisadores publicaram um artigo discutindo especificamente como otimizar a eficiência da segmentação de palavras em árabe do modelo Qwen, visto que as soluções gerais apresentam uma queda significativa na eficiência ao lidar com esse tipo de idioma. O desempenho da série Qwen em cenários multilíngues não é alcançado tratando todos os idiomas como variações do inglês, mas sim por meio de escolhas de projeto baseadas na compreensão das diferenças estruturais entre os idiomas.

Outro exemplo é o alinhamento de feedback. No processo RLHF, o anotador precisa determinar qual das duas respostas do modelo é "melhor". Esse julgamento pode parecer subjetivo, mas é respaldado por uma estrutura estudada na linguística há décadas: a pragmática.

Ao avaliar "boas respostas", os anotadores estão, na verdade, julgando o seguinte: Princípio da colaboração — A resposta fornece informações suficientes, mas não em excesso? Significado conversacional — A resposta captura o que o usuário realmente quer perguntar, e não apenas o que foi perguntado literalmente? Adequação contextual — O mesmo conteúdo é apropriado para ser dito dessa forma nesse contexto?

O padrão de alinhamento amplamente utilizado de "Útil, Inofensivo, Honesto" é essencialmente uma tradução elaborada de princípios pragmáticos básicos.

A trajetória acadêmica de Lin Junyang também revela um estilo de pesquisa bastante linguístico. Seu trabalho OFA (One For All), publicado na ICML, uma das principais conferências em aprendizado de máquina, em 2022, já foi citado quase 1500 vezes. A ideia central deste trabalho não é construir uma solução dedicada para cada tarefa, mas sim usar uma estrutura de sequência para sequência suficientemente geral para unificar tarefas multimodais como geração de imagens, localização visual, legendagem de imagens e classificação de texto.

Desde o OFA até o Qwen-VL (citado mais de 2200 vezes), passando pelo Qwen 2.5 e chegando à versão mais recente, a 3.5, um fio condutor claro permeia tudo: em vez de inventar uma solução específica para cada problema, é melhor encontrar uma estrutura geral suficientemente boa que permita que todos os problemas sejam resolvidos dentro da mesma estrutura.

Abranger o maior número possível de fenômenos com o menor número possível de regras — essa tem sido a busca central da linguística por décadas. Toda a ambição acadêmica da gramática gerativa é encontrar um sistema finito de regras capaz de gerar um número infinito de expressões linguísticas. A filosofia arquitetônica da Abordagem Baseada em Objetos (ABO) é isomórfica a isso; escrever um conjunto específico de regras para cada fenômeno linguístico é impraticável, portanto, deve-se buscar uma estrutura subjacente para unificá-los.

Lin Chun-Yang se destaca na construção de modelos em larga escala não porque sua formação em linguística "lhe permita" trabalhar com IA, mas porque seu treinamento em linguística cultivou um gosto acadêmico específico e uma preferência por uniformidade e formalização. Esse gosto é precisamente a principal vantagem competitiva na era dos modelos em larga escala.

O alicerce invisível, as necessidades visíveis

Três pessoas, uma marca, três estruturas completamente diferentes.

Yang Tianrun, por desconhecer a estrutura subjacente, confundiu essa ignorância com uma vantagem, resultando em perda de controle. Esta é uma versão vazia do conceito de "estudantes de humanas trabalhando com IA": o rótulo gerou tráfego, mas nenhuma formação acadêmica teve qualquer papel. Sua história ilustra precisamente o que acontece quando "estudante de humanas" é apenas um rótulo de marketing.

A formação filosófica de Amanda Askell constitui a metodologia central do problema do alinhamento. Sem ela, Claude não seria Claude. Sua história responde à questão de se o conhecimento de disciplinas consideradas "inúteis" pode se tornar uma capacidade essencial dos sistemas tecnológicos. A resposta não é apenas sim, mas insubstituível.

A formação linguística de Lin Chun-Yang constitui a infraestrutura implícita da pilha tecnológica do modelo em larga escala. Sua "formação em artes liberais" nunca foi interdisciplinar, mas sim convencional. Sua história responde à pergunta: até que ponto a contribuição das artes liberais para a tecnologia avançada tem sido "implícita" e está se tornando explícita?

A questão fundamental não é se os estudantes de ciências humanas são capazes de trabalhar com IA, mas sim se conseguimos compreender que julgar o conhecimento e as disciplinas com base em sua "utilidade" superficial é algo ultrapassado .

À medida que os modelos de grande escala mudam seu foco da facilidade de uso para a confiabilidade e o controle, o valor do treinamento em disciplinas categorizadas como "humanidades" não está diminuindo, mas sim aumentando. Quanto mais poderoso o modelo, mais preciso precisa ser o sistema de avaliação para diagnosticar onde e por que ele está cometendo erros. Também é necessário compreender a complexidade da linguagem e do significado para projetar melhores dados de treinamento e fazer julgamentos sensíveis à disciplina sobre questões de alinhamento.

A narrativa do "retorno dos estudantes de artes liberais" — seja ela elogiosa ou ridicularizada — obscurece a verdadeira mudança que está acontecendo: a base invisível está se tornando uma necessidade visível.

#Siga a conta oficial do iFanr no WeChat: iFanr (ID do WeChat: ifanr), onde você encontrará conteúdo ainda mais interessante o mais breve possível.