Após a casa do Ultraman ter sido atingida por coquetéis Molotov, ele respondeu com uma longa postagem: Eu entendo seu medo da IA.

As ansiedades da era da IA ​​finalmente se materializaram de forma extrema.

Às 3h45 da manhã, no bairro de North Beach, em São Francisco, um coquetel molotov foi atirado contra uma porta, as chamas irromperam rapidamente antes de se extinguirem. Na casa morava Sam Altman, CEO da OpenAI, uma das empresas de tecnologia mais controversas do mundo.

Felizmente, o coquetel Molotov ricocheteou. Ninguém ficou ferido. Pouco mais de uma hora depois, o mesmo suspeito apareceu em frente à sede da OpenAI em São Francisco, ameaçando incendiar o prédio. A polícia o prendeu imediatamente; tratava-se de um homem de 20 anos.

Essa notícia poderia ter terminado aí: "Executivo de empresa de IA atacado; suspeito detido; sem feridos."

Mas Ultraman não optou por permanecer em silêncio. Ele publicou um artigo muito longo há uma hora.

"Esta é uma foto da minha família. Eles são tudo para mim." Essa foi a frase de abertura, acompanhada de uma foto dele com sua companheira e filho. Ele explicou por que divulgou essa foto, que geralmente mantinha escondida: "Espero que isso faça com que a próxima pessoa pense duas vezes antes de jogar um coquetel molotov na minha casa, não importa o que pense de mim."

Ele então disse que alguns dias antes havia sido publicado um "artigo inflamatório direcionado a mim", e que alguém o havia alertado de que o artigo fora publicado num momento em que o público estava extremamente apreensivo em relação à IA, o que poderia colocá-lo numa situação mais perigosa. Ele não levou isso a sério na época.

"Agora eu me revirei na cama à noite, consumido pela raiva, e estou começando a perceber que subestimei o poder das palavras e da narrativa."

Esta é a primeira vez na era da IA ​​que um CEO, após perceber que "alguém quer me queimar vivo", não optou pelo procedimento padrão de denunciar à polícia, emitir um comunicado e divulgar uma nota de imprensa, mas, em vez disso, escreveu na íntegra seus medos, raiva e reflexões.

O que ele disse tarde da noite?

O artigo está dividido em três partes: crenças, reflexões pessoais e percepções do setor.

A seção sobre crenças não trouxe nada de novo. A IA é a ferramenta mais poderosa para expandir as capacidades humanas, ela precisa ser democratizada, o poder não pode ser excessivamente centralizado e a sociedade precisa de mecanismos adaptativos… Ele já disse essas coisas muitas vezes.

Vale a pena parar para ler a seção sobre "reflexão pessoal". Ele diz que tem "muitas coisas das quais se orgulhar e alguns erros a cometer".

Do que ele se orgulhava? Ele mencionou sua disputa com Musk.

Quando Musk tentou obter o controle unilateral da OpenAI, Altman recusou. Ele disse: "Tenho orgulho dos princípios que defendi naquela época e tenho orgulho do caminho estreito que trilhamos, o caminho que permitiu que a OpenAI continuasse."

Do que ele não se orgulha? Ele disse que "evitou conflitos", causando imenso sofrimento tanto à empresa quanto a si mesmo. Disse que "lidou mal" com o conflito com a diretoria anterior, criando caos. Disse que é "uma pessoa imperfeita em uma situação excepcionalmente complexa".

Ele pediu desculpas àqueles que havia magoado.

Esta é a parte mais rara do artigo. Os pedidos de desculpas de executivos de tecnologia geralmente são um gesto forçado após uma crise de relações públicas ou formulados de maneira vaga, sem qualquer admissão substancial de culpa. A declaração de Altman não está completa, mas pelo menos é verdadeira.

Na parte final do artigo, ele também disse que entende por que tantos "dramas shakespearianos" se desenrolaram nos últimos anos: "Uma vez que você vê a IAG (Inteligência Artificial Geral), não pode mais ignorá-la. Ela tem uma dinâmica de 'anel de poder' real que leva as pessoas a fazerem coisas insanas."

Pelo que ele entendia, a obsessão de se tornar aquele que controla a IAG (Inteligência Artificial Geral) pode corromper qualquer um.

A própria história da OpenAI é um documentário de lutas pelo poder. A saída e o desentendimento de Musk, a demissão repentina dos antigos membros do conselho, a profunda integração com a Microsoft, a saída de Ilya Sutskever… cada episódio apresenta respostas diferentes para a pergunta "quem controla o futuro da IA".

Altman afirmou que a única solução é "tornar a tecnologia disponível para um número maior de pessoas, para que ninguém possa deter esse anel exclusivamente para si".

O suspeito de 20 anos não prestou depoimento.

Não sabemos por que ele atirou aquele coquetel Molotov. Será que foi provocado por algum artigo? Será que foi medo de que a IA tirasse empregos? Ou algum tipo de paranoia pessoal?

Mas esse incidente em si representa um sentimento social real.

A ansiedade em relação ao desemprego, o medo da tecnologia e a raiva diante da ideia de que uma minoria controla o futuro — essas emoções foram amplificadas drasticamente pelo crescimento explosivo da IA ​​nos últimos dois anos. Quando a OpenAI lança um novo produto a cada poucos meses que pode "substituir certos tipos de empregos", quando o ChatGPT aparece em relatórios de reestruturação em todos os setores e quando "Seu emprego será substituído por IA?" se torna um tópico em alta, essas ansiedades acumuladas eventualmente encontrarão uma saída.

Em seu artigo, Altman afirma que sua preocupação agora vai além do "alinhamento de modelos", abrangendo a questão de se a sociedade como um todo é capaz de estabelecer um mecanismo de resposta oportuno. Embora isso possa soar como uma desculpa para flexibilizar as regulamentações, no contexto deste evento específico, carrega uma outra camada de significado:

Até mesmo os CEOs de empresas de IA estão começando a admitir que o ritmo do avanço tecnológico ultrapassou a capacidade da sociedade de absorvê-lo.

Essa não é uma descoberta nova, mas ouvi-la do Ultraman de madrugada, em meio ao calor persistente de um coquetel Molotov, tem um peso diferente. Nos últimos anos, a narrativa predominante no mundo da tecnologia tem sido "estamos resolvendo problemas". Regulamentação defasada? Vamos nos autorregular. Perda de empregos? Vamos criar novos empregos.

Cada pergunta possui um conjunto correspondente de respostas.

No entanto, o aparecimento de coquetéis Molotov demonstra que a raiva de algumas pessoas ultrapassou os limites da "discussão racional".

A violência, obviamente, não tem qualquer legitimidade.

Independentemente do motivo, atirar um coquetel molotov na casa de um bebê adormecido é repreensível e passível de punição. Embora a polícia ainda não tenha confirmado se o ataque está relacionado a sentimentos anti-IA ou se foi influenciado por reportagens negativas recentes na revista The New Yorker, o incidente em si reflete a crescente ansiedade social em torno do desenvolvimento da IA.

Essa inquietação é compreensível; nenhuma tecnologia jamais mudou o mundo em um ritmo tão frenético quanto a IA, e esse medo é real.

Neste artigo, Ultraman raramente falou sob a perspectiva de "estamos resolvendo o problema". Ele admitiu seus erros, seus medos e que ele próprio não tinha certeza absoluta de qual caminho seguir.

A coexistência entre humanos e IA talvez seja um desafio maior do que alcançar a Inteligência Artificial Geral (IAG).

Segue em anexo a postagem original do blog de Sam Altman:

Esta é uma foto da minha família. Eles são tudo para mim.

As imagens têm poder, e eu espero que sim. Normalmente somos muito reservados, mas escolhi publicar esta foto na esperança de que ela faça com que a próxima pessoa pense duas vezes antes de atirar um coquetel molotov na minha casa — independentemente do que ela pense de mim.

A primeira pessoa fez isso às 3h45 da manhã de ontem. Felizmente, o coquetel molotov ricocheteou e ninguém ficou ferido.

As palavras também têm poder. Há alguns dias, saiu um artigo polêmico me atacando. Ontem, alguém me disse que acreditava que o momento da publicação do artigo, em meio a uma extrema ansiedade pública sobre inteligência artificial, poderia me colocar em uma situação ainda mais perigosa. Na hora, não dei muita importância.

Agora, estou me revirando na cama no meio da noite, fervendo de raiva, e começo a perceber que subestimei o poder das palavras e da narrativa. Gostaria de aproveitar esta oportunidade para dizer algumas coisas.

I. Minha Crença

  • Promover a prosperidade para todos, capacitar a todos e impulsionar o avanço da ciência e da tecnologia são minhas responsabilidades morais.
  • A IA será a ferramenta mais poderosa já criada para expandir as capacidades humanas. A demanda por essa ferramenta é praticamente ilimitada, e as pessoas a utilizarão para alcançar feitos extraordinários. O mundo precisa de uma quantidade massiva de IA, e precisamos descobrir como atingir esse objetivo.
  • Este caminho não será fácil. Os medos e ansiedades das pessoas em relação à IA são justificados — estamos vivenciando a maior transformação da sociedade humana em muito tempo, talvez até mesmo na história. A segurança precisa ser abordada; não se trata apenas de alinhamento de modelos — precisamos urgentemente de um mecanismo de resposta da sociedade para nos defendermos contra novas ameaças, incluindo novas políticas que nos ajudem a navegar por esta difícil transição econômica e a caminhar rumo a um futuro melhor.
  • A inteligência artificial precisa ser democratizada; o poder não pode ser excessivamente centralizado. O controle do futuro pertence a todas as pessoas e suas instituições. A IA precisa empoderar cada indivíduo, e precisamos tomar decisões coletivas sobre a direção do futuro e as novas regras. Acredito que seja errado que alguns poucos laboratórios de IA dominem as decisões mais críticas que moldam o nosso futuro.
  • A adaptabilidade é crucial. Todos nós estamos aprendendo coisas novas em um ritmo incrivelmente acelerado; alguns julgamentos estarão certos, outros errados, e às vezes precisamos ajustar rapidamente nossa cognição à medida que a tecnologia avança e a sociedade evolui. Ninguém ainda compreende verdadeiramente o impacto da superinteligência, mas sua influência será profunda.

II. Reflexão Pessoal

Ao refletir sobre minha primeira década na OpenAI, há muitas coisas das quais me orgulho, e também alguns erros.

Penso na nossa iminente batalha judicial com Elon, e em como me mantive firme e recusei a aceitar sua tentativa de obter controle unilateral sobre a OpenAI. Tenho orgulho disso e do caminho estreito que trilhamos naquela época — o caminho que permitiu à OpenAI continuar e alcançar tudo o que alcançou desde então.

Não me orgulho de ter evitado conflitos, o que causou imensa dor tanto para mim quanto para a OpenAI. Tampouco me orgulho do caos que criei ao lidar mal com os conflitos com a diretoria anterior. A jornada da OpenAI tem sido tumultuada e cometi muitos erros ao longo do caminho; sou uma pessoa imperfeita, em uma situação excepcionalmente complexa, buscando melhorar a cada ano enquanto trabalho consistentemente para alcançar essa missão. Desde o início, entendemos a importância da IA ​​e como desentendimentos pessoais bem-intencionados poderiam ser amplificados. Mas vivenciar esses conflitos intensos em primeira mão, muitas vezes atuando como árbitro, foi incrivelmente custoso. Lamento profundamente qualquer mágoa que tenha causado e espero aprender com essas experiências mais rapidamente.

Tenho plena consciência de que a OpenAI é agora uma plataforma importante e que precisamos operá-la de forma mais previsível. Os últimos anos foram extremamente tensos, caóticos e de alta pressão.

Mas, no geral, estou incrivelmente orgulhoso de estarmos cumprindo nossa missão — algo que parecia quase impossível na época. Superando inúmeros obstáculos, descobrimos como construir uma IA poderosa, captamos capital suficiente para construir a infraestrutura necessária para a entrega, estabelecemos uma empresa de produtos e um sistema de negócios para fornecer serviços bastante seguros e robustos em escala, e muito mais.

Muitas empresas dizem que querem mudar o mundo; nós realmente conseguimos.

III. Reflexões sobre este setor

Ao refletir sobre os últimos anos, minha compreensão pessoal sobre o porquê de tantos dramas shakespearianos terem se desenrolado nesse campo é a seguinte: "Uma vez que você vê a IAG (Inteligência Artificial Geral), não pode mais ignorá-la." Existe uma dinâmica real de "círculo de poder" que leva as pessoas a fazerem coisas insanas. Não estou falando da IAG em si como esse círculo, mas sim da obsessão abrangente de "se tornar aquele que controla a IAG".

A única solução que consigo imaginar é focar em disponibilizar a tecnologia para uma população mais ampla, para que ninguém consiga deter o controle sozinho. Duas maneiras óbvias de alcançar isso são o empoderamento individual e garantir que a democracia sempre prevaleça.

O poder do processo democrático deve prevalecer sobre o das corporações. Leis e regulamentos continuarão a evoluir, mas devemos operar dentro da estrutura do processo democrático, mesmo que seja caótico e mais lento do que gostaríamos. Aspiramos a ser uma voz, um participante ativo, mas não a exercer poder absoluto.

Grande parte das críticas recebidas pelo setor decorre de preocupações genuínas sobre os riscos extremamente elevados associados a essa tecnologia. Essas preocupações são totalmente válidas e acolhemos críticas e debates construtivos. Compreendo o sentimento anti-tecnologia; certamente, a tecnologia nem sempre beneficia a todos. Mas, no geral, acredito que o progresso tecnológico pode tornar o futuro incrivelmente promissor — para você e minha família.

Ao participarmos desse debate, devemos coletivamente reduzir a intensidade de nossas palavras e ações, para que menos famílias — tanto literal quanto metaforicamente — sejam afetadas pela explosão.

Aqui está o endereço do blog:
https://blog.samaltman.com/2279512

#Siga a conta oficial do iFanr no WeChat: iFanr (ID do WeChat: ifanr), onde você encontrará conteúdo ainda mais interessante o mais breve possível.