2023 foi o ano da IA. Aqui estão os 9 momentos que o definiram
O ChatGPT pode ter sido lançado no final de 2022, mas 2023 foi sem dúvida o ano em que a IA generativa conquistou a consciência pública.
O ChatGPT não apenas atingiu novos máximos (e mínimos), mas uma infinidade de mudanças sísmicas abalaram o mundo, desde produtos rivais incríveis até escândalos chocantes e tudo mais. À medida que o ano chega ao fim, relembramos os nove eventos mais importantes em IA que ocorreram nos últimos 12 meses. Foi um ano como nenhum outro para a IA – aqui está tudo o que o tornou memorável, começando no início de 2023.
Os rivais do ChatGPT correm para o mercado
Nenhuma lista como esta começa sem a ascensão incomparável do ChatGPT. O chatbot gratuito da OpenAI conquistou o mundo, crescendo rapidamente e capturando a imaginação de todos, desde líderes de tecnologia até pessoas comuns nas ruas.
O serviço foi lançado inicialmente em novembro de 2022, mas começou realmente a crescer ao longo dos primeiros meses do ano. O impressionante sucesso do ChatGPT deixou seus rivais lutando por uma resposta. Parecia que ninguém estava mais aterrorizado do que o Google, com a empresa preocupada com a possibilidade de a IA tornar o seu lucrativo negócio de pesquisa praticamente obsoleto. Em fevereiro, alguns meses após a abertura do capital do ChatGPT, o Google respondeu com o Bard, seu próprio chatbot de IA. Então, apenas um dia depois, a Microsoft revelou sua própria tentativa com o Bing Chat .
As coisas pioraram um pouco para o Bing Chat, com o chatbot propenso ao que ficou conhecido como “alucinações” – incidentes em que ele mentiria, inventaria fatos falsos e geralmente não seria confiável. Ela disse a um repórter que espionou, se apaixonou e depois assassinou seu próprio desenvolvedor . Quando o testamos, ele afirmou ser perfeito, disse que queria ser humano e discutiu conosco incansavelmente. Em outras palavras, estava desequilibrado.
As coisas correram um pouco melhor para o Google Bard – não era tão argumentativo e evitava completamente o uso desordenado de emojis pelo Bing Chat – mas ainda tinha uma tendência a não ser confiável . No mínimo, as respostas rápidas do Google e da Microsoft ao ChatGPT mostraram quão apressadas foram suas tentativas – e quão perigosa pode ser a tendência da IA para a desinformação.
GPT-4 faz sucesso
Quando o ChatGPT foi lançado, ele era alimentado por um modelo de linguagem grande (LLM) chamado GPT-3.5. Isso era altamente capaz, mas tinha algumas limitações, como só poder usar texto como método de entrada. Muito disso mudou com o GPT-4 , que se tornou público em março.
O desenvolvedor do ChatGPT, OpenAI, disse que o novo LLM era melhor em três aspectos principais: criatividade, entrada visual e contexto mais longo. Por exemplo, o GPT-4 pode usar imagens como entrada e também colaborar com os usuários em projetos criativos, como música, roteiros e literatura.
Atualmente, o GPT-4 está bloqueado pelo acesso pago ChatGPT Plus da OpenAI, que custa US$ 20 por mês. Mas mesmo com esse alcance limitado, teve um impacto enorme na IA. Quando o Google anunciou seu Gemini LLM em dezembro, afirmou que era capaz de vencer o GPT-4 na maioria dos testes – mas o fato de poder fazê-lo por apenas alguns pontos percentuais quase um ano após o lançamento do GPT-4 diz tudo o que você precisa para saber o quão avançado é o modelo do OpenAI.
Imagens geradas por IA começam a enganar o público
Poucos incidentes ilustraram o poder da IA para enganar e desinformar do que uma única imagem divulgada no início de 2023: a do Papa Francisco numgrande casaco branco .
A imagem improvável foi criada por uma pessoa chamada Pablo Xavier usando o gerador de IA Midjourney, mas era tão realista que enganou facilmente um grande número de telespectadores nas redes sociais, incluindo celebridades como Chrissy Teigen . Ele destacou o quão convincentes os geradores de imagens de IA podem ser – e sua capacidade de enganar as pessoas, fazendo-as acreditar em coisas que não são reais.
Na verdade, apenas uma semana antes de surgir a imagem do Papa, um conjunto diferente de imagens chegou aos noticiários por uma razão semelhante. Eles retratavam o ex-presidente Donald Trump sendo preso, brigando com policiais e cumprindo pena na prisão. Quando poderosos geradores de imagens se misturam com temas delicados, sejam eles relacionados à política, à saúde, à guerra ou a qualquer outro assunto, os riscos podem ser extremos. À medida que as imagens geradas pela IA se tornam ainda mais realistas, a criação do Papa Francisco foi um exemplo alegre de como todos precisaríamos de melhorar rapidamente o nosso jogo de literacia mediática.
As imagens geradas por IA têm se tornado cada vez mais comuns ao longo do ano, aparecendo até mesmo nos resultados de pesquisa do Google antes das imagens reais.
Uma petição começa a soar o alarme
A IA tem evoluído a uma velocidade tão vertiginosa — e já teve consequências tão alarmantes — que muitas pessoas têm levantado sérias preocupações sobre o que poderá desencadear. Em março de 2023, esses receios foram expressos por alguns dos líderes tecnológicos mais proeminentes do mundo numa carta aberta .
A nota apelava a “todos os laboratórios de IA que interrompessem imediatamente durante pelo menos seis meses o treino de sistemas de IA mais poderosos que o GPT-4” para dar tempo à sociedade em geral para avaliar os riscos. Caso contrário, o avanço em grande escala para a IA poderia “representar riscos profundos para a sociedade e a humanidade”, incluindo a potencial destruição de empregos, a obsolescência da vida humana e a “perda de controlo da nossa civilização”.
A carta foi assinada por um grupo de líderes de tecnologia, desde o cofundador da Apple, Steve Wozniak, e o chefe da Tesla, Elon Musk, até uma lista de pesquisadores e acadêmicos. Se alguma empresa de IA realmente percebeu quando os lucros potenciais de curto prazo são tão grandes é outra questão – basta olhar para o Google Gemini, que seus criadores dizem que supera o GPT-4. Esperamos que a carta não seja profética.
ChatGPT se conecta à internet
Quando o ChatGPT foi lançado, ele contava com seu enorme acervo de dados de treinamento para ajudar a fornecer respostas às pessoas. O problema, porém, era que ele não conseguia se manter atualizado e era de pouca utilidade se alguém quisesse usá-lo para fazer uma reserva em um restaurante ou encontrar um link para comprar um produto.
Tudo mudou quando a OpenAI anunciou uma série de plug-ins queajudariam os plug-ins ChatGPT que poderiam se conectar à Internet . De repente, uma nova maneira de usar a IA para realizar tarefas foi aberta. A mudança também atualizou e expandiu amplamente o que o chatbot poderia fazer em comparação com antes. Em termos de capacidade e utilidade, foi uma grande atualização.
Mas foi somente em maio que seus recursos de navegação foram expandidos, quando o plug-in Navegar pelo Bing foi anunciado na conferência de desenvolvedores Microsoft Build . Foi um lançamento lento até setembro, quando foi disponibilizado para todos os usuários do ChatGPT Plus.
Windows ganha um novo Copilot
A Microsoft lançou o Bing Chat no início do ano, mas a empresa não ficou parada. Seguiu-se esse movimento com o Copilot , um uso muito mais expansivo de IA que foi incorporado aos produtos da Microsoft, que foi anunciado pela primeira vez para o Microsoft 365 Copilot.
Enquanto o Bing Chat era um chatbot simples, o Copilot é mais um assistente digital. Ele está integrado em vários aplicativos da Microsoft, como Word e Teams, bem como no próprio Windows 11 . Ele pode criar imagens, resumir reuniões, encontrar informações e enviá-las para outros dispositivos e muito mais. A ideia é economizar tempo e esforço em tarefas demoradas, automatizando-as para você. Na verdade, o Bing Chat foi incluído sob a égide do Copilot em novembro.
Ao integrar o Copilot tão firmemente no Windows 11, a Microsoft não apenas indicou sua filosofia completa em relação à IA, mas lançou o desafio à Apple e ao seu sistema operacional rival macOS. Até agora, a vantagem está com a Microsoft, especialmente quando esperamos o lançamento do Windows 12 em 2024 .
O mundo acadêmico luta com IA
Dada a rapidez com que a IA explodiu em cena, você seria perdoado por não entender bem como tudo funciona. Mas essa falta de conhecimento teve consequências reais para os alunos da Texas A&M University–Commerce quando um professor reprovou toda a turma por aparentemente usar o ChatGPT para escrever seus trabalhos – apesar de não haver evidências de que os alunos realmente fizessem isso.
O problema surgiu quando o Dr. Jared Mumm copiou e colou os trabalhos dos alunos no ChatGPT e depois perguntou ao chatbot se ele poderia ter gerado o texto, ao que o ChatGPT respondeu afirmativamente. O problema? Na verdade, o ChatGPT não consegue detectar plágio de IA dessa forma.
Para ilustrar esse ponto, os usuários do Reddit pegaram a carta do próprio Dr. Mumm aos alunos, na qual ele os acusava de trapacear, colaram-na no ChatGPT e perguntaram ao chatbot se ele poderia ter escrito a carta. A resposta? “Sim, escrevi o conteúdo que você compartilhou”, mentiu ChatGPT. Se você quer o exemplo perfeito de uma alucinação de IA e de uma confusão humana em torno de suas habilidades, é isso.
Hollywood x IA
Já está claro que a inteligência artificial é incrivelmente capaz, mas é exatamente por essa razão que um grande número de pessoas em todo o mundo estão tão preocupadas com ela. Um relatório afirmou, por exemplo, que até 300 milhões de empregos poderiam ser destruídos pela IA se o seu desenvolvimento não fosse controlado. Esse tipo de preocupação motivou os escritores de Hollywood a atacarem o medo de que os chefes dos estúdios os substituíssem pela IA.
O sindicato dos roteiristas – o Writers Guild of America (WGA) – entrou em greve por quase cinco meses por causa do assunto, começando em maio e terminando em setembro, quando finalmente ganhou concessões significativas dos estúdios. Estas incluíam disposições de que a IA não seria usada para escrever ou reescrever material, de que o conteúdo dos redatores não poderia ser usado para treinar IA e muito mais. Foi uma vitória significativa para os trabalhadores afectados, mas dada a forma como o desenvolvimento da IA continua a acelerar, provavelmente não será o último confronto entre a IA e as pessoas que afecta.
A saga de Sam Altman
Sam Altman, CEO da OpenAI, tem sido a face visível de toda a indústria de IA desde que o ChatGPT explodiu na consciência mundial. No entanto, tudo isso desabou um dia de novembro, quando ele foi demitido sem cerimônia da OpenAI – para total surpresa dele e do mundo em geral.
O conselho da OpenAI o acusou de “não ser consistentemente sincero” em suas negociações com a empresa. No entanto, a reação foi rápida e forte, com a maioria dos funcionários da empresa ameaçando abandonar o cargo se Altman não fosse reintegrado. A Microsoft, investidora da OpenAI, ofereceu empregos a Altman e a qualquer outra pessoa da OpenAI que quisesse ingressar e, por um momento, parecia que a empresa de Altman estava à beira do colapso.
Então, tão rapidamente quanto saiu, Altman foi reintegrado, com muitos membros do conselho expressando pesar por todo o incidente. A internet assistiu com a respiração suspensa em tempo real ao desenrolar dos acontecimentos, com uma pergunta singular percorrendo todo o circo: Por quê? Será que Altman realmente se deparou com um desenvolvimento na IA que causou sérias preocupações éticas? O Projeto Q* estava prestes a alcançar o AGI ? Havia uma disputa de poder no estilo Game of Thrones ou Altman era realmente apenas um mau chefe ?
Talvez nunca saibamos toda a verdade. Mas nenhum outro momento em 2023 resumiu a histeria, o fascínio e o pensamento conspiratório causado pela IA este ano.