Esperando que a IA resolva seus problemas amorosos? A história deste ator mostra o contrário.
Se você espera que a IA possa salvar sua vida amorosa , o experimento mais recente de Rhik Samadder provavelmente é o choque de realidade que você precisa.
Em seu mais recente relato em primeira pessoa, Samadder decidiu deixar a IA assumir o controle de sua vida amorosa como parte de um experimento mais amplo de seis semanas. Isso o levou a delegar partes de sua rotina diária a chatbots de IA , incluindo a criação de seu perfil em aplicativos de namoro, auxílio com mensagens, escolha de roupas e até mesmo sugestões de conversa durante um encontro real. O resultado foi menos um sucesso romântico e mais um desastre social.
Quão ruim poderia ser?
O primeiro sinal de alerta surgiu cedo. Samadder pediu à IA para escrever seu perfil de namoro, e ela produziu um texto polido e peculiar sobre ser um "tipo criativo com um núcleo nerd" e capaz de trazer "reviravoltas na trama". Isso imediatamente levantou suspeitas, mas o desconforto só aumentou quando o chatbot começou a conduzir a interação.
Para seu crédito, Samadder foi sincero com sua pretendente sobre o experimento. Ele disse a ela que a IA o ajudaria a escrever suas mensagens, escolher o encontro e fornecer sugestões para a conversa. Ela concordou em participar, o que já é mais generoso do que a maioria das pessoas seria.
O verdadeiro problema não eram as palavras. Era a atmosfera.
Assim que o encontro começou, os conselhos do chatbot se tornaram dolorosamente constrangedores. Samadder elogiou o cabelo da sua acompanhante dizendo que tinha "pura energia A24", e então teve que literalmente se virar e pedir à IA que explicasse o que isso significava quando ela pareceu confusa. Mais tarde, ele tentou outra cantada da IA sobre o pioneiro da televisão John Logie Baird morar no bairro dela, que novamente não funcionou.
Seu encontro logo percebeu o problema. Ela disse que as mensagens geradas por IA soavam emocionalmente inteligentes, mas faltava autenticidade . Ela até resumiu perfeitamente dizendo: "Você soa como um terapeuta que foi expulso da profissão."
Portanto, a conclusão é clara. A IA pode simular confiança, mas não pode criar química.

