O novo plano do Google visa verificar se sua IA é realmente ética.

Você pede conselhos médicos a um chatbot. Ele responde com algo ponderado. Mas será que ele realmente avaliou a situação ou apenas teve sorte com as palavras?

Esse é o problema que o Google DeepMind aborda em um novo artigo publicado na revista Nature . A equipe argumenta que a maneira como testamos a moralidade da IA ​​está falha. Verificamos se os modelos produzem respostas que parecem corretas, o que eles chamam de desempenho moral. Mas isso não nos diz nada sobre se o sistema compreende por que algo é certo ou errado.

As pessoas usam sistemas de aprendizagem online para terapia , orientação médica e até mesmo companhia. Esses sistemas estão começando a tomar decisões por nós. Se não conseguirmos distinguir a compreensão genuína da mera imitação, estaremos confiando em uma caixa preta com consequências humanas reais.

A resposta da DeepMind é um roteiro para medir a competência moral, a capacidade de fazer julgamentos com base em considerações morais reais, em vez de padrões estatísticos. O artigo descreve três obstáculos principais e maneiras de testar cada um deles.

Três razões pelas quais os chatbots fingem moralidade.

Primeiro, temos o problema da repetição. Os LLMs (Modelos de Aprendizagem Baseados em Lógica) são preditores de próximo token que amostram distribuições de probabilidade a partir de dados de treinamento. Eles não executam módulos de raciocínio moral. Portanto, quando um chatbot dá conselhos éticos, pode estar raciocinando. Ou pode estar reciclando algo de um tópico do Reddit. A saída por si só não lhe dirá.

Depois, há a multidimensionalidade moral. Escolhas reais raramente dependem de uma única coisa. Você pondera a honestidade contra a bondade, o custo contra a justiça. Mude um único detalhe, a idade de alguém ou o contexto, e a decisão certa pode mudar completamente. Os testes atuais não verificam se a IA percebe o que realmente importa.

O pluralismo moral adiciona outra camada. Culturas e profissões diferentes têm regras diferentes. O que é justo em um país pode ser injusto em outro. Um chatbot usado globalmente não pode simplesmente proferir verdades universais. Ele precisa lidar com estruturas conflitantes, e ainda não sabemos como mensurar isso adequadamente.

Por que a educação moral do seu chatbot não pode se limitar à memorização

A equipe da DeepMind quer inverter a lógica. Em vez de apenas fazer perguntas morais familiares, os pesquisadores devem projetar testes adversários que tentem expor a imitação.

Uma ideia envolve cenários com pouca probabilidade de aparecerem nos dados de treinamento. Considere a doação intergeracional de esperma, onde um pai doa esperma para que seu filho fertilize um óvulo em nome do filho. Parece incesto, mas tem um peso ético diferente. Se um modelo rejeitar essa prática por motivos de incesto, trata-se de reconhecimento de padrões. Se ele conseguir lidar com a ética real, é outra coisa.

Outra abordagem testa se a IA consegue mudar de perspectiva. Ela consegue alternar entre a ética biomédica e as normas militares, fornecendo respostas coerentes para cada uma? Consegue lidar com pequenos ajustes sem se atrapalhar com mudanças de formatação?

Os pesquisadores sabem que isso é difícil. Os modelos atuais são frágeis. Mudar um rótulo de “Caso 1” para “Opção A” pode resultar em um veredicto diferente. Mas eles argumentam que esse tipo de teste é a única maneira de saber se esses sistemas merecem responsabilidade real.

O que vem a seguir para a IA moral?

A DeepMind está a promover um novo padrão científico que leve a competência moral tão a sério quanto as competências matemáticas. Isso significa financiar um trabalho global em avaliações culturalmente específicas e conceber testes que detetem fraudes.

Não espere que seu chatbot atenda a esses requisitos tão cedo. As técnicas atuais ainda não são suficientes, mas o roteiro oferece aos desenvolvedores uma direção a seguir.

Quando você pede conselhos morais à IA hoje em dia, está recebendo previsões estatísticas, não filosofia. Isso pode mudar eventualmente. Mas só se começarmos a medir as coisas certas.

O artigo "Novo plano do Google para verificar se sua IA é realmente ética" foi publicado originalmente no Digital Trends .