Este é o erro surpreendente em que todos os modelos de IA caem: a razão para nunca confiar no que dizem

A revolução tecnológica está próxima: aqui está o assistente de voz que analisa seus erros.

Assistentes de voz como Siri, Alexa e Google Assistant já fazem parte do dia a dia de muitas pessoas. Eles são projetados para realizar tarefas específicas, como responder perguntas ou controlar dispositivos domésticos, mas sua capacidade de resposta costuma ser confundida com o raciocínio real. Na realidade, estes sistemas não “pensam” como um ser humano faria; eles simplesmente seguem comandos e retornam resultados com base no que aprenderam com os dados aos quais têm acesso.

Esses assistentes de voz, embora extraordinariamente úteis, ainda apresentam algumas limitações . Um dos principais problemas diz respeito à precisão das suas respostas. Às vezes, eles podem fornecer informações imprecisas ou até erradas, dando a ilusão de compreender uma questão quando, na realidade, não a processam totalmente. Isso se deve à forma como tratam as informações: em vez de “compreender”, simplesmente reprocessam os dados , tentando retornar a informação mais provável com base no que foi perguntado.

Apesar das expectativas de maior precisão, estes sistemas ainda estão longe da inteligência artificial geral (AGI), uma tecnologia hipotética capaz de pensar, aprender e se adaptar como um ser humano. Embora Siri ou Google Assistant possam parecer inteligentes , seu funcionamento ainda depende de modelos de linguagem predefinidos e não do processamento autônomo de pensamentos ou raciocínios complexos.

No entanto, estão a surgir novos modelos de IA que procuram reduzir estes problemas. Entre estes destaca-se um modelo inovador, apelidado de “SIRI.O1” . Este sistema apresenta um método interessante para melhorar a precisão das respostas: revisar o que diz antes de fornecê-lo ao usuário.

Uma técnica para reduzir erros em chatbots

O novo modelo SIRI.O1 não é uma inteligência artificial geral, mas a sua abordagem iterativa representa algo novo . Em vez de dar uma resposta imediata, o modelo leva tempo para analisar as informações, verificar possíveis erros e revisar o resultado antes de fornecê-lo ao usuário. Esta etapa simples ajuda a reduzir erros , mesmo nos casos em que os modelos anteriores teriam falhado.

Um exemplo clássico é contar as letras de uma palavra. Modelos como o GPT-4 tendem a cometer erros em tarefas triviais, pois tratam o texto de maneira diferente de um ser humano. SIRI.O1, entretanto, revisa sua saída e corrige quaisquer imprecisões. Este processo iterativo revela-se essencial em cenários onde é preferível sacrificar alguma velocidade pela precisão.

Criança segurando um balão de fala
Criança com balão de fala (Depositphotos) – www.systemscue.it

Aplicações e perspectivas futuras

As aplicações de um modelo como o SIRI.O1 são numerosas e abrangem vários setores. Um campo onde isso poderia ter um impacto significativo é a programação , onde mesmo pequenos erros podem retardar ou complicar o trabalho dos desenvolvedores. A capacidade do modelo de rever de forma independente as suas respostas e corrigir quaisquer imprecisões torna-o uma ferramenta particularmente valiosa. Isso resulta em soluções mais precisas e oportunas , melhorando a eficiência em tarefas que exigem alta precisão, como depuração de código ou análise de dados complexos.

Além do mundo da programação, o SIRI.O1 pode encontrar aplicações em áreas como a pesquisa médica , onde respostas incorretas ou imprecisas podem ter consequências críticas. Mesmo em contextos como o atendimento ao cliente , onde os chatbots são utilizados para interagir diretamente com os clientes, a precisão das respostas é crucial. A redução de erros nas respostas poderia, de facto, melhorar significativamente a experiência do utilizador, aumentando a confiança nestes sistemas.

O artigo Este é o erro surpreendente em que todos os modelos de IA caem: a razão para nunca confiar no que dizem foi escrita em: Tech CuE | Engenharia de perto .