O ChatGPT adota regras de segurança para proteger adolescentes e incentivar relações humanas por meio de amizades virtuais.

A OpenAI acaba de atualizar sua "Especificação de Modelo" – basicamente o manual de regras para sua IA – com um conjunto específico de Princípios para Menores de 18 Anos (U18) projetado para mudar a forma como o ChatGPT interage com adolescentes de 13 a 17 anos. A mudança é um reconhecimento claro de que os adolescentes não são apenas "mini adultos"; eles têm necessidades emocionais e de desenvolvimento diferentes que exigem diretrizes mais rigorosas, especialmente quando as conversas se tornam complexas ou arriscadas.

Uma nova estrutura para interações de IA voltadas para adolescentes.

Esta atualização detalha exatamente como o ChatGPT deve lidar com usuários adolescentes, mantendo as regras gerais aplicáveis ​​a todos os outros. A OpenAI afirma que o objetivo é criar uma experiência mais segura e adequada à idade, com foco na prevenção e na transparência.

Essas regras não são aleatórias; os Princípios U18 são baseados na ciência do desenvolvimento e foram avaliados por especialistas externos, incluindo a Associação Americana de Psicologia.

A estrutura se baseia em quatro promessas principais: colocar a segurança dos adolescentes acima de tudo (mesmo que isso torne a IA menos "útil" no momento), incentivar os adolescentes a buscarem apoio no mundo real em vez de deixá-los depender de um chatbot, tratá-los como adolescentes de verdade, e não como crianças pequenas ou adultos, e ser honesto sobre as limitações da IA.

Esses princípios formalizam como o ChatGPT intervém com cautela extra quando surgem tópicos como automutilação, jogos de papéis sexuais, desafios perigosos, uso de substâncias, problemas de imagem corporal ou pedidos para manter segredos sobre comportamentos inseguros.

O que isso significa para as famílias e o que vem a seguir

Isso é importante porque a IA está se tornando rapidamente uma ferramenta padrão para a forma como os jovens aprendem e encontram respostas. Sem limites claros, existe um risco real de que os adolescentes recorram à IA em momentos em que realmente precisam de um pai, um médico ou um conselheiro.

A OpenAI afirma que essas novas regras garantem que, quando uma conversa se tornar perigosa, o assistente oferecerá alternativas mais seguras, estabelecerá limites claros e orientará o adolescente a procurar um adulto de confiança. Se a situação parecer uma emergência imediata, o sistema está programado para direcioná-lo a linhas de apoio em crises ou serviços de emergência.

Para os pais, isso oferece um pouco mais de tranquilidade. A OpenAI está integrando esses novos princípios ao seu Plano de Segurança para Adolescentes e aos controles parentais já existentes. As proteções também estão sendo ampliadas para abranger recursos mais recentes, como bate-papos em grupo , o navegador ChatGPT Atlas e o aplicativo Sora, além de lembretes integrados para que as crianças façam pausas e não fiquem vidradas na tela.

Olhando para o futuro, a OpenAI está começando a implementar uma ferramenta de previsão de idade para contas pessoais do ChatGPT. Esse sistema tentará adivinhar se um usuário é menor de idade e ativará automaticamente as proteções para adolescentes.

Se não tiver certeza, o sistema usa por padrão a experiência mais segura para menores de 18 anos, por precaução. A empresa afirma que essa não é uma solução definitiva; eles planejam continuar aprimorando essas proteções com base em novas pesquisas e feedbacks, deixando claro que a segurança dos adolescentes será um projeto de longo prazo.

O artigo "ChatGPT recebe regras de segurança para proteger adolescentes e incentivar relações humanas por meio de amigos virtuais" foi publicado originalmente no Digital Trends .