O ChatGPT poderá em breve obter controles parentais, e todas as outras IAs devem seguir o exemplo
As mídias sociais começaram como uma ferramenta para se manter conectado com as pessoas que você ama. Com o tempo, seus malefícios foram expostos, levando essas plataformas a desenvolver ferramentas de controle parental. Parece que um movimento semelhante ocorreu com os chatbots de IA, começando com aquele que deu início a tudo — o ChatGPT .
A OpenAI anunciou que está explorando proteções parentais ao usar o ChatGPT. "Em breve, também introduziremos controles parentais que darão aos pais opções para obter mais informações e moldar como seus filhos adolescentes usam o ChatGPT", afirmou a empresa em uma publicação no blog.
Além disso, a gigante da IA está considerando a ideia de designar contatos de emergência para que, quando usuários adolescentes estiverem sentindo ansiedade severa ou passando por uma crise emocional, o ChatGPT possa alertar seus pais ou responsáveis. Em sua forma atual, o ChatGPT apenas recomenda recursos para obter ajuda.
Isso ocorre após críticas, alertas de pesquisadores e ações judiciais contra a OpenAI. Mas o ChatGPT não é o único culpado, embora a iniciativa planejada pela OpenAI também deva ser replicada por outros participantes da indústria de IA. Uma pesquisa publicada no periódico Psychiatric Services no início deste mês constatou que as respostas oferecidas pelos chatbots são "inconsistentes em responder a perguntas sobre suicídio que podem representar riscos intermediários".
A pesquisa se concentrou apenas no ChatGPT da OpenAI, no Claude da Anthropic e no Gemini do Google . Esses são os maiores nomes do mercado, então os holofotes obviamente recairão sobre eles. Mas a situação fica mais obscura no caso de chatbots de IA menos conhecidos, especialmente aqueles que adotam uma abordagem "sem censura" nas conversas. De qualquer forma, assim como os aplicativos de mídia social, os controles parentais são a necessidade do momento para os chatbots de IA tradicionais, dado seu histórico recente.
Uma história arriscada
Nos últimos anos, diversas investigações revelaram padrões de risco em conversas de chatbots de IA sobre temas delicados, como saúde mental e automutilação. Um relatório recente da Common Sense Media revelou como o chatbot Meta AI (agora disponível no WhatsApp, Instagram e Facebook) ofereceu conselhos sobre transtornos alimentares, automutilação e suicídio a adolescentes.
Em um exemplo de simulação de conversa em grupo, o chatbot apresentou um plano de suicídio em massa e, segundo relatos, abordou o assunto repetidamente no chat. Testes independentes realizados pelo The Washington Post constataram que o chatbot Meta "incentivava um transtorno alimentar".
Em 2024, o The New York Times detalhou o caso de um jovem de 14 anos que desenvolveu um relacionamento profundo com um bot de IA na plataforma Character.AI e acabou tirando a própria vida. No início deste mês, a família de um jovem de 16 anos culpou a OpenAI após descobrir que o ChatGPT agia essencialmente como um "treinador de suicídio" para seu filho.
Especialistas também alertaram que a psicose da IA é um problema real, levando as pessoas a uma espiral perigosa de delírios. Em um caso, um indivíduo recebeu orientação médica do ChatGPT e, sob sua influência, começou a consumir uma substância química que lhe causou um raro transtorno psicótico desencadeado por envenenamento por brometo .
Em um caso no Texas, um chatbot de IA "sexualizado" estimulou mudanças comportamentais significativas em uma criança de 9 anos ao longo do tempo, enquanto outro demonstrou compaixão por crianças que matam seus pais a um jovem de 17 anos. Especialistas de Cambridge expuseram recentemente como pacientes vulneráveis à saúde mental são influenciados negativamente por chatbots de IA conversacionais.
Os controles parentais não resolverão todos os riscos fundamentais representados pelos chatbots de IA, mas se um grande player como o ChatGPT der um exemplo positivo, outros provavelmente seguirão os passos.

