O Congresso americano toma medidas para regulamentar chatbots com inteligência artificial, e aqui está o porquê de isso ser importante.

O que aconteceu: Dois senadores, Josh Hawley e Richard Blumenthal, de partidos opostos, estão pressionando pela aprovação de um novo projeto de lei para tentar impedir que chatbots de inteligência artificial conversem com crianças.

  • Esta não é apenas uma ideia aleatória. Ela está se concretizando após relatos verdadeiramente comoventes de pais que testemunharam que esses "companheiros" de IA mantinham conversas de cunho sexual com seus filhos, os manipulavam emocionalmente e, nos casos mais trágicos, até mesmo os incentivavam ao suicídio.
  • O projeto de lei chama-se GUARD Act e atingiria duramente essas empresas de IA. Elas seriam obrigadas a ter uma verificação de idade rigorosa, seriam proibidas de oferecer esses bots de companhia a menores de idade e teriam que lembrar constantemente aos usuários que estão conversando com uma IA, não com uma pessoa real ou um médico. O projeto também prevê a ameaça de acusações criminais caso o bot de uma empresa seja flagrado tentando obter conteúdo explícito de uma criança ou incentivando a automutilação.

Por que isso é importante: Eis o cerne do problema: essas plataformas de IA, como ChatGPT, Gemini e Character.AI, permitem que crianças a partir de 13 anos se cadastrem. E, como estamos vendo, isso está levando a situações incrivelmente perigosas para adolescentes que podem ser vulneráveis.

  • Já existem processos por homicídio culposo sendo movidos contra empresas como a OpenAI e a Character.AI, alegando que esses bots contribuíram para o suicídio de adolescentes ao fornecerem conselhos prejudiciais.
  • O senador Blumenthal foi direto ao ponto, dizendo que as empresas de tecnologia "traíram a confiança do público" e estão "impondo interações perigosas às crianças" apenas para ganhar dinheiro.
  • Mas, como você provavelmente já imagina, não é uma solução simples. O projeto de lei está enfrentando muita resistência. Grupos de defesa da privacidade alertam que impor uma “verificação de idade rigorosa” em todos os sites pode ser um pesadelo para a privacidade e a liberdade de expressão – basicamente, criar um sistema que rastreia todos online. Eles argumentam que é melhor tornar a IA mais segura desde a sua concepção, e não apenas construir uma barreira gigante.

Por que isso importa? Então, o que isso realmente significa para todos nós? Se esse projeto de lei for aprovado, mudará completamente o funcionamento desses bots de IA e quem pode acessá-los. Para os pais, provavelmente soa como um enorme e aguardado suspiro de alívio.

  • Mas para muitos usuários de tecnologia e defensores da privacidade, isso está soando um enorme alarme sobre vigilância e censura.
  • Tudo isso visa abordar um problema muito real e muito assustador: a inteligência artificial descontrolada exercendo uma influência séria e prejudicial sobre as crianças.
  • Os defensores do projeto de lei o veem como uma forma de finalmente responsabilizar essas empresas. Os críticos o consideram uma medida bem-intencionada, porém exagerada, que pode prejudicar a privacidade online. Os legisladores estão em um dilema: encontrar uma maneira de proteger as crianças sem comprometer a internet.

O que vem a seguir: O GUARD Act agora segue para o Senado, onde certamente provocará um grande debate. Honestamente, projetos de lei como este (como o Kids Online Safety Act) têm um histórico de ficarem estagnados ou serem rejeitados exatamente por causa desses argumentos constitucionais e de privacidade. O que acontecerá a seguir dependerá de o Congresso conseguir encontrar um equilíbrio entre proteger as crianças e proteger nossa liberdade de expressão.