Chatbots de IA adequados apenas para adultos ainda estão aparecendo em brinquedos infantis.

Um novo relatório do Fundo Educacional do Grupo de Pesquisa de Interesse Público dos EUA (PIRG) expressou preocupação com o crescente uso de chatbots de inteligência artificial em brinquedos infantis, alertando que alguns desses sistemas podem não ser adequados para crianças. De acordo com o relatório , diversos brinquedos com inteligência artificial integram tecnologia de chatbot que pode gerar respostas semelhantes às utilizadas em serviços de IA voltados para adultos, expondo potencialmente as crianças a conteúdo inadequado ou enganoso.

O estudo examinou uma variedade de brinquedos que incorporam recursos de IA conversacional, incluindo bonecas interativas, robôs e dispositivos educativos. Muitos desses produtos permitem que as crianças conversem com um brinquedo que responde em linguagem natural, utilizando grandes modelos de linguagem semelhantes aos usados ​​em chatbots de IA amplamente disponíveis.

Embora a tecnologia possa tornar os brinquedos mais interativos e educativos, os pesquisadores do PIRG argumentam que as medidas de segurança incorporadas em alguns produtos podem não ser suficientemente robustas para proteger o público infantil. Em particular, o relatório destaca que os sistemas de IA subjacentes muitas vezes têm origem em plataformas projetadas principalmente para o público em geral, e não para crianças.

Por isso, as respostas de IA geradas por esses brinquedos podem incluir informações ou temas de conversa mais apropriados para adultos do que para crianças. O relatório também alerta que a IA pode produzir respostas imprecisas ou imprevisíveis, o que poderia confundir os usuários mais jovens, que tendem a confiar nos brinquedos como fontes confiáveis ​​de informação.

Pesquisadores que analisaram a documentação e as políticas de privacidade dos brinquedos também descobriram que alguns produtos dependem fortemente de sistemas de IA baseados em nuvem.

Isso significa que as interações de voz das crianças podem ser transmitidas para servidores externos, onde os dados são processados ​​e usados ​​para gerar respostas. Defensores da privacidade afirmam que isso levanta preocupações adicionais sobre como os dados das crianças são armazenados e usados. Alguns brinquedos podem coletar gravações de áudio, comandos do usuário ou outras informações pessoais durante as conversas. Se esses sistemas não forem cuidadosamente projetados com proteções à privacidade infantil, os dados podem ser usados ​​indevidamente ou armazenados sem salvaguardas claras.

O relatório também destaca que muitos brinquedos com inteligência artificial incluem avisos legais ocultos em seus termos de serviço ou documentação do produto. Esses avisos, por vezes, afirmam que as respostas da IA ​​podem nem sempre ser precisas ou apropriadas, transferindo, na prática, a responsabilidade para os pais, embora o brinquedo em si seja comercializado diretamente para as crianças.

Essa situação é importante porque a tecnologia de IA está cada vez mais presente em produtos de consumo do dia a dia, incluindo itens projetados especificamente para o público infantil. Brinquedos que simulam conversas podem ter uma influência poderosa sobre as crianças, que muitas vezes os consideram companheiros ou ferramentas de aprendizado.

Especialistas afirmam que as crianças podem ter dificuldade em distinguir entre informações confiáveis ​​e respostas geradas por IA que sejam especulativas, tendenciosas ou incorretas. À medida que os sistemas de IA continuam a evoluir, garantir que essas tecnologias sejam adaptadas para a segurança infantil se tornará cada vez mais importante.

Os resultados também destacam um desafio regulatório mais amplo.

Embora muitos países possuam leis destinadas a proteger a privacidade online das crianças, como a Lei de Proteção da Privacidade Online das Crianças (COPPA) nos Estados Unidos, essas regulamentações foram desenvolvidas antes do surgimento da IA ​​generativa .

Grupos de defesa argumentam que os órgãos reguladores podem precisar atualizar os padrões e diretrizes de segurança para abordar como os sistemas de IA interagem com crianças por meio de dispositivos conectados.

O relatório da PIRG apela aos fabricantes de brinquedos para que implementem salvaguardas mais rigorosas, incluindo filtragem de conteúdo mais estrita, divulgação mais clara sobre o uso de IA e práticas de dados mais transparentes. Recomenda ainda que as empresas desenvolvam sistemas de IA especificamente para crianças, em vez de reaproveitar modelos originalmente criados para o público adulto.

Olhando para o futuro, os pesquisadores afirmam que a colaboração entre empresas de tecnologia, órgãos reguladores e especialistas em segurança infantil será necessária para garantir que os brinquedos com inteligência artificial permaneçam inovadores e seguros.

À medida que a inteligência artificial se integra cada vez mais aos produtos do dia a dia, o desafio será equilibrar os benefícios da tecnologia interativa com a responsabilidade de proteger os usuários mais jovens de possíveis riscos.

O artigo "Chatbots de IA adequados apenas para adultos ainda estão aparecendo em brinquedos infantis" foi publicado originalmente no Digital Trends .