O Roblox agora usa moderação por IA para bloquear conteúdo prejudicial antes que ele chegue até você.

Se você já jogou Roblox , sabe o quão imprevisível e caótica a plataforma pode ser. Agora, o Roblox está usando essa mesma imprevisibilidade como justificativa para reformular a maneira como modera o conteúdo.

A plataforma acaba de lançar um sistema de moderação de IA multimodal em tempo real que não apenas examina instâncias individuais, mas também analisa cenas inteiras do jogo em tempo real para detectar conteúdo que passou pelos filtros anteriores.

Como funciona a nova moderação por IA do Roblox?

Diferentemente das ferramentas de moderação mais antigas, que avaliavam um objeto por vez, o novo sistema multimodal analisa toda a cena, incluindo avatares, texto e objetos 3D, para determinar se a combinação completa viola os Padrões da Comunidade do Roblox.

Por exemplo, imagine alguém usando uma ferramenta de desenho livre para esboçar um símbolo ofensivo — o tipo de símbolo que não acionaria uma verificação de item único, mas que é obviamente problemático dentro do contexto.

Quando violações repetidas são detectadas em uma única instância do jogo, o sistema desliga apenas aquele servidor, em vez de todo o jogo. Desde o lançamento, aproximadamente 5.000 servidores são desligados todos os dias.

A Roblox está trabalhando para monitorar 100% do tempo de jogo com esse sistema. Além do desligamento dos servidores, a empresa também está desenvolvendo ferramentas para identificar e remover jogadores mal-intencionados sem prejudicar a experiência dos demais.

O que isso significa para os criadores do Roblox?

Os criadores também não ficam no escuro. Um novo gráfico dentro do Painel do Criador mostra agora quantos servidores do seu jogo foram desligados em um determinado dia devido ao mau comportamento dos usuários.

Picos nesse número podem sinalizar um problema que vale a pena investigar, dando aos criadores a chance de revisar e ajustar elementos como emotes personalizados ou ferramentas de construção dentro do jogo antes que a situação piore.

Um novo programa de certificação para promover a limpeza dos jogos online.

A Roblox também está abordando um problema maior do setor. Em parceria com a Keyword Studios e a Riot Games, está desenvolvendo o Programa de Liderança por DLC para gerentes e moderadores de comunidades online.

A psicóloga pesquisadora Rachel Kowert, que atua como Diretora de Pesquisa na Games for Change, está liderando o lado acadêmico. O objetivo é criar um treinamento padronizado e baseado em evidências para pessoas que gerenciam comunidades de jogos, algo que a indústria nunca teve antes.

O Roblox também vem reforçando suas medidas de segurança há algum tempo, desde controles parentais até filtros de bate-papo baseados em idade , e a atualização mais recente é a sua iniciativa mais ambiciosa até o momento.