Com milhões de usuários diários — quase metade com menos de 13 anos —, Roblox se tornou um dos ambientes digitais mais populares entre crianças. Mas com essa popularidade vêm também desafios sérios: exposição a conteúdo inapropriado, contatos com adultos e riscos de aliciamento. Em resposta, a empresa aposta em inteligência artificial para tornar o espaço mais seguro, ainda que o problema esteja longe de uma solução definitiva.
Sentinel: a IA que vigia bilhões de mensagens por dia

Para reforçar a segurança de seus usuários mais jovens, a Roblox lançou o Roblox Sentinel, um sistema de inteligência artificial capaz de analisar, em tempo real, mais de 6 bilhões de mensagens de chat por dia. A IA captura trechos de conversas a cada minuto e os compara com padrões associados a comportamentos perigosos, como aliciamento ou abuso.
Treinada com base em mensagens que violaram as diretrizes de proteção infantil, a Sentinel não apenas monitora, mas também aciona protocolos automáticos. Quando detecta uma situação suspeita, alerta os moderadores da empresa, que podem encaminhar os casos diretamente às autoridades, como o Centro Nacional para Crianças Desaparecidas e Exploradas, nos Estados Unidos.
Segundo a Roblox, em 2025 a IA foi responsável por identificar 1.200 casos de possível exploração infantil que foram oficialmente reportados. Como parte do compromisso com a segurança digital, a empresa também disponibilizou a Sentinel como software de código aberto, incentivando outras plataformas a adotar soluções semelhantes.
Segurança além do chat: novos filtros e verificação de idade
A Sentinel faz parte de uma estratégia mais ampla. Em julho de 2025, a Roblox passou a utilizar IA para moderar conteúdos em tempo real, em 25 idiomas diferentes, cobrindo jogos, descrições, interações e áudios. Além disso, foram introduzidas ferramentas de verificação de idade para adolescentes que usam o chat — uma tentativa de impedir que adultos interajam com menores sem controle.
A empresa afirma ter implementado mais de 40 melhorias de segurança só em 2024 e garante que continuará priorizando a proteção infantil. No entanto, mesmo com os avanços, ainda há brechas preocupantes no sistema.
Os riscos que ainda cercam as crianças no Roblox
Uma investigação conduzida pela consultoria britânica Revealing Reality revelou que, mesmo com as medidas implementadas, crianças ainda conseguem acessar ambientes virtuais com conteúdo sexualizado, manter conversas privadas com adultos e serem expostas a situações perigosas.
Os testes simularam perfis de crianças entre 5 e 13 anos e constataram que as ferramentas de controle parental e restrições de chat têm falhas. Usuários menores de idade ainda podem ser contatados por estranhos e participar de experiências nas quais a classificação não condiz com o conteúdo real.
Além do conteúdo textual, o estudo registrou representações gráficas de atos sexualizados, conversas com conteúdo adulto via chat de voz, além de casos de assédio e tentativa de manipulação psicológica por parte de adultos. Em alguns episódios, informações pessoais foram solicitadas e repassadas, mesmo com os filtros ativados.
Especialistas pedem mais do que tecnologia
Diante dos resultados, especialistas e ativistas argumentam que a autorregulação das plataformas é insuficiente. Damon De Ionno, diretor da Revealing Reality, afirmou que “as novas funções de segurança não são suficientes” e que “não se pode esperar que as famílias monitorem milhões de experiências com ferramentas limitadas”.
Relatos de crianças com crises de ansiedade, vítimas de grooming e outros traumas reforçam a necessidade de políticas públicas e regulamentações mais rígidas. Embora a Roblox demonstre empatia e compromisso com melhorias, a verificação eficaz da idade de menores ainda é um desafio técnico e ético em todo o setor.
A tecnologia pode ajudar — e muito —, mas sozinha não dá conta de um problema estrutural. A segurança online das crianças exige esforço coletivo: empresas, autoridades e famílias precisam agir juntos para transformar promessas em proteção real.
[ Fonte: Infobae ]