Nos últimos anos, o debate sobre o impacto das redes sociais na saúde mental de adolescentes ganhou força no mundo todo. Casos de depressão, ansiedade, automutilação e uso compulsivo passaram a ser associados ao design de certas plataformas digitais. Agora, gigantes da tecnologia decidiram se submeter a uma avaliação externa padronizada que promete lançar mais luz sobre suas práticas de proteção a jovens usuários.
O que é o Safe Online Standard (SOS)
Empresas como Meta, TikTok, YouTube, Roblox, Snap, Discord, Pinterest e Twitch aderiram voluntariamente ao Safe Online Standard (SOS).
O projeto conta com o respaldo da Mental Health Coalition e é apresentado como o primeiro sistema internacional de padrões voltado especificamente para avaliar o bem-estar digital de adolescentes entre 13 e 19 anos.
As companhias participantes deverão entregar documentação detalhada sobre suas políticas de uso, mecanismos de segurança, funcionamento de algoritmos e sistemas de moderação. Esse material será analisado por um comitê formado por especialistas acadêmicos e representantes de instituições como a American Psychological Association, a Child Mind Institute e a International Society for Technology in Education.
Como funcionará a avaliação

O sistema prevê a participação de múltiplos atores: adolescentes, pais, organizações de saúde mental e pessoas com experiência direta no uso dessas plataformas. Esses grupos poderão enviar relatórios sobre sua percepção em relação ao design das ferramentas digitais, às configurações de privacidade e à eficácia da moderação de conteúdo.
Entre os critérios analisados estão:
- Clareza e acessibilidade das políticas
- Estrutura dos algoritmos e design das funcionalidades
- Transparência e governança
- Programas de alfabetização digital
- Estratégias de moderação de conteúdo
Com base nesses parâmetros, cada serviço poderá receber uma de três classificações.
A categoria “Use com cuidado” será atribuída às plataformas que adotem filtros eficazes contra conteúdos prejudiciais, ofereçam configurações de privacidade padrão robustas e publiquem relatórios de transparência.
Já a classificação “Proteção parcial” identificará empresas que possuam ferramentas de segurança, mas com acesso complexo ou pouco intuitivo. Também entram nessa categoria serviços que utilizem recursos como rolagem infinita — o chamado doomscrolling — associado ao aumento do tempo de uso e ao estresse.
Por fim, o selo “Não atende aos padrões” será aplicado a companhias cujos mecanismos não bloqueiem de forma confiável conteúdos nocivos, apresentem falhas de transparência ou ofereçam salvaguardas frágeis de privacidade.
Pressão judicial e crise reputacional
A criação do SOS ocorre em meio a uma onda crescente de processos judiciais nos Estados Unidos. Cerca de 1.600 demandantes acusam empresas como Meta, Snap, TikTok e Google de desenvolver produtos intencionalmente viciantes. As ações foram movidas por mais de 350 famílias e 250 distritos escolares, que alegam que o design das plataformas contribuiu para quadros de depressão e automutilação em menores.
No caso da Roblox, a situação envolve também denúncias de falhas na proteção contra exploração infantil. A empresa enfrenta dezenas de ações federais que apontam supostas brechas que teriam permitido o contato de predadores com crianças. Além disso, a plataforma já foi proibida em países como Turquia, China e Rússia por preocupações relacionadas à segurança de menores.
Um padrão que pode mudar o debate
Para Kenneth Cole, fundador da Mental Health Coalition, o SOS não é uma solução definitiva, mas um passo importante para criar um marco comum de responsabilidade. A ideia é oferecer informações claras para que pais e adolescentes possam decidir, de forma mais consciente, onde e como desejam interagir online.
David Bickham, diretor do Laboratório de Bem-Estar Digital do Hospital Infantil de Boston, destaca que reguladores e usuários buscavam há anos um modelo padronizado que tornasse comparáveis as medidas de segurança das plataformas.
Se o sistema funcionar como prometido, poderá transformar a forma como empresas de tecnologia comunicam suas políticas — e como a sociedade avalia o custo emocional da vida digital.
[ Fonte: Wired ]