Pular para o conteúdo

Meta, TikTok, Roblox e outras plataformas passam por avaliação externa inédita após polêmicas sobre vício digital entre adolescentes

Iniciativa internacional cria um sistema de classificação para medir, com critérios técnicos e participação de especialistas, o nível de proteção oferecido por redes sociais e plataformas de jogos a jovens de 13 a 19 anos. O movimento surge em meio a processos judiciais e críticas sobre saúde mental.

Nos últimos anos, o debate sobre o impacto das redes sociais na saúde mental de adolescentes ganhou força no mundo todo. Casos de depressão, ansiedade, automutilação e uso compulsivo passaram a ser associados ao design de certas plataformas digitais. Agora, gigantes da tecnologia decidiram se submeter a uma avaliação externa padronizada que promete lançar mais luz sobre suas práticas de proteção a jovens usuários.

O que é o Safe Online Standard (SOS)

Empresas como Meta, TikTok, YouTube, Roblox, Snap, Discord, Pinterest e Twitch aderiram voluntariamente ao Safe Online Standard (SOS).

O projeto conta com o respaldo da Mental Health Coalition e é apresentado como o primeiro sistema internacional de padrões voltado especificamente para avaliar o bem-estar digital de adolescentes entre 13 e 19 anos.

As companhias participantes deverão entregar documentação detalhada sobre suas políticas de uso, mecanismos de segurança, funcionamento de algoritmos e sistemas de moderação. Esse material será analisado por um comitê formado por especialistas acadêmicos e representantes de instituições como a American Psychological Association, a Child Mind Institute e a International Society for Technology in Education.

Como funcionará a avaliação

Quase metade das crianças tem ansiedade ligada ao uso de telas, diz estudo
© https://x.com/SatlokChannel

O sistema prevê a participação de múltiplos atores: adolescentes, pais, organizações de saúde mental e pessoas com experiência direta no uso dessas plataformas. Esses grupos poderão enviar relatórios sobre sua percepção em relação ao design das ferramentas digitais, às configurações de privacidade e à eficácia da moderação de conteúdo.

Entre os critérios analisados estão:

  • Clareza e acessibilidade das políticas

  • Estrutura dos algoritmos e design das funcionalidades

  • Transparência e governança

  • Programas de alfabetização digital

  • Estratégias de moderação de conteúdo

Com base nesses parâmetros, cada serviço poderá receber uma de três classificações.

A categoria “Use com cuidado” será atribuída às plataformas que adotem filtros eficazes contra conteúdos prejudiciais, ofereçam configurações de privacidade padrão robustas e publiquem relatórios de transparência.

Já a classificação “Proteção parcial” identificará empresas que possuam ferramentas de segurança, mas com acesso complexo ou pouco intuitivo. Também entram nessa categoria serviços que utilizem recursos como rolagem infinita — o chamado doomscrolling — associado ao aumento do tempo de uso e ao estresse.

Por fim, o selo “Não atende aos padrões” será aplicado a companhias cujos mecanismos não bloqueiem de forma confiável conteúdos nocivos, apresentem falhas de transparência ou ofereçam salvaguardas frágeis de privacidade.

Pressão judicial e crise reputacional

A criação do SOS ocorre em meio a uma onda crescente de processos judiciais nos Estados Unidos. Cerca de 1.600 demandantes acusam empresas como Meta, Snap, TikTok e Google de desenvolver produtos intencionalmente viciantes. As ações foram movidas por mais de 350 famílias e 250 distritos escolares, que alegam que o design das plataformas contribuiu para quadros de depressão e automutilação em menores.

No caso da Roblox, a situação envolve também denúncias de falhas na proteção contra exploração infantil. A empresa enfrenta dezenas de ações federais que apontam supostas brechas que teriam permitido o contato de predadores com crianças. Além disso, a plataforma já foi proibida em países como Turquia, China e Rússia por preocupações relacionadas à segurança de menores.

Um padrão que pode mudar o debate

Para Kenneth Cole, fundador da Mental Health Coalition, o SOS não é uma solução definitiva, mas um passo importante para criar um marco comum de responsabilidade. A ideia é oferecer informações claras para que pais e adolescentes possam decidir, de forma mais consciente, onde e como desejam interagir online.

David Bickham, diretor do Laboratório de Bem-Estar Digital do Hospital Infantil de Boston, destaca que reguladores e usuários buscavam há anos um modelo padronizado que tornasse comparáveis as medidas de segurança das plataformas.

Se o sistema funcionar como prometido, poderá transformar a forma como empresas de tecnologia comunicam suas políticas — e como a sociedade avalia o custo emocional da vida digital.

 

[ Fonte: Wired ]

 

Você também pode gostar

Modo

Follow us