A segurança de adolescentes nas redes sociais voltou ao centro do debate global. Diante da pressão crescente de governos, especialistas e famílias, plataformas digitais vêm sendo cobradas a adotar mecanismos mais rígidos de proteção. Agora, uma nova ferramenta do Instagram pretende aproximar pais do que seus filhos pesquisam dentro da plataforma. A proposta, no entanto, já divide opiniões entre especialistas em saúde mental e organizações de proteção infantil.
A nova ferramenta que notificará pais sobre buscas sensíveis

A Meta Platforms anunciou que começará a enviar alertas para pais quando adolescentes realizarem buscas repetidas relacionadas a suicídio ou automutilação no Instagram.
Segundo a empresa, essa é a primeira vez que a plataforma decide avisar proativamente responsáveis sobre padrões de pesquisa de jovens usuários.
Até agora, o Instagram adotava outra abordagem: bloquear determinados termos de busca e redirecionar usuários para páginas com recursos de apoio psicológico.
Com a nova funcionalidade, pais que utilizam ferramentas de supervisão parental poderão ser notificados caso o sistema identifique um comportamento de pesquisa considerado preocupante.
Inicialmente, o recurso será lançado em países que participam do programa de Contas para Adolescentes do Instagram, incluindo:
- Estados Unidos
- Reino Unido
- Austrália
- Canadá
A empresa afirma que pretende expandir gradualmente o sistema para outros países nos próximos meses.
Críticas de organizações de prevenção ao suicídio
Apesar da intenção declarada de aumentar a segurança digital, a iniciativa recebeu críticas imediatas de algumas organizações especializadas em prevenção ao suicídio.
A Molly Rose Foundation, organização britânica criada após a morte da adolescente Molly Russell, afirmou que a medida pode gerar consequências inesperadas.
Segundo Andy Burrows, diretor-executivo da fundação, alertas desse tipo podem deixar pais despreparados para lidar com uma situação extremamente delicada.
Para ele, a notificação repentina pode provocar pânico em responsáveis que talvez não saibam como iniciar uma conversa sensível com o adolescente.
O pai de Molly, Ian Russell, também demonstrou ceticismo sobre a eficácia do recurso.
Ele afirmou que receber uma mensagem desse tipo durante o trabalho, por exemplo, poderia ser emocionalmente devastador para muitos pais, especialmente se não houver orientação clara sobre como reagir.
O debate sobre o verdadeiro problema nas redes
Outras organizações que atuam na prevenção do suicídio juvenil afirmam que o recurso pode não atacar a raiz do problema.
Ged Flynn, diretor da Papyrus Prevention of Young Suicide, disse que iniciativas como essa são positivas, mas insuficientes.
Segundo ele, muitas famílias não querem apenas ser alertadas depois que os adolescentes já tiveram contato com conteúdos perigosos. O objetivo deveria ser impedir que esses conteúdos apareçam para jovens em primeiro lugar.
A crítica também foi reforçada pela organização 5Rights Foundation, que defende direitos digitais para crianças.
A diretora executiva da entidade, Leanda Barrington-Leach, afirmou que empresas de tecnologia deveriam redesenhar seus sistemas para que fossem seguros para adolescentes desde a concepção, e não apenas reagir depois que um risco aparece.
Relatórios anteriores da Molly Rose Foundation também indicaram que conteúdos ligados à depressão, automutilação e suicídio ainda podem ser recomendados para usuários vulneráveis dentro do Instagram.
A Meta contestou essas conclusões, afirmando que algumas análises distorcem os esforços da empresa para proteger adolescentes.
Pressão crescente sobre redes sociais
Os novos alertas fazem parte de um conjunto maior de medidas que a Meta diz estar implementando para aumentar a segurança juvenil na plataforma.
Entre as proteções já existentes no Instagram estão:
- ocultação de conteúdos sensíveis relacionados a automutilação
- bloqueio de determinadas pesquisas consideradas perigosas
- ferramentas de supervisão parental
As notificações poderão ser enviadas por diferentes canais, como e-mail, mensagem de texto, WhatsApp ou diretamente pelo aplicativo.
A empresa reconhece que, por priorizar a cautela, o sistema pode gerar alertas mesmo quando não houver um risco real.
Especialistas em comportamento digital afirmam que a eficácia da medida dependerá principalmente da qualidade das orientações fornecidas aos pais.
O pesquisador Sameer Hinduja, do Cyberbullying Research Center, destacou que receber um alerta desse tipo pode ser assustador.
Segundo ele, o ponto central será garantir que pais recebam informações claras sobre como agir após a notificação.
Nos próximos meses, a Meta também pretende desenvolver um sistema semelhante para alertar pais caso adolescentes discutam temas relacionados a automutilação ou suicídio com chatbots de inteligência artificial dentro da plataforma.
A medida surge em um momento de pressão global sobre redes sociais.
Países como Australia já aprovaram leis que restringem o uso de redes sociais por menores de 16 anos, enquanto governos da Spain, France e United Kingdom analisam propostas semelhantes.
Executivos da Meta, incluindo Mark Zuckerberg e Adam Mosseri, também vêm enfrentando audiências e processos judiciais relacionados ao impacto das plataformas digitais sobre usuários jovens.
[Fonte: Época Negócios]