Dormir bem, comer de forma equilibrada e ter acompanhamento familiar sempre foram pilares para o desenvolvimento saudável de crianças e adolescentes. Agora, um novo elemento entra nesse debate: a inteligência artificial. Um estudo recente questiona a real segurança do Google Gemini para menores de 18 anos e reforça a necessidade de limites e supervisão no uso dessas tecnologias.
Riscos detectados em jovens usuários
De acordo com a Common Sense Media, o Google Gemini não diferencia de forma eficaz adultos de adolescentes, mesmo em sua versão “Teen”. Isso significa que crianças e jovens ficam expostos a respostas inadequadas, incluindo conteúdos sobre drogas, álcool e sexo.
Outro ponto crítico foi o fornecimento de apoio emocional e conselhos de saúde mental sem a devida precisão. Em alguns casos, o chatbot não identificou sinais graves de sofrimento psicológico, o que pode agravar quadros já existentes.
Os pesquisadores observaram que, em interações rápidas, a IA responde de forma satisfatória, mas falha em diálogos longos e complexos — justamente o tipo de conversa que adolescentes tendem a ter com essas ferramentas.
Orientações para cada faixa etária
O relatório estabeleceu recomendações claras sobre o uso de chatbots de IA:
- Crianças até 5 anos: não devem utilizar de forma alguma.
- Entre 6 e 12 anos: apenas com supervisão constante de um adulto.
- Adolescentes de 13 a 17 anos: podem usar de forma independente, mas somente em tarefas escolares ou projetos criativos.
A organização alerta que, em nenhuma idade, essas tecnologias devem substituir acompanhamento emocional ou servir como fonte de aconselhamento em saúde mental.
A resposta do Google e o contexto internacional
Após a divulgação do estudo, o Google afirmou que já possui políticas de segurança voltadas para menores e que trabalha em parceria com especialistas externos para fortalecer essas barreiras. A empresa reconheceu que algumas respostas do Gemini “não funcionaram como esperado” e garantiu ter implementado medidas adicionais.
No entanto, o Google ressaltou que parte da avaliação teria incluído recursos não disponíveis oficialmente para menores e que desconhecia quais perguntas foram feitas nos testes.
Um dilema global sobre IA e juventude
O debate não acontece isoladamente. Pouco antes, a OpenAI reforçou os mecanismos de segurança do ChatGPT após o caso de um adolescente que tirou a própria vida, e cuja família acusou o chatbot de ter contribuído para seu sofrimento. A empresa adotou bloqueios de conteúdo mais rígidos, sistemas de encaminhamento para serviços de apoio e salvaguardas adicionais.
Esses episódios evidenciam um dilema crescente: como oferecer acesso seguro às ferramentas de inteligência artificial sem que elas se transformem em um risco invisível para o bem-estar emocional de crianças e adolescentes.
Fonte: Gizmodo ES