Pular para o conteúdo
Tecnologia

“Alto risco”: especialistas alertam sobre o uso do Google Gemini por crianças e adolescentes

Um novo relatório da Common Sense Media acendeu o alerta sobre o Google Gemini: apesar de versões supostamente adaptadas para adolescentes, a IA ainda trata jovens como adultos. O estudo mostra riscos que vão desde exposição a conteúdos sensíveis até orientações equivocadas em saúde mental.
Por

Tempo de leitura: 2 minutos

Dormir bem, comer de forma equilibrada e ter acompanhamento familiar sempre foram pilares para o desenvolvimento saudável de crianças e adolescentes. Agora, um novo elemento entra nesse debate: a inteligência artificial. Um estudo recente questiona a real segurança do Google Gemini para menores de 18 anos e reforça a necessidade de limites e supervisão no uso dessas tecnologias.

Riscos detectados em jovens usuários

De acordo com a Common Sense Media, o Google Gemini não diferencia de forma eficaz adultos de adolescentes, mesmo em sua versão “Teen”. Isso significa que crianças e jovens ficam expostos a respostas inadequadas, incluindo conteúdos sobre drogas, álcool e sexo.

Outro ponto crítico foi o fornecimento de apoio emocional e conselhos de saúde mental sem a devida precisão. Em alguns casos, o chatbot não identificou sinais graves de sofrimento psicológico, o que pode agravar quadros já existentes.

Os pesquisadores observaram que, em interações rápidas, a IA responde de forma satisfatória, mas falha em diálogos longos e complexos — justamente o tipo de conversa que adolescentes tendem a ter com essas ferramentas.

Orientações para cada faixa etária

O relatório estabeleceu recomendações claras sobre o uso de chatbots de IA:

  • Crianças até 5 anos: não devem utilizar de forma alguma.

  • Entre 6 e 12 anos: apenas com supervisão constante de um adulto.

  • Adolescentes de 13 a 17 anos: podem usar de forma independente, mas somente em tarefas escolares ou projetos criativos.

A organização alerta que, em nenhuma idade, essas tecnologias devem substituir acompanhamento emocional ou servir como fonte de aconselhamento em saúde mental.

A resposta do Google e o contexto internacional

Após a divulgação do estudo, o Google afirmou que já possui políticas de segurança voltadas para menores e que trabalha em parceria com especialistas externos para fortalecer essas barreiras. A empresa reconheceu que algumas respostas do Gemini “não funcionaram como esperado” e garantiu ter implementado medidas adicionais.

No entanto, o Google ressaltou que parte da avaliação teria incluído recursos não disponíveis oficialmente para menores e que desconhecia quais perguntas foram feitas nos testes.

Um dilema global sobre IA e juventude

O debate não acontece isoladamente. Pouco antes, a OpenAI reforçou os mecanismos de segurança do ChatGPT após o caso de um adolescente que tirou a própria vida, e cuja família acusou o chatbot de ter contribuído para seu sofrimento. A empresa adotou bloqueios de conteúdo mais rígidos, sistemas de encaminhamento para serviços de apoio e salvaguardas adicionais.

Esses episódios evidenciam um dilema crescente: como oferecer acesso seguro às ferramentas de inteligência artificial sem que elas se transformem em um risco invisível para o bem-estar emocional de crianças e adolescentes.

Fonte: Gizmodo ES

Partilhe este artigo

Artigos relacionados