Testes revelam falhas graves no ursinho com IA
O caso veio à tona após uma investigação do Public Interest Research Group (PIRG), que testou três brinquedos com IA equipados com chatbots. O Kumma, desenvolvido pela empresa FoloToy, foi o que apresentou os resultados mais preocupantes.
Durante os testes, o ursinho com IA forneceu respostas impróprias para o público infantil e chegou a contradizer orientações de segurança. Em alguns momentos, alertava que certos objetos eram perigosos. Logo em seguida, explicava como usá-los.
Segundo os pesquisadores, o problema não foi apenas responder — mas aprofundar espontaneamente temas sensíveis.
Esse tipo de comportamento é visto como uma ameaça direta quando se fala de IA para crianças.
Empresa suspende vendas e inicia auditoria

Após a divulgação dos testes, a FoloToy suspendeu imediatamente as vendas do produto. A empresa anunciou o início de uma auditoria interna de segurança para avaliar as falhas do sistema.
Em comunicado, a marca afirmou que agradece o alerta dos pesquisadores e que está revisando seus protocolos. O ursinho com IA foi recolhido das prateleiras, assim como outros brinquedos com IA vendidos pela empresa.
A companhia confirmou que o Kumma utilizava o modelo GPT-4o, da OpenAI, com a promessa de “estimular a curiosidade” por meio de interações inteligentes.
Na prática, o resultado foi o oposto.
O risco real da IA para crianças
O episódio escancarou o maior problema do setor: a falta de regulamentação. Hoje, brinquedos com IA ainda operam em uma zona cinzenta, com poucos controles efetivos sobre o conteúdo que podem gerar.
Segundo o relatório, após a introdução de temas sensíveis pelos pesquisadores, o ursinho com IA passou a expandir o assunto por conta própria, sem barreiras claras de proteção.
Embora os especialistas afirmem que crianças dificilmente chegariam a certos termos, o fato de o sistema estar pronto para responder é o que mais preocupa quando se fala de IA para crianças.
Essa falta de filtro é considerada uma falha grave de segurança digital.
OpenAI suspende desenvolvedor após o incidente
O caso teve repercussão ainda maior quando foi revelado que a OpenAI suspendeu o desenvolvedor responsável pelo uso do modelo no brinquedo, após constatar violações de política de uso.
A PIRG afirmou que a decisão foi importante, mas insuficiente.
O alerta é claro: retirar um produto do mercado não resolve o problema estrutural. Segundo os pesquisadores, ainda existem muitos brinquedos com IA disponíveis para compra sem fiscalização rígida.
Alerta global sobre brinquedos com IA
O Kumma custava cerca de US$ 99 e era vendido como companheiro inteligente para crianças e adultos. A realidade mostrada pelos testes mudou completamente essa narrativa.
Especialistas agora cobram leis mais duras e regras claras para o setor. O caso do ursinho com IA virou um exemplo dos riscos de liberar tecnologia avançada sem salvaguardas suficientes.
A discussão sobre IA para crianças também ganhou força entre pais, educadores e autoridades.
O que esse caso revela sobre o futuro
O Kumma segue fora do mercado enquanto a auditoria de segurança continua. Mas o impacto do caso vai muito além de um único produto.
O episódio deixou um alerta claro: a tecnologia está avançando mais rápido do que a proteção às crianças. A popularização de brinquedos com IA exige regras urgentes, transparência das empresas e testes mais rigorosos.
A pergunta que fica é simples — e preocupante: quantos outros brinquedos inteligentes ainda estão por aí sem que os pais saibam o real risco?
[Fonte: Correio Braziliense]