Pular para o conteúdo
Tecnologia

Autora do tiroteio no Canadá tinha interações preocupantes com ChatGPT: onde termina a privacidade e começa a prevenção?

Autora do tiroteio no Canadá tinha interações preocupantes com ChatGPT: onde termina a privacidade e começa a prevenção?
Por

Tempo de leitura: 3 minutos

O avanço da inteligência artificial trouxe benefícios evidentes, mas também abriu um novo campo de dilemas éticos. Um caso recente no Canadá colocou essa discussão sob os holofotes após vir à tona que sinais de comportamento violento haviam sido detectados em um chatbot meses antes de um ataque fatal. A decisão da empresa envolvida — e os critérios usados — agora alimentam um debate global sobre privacidade, responsabilidade e prevenção.

O rastro digital que acendeu o alerta

De acordo com reportagem do The Wall Street Journal, a OpenAI identificou em junho de 2025 interações preocupantes de Jesse Van Rootselaar com o ChatGPT. O usuário descrevia cenários detalhados envolvendo violência com armas de fogo ao longo de vários dias.

Os registros foram considerados suficientemente graves para disparar um alerta interno na plataforma. Cerca de uma dúzia de funcionários participou de discussões sobre o caso, avaliando o nível de risco envolvido.

Parte da equipe defendeu que o comportamento poderia indicar perigo real e sugeriu que a empresa notificasse a Real Polícia Montada do Canadá (RCMP). O episódio expôs, já naquele momento, a dificuldade de interpretar quando um comportamento digital ultrapassa a fronteira da ficção.

Por que a empresa decidiu não avisar as autoridades

Autora do tiroteio no Canadá tinha interações preocupantes com ChatGPT: onde termina a privacidade e começa a prevenção?
© https://x.com/yegwave

Apesar da preocupação interna, a liderança da OpenAI optou por não comunicar a polícia. Segundo posicionamento oficial, dois fatores pesaram na decisão.

Primeiro, a conta do usuário foi banida por violar as políticas da plataforma. Segundo, a empresa concluiu que as mensagens não atendiam ao critério legal de “ameaça iminente”, necessário para justificar a quebra de privacidade.

Pelas diretrizes adotadas, é preciso haver evidência concreta de risco imediato e crível de dano físico grave a terceiros. Sem esse elemento, a empresa entende que deve preservar a confidencialidade do usuário.

A justificativa ressalta o equilíbrio delicado entre segurança pública e privacidade digital — especialmente em casos que podem envolver fantasia violenta, sofrimento psicológico ou desabafos sem plano concreto.

A tragédia que mudou o contexto

Em 10 de fevereiro, Jesse Van Rootselaar, de 18 anos, matou oito pessoas — incluindo familiares — antes de abrir fogo em uma escola secundária em Tumbler Ridge, na Colúmbia Britânica, e tirar a própria vida.

Após o ataque, investigações revelaram outros sinais de alerta no comportamento digital da jovem. Entre eles:

  • Criação de um jogo no Roblox simulando um tiroteio em massa
  • Publicações em redes sociais sobre armas e munição impressa em 3D
  • Visitas anteriores da polícia à residência por questões de saúde mental

O conjunto de informações reforçou a percepção de que havia múltiplos indícios preocupantes antes da tragédia.

O dilema crescente para empresas de IA

O caso reacende uma discussão que já havia atingido redes sociais tradicionais: qual é o limite da responsabilidade das plataformas diante de sinais de risco?

No contexto da IA, o desafio pode ser ainda maior. Usuários frequentemente compartilham pensamentos mais íntimos com chatbots do que em espaços públicos, o que aumenta a complexidade da moderação.

Atualmente, sistemas como o ChatGPT são treinados para recusar pedidos explícitos de violência e encaminhar interações suspeitas para revisão humana. Ainda assim, especialistas reconhecem que distinguir entre fantasia sombria, sofrimento emocional e planejamento real continua sendo uma zona cinzenta.

Em resposta ao caso, a OpenAI informou ao Wall Street Journal que está colaborando com a investigação da polícia canadense e revisando seus critérios de denúncia para reduzir o risco de situações semelhantes no futuro.

O episódio deixa uma questão em aberto para o setor: à medida que a IA se torna mais presente na vida cotidiana, onde exatamente deve ficar a linha entre proteger a privacidade e prevenir tragédias no mundo real?

[Fonte: Olhar digital]

Partilhe este artigo

Artigos relacionados