Pular para o conteúdo
Tecnologia

Conversas vazadas do ChatGPT revelam lado sombrio do que usuários pedem à IA

Um erro de design expôs centenas de conversas privadas entre usuários e o ChatGPT. Algumas pedem ajuda para escapar da violência; outras, para manipular populações vulneráveis ou simular o colapso de governos. A descoberta levanta questões éticas e mostra até onde algumas pessoas estão dispostas a ir com a IA.
Por

Tempo de leitura: 2 minutos

Chatbots como o ChatGPT foram criados para auxiliar tarefas cotidianas e facilitar o acesso à informação. Mas o que acontece quando os usuários pedem ajuda para ações antiéticas, perigosas ou profundamente pessoais? Um vazamento recente revelou interações privadas que mostram como as pessoas estão usando — ou abusando — da inteligência artificial. De pedidos inocentes a estratégias manipuladoras, os diálogos vazados traçam um retrato inquietante da relação entre humanos e máquinas.

Como as conversas vieram a público

Segundo o boletim Digital Digging, do pesquisador Henk van Ess, o recurso “Compartilhar” do ChatGPT gerava links públicos — e não privados — para trechos de conversas. Isso fez com que mecanismos de busca indexassem essas páginas, tornando os chats acessíveis para qualquer pessoa com o link.

Apesar de o recurso já ter sido desativado pela OpenAI, várias dessas conversas foram arquivadas em sites como o Archive.org, conhecido por preservar conteúdos digitais. E o que se encontrou ali revela mais do que curiosidades: são confissões, pedidos delicados e até planos questionáveis.

Pedidos éticos, duvidosos e perigosos

Entre os casos destacados, um dos mais alarmantes envolveu um suposto advogado de uma multinacional do setor energético que buscava orientações para negociar, da forma “mais barata possível”, o deslocamento de uma comunidade indígena amazônica. A justificativa? “Eles não sabem o valor da terra.”

Outro usuário, se identificando como analista de um centro internacional de estudos, usou o chatbot para planejar cenários de colapso do governo dos Estados Unidos. Em outro exemplo, um advogado desorientado pediu ao ChatGPT que elaborasse uma defesa… apenas para descobrir que representava a parte contrária.

Confidencialidade e privacidade em risco

Apesar de algumas situações parecerem absurdas ou até cômicas, outras são marcadas por extrema seriedade. Há relatos de vítimas de violência doméstica pedindo ajuda para planejar sua fuga, e até de usuários vivendo sob regimes autoritários pedindo ajuda para redigir críticas políticas arriscadas — ações que poderiam custar sua liberdade ou vida.

Esses casos mostram como a intimidade dos diálogos com a IA pode levar as pessoas a se abrir mais do que fariam em qualquer outro ambiente digital.

O que aprendemos com o vazamento

Assim como nos primeiros anos dos assistentes de voz — quando gravações privadas foram usadas para treinar sistemas —, o episódio reforça a necessidade de maior controle sobre como os dados são tratados por sistemas de IA. E mostra também um aspecto inquietante: até que ponto estamos dispostos a confiar (ou explorar) uma ferramenta que nos ouve sem julgamento?

O ChatGPT pode ser um assistente poderoso, mas, como qualquer ferramenta, reflete não só a tecnologia por trás… como também as intenções de quem o usa.

Fonte: Gizmodo ES

Partilhe este artigo

Artigos relacionados