Durante os últimos anos, milhões de pessoas passaram a usar inteligências artificiais conversacionais como se fossem uma mistura de buscador, terapeuta, diário pessoal e consultor privado. Usuários contam à IA problemas financeiros, diagnósticos médicos, crises familiares, inseguranças emocionais e dúvidas que talvez nunca compartilhassem com outra pessoa.
Mas uma nova ação judicial apresentada nos Estados Unidos colocou essa sensação de privacidade no centro de uma disputa explosiva.
No dia 13 de maio de 2026, uma moradora de San Diego entrou com uma ação coletiva contra a OpenAI no Tribunal Distrital do Sul da Califórnia. O processo acusa a empresa de utilizar tecnologias publicitárias da Meta e do Google dentro do ChatGPT para transmitir informações sobre as conversas dos usuários sem consentimento explícito.
Até o momento, nada foi comprovado. A OpenAI ainda não respondeu oficialmente às acusações, e a empresa não foi considerada culpada de qualquer irregularidade. Mesmo assim, o caso abre uma discussão delicada sobre como a infraestrutura invisível da internet funciona por trás das plataformas de inteligência artificial.
A acusação: rastreadores publicitários dentro do ChatGPT

Segundo o processo, o ChatGPT teria incorporado em seu site duas ferramentas amplamente utilizadas na publicidade digital: o Meta Pixel e o Google Analytics.
Essas tecnologias são extremamente comuns na internet. Lojas online, redes sociais e praticamente qualquer site moderno utilizam esse tipo de ferramenta para monitorar comportamento dos visitantes, medir campanhas publicitárias e entender quais páginas as pessoas acessam.
O problema, segundo a ação, é o tipo de informação que estaria sendo compartilhada.
A acusação afirma que títulos automáticos gerados pelo ChatGPT para identificar conversas — como “Vencedor do Super Bowl de 2005”, por exemplo — teriam sido enviados à Meta junto com cookies capazes de associar aquela atividade a contas específicas do Facebook ou Instagram.
Do lado do Google, o processo afirma que identificadores e e-mails criptografados poderiam ter sido capturados durante sessões de login.
Se isso realmente ocorreu da maneira descrita na ação, o conteúdo das interações deixaria de ser totalmente anônimo e passaria a integrar sistemas de perfilamento publicitário.
O ponto central da disputa não é conspiração — é arquitetura
O aspecto mais interessante do caso talvez seja justamente o fato de que a acusação não descreve um vazamento clássico ou uma espionagem secreta sofisticada.
A discussão gira em torno de algo muito mais banal: a infraestrutura padrão da web moderna.
O processo argumenta que muitas pessoas enxergam o ChatGPT como um espaço íntimo, quase semelhante a um caderno pessoal. Só que, tecnicamente, a plataforma continua sendo um site na internet — e sites normalmente vêm recheados de ferramentas de rastreamento usadas pela indústria da publicidade digital.
Em outras palavras, o problema não seria necessariamente uma intenção explícita de expor conversas privadas, mas o fato de que sistemas construídos para monetizar comportamento online acabaram coexistindo com interações extremamente pessoais.
É como se uma conversa sensível fosse processada usando a mesma “tubulação” digital utilizada para vender tênis, recomendar anúncios ou medir cliques em campanhas de marketing.
Meta e Google aparecem no caso — mas não são os alvos da ação

Curiosamente, nem a Meta nem o Google foram processados diretamente.
A ação judicial mira apenas a OpenAI, sob o argumento de que a empresa escolheu implementar essas ferramentas em sua própria plataforma. Segundo os autores do processo, a responsabilidade seria de quem construiu a estrutura e decidiu quais tecnologias integrar ao sistema.
A ação cita leis federais americanas relacionadas à privacidade de comunicações eletrônicas, além de legislações específicas da Califórnia. O pedido prevê indenizações que podem variar entre US$ 5 mil e US$ 10 mil por violação individual.
Considerando o tamanho potencial da base de usuários afetados, os valores poderiam atingir bilhões de dólares caso a acusação avance.
O verdadeiro conflito da IA pode não ser inteligência — mas privacidade
O caso também não parece isolado.
Em março deste ano, uma ação muito semelhante foi apresentada contra a Perplexity AI, outra empresa do setor de inteligência artificial. A acusação seguia praticamente a mesma lógica: uso de rastreadores publicitários capazes de coletar dados sobre interações dos usuários.
Isso sugere um problema estrutural na indústria atual de IA conversacional.
As empresas venderam esses sistemas como assistentes pessoais, espaços seguros de conversa e ferramentas confiáveis para lidar com questões íntimas. Mas, ao mesmo tempo, muitas dessas plataformas continuam apoiadas sobre a velha infraestrutura comercial da internet — uma infraestrutura criada para transformar comportamento em dados, dados em perfis e perfis em publicidade.
Durante anos, a corrida da inteligência artificial foi apresentada como uma disputa técnica: quem possui o modelo mais poderoso, quem gera respostas mais inteligentes ou quem erra menos.
Agora começa a surgir uma nova batalha.
Não basta saber o que a IA consegue responder. A pergunta passa a ser outra: o que acontece com tudo aquilo que você contou para ela?
[ Fonte: Infobae ]