A forma como nos comunicamos mudou radicalmente na última década. Mensagens que antes podiam ser interceptadas passaram a ser protegidas por criptografia de ponta a ponta — um padrão popularizado por aplicativos como Signal e WhatsApp. Agora, esse mesmo conceito pode estar prestes a chegar a um novo território: os chatbots de inteligência artificial.
Moxie Marlinspike, uma das figuras mais influentes na defesa da privacidade digital e criador do protocolo de criptografia usado pelo Signal, anunciou que sua nova plataforma de IA, chamada Confer, começará a integrar sua tecnologia aos sistemas da Meta AI.
A proposta é clara: oferecer o poder da inteligência artificial sem abrir mão da privacidade.
O problema atual: conversar com IA não é privado

Hoje, bilhões de pessoas interagem diariamente com chatbots de IA. Diferente das mensagens em apps como WhatsApp, essas conversas geralmente não são protegidas por criptografia de ponta a ponta.
Na prática, isso significa que empresas podem acessar esses dados — seja para treinar modelos, melhorar serviços ou atender a demandas legais.
Segundo Marlinspike, esse é um problema crescente. À medida que os modelos de linguagem se tornam mais avançados, mais dados pessoais fluem para essas plataformas.
E, sem proteção adequada, essas informações podem acabar acessíveis a funcionários, hackers ou até governos.
A proposta: levar criptografia para a IA
A tecnologia da Confer tenta resolver exatamente esse ponto. A ideia é criar um sistema onde as interações com IA sejam protegidas de forma semelhante às mensagens criptografadas.
Isso implicaria que apenas o usuário teria acesso ao conteúdo das conversas — nem mesmo a empresa que fornece a IA poderia visualizá-las.
Marlinspike afirmou que pretende tornar essa tecnologia a base da Meta AI, embora a Confer continue existindo como uma plataforma independente.
O objetivo final é combinar dois mundos que hoje parecem incompatíveis: inteligência artificial poderosa e privacidade total.
Um desafio técnico muito maior do que parece
Apesar da promessa, implementar criptografia em sistemas de IA não é simples.
Diferente de mensagens tradicionais, os chatbots precisam processar o conteúdo das conversas para gerar respostas. Isso cria um conflito direto: como analisar dados sem ter acesso a eles?
Pesquisadores apontam que soluções como computação confidencial e modelos híbridos podem ajudar, mas ainda não existe um padrão consolidado.
Além disso, a própria Confer ainda é considerada uma tecnologia em estágio inicial, com limitações e falta de documentação detalhada sobre seu funcionamento.
O interesse da Meta — e o impacto potencial

A parceria com a Meta pode ser decisiva. A empresa já possui bilhões de usuários e experiência com criptografia em larga escala, especialmente após implementar proteção em mais de um bilhão de contas no WhatsApp.
Se a tecnologia for integrada com sucesso, isso pode redefinir como interagimos com IA em plataformas populares.
Segundo executivos da empresa, as interações com inteligência artificial tendem a ser cada vez mais pessoais — o que torna a privacidade ainda mais crítica.
Uma mudança de paradigma em construção
Especialistas em criptografia veem a iniciativa como promissora, embora ainda imperfeita. A ideia de proteger conversas com IA pode se tornar um novo padrão no futuro, especialmente diante do aumento das preocupações com uso de dados.
Ao mesmo tempo, o desafio será equilibrar desempenho e privacidade. Modelos mais avançados exigem grande quantidade de dados — e limitar o acesso a essas informações pode impactar sua evolução.
O futuro das conversas com IA
A proposta de Marlinspike levanta uma questão fundamental: queremos que a inteligência artificial saiba tudo sobre nós?
Se a resposta for “não”, soluções como a Confer podem ser o caminho.
Ainda é cedo para saber se essa abordagem vai se consolidar, mas uma coisa é certa: a discussão sobre privacidade na era da IA está apenas começando — e pode redefinir a relação entre usuários, tecnologia e dados nos próximos anos.
[ Fonte: Wired ]