Pular para o conteúdo
Tecnologia

Como provar que um conteúdo é real na era da IA

Com a internet inundada por imagens e vídeos artificiais, um executivo no centro das redes sociais levantou uma questão incômoda: talvez o futuro não seja identificar o que é falso, mas provar o que é humano.
Por

Tempo de leitura: 4 minutos

Durante anos, a internet funcionou com uma regra implícita: o que parecia real provavelmente era. Esse pacto silencioso começou a ruir à medida que conteúdos gerados por inteligência artificial passaram a circular em escala massiva. Hoje, distinguir o que foi criado por uma pessoa ou por uma máquina virou um desafio cotidiano — e não apenas para usuários comuns. Plataformas inteiras estão sendo obrigadas a repensar seus critérios de autenticidade, visibilidade e confiança.

Quando rotular o falso deixa de funcionar

O dilema que ninguém sabe resolver: como provar que um conteúdo é real na era da IA
© Pexels

A ideia mais difundida até agora parece simples: marcar conteúdos criados por inteligência artificial com algum tipo de aviso ou marca d’água. Em teoria, isso permitiria ao público diferenciar imagens reais de produções sintéticas. Na prática, porém, a solução mostra sinais claros de esgotamento.

Quem chamou atenção para esse impasse foi Adam Mosseri, CEO do Instagram. Em uma reflexão publicada no fim do ano, ele afirmou que rotular conteúdos feitos por IA está se tornando cada vez menos eficaz. O motivo é simples: a tecnologia evolui rápido demais, e qualquer sistema de marcação tende a ser burlado em pouco tempo.

Segundo Mosseri, insistir apenas em identificar o que é artificial pode se tornar uma corrida perdida contra ferramentas cada vez mais sofisticadas.

A inversão da lógica: provar o que é real

Em vez de tentar identificar tudo o que é falso, Mosseri propõe uma inversão de lógica. Para ele, talvez seja mais viável rotular aquilo que é comprovadamente real. A ideia seria fazer com que fotos e vídeos capturados por câmeras e celulares já nasçam com uma espécie de assinatura digital.

Essa “certidão de origem” funcionaria como um selo de autenticidade, indicando que aquele conteúdo foi registrado por um dispositivo físico, em um momento específico, sem manipulação algorítmica pesada. Em um ambiente saturado de produções artificiais, o valor passaria a estar na comprovação do real — não na caça ao falso.

O executivo reconhece que essa solução está longe de ser simples. Implementar um sistema desse tipo em escala global envolve desafios técnicos, éticos e até legais. Ainda assim, ele vê esse caminho como mais promissor do que os métodos atuais de detecção.

Um futuro dominado por conteúdo sintético

As reflexões de Mosseri fazem parte de um diagnóstico mais amplo sobre o rumo das redes sociais. Segundo ele, a quantidade de conteúdo gerado por inteligência artificial deve ultrapassar, em breve, o volume de material criado exclusivamente por humanos. Para quem observa a plataforma com atenção, esse cenário já começa a se desenhar.

Isso não significa, necessariamente, um futuro negativo. Mosseri destaca que há produções de alta qualidade feitas com apoio de IA, incluindo arte, entretenimento e formatos criativos inéditos. O problema não é a tecnologia em si, mas a dificuldade crescente de contextualizar o que se vê.

Quando tudo pode ser fabricado com aparência realista, a noção de autenticidade deixa de ser visual e passa a ser conceitual.

O impacto direto sobre criadores humanos

Essa transformação já provoca tensões entre criadores, fotógrafos e artistas. Muitos reclamam da queda no alcance de publicações e da sensação de que o trabalho humano está sendo diluído em meio a um mar de imagens artificiais.

Mosseri argumenta que parte desse desconforto vem de uma visão antiga sobre o papel do Instagram. A estética excessivamente polida, cuidadosamente editada e visualmente perfeita estaria perdendo força. Em seu lugar, ganhariam espaço imagens mais cruas, imperfeitas e espontâneas — justamente por transmitirem sinais de humanidade.

Nesse novo contexto, a imperfeição passa a ser um valor. Um enquadramento torto, uma iluminação irregular ou um momento não planejado funcionam como pistas de que há uma pessoa real por trás da câmera.

Autenticidade como novo diferencial

Se antes a autenticidade era associada à qualidade técnica, agora ela se conecta à prova de origem. Em um ambiente onde a IA consegue replicar estilos, rostos e cenários com precisão impressionante, o diferencial não está mais na aparência, mas na procedência.

A discussão levanta uma questão mais profunda: o que significa ser autêntico em uma rede social? É o conteúdo que importa, o processo de criação ou a identidade de quem cria?

Ao sugerir que o foco deve mudar do “detectar o falso” para o “destacar o real”, o Instagram sinaliza uma mudança estrutural na forma como plataformas podem lidar com a era da IA.

Um problema sem solução pronta

Mosseri deixa claro que não existe uma resposta definitiva no momento. O debate ainda está em aberto, e qualquer solução exigirá colaboração entre plataformas, fabricantes de dispositivos e até governos.

O que parece certo é que o problema não vai desaparecer. À medida que a inteligência artificial se torna mais acessível e poderosa, a linha entre humano e máquina ficará cada vez mais tênue.

Nesse cenário, talvez a pergunta mais importante não seja “isso foi feito por IA?”, mas “isso pode ser provado como real?”. E a resposta a essa pergunta pode redefinir o futuro da internet como a conhecemos.

[Fonte: Olhar digital]

Partilhe este artigo

Artigos relacionados