Pular para o conteúdo
Tecnologia

Por que um ganhador do Nobel acha que confiar em inteligência artificial pode ser um erro perigoso

Paul Romer, Nobel de Economia, afirma que a inteligência artificial pode parecer confiável, mas é exatamente essa aparência que representa seu maior risco. Para ele, os erros ocultos gerados por esses sistemas colocam em risco instituições que dependem da verdade, como a ciência, o jornalismo e o judiciário.
Por

Tempo de leitura: 2 minutos

O entusiasmo crescente com a inteligência artificial nem sempre é compartilhado por todos — especialmente quando se trata de figuras influentes como Paul Romer. Em um evento recente, o economista laureado com o Prêmio Nobel alertou para o que considera uma confiança cega em tecnologias que ainda carregam falhas graves. Segundo ele, os riscos podem ser muito maiores do que o mercado e os desenvolvedores estão dispostos a admitir.

A crítica direta aos criadores e vendedores de IA

Durante sua participação no Febraban Tech, Romer foi claro: nem os cientistas da computação nem as empresas que desenvolvem ferramentas de IA devem ser tratados como fontes neutras. “Os cientistas querem testar o que é novo. As empresas querem vender. Nenhum deles está preocupado com o que acontece quando algo dá errado”, afirmou.

Para Romer, os modelos de IA generativa não estão progredindo em direção à precisão absoluta. Pelo contrário: produzem respostas que soam confiáveis, mas escondem erros sutis e, muitas vezes, perigosos. Essa “convicção artificial” pode ter consequências graves, especialmente em áreas onde a verdade é fundamental, como ciência, justiça e jornalismo.

Um risco que vai além da tecnologia

Romer argumenta que o maior risco atual é a possível corrosão das instituições que nos ajudaram a avançar como sociedade. “Desde a revolução científica, criamos sistemas sociais que nos encorajam a buscar a verdade. Se perdermos isso, perdemos muito mais do que tecnologia.”

Ele não descarta totalmente a utilidade da IA, mas insiste que é preciso avaliar cuidadosamente os custos dos erros que ela pode provocar. “Estamos usando softwares para operar carros, aviões e sistemas críticos. Os erros aqui não são apenas dados ruins — eles custam vidas.”

Para ele, a mensagem é simples e urgente: machine learning não é confiável — e tratá-la como se fosse pode nos levar a problemas muito maiores do que imaginamos.

[Fonte: Infomoney]

Partilhe este artigo

Artigos relacionados