O entusiasmo crescente com a inteligência artificial nem sempre é compartilhado por todos — especialmente quando se trata de figuras influentes como Paul Romer. Em um evento recente, o economista laureado com o Prêmio Nobel alertou para o que considera uma confiança cega em tecnologias que ainda carregam falhas graves. Segundo ele, os riscos podem ser muito maiores do que o mercado e os desenvolvedores estão dispostos a admitir.
A crítica direta aos criadores e vendedores de IA
Durante sua participação no Febraban Tech, Romer foi claro: nem os cientistas da computação nem as empresas que desenvolvem ferramentas de IA devem ser tratados como fontes neutras. “Os cientistas querem testar o que é novo. As empresas querem vender. Nenhum deles está preocupado com o que acontece quando algo dá errado”, afirmou.
Para Romer, os modelos de IA generativa não estão progredindo em direção à precisão absoluta. Pelo contrário: produzem respostas que soam confiáveis, mas escondem erros sutis e, muitas vezes, perigosos. Essa “convicção artificial” pode ter consequências graves, especialmente em áreas onde a verdade é fundamental, como ciência, justiça e jornalismo.
Um risco que vai além da tecnologia
Romer argumenta que o maior risco atual é a possível corrosão das instituições que nos ajudaram a avançar como sociedade. “Desde a revolução científica, criamos sistemas sociais que nos encorajam a buscar a verdade. Se perdermos isso, perdemos muito mais do que tecnologia.”
Ele não descarta totalmente a utilidade da IA, mas insiste que é preciso avaliar cuidadosamente os custos dos erros que ela pode provocar. “Estamos usando softwares para operar carros, aviões e sistemas críticos. Os erros aqui não são apenas dados ruins — eles custam vidas.”
Para ele, a mensagem é simples e urgente: machine learning não é confiável — e tratá-la como se fosse pode nos levar a problemas muito maiores do que imaginamos.
[Fonte: Infomoney]