O Fórum Econômico Mundial, em Davos, costuma ser palco de discussões sobre crescimento, estabilidade e futuro do trabalho. Neste ano, porém, um tema dominou as conversas: a possibilidade real de a inteligência artificial geral ultrapassar as capacidades humanas em um prazo surpreendentemente curto. As declarações de dois dos principais nomes da área reacenderam debates sobre riscos, oportunidades e a preparação das instituições para uma transformação sem precedentes.
Uma previsão que mudou o tom do encontro
Dario Amodei, CEO da Anthropic, e Demis Hassabis, CEO do Google DeepMind, colocaram números concretos sobre um cenário que até pouco tempo parecia distante. Ambos sugeriram que a inteligência artificial geral, ou IAG, pode surgir em um horizonte de um a cinco anos. Para eles, o momento atual não representa apenas mais um avanço tecnológico, mas uma fase crítica que exige coordenação global e decisões difíceis.
Amodei descreveu esse estágio como uma “adolescência tecnológica”, um período instável no qual sistemas ainda imperfeitos evoluem rápido demais para estruturas sociais que não acompanham o ritmo.
A corrida rumo ao “nível Nobel”

Ao ser questionado sobre sua previsão, Amodei afirmou que não acredita estar exagerando ao dizer que, entre 2026 e 2027, poderá existir um modelo capaz de desempenhar qualquer tarefa humana em nível comparável ao de um ganhador do Prêmio Nobel. O principal motor desse salto seria um ciclo acelerado no qual a própria IA já ajuda a desenvolver a próxima geração de modelos.
Segundo ele, isso já é visível no dia a dia. Em sua equipe, engenheiros deixaram de escrever código do zero e passaram a supervisionar o trabalho feito pelos modelos. Amodei estima que, em seis a doze meses, sistemas de IA poderão executar todo o trabalho de um engenheiro de software, do início ao fim.
Otimismo cauteloso no Google DeepMind
Demis Hassabis adotou um tom mais prudente, mas igualmente inquietante. Ele manteve sua estimativa de 50% de chance de alcançar a IAG até o fim da década. Embora reconheça avanços rápidos em programação e matemática, destacou que as ciências naturais ainda impõem limites, por dependerem de validação experimental no mundo físico.
Ainda assim, Hassabis afirmou que o Google DeepMind recuperou a liderança técnica com o lançamento do Gemini 3. Segundo ele, a empresa conseguiu resgatar uma mentalidade de startup dentro de uma estrutura gigante, acelerando ciclos de inovação e tomada de decisão.
Uma indústria em reorganização

O debate também revelou mudanças no equilíbrio de poder entre empresas de IA. Amodei defendeu o papel de laboratórios independentes, apontando um crescimento explosivo da Anthropic. A empresa teria passado de 100 milhões de dólares em receita em 2023 para 1 bilhão em 2024, com projeção de 10 bilhões em 2025.
Apesar das diferenças de escala, ambos concordaram em um ponto central: as organizações mais bem-sucedidas serão aquelas lideradas por pesquisadores focados em resolver problemas científicos reais, e não apenas em otimizar produtos comerciais.
Chips, poder e riscos globais

A conversa ganhou um tom mais sombrio ao abordar riscos geopolíticos. Amodei criticou duramente a venda de semicondutores avançados para países considerados adversários estratégicos, comparando a prática a vender armas nucleares por lucro de curto prazo.
Ele alertou para ameaças como bioterrorismo e para a ausência de instituições preparadas para lidar com sistemas extremamente poderosos. Para Amodei, a velocidade do avanço já configura uma crise que deveria concentrar boa parte da atenção política e científica global.
Trabalho, propósito e uma crise silenciosa
No campo econômico, Amodei reiterou que até metade dos empregos de escritório de nível inicial pode desaparecer em um intervalo de um a cinco anos. Hassabis observou sinais iniciais dessa tendência, como a desaceleração na contratação de estagiários.
Ainda assim, ele aconselhou jovens profissionais a se tornarem altamente proficientes no uso dessas ferramentas, argumentando que isso pode gerar mais valor do que uma formação tradicional isolada. O maior risco, segundo Hassabis, não é apenas o desemprego, mas a perda de sentido em uma sociedade onde produtividade deixa de ser o eixo central.
Uma reflexão sobre o futuro da humanidade
O debate terminou em um tom filosófico, com referência à Paradoxa de Fermi, que questiona por que não vemos sinais de outras civilizações inteligentes no universo. Hassabis rejeitou a ideia de que todas teriam se autodestruído ao alcançar tecnologias avançadas como a IAG.
Para ele, a humanidade pode já ter superado grandes filtros evolutivos, e o futuro dependerá de como lidará com sistemas capazes de criar outros sistemas. Esse será o ponto decisivo que separará uma era de prosperidade inédita de um período de emergência global sem precedentes.
[ Fonte: Infobae ]