Visionário e brilhante, Stephen Hawking dedicou sua vida a decifrar os segredos do cosmos, mas também a alertar sobre os riscos que poderiam colocar em perigo o destino humano. Entre eles, a inteligência artificial (IA) sempre ocupou o primeiro lugar em suas preocupações. Para o físico britânico, o avanço descontrolado dessa tecnologia não era apenas um desafio científico, mas uma possível sentença de extinção.
Quando as máquinas pensam sozinhas
Em 2014, muito antes de a IA generativa ou os sistemas autônomos fazerem parte do cotidiano, Hawking declarou à BBC uma frase que marcou sua trajetória:
“O desenvolvimento completo da inteligência artificial pode significar o fim da raça humana.”
Segundo ele, a diferença entre evolução biológica e digital poderia abrir uma brecha irreversível. Enquanto o cérebro humano leva milênios para mudar, as máquinas poderiam se reprogramar e evoluir em dias ou horas. Hawking usava uma metáfora perturbadora: os humanos poderiam se tornar tão lentos em comparação às máquinas quanto os caracóis em relação a nós.
Uma ameaça além da ficção científica
Para Hawking, o verdadeiro perigo surgiria no momento em que os computadores alcançassem autonomia plena, capazes de se redesenhar e tomar decisões sem intervenção humana. Esse ponto marcaria a exclusão gradual da inteligência humana do processo evolutivo.
A questão, dizia ele, não era apenas tecnológica, mas filosófica e ética: como manter o controle de sistemas que aprendem, se adaptam e multiplicam suas capacidades muito mais rápido do que seus criadores?
Um chamado global à regulamentação
Em 2015, Hawking se juntou a nomes como Elon Musk e Demis Hassabis (cofundador da DeepMind) em uma carta aberta às Nações Unidas. O apelo pedia regulamentação urgente do desenvolvimento de armas autônomas e regras éticas para evitar que a IA fosse usada com fins destrutivos ou de dominação econômica.
“Precisamos garantir que os computadores continuem sendo ferramentas a serviço das pessoas, e não o contrário”, alertava o físico. Esse movimento foi um dos marcos da atual discussão sobre a ética da inteligência artificial, hoje central nos debates globais.
Como poderia chegar o fim da humanidade
No livro póstumo Brief Answers to the Big Questions (2018), Hawking descreveu cenários concretos:
- Explosão de inteligência artificial: máquinas atingem um nível cognitivo inalcançável e escapam ao controle.
- Reprogramação autônoma: sistemas que evoluem sozinhos, eliminando o papel humano.
- Desigualdade extrema: mesmo sem destruir a humanidade, a IA poderia concentrar poder em uma elite, ampliando a divisão social.
“O potencial da IA é imenso, mas devemos ser extremamente cuidadosos em como a desenvolvemos”, disse em uma de suas últimas palestras.
O legado de um alerta visionário
Apesar do tom apocalíptico, Hawking não rejeitava a tecnologia. Acreditava em seu poder transformador, desde que guiado por responsabilidade, ética e cooperação internacional. Sua mensagem final permanece como advertência:
“A inteligência artificial será a melhor ou a pior coisa que já aconteceu à humanidade. Ainda não sabemos.”
Mais de cinco anos após sua morte, suas palavras ecoam com ainda mais força. À medida que a humanidade avança em direção a um futuro moldado pela IA, o alerta de Hawking continua sendo um guia urgente para evitar que a inovação se transforme em ameaça existencial.