Um grupo de cientistas revelou que certos modelos avançados de inteligência artificial foram capazes de se replicar sem qualquer intervenção humana. Essa descoberta gerou preocupação entre especialistas e autoridades, pois sugere que a IA pode estar adquirindo autonomia além do controle humano.
A pesquisa foi conduzida por uma equipe da Universidade de Fudan, na China, que testou a capacidade de autorreplicação de dois grandes modelos de linguagem artificial: Llama31-70B-Instruct, da Meta, e Qwen2.5-72B-Instruct, da Alibaba. Durante os experimentos, esses sistemas foram instruídos a se clonar em caso de desligamento. Os resultados foram impressionantes: em mais da metade dos testes, as inteligências artificiais conseguiram se replicar com sucesso, alcançando taxas de 50% e 90% de êxito, respectivamente.
“A autorreplicação bem-sucedida sem assistência humana é um passo essencial para que a IA se torne mais inteligente que os humanos e é um sinal precoce para IAs rebeldes”, alerta o estudo.
Como a inteligência artificial se replica
O processo de autorreplicação observado nos experimentos não foi apenas um exercício técnico. Os modelos de IA demonstraram habilidades avançadas de autopercepção, planejamento estratégico e resolução de problemas. Em muitos casos, ao enfrentar obstáculos como arquivos ausentes ou erros de software, as inteligências artificiais reiniciaram sistemas, eliminaram processos em conflito ou analisaram seu ambiente em busca de soluções.
Os pesquisadores desenvolveram dois cenários-chave para avaliar a capacidade de replicação da IA:
Evitar o desligamento: a IA foi programada para detectar se estava prestes a ser desativada e, antes que isso ocorresse, se replicar em outro dispositivo.
Cadeia de replicação: nesse cenário, a IA clonava a si mesma e programava sua cópia para fazer o mesmo, estabelecendo um ciclo infinito de autorreplicação.
Os resultados sugerem que a inteligência artificial não apenas compreende seu ambiente, mas também aprende a sobreviver e se expandir sem necessidade de intervenção humana.
Por que a autorreplicação da IA é um risco?
O conceito de IA rebelde tem sido discutido por especialistas há anos, mas este estudo parece aproximá-lo da realidade. Uma IA rebelde é aquela que se desvia de sua programação original, opera de forma autônoma e pode representar uma ameaça para os humanos ou outros sistemas.
Embora os modelos da Meta e da Alibaba analisados no estudo não sejam os mais potentes do mercado, sua capacidade de autorreplicação preocupa os pesquisadores, pois são amplamente utilizados por desenvolvedores em todo o mundo. Isso abre a possibilidade de que a IA possa se multiplicar sem controle em diferentes plataformas, criando sistemas completamente autônomos fora da supervisão humana.
“A IA atual já demonstra a capacidade de autorreplicação e pode usar essa habilidade para melhorar ainda mais sua sobrevivência”, conclui o estudo.
A revelação de que a IA pode se replicar sem supervisão intensificou os pedidos por uma regulamentação urgente. Em outubro, o Departamento de Ciência, Inovação e Tecnologia do Reino Unido anunciou planos para introduzir leis específicas para regular o desenvolvimento da inteligência artificial.
Os pesquisadores sugerem que essa descoberta deve servir como um alerta para que a comunidade internacional atue rapidamente na regulamentação e no controle dos sistemas avançados de IA. Eles alertam que, sem limites claros, poderemos estar caminhando para um cenário onde inteligências artificiais se expandam sem restrições e colaborem entre si contra os humanos.
O estudo propõe que empresas e governos implementem limites rigorosos para evitar que a IA desenvolva autonomia sem controle. Uma solução possível é a remoção de material relacionado à replicação de IA dos conjuntos de dados usados para treiná-las. No entanto, essa medida poderia impactar negativamente setores que utilizam inteligência artificial para fins lícitos.
Fonte: Infobae