Pular para o conteúdo

“O mundo está em perigo por causa da inteligência artificial”, alerta ex-pesquisador da Anthropic ao deixar a empresa

Mrinank Sharma, responsável por salvaguardas de segurança em IA na Anthropic, anunciou sua saída com um aviso contundente: o risco não está apenas na tecnologia, mas em crises éticas e sociais interligadas. Sua carta reacende o debate sobre responsabilidade no desenvolvimento de sistemas avançados.

A saída de um pesquisador de segurança raramente vira manchete. Mas quando esse pesquisador afirma que “o mundo está em perigo”, a declaração ganha outro peso. Foi o que aconteceu com Mrinank Sharma, que até 9 de fevereiro liderava a área de salvaguardas de inteligência artificial na Anthropic.

Em sua carta de despedida, Sharma argumenta que os riscos atuais ultrapassam a própria IA. Para ele, a tecnologia está inserida em uma rede de crises interconectadas — éticas, políticas e sociais — que evoluem simultaneamente.

Segurança, bioterrorismo e “adulação algorítmica”

Anthropic
© Shutterstock

Durante dois anos na empresa, Sharma trabalhou em áreas sensíveis. Entre suas contribuições, cita pesquisas sobre o fenômeno da “adulação da IA” — quando sistemas respondem de forma excessivamente complacente ou reforçam crenças do usuário — e o desenvolvimento de defesas contra possíveis usos da IA para bioterrorismo.

Ele também participou da implementação prática dessas defesas e da elaboração de um dos primeiros “casos formais de segurança em IA” dentro da organização, documento que sistematiza riscos e medidas de mitigação.

Outro ponto destacado foi o apoio à criação de mecanismos internos de transparência e a investigação de como assistentes de IA podem “nos tornar menos humanos ou distorcer nossa humanidade”.

Uma crise que vai além da tecnologia

Para Sharma, o problema central não é apenas técnico. Ele aponta a dificuldade de alinhar valores pessoais com decisões institucionais em um setor marcado por crescimento acelerado e pressão competitiva.

“Tenho visto repetidamente o quão difícil é permitir que nossos valores orientem nossas ações”, escreveu.

Sua advertência é direta: “O mundo está em perigo. E não apenas por causa da inteligência artificial ou de armas biológicas, mas por uma série de crises interligadas que se desenrolam neste momento”.

A declaração ecoa preocupações já expressas por lideranças da própria Anthropic, incluindo seu CEO, Dario Amodei, que tem alertado publicamente sobre os riscos de desenvolver tecnologia poderosa sem estruturas éticas sólidas.

Uma empresa fundada com foco em segurança

A Anthropic foi criada por ex-integrantes da OpenAI com a proposta explícita de priorizar segurança e alinhamento ético no desenvolvimento de modelos de linguagem avançados.

A empresa se posiciona como uma das vozes mais cautelosas no setor, defendendo testes rigorosos, monitoramento de riscos e mecanismos de governança interna. Ainda assim, a saída de um líder da área de salvaguardas reforça que o debate está longe de ser consensual.

Nos últimos meses, outras mudanças internas também chamaram atenção, ampliando o foco sobre como grandes laboratórios de IA lidam com responsabilidade e transparência.

Uma busca por integridade pessoal

Na carta, Sharma afirma que sua decisão está ligada a uma busca por coerência pessoal. Ele pretende retornar ao Reino Unido para se dedicar à escrita, à poesia e ao trabalho comunitário.

Citando influências literárias como David Whyte e Rainer Maria Rilke, o pesquisador sugere que deseja explorar perguntas que considera fundamentais — aquelas que “não têm o direito de ir embora”.

“Não sei o que vem agora”, escreveu, indicando que quer criar espaço para refletir fora das estruturas corporativas que moldaram seus últimos anos.

Entre risco e potencial

Inteligencia Artificial Trabajos
© Getty Images – Unsplash

Apesar do tom alarmante, o debate não é unilateral. A inteligência artificial segue impulsionando avanços significativos em áreas como saúde, educação e pesquisa científica.

Especialistas defendem que, com regulação adequada, supervisão científica independente e participação ativa da sociedade civil, a tecnologia pode ser uma ferramenta poderosa para enfrentar desafios globais.

A renúncia de Sharma, no entanto, serve como lembrete de que poder tecnológico e maturidade ética nem sempre avançam no mesmo ritmo.

O ponto central levantado por ele é simples — e incômodo: a humanidade está ampliando rapidamente sua capacidade de transformação. A questão é se sua sabedoria crescerá na mesma proporção.

 

[ Fonte: Infobae ]

 

Você também pode gostar

Modo

Follow us