A saída de um pesquisador de segurança raramente vira manchete. Mas quando esse pesquisador afirma que “o mundo está em perigo”, a declaração ganha outro peso. Foi o que aconteceu com Mrinank Sharma, que até 9 de fevereiro liderava a área de salvaguardas de inteligência artificial na Anthropic.
Em sua carta de despedida, Sharma argumenta que os riscos atuais ultrapassam a própria IA. Para ele, a tecnologia está inserida em uma rede de crises interconectadas — éticas, políticas e sociais — que evoluem simultaneamente.
Segurança, bioterrorismo e “adulação algorítmica”

Durante dois anos na empresa, Sharma trabalhou em áreas sensíveis. Entre suas contribuições, cita pesquisas sobre o fenômeno da “adulação da IA” — quando sistemas respondem de forma excessivamente complacente ou reforçam crenças do usuário — e o desenvolvimento de defesas contra possíveis usos da IA para bioterrorismo.
Ele também participou da implementação prática dessas defesas e da elaboração de um dos primeiros “casos formais de segurança em IA” dentro da organização, documento que sistematiza riscos e medidas de mitigação.
Outro ponto destacado foi o apoio à criação de mecanismos internos de transparência e a investigação de como assistentes de IA podem “nos tornar menos humanos ou distorcer nossa humanidade”.
Uma crise que vai além da tecnologia
Para Sharma, o problema central não é apenas técnico. Ele aponta a dificuldade de alinhar valores pessoais com decisões institucionais em um setor marcado por crescimento acelerado e pressão competitiva.
“Tenho visto repetidamente o quão difícil é permitir que nossos valores orientem nossas ações”, escreveu.
Sua advertência é direta: “O mundo está em perigo. E não apenas por causa da inteligência artificial ou de armas biológicas, mas por uma série de crises interligadas que se desenrolam neste momento”.
A declaração ecoa preocupações já expressas por lideranças da própria Anthropic, incluindo seu CEO, Dario Amodei, que tem alertado publicamente sobre os riscos de desenvolver tecnologia poderosa sem estruturas éticas sólidas.
Uma empresa fundada com foco em segurança
A Anthropic foi criada por ex-integrantes da OpenAI com a proposta explícita de priorizar segurança e alinhamento ético no desenvolvimento de modelos de linguagem avançados.
A empresa se posiciona como uma das vozes mais cautelosas no setor, defendendo testes rigorosos, monitoramento de riscos e mecanismos de governança interna. Ainda assim, a saída de um líder da área de salvaguardas reforça que o debate está longe de ser consensual.
Nos últimos meses, outras mudanças internas também chamaram atenção, ampliando o foco sobre como grandes laboratórios de IA lidam com responsabilidade e transparência.
Uma busca por integridade pessoal
Na carta, Sharma afirma que sua decisão está ligada a uma busca por coerência pessoal. Ele pretende retornar ao Reino Unido para se dedicar à escrita, à poesia e ao trabalho comunitário.
Citando influências literárias como David Whyte e Rainer Maria Rilke, o pesquisador sugere que deseja explorar perguntas que considera fundamentais — aquelas que “não têm o direito de ir embora”.
“Não sei o que vem agora”, escreveu, indicando que quer criar espaço para refletir fora das estruturas corporativas que moldaram seus últimos anos.
Entre risco e potencial

Apesar do tom alarmante, o debate não é unilateral. A inteligência artificial segue impulsionando avanços significativos em áreas como saúde, educação e pesquisa científica.
Especialistas defendem que, com regulação adequada, supervisão científica independente e participação ativa da sociedade civil, a tecnologia pode ser uma ferramenta poderosa para enfrentar desafios globais.
A renúncia de Sharma, no entanto, serve como lembrete de que poder tecnológico e maturidade ética nem sempre avançam no mesmo ritmo.
O ponto central levantado por ele é simples — e incômodo: a humanidade está ampliando rapidamente sua capacidade de transformação. A questão é se sua sabedoria crescerá na mesma proporção.
[ Fonte: Infobae ]