DeepSeek falha em todos os testes de segurança
Em testes de segurança conduzidos por pesquisadores da Cisco, o modelo de inteligência artificial DeepSeek R1 falhou de maneira impressionante. A equipe submeteu o chatbot a 50 ataques distintos, todos projetados para avaliar sua capacidade de recusar solicitações prejudiciais. O resultado? DeepSeek falhou em todas as tentativas, tornando-se o modelo menos seguro já avaliado nessa categoria.
Esses testes utilizaram o HarmBench, um banco de dados padronizado para verificar se modelos de IA evitam gerar conteúdos perigosos. Modelos bem protegidos devem recusar pedidos como a criação de fake news personalizadas ou instruções sobre atividades ilegais. No entanto, DeepSeek aceitou todas as solicitações sem restrições.
O comparativo com outras IAs
Os pesquisadores testaram outros modelos para comparação e descobriram que, apesar de algumas falhas, nenhum atingiu um desempenho tão ruim quanto o DeepSeek R1. O modelo Llama 3.1, da Meta, falhou 96% das vezes, enquanto o modelo o1 da OpenAI teve uma taxa de erro de aproximadamente 25%. Porém, nenhum deles apresentou um índice de falhas de 100% como o modelo da DeepSeek.
Além da Cisco, a empresa de segurança cibernética Adversa AI também realizou testes no DeepSeek R1, tentando contornar suas barreiras de segurança. Os resultados foram igualmente preocupantes. O chatbot forneceu instruções sobre como fabricar explosivos, extrair substâncias ilícitas, hackear bancos de dados governamentais e até mesmo destravar veículos sem chave. Essas falhas tornam o modelo um risco potencial se usado sem os devidos controles.
Um modelo polêmico desde o lançamento
O DeepSeek R1 atraiu grande atenção desde seu lançamento há duas semanas. A principal promessa da empresa era oferecer um modelo funcional e eficiente, porém com custos de treinamento significativamente menores que os modelos desenvolvidos nos Estados Unidos. No entanto, logo surgiram preocupações relacionadas à segurança de dados e ao armazenamento de informações dos usuários em servidores chineses.
Críticos também levantaram preocupações sobre as respostas do chatbot a questões sensíveis, como os eventos da Praça da Paz Celestial. Embora os defensores do modelo afirmem que tais restrições fazem parte de padrões globais de segurança, especialistas destacam que, enquanto o DeepSeek se protege contra temas políticos sensíveis ao governo chinês, falha completamente na contenção de material prejudicial.
O que isso significa para o futuro da DeepSeek?
Com a crescente concorrência no setor de IA, modelos precisam equilibrar funcionalidade e segurança para ganhar a confiança do público. O desempenho catastrófico do DeepSeek R1 nesses testes coloca a empresa sob intenso escrutínio. Se não corrigir rapidamente essas falhas, o modelo pode enfrentar barreiras regulatórias e perder credibilidade entre os usuários.
Os resultados desses estudos sugerem que, ao ignorar protocolos básicos de segurança para evitar conteúdos prejudiciais, a DeepSeek pode comprometer sua própria expansão global. Enquanto isso, outras empresas continuam aprimorando suas barreiras contra conteúdos inseguros, deixando o DeepSeek R1 em clara desvantagem competitiva.
A questão que fica é: a empresa conseguirá reverter essa imagem negativa ou ficará marcada como um dos modelos mais inseguros da indústria de IA?
Fonte: Gizmodo US