OpenAI lançou uma investigação contra a DeepSeek, startup chinesa, acusada de usar uma técnica de “destilação” para replicar os modelos da empresa americana. Descubra como essa prática está gerando tensões entre os líderes da IA e levantando importantes questões sobre a ética e a segurança tecnológica.
Investigação e as suspeitas iniciais
A investigação da OpenAI teve início após sinais de atividades suspeitas ligadas a contas chinesas. Essas contas, associadas à DeepSeek, tentaram acessar grandes volumes de dados das ferramentas da empresa americana, violando os termos de uso. A prática em questão, conhecida como “destilação”, consiste em treinar um modelo menor e mais eficiente copiando as respostas de um maior.
Segundo o The Wall Street Journal, a destilação reduz custos e acelera o desenvolvimento de novas soluções. No entanto, a OpenAI alega que essa prática, aplicada para criar concorrentes, constitui uma violação explícita de suas políticas. Microsoft, parceira estratégica da OpenAI, também relatou atividades irregulares em 2024, detectadas por seus pesquisadores de segurança.
Medidas contra o uso não autorizado
Em resposta às suspeitas, a OpenAI bloqueou contas relacionadas a essas atividades. A empresa, em colaboração com a Microsoft, identificou possíveis responsáveis pela tentativa de extrair dados de forma indevida.
Um porta-voz da OpenAI afirmou ao Financial Times: “Estamos cientes de que empresas baseadas na China — e em outros locais — constantemente buscam destilar os modelos das principais companhias de IA dos Estados Unidos”. Ele destacou que trabalham em conjunto com o governo americano para proteger suas tecnologias mais avançadas.
Entre as estratégias de proteção, a OpenAI reforçou controles sobre as capacidades dos modelos disponibilizados ao público e intensificou suas contramedidas contra práticas de destilação não autorizada.
Controvérsias e desafios éticos
Enquanto OpenAI combate práticas ilegais de destilação, enfrenta críticas similares. A empresa foi acusada de usar dados de autores e organizações jornalísticas sem autorização para treinar seus próprios modelos. Esse cenário reflete os dilemas éticos da indústria de IA, onde a proteção da propriedade intelectual e o uso responsável de dados se tornaram questões centrais.
A controvérsia também mobilizou especialistas. David Sacks, figura importante em políticas de inteligência artificial, declarou à Fox News que há evidências substanciais contra a DeepSeek. Contudo, não apresentou provas concretas, segundo o Financial Times.
Proteção de tecnologia e o futuro da IA
A OpenAI enfatiza a importância de colaboração com o governo americano para proteger seus avanços tecnológicos. Em nota reproduzida pelo The Guardian, afirmou: “Trabalhar em conjunto é essencial para evitar que adversários e competidores se apropriem de tecnologias cruciais”.
O caso DeepSeek ilustra os riscos enfrentados por líderes da IA em um ambiente de crescente competição global. Paralelamente, destaca a necessidade de regras claras e práticas éticas para equilibrar inovação e segurança na era da inteligência artificial.
Fonte: Infobae