DeepSeek подозревается в использовании Google Gemini при обучении ИИ
Китайская компания DeepSeek, специализирующаяся на разработке языковых моделей, оказалась в центре скандала после публикации новой версии своей ИИ-системы R1-0528. Исследователи в области искусственного интеллекта заподозрили, что при обучении этой модели могли быть использованы ответы, сгенерированные американской моделью Google Gemini.
Первым об этом заявил разработчик Сэм Пич из Мельбурна. Он провел тестирование DeepSeek R1-0528 и обнаружил, что её ответы практически идентичны тем, которые дает Gemini 2.5 Pro — модель, доступ к которой предоставляется только после подтверждения личности. По его словам, DeepSeek, вероятно, обучалась на выводах Gemini, что указывает на использование метода дистилляции — когда одна модель учится на результатах другой, более продвинутой.
Факт подобного копирования вызывает вопросы. Хотя сама дистилляция не является нарушением закона, обучение на выводах закрытых моделей конкурентов может противоречить условиям использования и затрагивать авторские права. Это уже не первый случай, когда DeepSeek подозревается в подобных действиях — ранее эксперты предполагали, что ее старшие модели могли быть обучены на материалах, созданных ChatGPT.
В условиях обостряющейся конкуренции такие инциденты становятся все более чувствительными для индустрии. Google, OpenAI и другие крупные игроки усилили меры безопасности, стремясь предотвратить обучение внешних моделей на их выводах. Например, доступ к продвинутым функциям Gemini осуществляется только после верификации аккаунта, а сами ответы часто стилизуются таким образом, чтобы затруднить их последующее использование в обучении сторонних ИИ.
Пока DeepSeek не дала официального ответа на обвинения. Однако инцидент уже вызвал широкий резонанс в профессиональном сообществе и вновь поставил на повестку дня необходимость международных стандартов и прозрачных правил в области разработки искусственного интеллекта.