Китайские ИИ-компании использовали Claude для обучения собственных моделей, заявили в Anthropic

Речь идёт о компаниях DeepSeek, Moonshot и MiniMax, которые с помощью примерно 24 000 фальшивых аккаунтов создали более 16 миллионов взаимодействий с Claude, нарушив условия использования и ограничения доступа.
Anthropic утверждает, что эти компании применяли метод под названием «дистилляция» — при котором более слабая модель обучается на ответах более мощной. С её помощью они пытались «перенять» возможности Claude для собственных моделей без разрешения.
В заявлении Anthropic также говорится о том, что такие кампании становятся всё более масштабными и сложными, и что нелегально полученные модели могут представлять угрозу национальной безопасности, особенно если они будут открыто распространяться без необходимых мер защиты.
Anthropic настаивает на необходимости ужесточения контроля за экспортом передовых чипов, чтобы ограничить как прямую подготовку моделей, так и их дистилляцию.
Компании DeepSeek AI и MiniMax пока не ответили на запросы о комментариях.