Anthropic обвинила DeepSeek, MiniMax и Moonshot в незаконной «дистилляции» модели Claude

Anthropic утверждает, что DeepSeek и ещё две китайские AI-компании неправомерно использовали её модель Claude, пытаясь улучшить собственные продукты. В объявлении, сделанном в понедельник, Anthropic сообщает, что эти «кампании промышленного масштаба» включали создание около 24 000 мошеннических аккаунтов и более 16 млн взаимодействий с Claude.

Смотрите видео на удобном для вас ресурсе!

Три компании — DeepSeek, MiniMax и Moonshot — обвиняются в «дистилляции» Claude, то есть обучении меньшей модели на основе более продвинутой. Хотя Anthropic отмечает, что дистилляция является «легитимным методом обучения», она добавляет, что её также «можно использовать в незаконных целях», в том числе «для получения мощных возможностей от других лабораторий за долю времени и за долю стоимости по сравнению с тем, что потребовалось бы для самостоятельной разработки».

Anthropic добавляет, что модели, полученные путём незаконной дистилляции, «с большой вероятностью» не унаследуют существующие механизмы защиты. «Иностранные лаборатории, которые дистиллируют американские модели, затем могут внедрять эти незащищённые возможности в военные, разведывательные и системы наблюдения — позволяя авторитарным правительствам задействовать передовой ИИ для наступательных киберопераций, кампаний дезинформации и массовой слежки», — пишет Anthropic.

По данным Anthropic, DeepSeek, вызвавшая резонанс в индустрии ИИ благодаря своим мощным, но более эффективным моделям, провела свыше 150 000 взаимодействий с Claude и нацеливалась на его способности к рассуждению. Её также обвиняют в использовании Claude для генерации «альтернатив, безопасных с точки зрения цензуры, на политически чувствительные вопросы о диссидентах, партийных лидерах или авторитаризме». В письме законодателям на прошлой неделе OpenAI аналогично обвинила DeepSeek в «продолжающихся попытках паразитировать на возможностях, разработанных OpenAI и другими передовыми лабораториями США».

Moonshot и MiniMax, соответственно, провели с Claude более 3,4 млн и 13 млн взаимодействий. Anthropic призывает других участников AI-индустрии, облачных провайдеров и законодателей заняться проблемой дистилляции, добавляя, что «ограничение доступа к чипам» могло бы сдержать обучение моделей и «масштаб незаконной дистилляции».

Источник: The Verge

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter. Можете написать лучше? Мы всегда рады новым авторам.

Интересно? Поделиться:

Добавить комментарий

Оставляя комментарий вы соглашаетесь на обработку персональных данных в соответствии с политикой конфиденциальности, соглашаетесь с пользовательским соглашением. Ваш адрес email не будет опубликован. Обязательные поля помечены *

Рекомендуем почитать

Подпишитесь на нашу рассылку

Loading

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам:

Продолжая использовать наш сайт, вы соглашаетесь с использованием файлов cookie. Они помогают нам обеспечивать корректную работу сайта и делать его более удобным.
Принять
Политика конфиденциальности