...

Открытый ИИ догоняет GPT-5. Обзор DeepSeek V3.2 и Speciale

Китайская исследовательская лаборатория DeepSeek выпустила новые модели V3.2 и V3.2-Speciale. Обновленные нейросети демонстрируют производительность уровня GPT-5 (при стоимости в 10-25 раз ниже конкурентов). Релиз произошел в тот момент, когда отрасль еще переваривала выход Claude Opus 4.5 и других флагманских моделей. Вместе с командой Креатор Проджект разберемся, чем интересны новшества от DeepSeek.

Смотрите видео на удобном для вас ресурсе!

Архитектура эффективности

В основе V3.2 лежит архитектура Mixture-of-Experts с 671 млрд. параметров, но активируется лишь около 37 млрд. на каждый токен. Основная инновация – механизм DeepSeek Sparse Attention (DSA), который значительно снижает вычислительную сложность обработки внимания нейросети. Иными словами, качество вывода сохраняется, при этом затраты на обработку длинных текстов снижаются приблизительно наполовину.

Технически система DSA работает за счет специального механизма под названием «lightning indexer», который не пытается сравнивать каждый токен с другим, как делают обычные трансформеры, а выбирает только те части текста, которые действительно важны для сохранения смысла. Благодаря этому модель способна обрабатывать контексты до 128 тысяч токенов без резкого роста стоимости вычислений. В работе доступны два режима: «thinking», при котором модель показывает ход своих рассуждений, и «non-thinking»; в последнем случае она отвечает сразу, без раскрытия цепочки мыслей.

DeepSeek V3.2 стала первой моделью от DeepSeek, в которой логика рассуждения встроена прямо в процесс использования инструментов. Для обучения нейросети был создан большой набор синтетических данных: более 1800 различных сред и примерно 85 тысяч многошаговых инструкций. Чтобы модель уверенно справлялась со сложными сценариями, применили масштабное обучение с подкреплением, а также специальный обновленный протокол GRPO, который помогает стабилизировать процесс обучения. Дополнительно также использовали специальные методы из DeepSeekMath V2; прежде всего, системы самопроверки, которые улучшают математические способности, а также помогают модели находить и исправлять собственные ошибки.

Производительность на бенчмарках

На математическом тесте AIME 2025 базовая V3.2 показала 93.1% точности, а этот показатель сопоставим с GPT-5. Модель достигла рейтинга 2386 на Codeforces – платформе соревновательного программирования. На агентских бенчмарках результаты тоже оказались впечатляющими и составили 73.1% на SWE-Verified, 70.2% на SWE-Multilingual и 46.4% на Terminal Bench 2.0. Модель хорошо справляется с рефакторингом кода, анализом багов, выполнением сложных последовательностей действий и множеством других сложных задач.

Сравнение DeepSeek V3.2 с конкурентами на ключевых бенчмарках. Источник: https://lastweekin.ai/p/last-week-in-ai-328-deepseek-32-mistral

V3.2-Speciale представляет собой усиленную версию базовой модели. Она решает задачи дольше и тщательнее. Модель достигла 96% на AIME 2025, тем самым превзойдя GPT-5 High. Модель получила золотые медали на Международной математической олимпиаде 2025, Международной олимпиаде по информатике, финале ICPC World Finals и Китайской математической олимпиаде – соревнованиях, в которых участвует мировая математическая элита.

Рейтинг Codeforces у Speciale достиг 2701, что соответствует категории «гроссмейстер» – такого уровня достигает меньше 1% программистов в мире. На тесте генерации кода HumanEval модель показала 90.2%. Для сравнения: Gemini 3.0 Pro имеет рейтинг 2708 на Codeforces, но на практике такая разница оказывается почти незаметной. Обе модели справляются с алгоритмическими задачами, которые не по силам подавляющему большинству инженеров.

Правда, в действительности не все так уж и радужно, как может показаться на первый взгляд. На бенчмарке Humanity’s Last Exam, который создан специально для проверки пределов возможностей ИИ, Gemini 3.0 Pro оказывается впереди: 37.7% против 30.6% у V3.2-Speciale. Получается, что Google пока держит первенство в широте знаний и понимании сложных концепций. Впрочем, для открытой модели даже близость к результатам закрытого флагмана – уже неплохой результат.

В техническом отчете нет ни слова о проверках безопасности или защитных мерах; модель выпущена открыто, без каких-либо ограничений. И это, конечно, не может не вызывать вопросов. С другой стороны, открытость предоставляет возможность научному сообществу самостоятельно изучить безопасность модели, чего нельзя сделать с закрытыми системами.

Практические соображения

Некоторые специалисты замечают, что DeepSeek V3.2 работает медленнее флагманских закрытых моделей, хотя качество ответов нейросети все-таки остается с ними сопоставимым. Выбор между ценой и скоростью подходит не всем. Если приложению критически важна минимальная задержка, придется платить больше за быстрые альтернативы. Зато для пакетной обработки данных или задач с участием агентов, в которых высокая скорость не так уж и важна, экономия от DeepSeek очевидна.

Отметим, что на практике нейросеть отвечает довольно быстро и качественно:

Еще один пример запроса:

Выводы

В заключение добавим, что, несмотря на недостатки своих нейросетевых продуктов, последние три года компания DeepSeek увеличивает выручку в десять раз ежегодно. Стратегия открытого кода и низких цен давит на рынок: закрытым компаниям приходится объяснять, почему их премиальные цены оправданы. Когда появляются надежные открытые модели с топовой производительностью и ценой в 25 раз ниже, желание клиентов платить большие деньги за небольшие улучшения резко падает.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter. Можете написать лучше? Мы всегда рады новым авторам.

Интересно? Поделиться:

Добавить комментарий

Оставляя комментарий вы соглашаетесь на обработку персональных данных в соответствии с политикой конфиденциальности, соглашаетесь с пользовательским соглашением. Ваш адрес email не будет опубликован. Обязательные поля помечены *

Подпишитесь на нашу рассылку

Loading

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам:

Продолжая использовать наш сайт, вы соглашаетесь с использованием файлов cookie. Они помогают нам обеспечивать корректную работу сайта и делать его более удобным.
Принять