В сфере ИИ появилась новая разработка от Alibaba Cloud — модель Qwen2.5-Max, построенная на архитектуре Mixture-of-Expert (MoE). Эта языковая модель прошла обучение на впечатляющем объеме данных, превышающем 20 триллионов токенов, что делает ее одной из наиболее масштабных в своем классе. В ходе разработки были применены современные методики обучения — в частности, применялась управляемая точная настройка (SFT) и обучение с подкреплением на основе обратной связи от людей (RLHF). Данная модель представляет особый интерес для исследователей и практиков в области искусственного интеллекта.
Технические особенности и архитектура
Основной особенностью Qwen2.5-Max является использование архитектуры MoE, которая представляет собой сложную систему «экспертных» модулей. Данная архитектура позволяет модели более эффективно обрабатывать различные типы задач, распределяя их между специализированными компонентами. Известно, что разработка столь масштабных моделей сопряжена с множеством технических сложностей, многие из которых стали известны только после выпуска DeepSeek V3. Процесс обучения модели такого масштаба требует значительных вычислительных ресурсов и тщательной оптимизации параметров.
Возможности и применение
Qwen2.5-Max демонстрирует высокие показатели в различных тестах и бенчмарках — в том числе и MMLU-Pro, в рамках которого проверяются знания на уровне колледжа. Модель способна работать с задачами программирования, что подтверждается результатами тестов LiveCodeBench. Особое внимание разработчики уделили общим возможностям модели, которые оцениваются через LiveBench. Благодаря этому модель можно использовать для решения достаточно широкого спектра задач — анализе текста, генерации кода и пр.
В реальных условиях Qwen2.5-Max может в принципе применяться для самых разных целей. К примеру, ее используют для разработки чат-ботов, всевозможных помощников и пр. Доступ к Qwen2.5-Max организован через облачную платформу Alibaba Cloud, что делает модель доступной для широкого круга разработчиков и исследователей. Для начала работы необходимо зарегистрировать аккаунт в Alibaba Cloud и активировать сервис Model Studio, после чего получить API-ключ для доступа к модели. Примечательно, что API Qwen полностью совместим с OpenAI API, что значительно упрощает интеграцию для разработчиков, уже имеющих опыт работы с подобными системами. Модель доступна под названием qwen-max-2025-01-25, и ее использование возможно как через чат-интерфейс Qwen Chat, так и через программный API.
Производительность и тестирование
В серии сравнительных тестов Qwen2.5-Max продемонстрировала впечатляющие результаты, превзойдя DeepSeek V3 в нескольких ключевых бенчмарках — в т.ч. Arena-Hard, LiveBench и LiveCodeBench. Особенно значительными оказались результаты в тесте GPQA-Diamond, который считается одним из сложнейших показателей эффективности языковых моделей. При этом модель показала конкурентоспособные результаты в тесте MMLU-Pro, хотя и не смогла занять лидирующую позицию во всех категориях. Тестирование проводилось в различных условиях и с разными типами задач, что позволяет говорить о достаточной объективности результатов.
В ходе исследования эффективности базовых моделей команда разработчиков столкнулась с определенными ограничениями, так как доступ к проприетарным моделям вроде GPT-4o и Claude-3.5-Sonnet оказался невозможен. В связи с этим основное сравнение проводилось с открытыми моделями — DeepSeek V3 и Llama-3.1-405B, а также с собственной разработкой компании — Qwen2.5-72B. Результаты этого сравнения показали значительное преимущество Qwen2.5-Max в большинстве тестов, хотя некоторые аспекты все еще требуют доработки. Специалисты компании отмечают, что дальнейшее совершенствование методик пост-обучения может существенно улучшить показатели следующих версий модели.
Пользовательский интерфейс
Каким образом происходит повседневное применение модели обычным юзером? Для начала следует перейти на официальную страницу Qwen2.5 и создать учетную запись. Далее можно свободно пользоваться чатом:
Как можно увидеть, пользователю предлагается удобный и минималистичный интерфейс, который напоминает классические чаты с ИИ. В левой части расположен список диалогов, а основное окно предназначено для общения с моделью. Пользователь может быстро начать новый чат, а также искать предыдущие разговоры. Ответы Qwen2.5-Plus выглядят просто и информативно, благодаря чему взаимодействие с моделью становится простым и интуитивно понятным.
Фрагмент использования модели для решения школьного уравнения:
Таким образом, Qwen2.5-Max, представляет собой значительный шаг в развитии масштабных языковых моделей, хотя и требует дальнейшего изучения и оптимизации для более широкого практического применения. Ее появление демонстрирует продолжающийся прогресс в области искусственного интеллекта, но также поднимает вопросы о необходимых ресурсах и эффективности использования столь крупных моделей.

Главный редактор
Социальные сети:
Telegram: https://t.me/creatorproject_ru
VK: https://vk.com/novosti_ai
Дзен: https://dzen.ru/ainewscp
RuTube: https://rutube.ru/channel/58102633/
YouTube: https://www.youtube.com/@creatorproject_ru
TikTok: https://www.tiktok.com/@creatorproject_ru
Likee: AI News (@creatorproject)
Как же много этих LLM становится. Я почитал дополнительную инфу по Qwen-2,5-max и вроде как на фоне остальных, она выглядит самой выгодной — у неё на данный момент больше возможностей и меньше ограничений.
Alibaba Cloud продолжает активно развивать свои AI-решения, и новая модель **Qwen2.5-Max** на архитектуре **MoE (Mixture of Experts)** выглядит перспективно. MoE позволяет задействовать только часть модели при каждом запросе, что делает её более эффективной по сравнению с традиционными архитектурами.
Интересно, сможет ли Qwen2.5-Max составить конкуренцию GPT-4 и Gemini 1.5? Как считаете, где она может найти наилучшее применение — в бизнес-аналитике, чат-ботах или автоматизации процессов? 🤔🚀
Alibaba Cloud реально подняла планку с их новой моделью Qwen2.5-Max. Но было бы здорово узнать, сколько энергии потребляет такой гигант. Это важно для бизнеса — одно дело создать супермощную модель, другое — сделать её использование экономически оправданным. В целом, похоже на серьёзный шаг вперёд в мире ИИ, хотя для повседневных задач это может быть как спорткар для поездок в магазин — красиво, мощно, но не всегда практично.
Два китайских релиза в сфере ИИ, от Alibaba и DeepSeek, усилили беспокойство Уолл-стрит по поводу технологического превосходства США. Очевидно, что Китай, несмотря на ограниченный доступ к передовым чипам, может развивать ИИ устойчивым путем. В то время как американские компании делают ставку на масштабирование через вычислительную мощность (например, OpenAI использует более 32 000 GPU для своих моделей), китайские разработчики добиваются успеха за счет архитектуры и оптимизации ресурсов.