Корейская нейросеть K-EXAONE: как LG вошла в мировую десятку и что из этого получилось

В мировом рейтинге открытых языковых моделей в течение длительного времени существовало (да и существует по сей день) два полюса – американские разработчики и китайские. Остальные зачастую присутствуют где-то на периферии, не особо претендуя на первые строчки.

Однако в конце декабря 2025 года LG AI Research (Южная Корея) нарушила это равновесие, выпустив K-EXAONE – модель, которая сразу после появления на Hugging Face взлетела на второе место в глобальном тренде платформы и стала единственной корейской моделью в мировом топ-10 среди открытых систем, в котором первые шесть позиций заняты китайскими разработчиками, а три – американскими. Корейцы, которые умеют делать телевизоры, стиральные машины и чипы, теперь претендуют на место в клубе разработчиков больших языковых моделей. История, как отмечают эксперты Креатор Проджект, получилась неожиданно интересной.

Смотрите видео на удобном для вас ресурсе!

Для чего корейцы создали собственную нейросеть

Полное техническое название модели – K-EXAONE-236B-A23B (первая часть представляет собой само имя модели, вторая – общий размер параметров, а третья – активные параметры во время работы).

Модель представляет собой не просто еще один корпоративный AI-проект. За ним стоит государственная программа создания суверенной модели: LG участвовала в правительственном конкурсе среди пяти команд, победила в 10 из 13 тестов и получила наивысший средний балл среди всех участников. При этом Южная Корея сознательно решила не зависеть от американских и китайских моделей в критически важных приложениях, и K-EXAONE стал первым результатом этой амбиции.

LG поставила себе конкретную цель, которая заключалась в том, чтобы превзойти Alibaba Qwen3, одного из сильнейших открытых китайских конкурентов. По итогам 13 стандартных тестов K-EXAONE набрала средний балл 72,03 против 69,37 у Qwen3. По меркам ИИ-соревнований, в которых конкуренты борются за десятые доли процента, разрыв в три балла довольно-таки ощутим.

Примечателен и темп разработки. LG дошла до уровня конкурентоспособной модели за пять месяцев, а глава лаборатории Ли Джин-сик открыто признал, что первая версия создана примерно на половине доступных данных. Это либо очень честное признание ограничений, либо заявка на то, что следующая версия будет еще серьезнее. Скорее всего, и то и другое одновременно.

Источник: https://www.koreaherald.com/article/10652980

Как работает модель, что она умеет

K-EXAONE построена на архитектуре, в которой основная часть параметров большую часть времени не задействована. При общем объеме в 236 млрд. параметров во время обработки каждого запроса активны только около 10 % (примерно 23 млрд.). Эта особенность позволяет достичь производительности крупной модели при существенно меньших вычислительных затратах, чем если бы все параметры работали постоянно. Схема не уникальная, ведь похожие решения использует и DeepSeek, и IBM Granite; однако здесь большее значение имеет сама реализация.

Особо стоит отметить подход к обучению: разработчики намеренно обучали модель не просто запоминать правильные ответы, а воспроизводить логику решения задач. В процессе обучения использовались данные с так называемыми «траекториями мышления» (то есть, в которых имелись не только итоговые ответы, но и последовательность рассуждений, которые к этим ответам ведут). Данный момент отличает K-EXAONE от систем, которые хорошо выглядят на тестах за счет прямого совпадения с обучающими данными, но теряются при встрече с нестандартными задачами.

Контекстное окно модели позволяет работать с текстами объемом около 400 страниц формата А4 за один раз. Скорость генерации при этом заметно выше среднего для моделей сопоставимого размера, а время до первого ответа очень короткое и составляет 0,3 секунды против среднего по классу в 1,14 секунды. Когда речь идет об агентных приложениях, в работе с которыми пользователю приходится ждать реакции на каждый шаг, такая разница будет ощутимой.

Честный взгляд

Однако необходимо понимать, в каком состоянии находится этот продукт. Руководство LG само называло выпущенную версию «отправной точкой» и обещало существенно усилить модель в последующих итерациях. Честное признание, однако оно говорит о том, что перед нами версия первая и еще пока не доведенная до совершенства, со всеми вытекающими.

Стоит держать в голове один нюанс относительно этой модели – на тестах она генерирует 100 млн. токенов при среднем значении по классу в 14 млн. Речь идет о «многословности» модели, или же склонности отвечать значительно длиннее, чем требуется. В некоторых задачах это качество будет излишним.

Независимый эксперт Джей Ли, комментируя EXAONE, сформулировал мысль, которая хорошо описывает ситуацию: модель конкурентоспособна и перспективна, но правильный путь состоит в том, чтобы сначала накопить реальные кейсы применения в конкретных индустриях, построить доверие там, а уже потом двигаться на глобальный рынок. Тут речь даже не о критике, а о вполне здравой стратегической логике. Войти в топ-10 мирового рейтинга – уже существенное достижение. Но стать инструментом, который реально меняет рабочие процессы в компаниях за пределами Кореи – совсем другая история.

Модель доступна на Hugging Face с открытыми весами, работает на GPU-оборудовании предыдущего поколения без необходимости в самом дорогом железе, и это делает ее реальным вариантом для компаний, которые хотят развернуть серьезную языковую модель без сверхзатрат на инфраструктуру. Период бесплатного API-доступа для знакомства с моделью уже закончился, но веса открыты, и сообщество с ними работает. K-EXAONE является моделью с реальными результатами и реальными ограничениями, которая появилась быстрее, чем многие ожидали от корейской команды. Что получится из этого дальше, посмотрим в следующих версиях.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter. Можете написать лучше? Мы всегда рады новым авторам.

Интересно? Поделиться:

Добавить комментарий

Оставляя комментарий вы соглашаетесь на обработку персональных данных в соответствии с политикой конфиденциальности, соглашаетесь с пользовательским соглашением. Ваш адрес email не будет опубликован. Обязательные поля помечены *

Рекомендуем почитать

Подпишитесь на нашу рассылку

Loading

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам:

Продолжая использовать наш сайт, вы соглашаетесь с использованием файлов cookie. Они помогают нам обеспечивать корректную работу сайта и делать его более удобным.
Принять
Политика конфиденциальности