Mochi 1. Открытая нейросеть для генерации видео с большими амбициями и заметными ограничениями

Когда компания называет свою нейросеть «Мочи» — это уже похоже на то, что серьезность тут не в приоритете. Но за этим несколько легкомысленным названием стоит вполне реальный проект: компания Genmo выпустила открытую модель для генерации видео из текста, которая на момент релиза в октябре 2024 года оказалась крупнейшей в своем классе среди полностью открытых решений. Рынок AI-видео к тому моменту уже был плотно заставлен коммерческими инструментами, с которыми за каждую генерацию нужно платить, а исходный код спрятан за семью замками. Genmo пошла в другую сторону – открытый код, свободная лицензия, бесплатная площадка для экспериментов. Идея хорошая. Однако исполнение, как это нередко случается, оказалось сомнительным. Вместе с командой Креатор Проджект рассмотрим, что представляет собой этот проект.

Смотрите видео на удобном для вас ресурсе!

Что Mochi умеет делать хорошо

Главная ставка Mochi 1 сделана на качество движения. Разработчики прямо говорили: самое скучное видео, как правило, такое, в котором ничего не двигается. Большинство ранних AI-видеогенераторов страдало именно этим: красивая картинка, которая как будто слегка шевелится, но не живет. Mochi делал ставку на проработку реального движения (акцент сделан на реальную физику в кадре, пластику людей и животных и т.д.). И в этом обозреваемый проект действительно заметно лучше многих открытых аналогов своего времени.

Модель генерирует видео со скоростью 30 кадров в секунду продолжительностью до 5,4 секунды. Немного, но для коротких сцен с хорошей динамикой вполне достаточно. Управление камерой присутствует (есть зум, панорамирование, наклон, вращение), а степень динамики сцены можно настроить от стабильной до активной. Для кинематографических набросков и прототипирования сцен это работает.

Среди пользователей модель получила репутацию сильного инструмента для работы с комплексными текстовыми запросами и управлением камерой. Ее называют хорошим вариантом для создания стилизованных сторибордов и концептуальных видео для клиентских презентаций, в которых нужно создать общее позитивное впечатление, но при этом финальное качество картинки не так существенно. Здесь, кстати, и кроется то, в каких случаях сервис будет полезным, а в каких на него надеяться не стоит.

Почему реальное использование сильно отличается от описания

Вот здесь начинается честный разговор. На первый взгляд, все кажется довольно привлекательным. Личный кабинет выглядит достаточно доступным и понятным; регистрация не занимает много времени. Имеются бесплатные попытки, за счет которых пользователь может разобраться с сервисом и решить, нужна ли ему платная версия. Но тут кроется большой подвох. Проблема заключается в том, что у пользователей постоянно списывают генерации, однако при этом готового ролика не появляется. Генерация просто зависает в воздухе, а затем уходит в никуда. В итоге юзер остается ни с чем.

Система фильтрации контента работает очень строго, порой избыточно. Нейтральные по любым меркам запросы вполне могут получить отказ, и пользователям приходится существенно упрощать свои формулировки, которые алгоритм почему-то счел нежелательными. К примеру, один пользователь описывал, как попытка сгенерировать сцену зомби-апокалипсиса потребовала нескольких итераций, пока запрос не стал достаточно нейтральным для системы. Креативные сценарии вообще плохо дружат с фильтрами такого типа.

Разрешение на выходе составляет 480p. В 2024 году это уже было скромно, и Genmo обещала выпустить версию с поддержкой 720p до конца того же года. К февралю 2025 года пользователи все еще задавали этот вопрос разработчикам на GitHub, не получая конкретных сроков. К началу 2026 года ситуация никак не изменилась.

Кому будет полезен сервис

Mochi 1 остается незавершенным инструментом с неоспоримым потенциалом. Производить финальный контент с его помощью вряд ли будет разумным решением, однако для концептуальной работы и экспериментов с открытой архитектурой возможности есть.

Люди, которым Mochi реально интересен – это разработчики, которые хотят взять открытую модель и дообучить ее под свои задачи. Код лежит в открытом доступе, лицензия позволяет коммерческое использование без ограничений, и сообщество уже делает с моделью вещи, которые разработчики не планировали официально поддерживать. Исследователи запускают ее на железе значительно скромнее, чем требуется по официальным рекомендациям, и получают рабочие результаты.

Для обычного пользователя, который хочет просто попробовать сгенерировать видео и посмотреть, что получится, попытки использовать данный сервис будут больше похожими на лотерею. Можно получить интересный результат. Можно потратить кредиты впустую и уйти ни с чем. Это не повод отказываться от знакомства с инструментом, но стоит понимать заранее, что разрыв между обещанием и реальным пользовательским опытом здесь пока ощутимый.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter. Можете написать лучше? Мы всегда рады новым авторам.

Интересно? Поделиться:

5 комментариев к “Mochi 1. Открытая нейросеть для генерации видео с большими амбициями и заметными ограничениями

  1. В отличие от закрытых моделей, её можно изучать, дорабатывать и запускать локально.

  2. Как технарь, который следит за ИИ инструментами, я впечатлён потенциалом Mochi 1. Открытый код, упор на реалистичность, отсутствие цензуры это круто. Но пока модель остаётся нишевым инструментом: если у вас есть ресурсы для развёртывания; если вам нужен гибкий, настраиваемый генератор без привязки к корпоративным сервисам; если вы готовы мириться с артефактами и ограничениями. Для рядового пользователя, возможно, проще пользоваться платными сервисами вроде Runway или Pika, там интерфейс проще, качество стабильнее.

  3. А я-то уж подумал: наконец-то появился честный сервис с бесплатной демоверсией, по которой будет видно нужно ли на это тратиться. Но нет :(( всё как всегда — хотят чтобы мы в слепую отдавали свои деньги.

  4. Интересный шаг в сторону открытых видео-генераторов. С одной стороны, такие проекты как Mochi 1 дают больше свободы и доступа разработчикам и креаторам, чем закрытые решения. С другой — пока видно, что качество, стабильность сцен и контроль над деталями ещё уступают топовым коммерческим моделям.

  5. Ценное что вынесла из обзора: продукт незавершенный, а значит из него из-за открытого кода на GitHub можно лепить свои версии и обучать свои модели.Продукт заточен не на красивые статичные картинки, а именно на движение со всей возможной физикой процесса. Думаю разработчиков, заинтересованных этим продуктом, будет много.

Обсуждение закрыто.

Рекомендуем почитать

Логотип DoorDash Новости

DoorDash представила новые инструменты на базе ИИ для продавцов: ускоренный онбординг, улучшение фото и создание сайтов

06.05.2026 6
DoorDash добавила новые инструменты на базе ИИ, которые позволяют продавцам ускорить подключение к платформе, редактировать фотографии, чтобы блюда выглядели лучше,…

Подпишитесь на нашу рассылку

Loading

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам:

Продолжая использовать наш сайт, вы соглашаетесь с использованием файлов cookie. Они помогают нам обеспечивать корректную работу сайта и делать его более удобным.
Принять
Политика конфиденциальности