Mochi 1. Открытая нейросеть для генерации видео с большими амбициями и заметными ограничениями

Когда компания называет свою нейросеть «Мочи» — это уже похоже на то, что серьезность тут не в приоритете. Но за этим несколько легкомысленным названием стоит вполне реальный проект: компания Genmo выпустила открытую модель для генерации видео из текста, которая на момент релиза в октябре 2024 года оказалась крупнейшей в своем классе среди полностью открытых решений. Рынок AI-видео к тому моменту уже был плотно заставлен коммерческими инструментами, с которыми за каждую генерацию нужно платить, а исходный код спрятан за семью замками. Genmo пошла в другую сторону – открытый код, свободная лицензия, бесплатная площадка для экспериментов. Идея хорошая. Однако исполнение, как это нередко случается, оказалось сомнительным. Вместе с командой Креатор Проджект рассмотрим, что представляет собой этот проект.

Смотрите видео на удобном для вас ресурсе!

Что Mochi умеет делать хорошо

Главная ставка Mochi 1 сделана на качество движения. Разработчики прямо говорили: самое скучное видео, как правило, такое, в котором ничего не двигается. Большинство ранних AI-видеогенераторов страдало именно этим: красивая картинка, которая как будто слегка шевелится, но не живет. Mochi делал ставку на проработку реального движения (акцент сделан на реальную физику в кадре, пластику людей и животных и т.д.). И в этом обозреваемый проект действительно заметно лучше многих открытых аналогов своего времени.

Модель генерирует видео со скоростью 30 кадров в секунду продолжительностью до 5,4 секунды. Немного, но для коротких сцен с хорошей динамикой вполне достаточно. Управление камерой присутствует (есть зум, панорамирование, наклон, вращение), а степень динамики сцены можно настроить от стабильной до активной. Для кинематографических набросков и прототипирования сцен это работает.

Среди пользователей модель получила репутацию сильного инструмента для работы с комплексными текстовыми запросами и управлением камерой. Ее называют хорошим вариантом для создания стилизованных сторибордов и концептуальных видео для клиентских презентаций, в которых нужно создать общее позитивное впечатление, но при этом финальное качество картинки не так существенно. Здесь, кстати, и кроется то, в каких случаях сервис будет полезным, а в каких на него надеяться не стоит.

Почему реальное использование сильно отличается от описания

Вот здесь начинается честный разговор. На первый взгляд, все кажется довольно привлекательным. Личный кабинет выглядит достаточно доступным и понятным; регистрация не занимает много времени. Имеются бесплатные попытки, за счет которых пользователь может разобраться с сервисом и решить, нужна ли ему платная версия. Но тут кроется большой подвох. Проблема заключается в том, что у пользователей постоянно списывают генерации, однако при этом готового ролика не появляется. Генерация просто зависает в воздухе, а затем уходит в никуда. В итоге юзер остается ни с чем.

Система фильтрации контента работает очень строго, порой избыточно. Нейтральные по любым меркам запросы вполне могут получить отказ, и пользователям приходится существенно упрощать свои формулировки, которые алгоритм почему-то счел нежелательными. К примеру, один пользователь описывал, как попытка сгенерировать сцену зомби-апокалипсиса потребовала нескольких итераций, пока запрос не стал достаточно нейтральным для системы. Креативные сценарии вообще плохо дружат с фильтрами такого типа.

Разрешение на выходе составляет 480p. В 2024 году это уже было скромно, и Genmo обещала выпустить версию с поддержкой 720p до конца того же года. К февралю 2025 года пользователи все еще задавали этот вопрос разработчикам на GitHub, не получая конкретных сроков. К началу 2026 года ситуация никак не изменилась.

Кому будет полезен сервис

Mochi 1 остается незавершенным инструментом с неоспоримым потенциалом. Производить финальный контент с его помощью вряд ли будет разумным решением, однако для концептуальной работы и экспериментов с открытой архитектурой возможности есть.

Люди, которым Mochi реально интересен – это разработчики, которые хотят взять открытую модель и дообучить ее под свои задачи. Код лежит в открытом доступе, лицензия позволяет коммерческое использование без ограничений, и сообщество уже делает с моделью вещи, которые разработчики не планировали официально поддерживать. Исследователи запускают ее на железе значительно скромнее, чем требуется по официальным рекомендациям, и получают рабочие результаты.

Для обычного пользователя, который хочет просто попробовать сгенерировать видео и посмотреть, что получится, попытки использовать данный сервис будут больше похожими на лотерею. Можно получить интересный результат. Можно потратить кредиты впустую и уйти ни с чем. Это не повод отказываться от знакомства с инструментом, но стоит понимать заранее, что разрыв между обещанием и реальным пользовательским опытом здесь пока ощутимый.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter. Можете написать лучше? Мы всегда рады новым авторам.

Интересно? Поделиться:

5 комментариев к “Mochi 1. Открытая нейросеть для генерации видео с большими амбициями и заметными ограничениями

  1. В отличие от закрытых моделей, её можно изучать, дорабатывать и запускать локально.

  2. Как технарь, который следит за ИИ инструментами, я впечатлён потенциалом Mochi 1. Открытый код, упор на реалистичность, отсутствие цензуры это круто. Но пока модель остаётся нишевым инструментом: если у вас есть ресурсы для развёртывания; если вам нужен гибкий, настраиваемый генератор без привязки к корпоративным сервисам; если вы готовы мириться с артефактами и ограничениями. Для рядового пользователя, возможно, проще пользоваться платными сервисами вроде Runway или Pika, там интерфейс проще, качество стабильнее.

  3. А я-то уж подумал: наконец-то появился честный сервис с бесплатной демоверсией, по которой будет видно нужно ли на это тратиться. Но нет :(( всё как всегда — хотят чтобы мы в слепую отдавали свои деньги.

  4. Интересный шаг в сторону открытых видео-генераторов. С одной стороны, такие проекты как Mochi 1 дают больше свободы и доступа разработчикам и креаторам, чем закрытые решения. С другой — пока видно, что качество, стабильность сцен и контроль над деталями ещё уступают топовым коммерческим моделям.

  5. Ценное что вынесла из обзора: продукт незавершенный, а значит из него из-за открытого кода на GitHub можно лепить свои версии и обучать свои модели.Продукт заточен не на красивые статичные картинки, а именно на движение со всей возможной физикой процесса. Думаю разработчиков, заинтересованных этим продуктом, будет много.

Добавить комментарий

Оставляя комментарий вы соглашаетесь на обработку персональных данных в соответствии с политикой конфиденциальности, соглашаетесь с пользовательским соглашением. Ваш адрес email не будет опубликован. Обязательные поля помечены *

Рекомендуем почитать

Подпишитесь на нашу рассылку

Loading

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам:

Продолжая использовать наш сайт, вы соглашаетесь с использованием файлов cookie. Они помогают нам обеспечивать корректную работу сайта и делать его более удобным.
Принять
Политика конфиденциальности