Mochi 1. Открытая нейросеть для генерации видео с большими амбициями и заметными ограничениями

Когда компания называет свою нейросеть «Мочи» — это уже похоже на то, что серьезность тут не в приоритете. Но за этим несколько легкомысленным названием стоит вполне реальный проект: компания Genmo выпустила открытую модель для генерации видео из текста, которая на момент релиза в октябре 2024 года оказалась крупнейшей в своем классе среди полностью открытых решений. Рынок AI-видео к тому моменту уже был плотно заставлен коммерческими инструментами, с которыми за каждую генерацию нужно платить, а исходный код спрятан за семью замками. Genmo пошла в другую сторону – открытый код, свободная лицензия, бесплатная площадка для экспериментов. Идея хорошая. Однако исполнение, как это нередко случается, оказалось сомнительным. Вместе с командой Креатор Проджект рассмотрим, что представляет собой этот проект.

Смотрите видео на удобном для вас ресурсе!

Что Mochi умеет делать хорошо

Главная ставка Mochi 1 сделана на качество движения. Разработчики прямо говорили: самое скучное видео, как правило, такое, в котором ничего не двигается. Большинство ранних AI-видеогенераторов страдало именно этим: красивая картинка, которая как будто слегка шевелится, но не живет. Mochi делал ставку на проработку реального движения (акцент сделан на реальную физику в кадре, пластику людей и животных и т.д.). И в этом обозреваемый проект действительно заметно лучше многих открытых аналогов своего времени.

Модель генерирует видео со скоростью 30 кадров в секунду продолжительностью до 5,4 секунды. Немного, но для коротких сцен с хорошей динамикой вполне достаточно. Управление камерой присутствует (есть зум, панорамирование, наклон, вращение), а степень динамики сцены можно настроить от стабильной до активной. Для кинематографических набросков и прототипирования сцен это работает.

Среди пользователей модель получила репутацию сильного инструмента для работы с комплексными текстовыми запросами и управлением камерой. Ее называют хорошим вариантом для создания стилизованных сторибордов и концептуальных видео для клиентских презентаций, в которых нужно создать общее позитивное впечатление, но при этом финальное качество картинки не так существенно. Здесь, кстати, и кроется то, в каких случаях сервис будет полезным, а в каких на него надеяться не стоит.

Почему реальное использование сильно отличается от описания

Вот здесь начинается честный разговор. На первый взгляд, все кажется довольно привлекательным. Личный кабинет выглядит достаточно доступным и понятным; регистрация не занимает много времени. Имеются бесплатные попытки, за счет которых пользователь может разобраться с сервисом и решить, нужна ли ему платная версия. Но тут кроется большой подвох. Проблема заключается в том, что у пользователей постоянно списывают генерации, однако при этом готового ролика не появляется. Генерация просто зависает в воздухе, а затем уходит в никуда. В итоге юзер остается ни с чем.

Система фильтрации контента работает очень строго, порой избыточно. Нейтральные по любым меркам запросы вполне могут получить отказ, и пользователям приходится существенно упрощать свои формулировки, которые алгоритм почему-то счел нежелательными. К примеру, один пользователь описывал, как попытка сгенерировать сцену зомби-апокалипсиса потребовала нескольких итераций, пока запрос не стал достаточно нейтральным для системы. Креативные сценарии вообще плохо дружат с фильтрами такого типа.

Разрешение на выходе составляет 480p. В 2024 году это уже было скромно, и Genmo обещала выпустить версию с поддержкой 720p до конца того же года. К февралю 2025 года пользователи все еще задавали этот вопрос разработчикам на GitHub, не получая конкретных сроков. К началу 2026 года ситуация никак не изменилась.

Кому будет полезен сервис

Mochi 1 остается незавершенным инструментом с неоспоримым потенциалом. Производить финальный контент с его помощью вряд ли будет разумным решением, однако для концептуальной работы и экспериментов с открытой архитектурой возможности есть.

Люди, которым Mochi реально интересен – это разработчики, которые хотят взять открытую модель и дообучить ее под свои задачи. Код лежит в открытом доступе, лицензия позволяет коммерческое использование без ограничений, и сообщество уже делает с моделью вещи, которые разработчики не планировали официально поддерживать. Исследователи запускают ее на железе значительно скромнее, чем требуется по официальным рекомендациям, и получают рабочие результаты.

Для обычного пользователя, который хочет просто попробовать сгенерировать видео и посмотреть, что получится, попытки использовать данный сервис будут больше похожими на лотерею. Можно получить интересный результат. Можно потратить кредиты впустую и уйти ни с чем. Это не повод отказываться от знакомства с инструментом, но стоит понимать заранее, что разрыв между обещанием и реальным пользовательским опытом здесь пока ощутимый.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter. Можете написать лучше? Мы всегда рады новым авторам.

Интересно? Поделиться:

Один комментарий к “Mochi 1. Открытая нейросеть для генерации видео с большими амбициями и заметными ограничениями

  1. В отличие от закрытых моделей, её можно изучать, дорабатывать и запускать локально.

Добавить комментарий

Оставляя комментарий вы соглашаетесь на обработку персональных данных в соответствии с политикой конфиденциальности, соглашаетесь с пользовательским соглашением. Ваш адрес email не будет опубликован. Обязательные поля помечены *

Рекомендуем почитать

Подпишитесь на нашу рассылку

Loading

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам:

Продолжая использовать наш сайт, вы соглашаетесь с использованием файлов cookie. Они помогают нам обеспечивать корректную работу сайта и делать его более удобным.
Принять
Политика конфиденциальности