Midjourney выпустила генератор видео
Midjourney представила новую функцию, которая преобразует изображения в видео, дополнив уже знакомый рабочий процесс генерации картинок. Новая модель v7 позволяет создать изображение по текстовому запросу или загрузить уже готовое. После этого достаточно нажать кнопку «Animate», чтобы получить видео.
Доступны два режима: автоматический и ручной, когда пользователь задает в текстовом формате, как должны двигаться объекты на видео. Таким образом, Midjourney теперь поддерживает преобразование изображений в видео и редактирование с помощью текста. Пользователю предлагается четыре разных 5-секундных ролика на выбор. Можно увеличить длительность каждого из них на 4 секунды, но общая продолжительность одного видео не может превышать 20 секунд. В будущих обновлениях длительность и функционал будут расширены.
Есть два режима движения. «Низкое» лучше всего подходит для создания спокойных или минималистичных эффектов, например, когда персонаж просто моргает или лёгкий ветерок шевелит листву. Режим «высокого движения», напротив, стремится к более активной анимации как объекта, так и камеры, хотя это может привести к появлению визуальных ошибок.
Создание видео будет в восемь раз дороже, чем генерация обычной картинки. Это значит, что подписчики будут тратить свои ежемесячные лимиты на генерации видео гораздо быстрее.
На старте самый доступный способ попробовать новую функцию — подключить базовый план Midjourney за $10 в месяц. А вот подписчики более дорогих планов — Pro за $60 в месяц и Mega за $120 в месяц — смогут создавать неограниченное количество видео в более медленном режиме «Relax». Midjourney пообещала, что в течение следующего месяца пересмотрит цены на свои видеомодели.
Как и в случае с изображениями от Midjourney, первые примеры видео V1 выглядят скорее фантастическими, чем реалистичными. Первая реакция на V1 была в целом позитивная. Однако пока неясно, насколько хорошо новая модель сможет конкурировать с другими ИИ-сервисами по созданию видео, которые уже давно представлены на рынке: Sora от OpenAI, Gen 4 от Runway, Firefly от Adobe и Veo 3 от Google. Пока большинство компаний сосредоточены на создании управляемых видеомоделей для коммерческого использования, Midjourney сохраняет свою уникальную нишу, предлагая креативные ИИ-решения для творческих профессионалов.
Компания заявляет, что видит гораздо более амбициозные перспективы для своих ИИ-видеомоделей, чем просто создание фонового контента для голливудских фильмов или рекламных роликов.
В корпоративном блоге CEO Midjourney Дэвид Хольц пояснил, что разработка видеомоделей — лишь промежуточный этап на пути к главной цели: созданию ИИ, способного на «реалистичное моделирование открытых миров в реальном времени».
После видеомоделей в Midjourney планируют сосредоточиться на разработке ИИ для генерации 3D-графики и создании алгоритмов, работающих в реальном времени.
Запуск новой видеомодели V1 от Midjourney произошел на фоне судебного разбирательства: всего за неделю до этого Disney и Universal подали на стартап в суд. Студии утверждают, что ИИ Midjourney использует их защищённых авторским правом персонажей, таких как Гомер Симпсон и Дарт Вейдер, для создания изображений. Голливудские компании обеспокоены быстрым ростом популярности ИИ-моделей, способных генерировать контент. Они опасаются, что такие инструменты могут обесценить труд креаторов. Кроме того, ряд медиакомпаний заявляют, что эти ИИ-продукты обучаются на их материалах.