Runway AI представила Gen-3 Alpha: новый инструмент для генерации видео

Нью-йоркский стартап Runway AI представил свою новую модель искусственного интеллекта для генерации видео — Gen-3 Alpha, став серьезным конкурентом для Sora AI от OpenAI

Что происходит
Runway представила свою новую модель искусственного интеллекта для генерации видео — Gen-3 Alpha.
Gen-3 Alpha обещает стать «новым рубежом для высококачественной, управляемой генерации видео» и является первым взглядом на серию моделей, обученных на новой инфраструктуре, предназначенной для крупномасштабной мультимодальной тренировки.
Эта новая модель тренируется одновременно на видео и изображениях, а также на высокоописательных субтитрах, что должно открыть возможности для создания воображаемых переходов и точного ключевого кадрирования элементов в сценах.
Runway также сообщает, что Gen-3 Alpha станет шагом к их цели по созданию General World Models, которые позволят лучше понимать визуальный мир и его динамику.
Gen-3 Alpha доступна широкому кругу пользователей. Протестировать ее можно на сайте Runway

 

Что это значит
Появление Gen-3 Alpha от Runway демонстрирует ускоряющееся развитие технологий генерации видео с использованием искусственного интеллекта, поддерживаемое компаниями OpenAI, Luma Labs и другими.
Конкуренция между Sora AI, Dream Machine от Luma Labs и Gen-3 Alpha от Runway поднимает планку качества и возможностей генеративного видео, что приведет к инновациям и улучшению пользовательского опыта.
Эти модели могут существенно изменить индустрию развлечений, маркетинга, образования и других областей, предоставляя новые инструменты для создания контента и улучшения визуального представления информации.
В будущем генеративные модели видео могут потеснить традиционные методы создания видео, делая их более доступными и менее затратными, что откроет новые возможности для креативных профессионалов и любителей.