Runway представила ШІ-модель Gen-3 Alpha — ForkLog UA

Компанія Runway представила альфа-версію моделі штучного інтелекту Gen-3 для генерації відеороликів із промптів і статичних зображень.

Нейромережа відмінно справляється зі створенням виразних людських персонажів із широким спектром рухів, жестів і емоцій, йдеться в анонсі. Gen-3 Alpha навчена точно визначати ключові кадри в ролику і створювати переходи.

«Gen-3 Alpha — перша модель із майбутньої серії, навчена на новій інфраструктурі, створеній для масштабного мультимодального навчання. Це значне поліпшення точності, послідовності та руху порівняно з Gen-2, а також крок на шляху до створення „Загальних моделей світу“», — ідеться в повідомленні Runway.

Gen-3 Alpha може створювати відео тривалістю п’ять і десять секунд із високою роздільною здатністю. Час генерації — 45 і 90 секунд відповідно. Про це розповів співзасновник і технічний директор компанії Анастасіс Германідіс в інтерв’ю TechCrunch.

Точних термінів публічного релізу Gen-3 немає. Альфа-версія «скоро стане доступною в продуктовій лінійці Runway з підтримкою всіх наявних режимів (текст-відео, зображення-відео і відео-відео) і деяких нових», зазначив Германідіс.

Нагадаємо, у лютому OpenAI презентувала генеративну ШІ-модель Sora для перетворення тексту у відео. У травні сценарист і режисер Пол Трілло згенерував з її допомогою відеокліп.

Google DeepMind розробляє технологію на базі штучного інтелекту для створення саундтреків до відео.

Источник

No votes yet.
Please wait...

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.