Искусственный интеллект развился до такой степени, чтобы заниматься генерацией видео?!
Проведите пальцем по фотографии, чтобы сдвинуть выбранную цель с места!
Очевидно, что это неподвижный грузовик, но он подбегает щеткой, и даже свет и тень прекрасно восстанавливаются:
Изначально это была просто фотография костра, но теперь она может заставить пламя взмыть в небо одним движением руки, и жар приближается:
Если вы продолжите в том же духе, вы не сможете отличить фотографии от реальных видео!
Оказывается, это новая функция, созданная Runway для видеопрограммы с искусственным интеллектом Gen-2, которая может заставить объекты на изображении двигаться с помощью одной картины и кисти, а степень реалистичности не меньше, чем у волшебной ручки Ma Liang.
Хоть это и всего лишь прогрев функции, но она взорвалась в интернете, как только вышел эффект:
Увидев, что пользователи сети один за другим превратились в встревоженных королей, они закричали: «Я не могу дождаться, чтобы попробовать волну»:
Runway также выпустила больше функций для разогрева эффекта, давайте посмотрим.
Фото в видео, перемещайтесь, куда укажете
Эта новая функция на подиуме называется Motion Brush.
Как следует из названия, вам нужно только использовать эту кисть, чтобы «нарисовать» любой объект на картинке, чтобы заставить его двигаться.
Мало того, что это может быть статичный человек, так еще и движение юбки и головы естественно:
Это может быть и текущая жидкость, например, водопад, и даже туман можно восстановить:
Или еще не потушенная сигарета:
Костер, горящий перед всеми:
Большие фоны также можно сделать динамическими, даже изменив световые и теневые эффекты изображения, такие как быстро движущиеся темные облака:
Конечно, это все «яркие открытки» Подиума, которые берут на себя инициативу рассказать вам, что они «что-то сделали» с фотографиями.
Следующие видео без следов размазывания практически полностью неотличимы от ингредиентов, модифицированных ИИ:
Серия эффектов взорвалась, что также привело к тому, что функция не была официально выпущена, и пользователи сети не могут дождаться.
Многие люди пытаются понять, как реализована эта функция. Есть также пользователи сети, которые обращают больше внимания на то, когда функция выйдет, и надеются, что ссылка будет прямо на 321 (ручная собачья голова)
Вы действительно можете ожидать волну.
Но это не только новая функция Motion Brush, которую представила Runway.
Недавний шквал достижений, генерируемых искусственным интеллектом, похоже, указывает на то, что область генерации видео действительно вот-вот приведет к технологическому взрыву.
Действительно ли видео, сгенерированное искусственным интеллектом, набирает обороты?
Как и в последние несколько дней, некоторые пользователи сети разработали новый способ играть в очень популярное анимационное программное обеспечение Wensheng Animatediff.
В сочетании с новейшим исследованием LCM-LORA для создания анимированного видео с 16 кадрами требуется всего 7 секунд.
LCM-LoRa — это новая технология генерации изображений с искусственным интеллектом от Университета Цинхуа и Hugging Face, которая может значительно повысить скорость генерации изображений стабильной диффузии.
Среди них LCM (Latent Consistency Models) — это новый метод генерации изображений, основанный на «модели согласованности» OpenAI, разработанной ранее в этом году, который может быстро генерировать 768×768 изображений с высоким разрешением.
Тем не менее, LCM не совместим с существующими моделями, поэтому Университет Цинхуа и члены Huhuyan выпустили новую версию модели LCM-LoRa, которая может быть совместима со всеми моделями Stable Diffusion и ускорить скорость волочения.
В сочетании с Animatediff создание такой анимации занимает всего около 7 секунд:
В настоящее время LCM-LORA имеет открытый исходный код в Hug Face.
Как вы относитесь к недавнему прогрессу в создании видео с искусственным интеллектом и насколько вы далеки от того, чтобы быть полезным для использования?
Ссылки:
[1]
[2]
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Новая функция Gen-2 «Волшебная кисть Ма Лян» взорвалась, пользователи сети: Срочно
Источник статьи: qubits
Искусственный интеллект развился до такой степени, чтобы заниматься генерацией видео?!
Проведите пальцем по фотографии, чтобы сдвинуть выбранную цель с места!
Оказывается, это новая функция, созданная Runway для видеопрограммы с искусственным интеллектом Gen-2, которая может заставить объекты на изображении двигаться с помощью одной картины и кисти, а степень реалистичности не меньше, чем у волшебной ручки Ma Liang.
Хоть это и всего лишь прогрев функции, но она взорвалась в интернете, как только вышел эффект:
Фото в видео, перемещайтесь, куда укажете
Эта новая функция на подиуме называется Motion Brush.
Как следует из названия, вам нужно только использовать эту кисть, чтобы «нарисовать» любой объект на картинке, чтобы заставить его двигаться.
Мало того, что это может быть статичный человек, так еще и движение юбки и головы естественно:
Следующие видео без следов размазывания практически полностью неотличимы от ингредиентов, модифицированных ИИ:
Многие люди пытаются понять, как реализована эта функция. Есть также пользователи сети, которые обращают больше внимания на то, когда функция выйдет, и надеются, что ссылка будет прямо на 321 (ручная собачья голова)
Но это не только новая функция Motion Brush, которую представила Runway.
Недавний шквал достижений, генерируемых искусственным интеллектом, похоже, указывает на то, что область генерации видео действительно вот-вот приведет к технологическому взрыву.
Действительно ли видео, сгенерированное искусственным интеллектом, набирает обороты?
Как и в последние несколько дней, некоторые пользователи сети разработали новый способ играть в очень популярное анимационное программное обеспечение Wensheng Animatediff.
LCM-LoRa — это новая технология генерации изображений с искусственным интеллектом от Университета Цинхуа и Hugging Face, которая может значительно повысить скорость генерации изображений стабильной диффузии.
Среди них LCM (Latent Consistency Models) — это новый метод генерации изображений, основанный на «модели согласованности» OpenAI, разработанной ранее в этом году, который может быстро генерировать 768×768 изображений с высоким разрешением.
Тем не менее, LCM не совместим с существующими моделями, поэтому Университет Цинхуа и члены Huhuyan выпустили новую версию модели LCM-LoRa, которая может быть совместима со всеми моделями Stable Diffusion и ускорить скорость волочения.
Ссылки:
[1]
[2]