- Судьбу Intel определила 40-минутная встреча... (449)
- Xiaomi представила настольную акустику Redmi... (560)
- Финальный в 2025 году российский пуск: с... (743)
- Эти автомобили продаются в России официально... (567)
- Lada Niva Travel с новым мотором 1,8 л... (705)
- Рождественское «чудо»: BTC сложился с 88 000... (594)
- «Парадоксальную» Fermi America подозревают в... (726)
- В Санкт-Петербурге любят Zeekr: машины... (763)
- OnePlus официально рассекретила «сверхновую... (594)
- Samsung Galaxy Z TriFold выдержал 144 000... (547)
- Новый аккумулятор вместо батарейки AA,... (579)
- Считавшаяся утерянной легендарная ОС UNIX V4... (773)
- Volvo прощается с универсалами: V60 Cross... (688)
- Редчайшую Lada (ВАЗ) 2121 первого поколения... (692)
- АвтоВАЗ раскрыл новинки Lada 2026... (529)
- Культовый мод «Хроники Миртаны: Архолос» для... (655)
Видеокамеры больше не нужны? Новая нейросеть Nvidia генерирует видеоролики по текстовым описаниям и в высоком разрешении
Дата: 2023-04-21 22:33
Компания Nvidia представила новое решение в сфере искусственного интеллекта — нейросеть Video LDM, которая позволяет генерировать видеоролики по текстовому описанию, причём в высоком разрешении. В проекте принимают участие специалисты Nvidia и разработчики из Корнеллского университета.
Источник: Nvidia Отмечается, что нейросеть создаёт ролики с разрешением до 2048×1280 пикселей и частотой в 24 кадра. У ИИ-модели есть 4,1 млрд параметров, 2,7 млрд из них использовали для видеороликов, по которым «тренировали» нейросеть.
Используемый в нейросети механизм Latent Diffusion Models позволяет обходиться без мощного и дорого аппаратного обеспечения, а для работы используется движок Stable Diffusion. Таким образом, Video LDM генерирует ролики покадрово.
Помимо этого, система умеет генерировать видео сцен вождения с разрешением 1024 × 512 пикселей и длительность до 5 минут.
На сайте Nvidia есть целый ряд видео, которые показывают возможности нового ИИ, есть короткие и более длинные ролики. При этом публичной версии Video LDM пока нет, также неясно, когда она появится в общем доступе. Пока что это лишь исследовательский проект, а не коммерческий.
Полноценная презентация ожидается в рамках Конференции по машинному зрению и распознаванию образов, она пройдёт 18–22 июня в Ванкувере, Канада.
Подробнее на iXBT
Предыдущие новости
Владельцы Huawei P60 смогут сдать свои смартфоны и получить Huawei P70 за полцены. Компания запустила услугу Value Preservation & Renewal Service
Компания Huawei запустила услугу, которая должна сделать пользователей её смартфонов более лояльными к бренду. В рамках услуги Value Preservation & Renewal Service владельцы флагманских смартфонов Huawei P60 смогут обновиться до моделей следующего поколения за полцены. Проще говоря, владелец P60 сможет прийти в магазин Huawei, сдать свой смартфон и получить скидку 50% на...
Чат-бот Bard от Google научился писать и отлаживать код на C++, Java, Javascript, Python и других языках
В чат-боте Bard от Google появилась возможность генерировать и отлаживать исходный код на 20 языках программирования. В списке есть C++, Go, Java, Javascript, Python и Typescript. Помимо этого, ИИ умеет выдавать текстовые подсказки, переводить код на разные языки программирования и экспортировать это в Colab. Источник: Google В компании заявили, что чат-бот будет ссылаться на...
До конца июня в Steam выйдет ещё четыре игры Ubisoft, включая Far Cry 6 и Rainbow Six Extraction
Ubisoft продолжает постепенное возвращение в Steam. Как подметил пользователь Chairmanchuck с форума ResetEra, в цифровом магазине Valve появились страницы ещё четырёх игр французского издательства. Источник изображений:...
Seagate начала поставлять жёсткие диски ёмкостью более 30 Тбайт на базе HAMR
Seagate сообщила, что начала поставки жёстких дисков ёмкостью 30+ Тбайт, основанных на технологии термомагнитной записи (HAMR), одному из своих клиентов в сфере облачных центров обработки данных. Диски являются окончательными квалификационными образцами, и компания собирается огласить выручку от продаж своих систем Corvault на базе HAMR в ближайшие недели. Источник...