- Поясница скажет спасибо. Представлено первое... (1318)
- Учёные впервые увидели самую далёкую... (892)
- Связка из Ryzen 9955HX3D и RTX 5090 Laptop.... (1346)
- Дорога от Москвы до Валдая займет час.... (1263)
- SSD с PCIe 5.0 становятся массовыми:... (1038)
- Hesai Technology увеличивает выпуск лидаров... (1280)
- SpaceX подготовила ускоритель Super Heavy... (852)
- Micron представила первый в мире SSD формата... (975)
- Представлен первый твердотельный накопитель... (1390)
- Илон Маск и xAI заявили о развёртывании... (1088)
- Илон Маск и xAI «наколядовали» ещё $20 млрд... (862)
- Китайская ракета Long March и закрытие неба... (956)
- Acer представила профессиональный 6K-монитор... (1044)
- Для запуска Yakuza Kiwami 3 хватит... (806)
- Pro и Air в одном устройстве — представлен... (872)
- Это мини-ПК в форме металлической шайбы... (941)
Видеокамеры больше не нужны? Новая нейросеть Nvidia генерирует видеоролики по текстовым описаниям и в высоком разрешении
Дата: 2023-04-21 22:33
Компания Nvidia представила новое решение в сфере искусственного интеллекта — нейросеть Video LDM, которая позволяет генерировать видеоролики по текстовому описанию, причём в высоком разрешении. В проекте принимают участие специалисты Nvidia и разработчики из Корнеллского университета.
Источник: Nvidia Отмечается, что нейросеть создаёт ролики с разрешением до 2048×1280 пикселей и частотой в 24 кадра. У ИИ-модели есть 4,1 млрд параметров, 2,7 млрд из них использовали для видеороликов, по которым «тренировали» нейросеть.
Используемый в нейросети механизм Latent Diffusion Models позволяет обходиться без мощного и дорого аппаратного обеспечения, а для работы используется движок Stable Diffusion. Таким образом, Video LDM генерирует ролики покадрово.
Помимо этого, система умеет генерировать видео сцен вождения с разрешением 1024 × 512 пикселей и длительность до 5 минут.
На сайте Nvidia есть целый ряд видео, которые показывают возможности нового ИИ, есть короткие и более длинные ролики. При этом публичной версии Video LDM пока нет, также неясно, когда она появится в общем доступе. Пока что это лишь исследовательский проект, а не коммерческий.
Полноценная презентация ожидается в рамках Конференции по машинному зрению и распознаванию образов, она пройдёт 18–22 июня в Ванкувере, Канада.
Подробнее на iXBT
Предыдущие новости
Владельцы Huawei P60 смогут сдать свои смартфоны и получить Huawei P70 за полцены. Компания запустила услугу Value Preservation & Renewal Service
Компания Huawei запустила услугу, которая должна сделать пользователей её смартфонов более лояльными к бренду. В рамках услуги Value Preservation & Renewal Service владельцы флагманских смартфонов Huawei P60 смогут обновиться до моделей следующего поколения за полцены. Проще говоря, владелец P60 сможет прийти в магазин Huawei, сдать свой смартфон и получить скидку 50% на...
Чат-бот Bard от Google научился писать и отлаживать код на C++, Java, Javascript, Python и других языках
В чат-боте Bard от Google появилась возможность генерировать и отлаживать исходный код на 20 языках программирования. В списке есть C++, Go, Java, Javascript, Python и Typescript. Помимо этого, ИИ умеет выдавать текстовые подсказки, переводить код на разные языки программирования и экспортировать это в Colab. Источник: Google В компании заявили, что чат-бот будет ссылаться на...
До конца июня в Steam выйдет ещё четыре игры Ubisoft, включая Far Cry 6 и Rainbow Six Extraction
Ubisoft продолжает постепенное возвращение в Steam. Как подметил пользователь Chairmanchuck с форума ResetEra, в цифровом магазине Valve появились страницы ещё четырёх игр французского издательства. Источник изображений:...
Seagate начала поставлять жёсткие диски ёмкостью более 30 Тбайт на базе HAMR
Seagate сообщила, что начала поставки жёстких дисков ёмкостью 30+ Тбайт, основанных на технологии термомагнитной записи (HAMR), одному из своих клиентов в сфере облачных центров обработки данных. Диски являются окончательными квалификационными образцами, и компания собирается огласить выручку от продаж своих систем Corvault на базе HAMR в ближайшие недели. Источник...