- Специалисты нашли фундаментальную брешь в... (944)
- Samsung полностью сняла с продажи... (1287)
- Китай на месяц отложил ротацию экипажа... (902)
- Apple не успевает за ИИ-бумом: компьютеры... (1010)
- Инженеры разработали устройство для печати... (1244)
- Исследователь слил уязвимости Windows,... (926)
- Хакеры использовали код, опубликованный... (1041)
- SpaceX обвинила Blue Origin в том, что... (1332)
- На этой неделе OpenAI потеряла ещё троих... (1160)
- Китайскую DeepSeek оценили в $10 млрд —... (1290)
- Переговоры по привлечению $300 млн оценят... (956)
- AMD достигла рекордной капитализации в $454... (1297)
- Новая статья: Darwin’s Paradox! — платформер... (1104)
- «Выглядит намного лучше, чем раньше»: три... (1285)
- Тизер нового компаньона в дополнении... (973)
- Anthropic выпустила Claude Design —... (1045)
Nvidia представила Super, но это не видеокарты RTX 50. Это модель Nemotron 3 Super для агентных ИИ со 120 млрд параметров
Дата: 2026-03-11 21:41
Как и сообщалось вчера, компания Nvidia действительно представила собственную модель для агентных ИИ. Называется это решение Nemotron 3 Super. Да, мы не получили видеокарт RTX 50 Super, но получили модель Super.
Nemotron 3 Super представляет собой гибридную модель Mamba-Transformer с открытым исходным кодом со 120 млрд параметров.
Фото Videocardz Nemotron 3 Super является частью серии моделей Nemotron 3 и первой моделью в этой серии, которая:
Использует метод скрытого моделирования для повышения точности. Включает слои MTP для более быстрого вывода результатов за счет нативного спекулятивного декодирования. Предварительно обучена на NVFP4 . Nemotron 3 Super обеспечивает до 2,2 и 7,5 раза более высокую пропускную способность при выводе данных, чем GPT-OSS-120B и Qwen3.5-122B соответственно, при настройке на 8000 токенов на входе / 16 000 токенов на выходе. Nemotron 3 Super демонстрирует более высокую или сопоставимую точность с GPT-OSS-120B и Qwen3.5-122B в различных тестовых задачах. Поддерживает длину контекста до 1 миллиона токенов, превосходя при этом GPT-OSS-120B и Qwen3.5-122B на RULER при длине контекста в 1 миллион токенов.Сама Nvidia позиционирует Nemotron 3 Super для работы с ИИ-агентами и большими объемами данных. В материалах к релизу компания указывает на разработку программного обеспечения, анализ длинных документов и задачи вызова инструментов как на основные целевые сценарии использования этой модели.
Подробнее на iXBT
Предыдущие новости
Nvidia выпустила Nemotron 3 Super 120B — открытую LLM для ИИ-агентов с пятикратным приростом скорости
Компания Nvidia выпустила Nemotron 3 Super — открытую ИИ-модель Mixture-of-Experts (MoE) с поддержкой 120 млрд общих параметров и 12 млрд активных параметров, предназначенную для задач агентного ИИ. Модель использует гибридную архитектуру Mamba-Transformer. Источник изображений:...
Framework повысила цены на память и SSD для своих ноутбуков и ПК — в третий раз за четыре месяца
Производитель модульных ноутбуков Framework снова сообщил о повышении цен на оперативную память и накопители из-за продолжающегося дефицита и перебоев с поставками. Это уже третье повышение цен за четыре месяца. Источник изображения:...
Астрономы впервые использовали полный объёмный каталог белых карликов Gaia для поиска аксионов — гипотетических частиц, ускоряющих охлаждение звёзд
Астрономы применили современные методы моделирования и анализа к каталогу белых карликов Gaia DR3, охватывающему объекты на расстоянии до 100 парсек, чтобы проверить существование аксионов — гипотетических частиц, предсказанных расширениями Стандартной модели. Если аксионы существуют, то они должны ускорять охлаждение белых карликов, что отражается в функции их светимости...
Международная сеть ILC: инженеры готовят технологии линейного коллайдера для поиска новой физики за пределами Стандартной модели
В 2022 году была создана Международная технологическая сеть ILC (ITN), чтобы ускорить инженерные исследования для строительства ILC — линейного ускорителя электронов и позитронов, который может стать следующим крупным проектом в физике высоких энергий. В работе участвуют ведущие лаборатории Японии, Европы, США и Кореи, а координацию осуществляют KEK (Япония) и CERN (Европа)....