- Codex набирает обороты: OpenAI привлекла... (1067)
- OpenAI привлечёт партнёров для продвижения... (1287)
- SpaceX признала, что может провалиться в... (1272)
- SpaceX не скрывает, что может не освоить... (1331)
- Публикация ссылок в X подорожала в 20 раз,... (1285)
- Публикация ссылок в X через сторонние... (1253)
- OpenAI выпустила ИИ-модель ChatGPT Images... (1105)
- OpenAI выпустила ChatGPT Images 2.0, которая... (1519)
- Oppo представила смартфоны Find X9s и Find... (1529)
- Девятидневное ралли подняло курс акций... (1831)
- MWS: в России продолжается олигополизация... (1228)
- «Мы снова изменим мир»: будущий гендир Apple... (1571)
- Framework превратила модульный ноутбук... (1617)
- Новая статья: Линия защиты: обзор... (1558)
- Россияне купили рекордное число роутеров —... (1530)
- Logitech, подвинься: Framework готовит... (1492)
Nvidia представила Super, но это не видеокарты RTX 50. Это модель Nemotron 3 Super для агентных ИИ со 120 млрд параметров
Дата: 2026-03-11 21:41
Как и сообщалось вчера, компания Nvidia действительно представила собственную модель для агентных ИИ. Называется это решение Nemotron 3 Super. Да, мы не получили видеокарт RTX 50 Super, но получили модель Super.
Nemotron 3 Super представляет собой гибридную модель Mamba-Transformer с открытым исходным кодом со 120 млрд параметров.
Фото Videocardz Nemotron 3 Super является частью серии моделей Nemotron 3 и первой моделью в этой серии, которая:
Использует метод скрытого моделирования для повышения точности. Включает слои MTP для более быстрого вывода результатов за счет нативного спекулятивного декодирования. Предварительно обучена на NVFP4 . Nemotron 3 Super обеспечивает до 2,2 и 7,5 раза более высокую пропускную способность при выводе данных, чем GPT-OSS-120B и Qwen3.5-122B соответственно, при настройке на 8000 токенов на входе / 16 000 токенов на выходе. Nemotron 3 Super демонстрирует более высокую или сопоставимую точность с GPT-OSS-120B и Qwen3.5-122B в различных тестовых задачах. Поддерживает длину контекста до 1 миллиона токенов, превосходя при этом GPT-OSS-120B и Qwen3.5-122B на RULER при длине контекста в 1 миллион токенов.Сама Nvidia позиционирует Nemotron 3 Super для работы с ИИ-агентами и большими объемами данных. В материалах к релизу компания указывает на разработку программного обеспечения, анализ длинных документов и задачи вызова инструментов как на основные целевые сценарии использования этой модели.
Подробнее на iXBT
Предыдущие новости
Nvidia выпустила Nemotron 3 Super 120B — открытую LLM для ИИ-агентов с пятикратным приростом скорости
Компания Nvidia выпустила Nemotron 3 Super — открытую ИИ-модель Mixture-of-Experts (MoE) с поддержкой 120 млрд общих параметров и 12 млрд активных параметров, предназначенную для задач агентного ИИ. Модель использует гибридную архитектуру Mamba-Transformer. Источник изображений:...
Framework повысила цены на память и SSD для своих ноутбуков и ПК — в третий раз за четыре месяца
Производитель модульных ноутбуков Framework снова сообщил о повышении цен на оперативную память и накопители из-за продолжающегося дефицита и перебоев с поставками. Это уже третье повышение цен за четыре месяца. Источник изображения:...
Астрономы впервые использовали полный объёмный каталог белых карликов Gaia для поиска аксионов — гипотетических частиц, ускоряющих охлаждение звёзд
Астрономы применили современные методы моделирования и анализа к каталогу белых карликов Gaia DR3, охватывающему объекты на расстоянии до 100 парсек, чтобы проверить существование аксионов — гипотетических частиц, предсказанных расширениями Стандартной модели. Если аксионы существуют, то они должны ускорять охлаждение белых карликов, что отражается в функции их светимости...
Международная сеть ILC: инженеры готовят технологии линейного коллайдера для поиска новой физики за пределами Стандартной модели
В 2022 году была создана Международная технологическая сеть ILC (ITN), чтобы ускорить инженерные исследования для строительства ILC — линейного ускорителя электронов и позитронов, который может стать следующим крупным проектом в физике высоких энергий. В работе участвуют ведущие лаборатории Японии, Европы, США и Кореи, а координацию осуществляют KEK (Япония) и CERN (Европа)....