- Разборка новых наушников AirPods Max 2... (602)
- Учёные впервые наблюдали, как нечто внутри... (511)
- 50-70 к/с в Cyberpunk 2077 и до 100 к/с в... (568)
- Российские принт-серверы на процессорах... (400)
- Microsoft принудительно обновит до Windows... (524)
- Необычный внешне Nothing Phone (4a) Pro... (471)
- Крупнейшее исследование показало связь массы... (560)
- Планшет Oppo Pad Mini с аккумулятором 8000... (517)
- Учёные уточнили два сценария происхождения... (338)
- Более 50 приложений в Google Play скрывали... (359)
- Энтузиаст успешно запустил Windows 3.1 на... (472)
- DLSS 5 приняли неоднозначно, но нейронный... (380)
- United Launch Alliance вывела на орбиту... (551)
- Какой флагманский смартфон 2026 года самый... (509)
- В руководстве OpenAI провели очередные... (441)
- Nvidia показала нейронное сжатие текстур:... (451)
Arcee представила Trinity-Large-Thinking — открытую ИИ-модель на 399 млрд параметров, конкурирующую с лидерами рынка
Дата: 2026-04-05 19:10
Arcee, лаборатория из Сан-Франциско, выпустила Trinity-Large-Thinking — текстовую reasoning-модель с 399 миллиардами параметров. Модель распространяется под лицензией Apache 2.0, что позволяет её свободно использовать и модифицировать как независимым разработчикам, так и крупным компаниям.
Trinity-Large-Thinking создана как альтернатива закрытым моделям, которые доминируют на рынке. Релиз совпал с ростом обеспокоенности предприятий по поводу использования китайских архитектур в критической инфраструктуре. Arcee предлагает разработчикам инструмент, который они могут полностью контролировать.
Arcee — небольшая команда из 30 человек, которая выделяется подходом «инженерия через ограничения». В 2026 году компания вложила $20 миллионов, почти половину своего бюджета, в 33-дневный цикл обучения Trinity-Large. Для этого использовался кластер из 2048 GPU NVIDIA B300 Blackwell, что позволило достичь высокой скорости обучения.
Иллюстрация: Nano Banana Модель отличается редкой архитектурой Mixture-of-Experts, где из 400 миллиардов параметров активны только 1,56% (13 миллиардов) для каждого токена. Это обеспечивает высокую скорость и эффективность работы. Для решения проблем стабильности Arcee разработала механизм SMEBU (Soft-clamped Momentum Expert Bias Updates), который равномерно распределяет нагрузку между экспертами.
Обучение Trinity-Large включало 20 триллионов токенов, половина из которых — синтетические данные, созданные с помощью переработки текстов. Такой подход позволил модели лучше понимать концепции и информацию, а не просто запоминать текст.
Ключевым обновлением Trinity-Large-Thinking стала фаза «мышления» перед генерацией ответа. Это улучшило способность модели к выполнению сложных многошаговых задач и обеспечило стабильность в долгосрочных сценариях. На тестах PinchBench модель набрала 91.9 балла, что близко к лидеру рынка Claude Opus 4.6 (93.3).
Сравнительная таблица показателей Arcee Trinity-Large-Thinking. Источник: Arcee Лицензия Apache 2.0 выделяет Trinity-Large-Thinking среди конкурентов, предоставляя предприятиям возможность полного контроля над моделью. Arcee также выпустила Trinity-Large-TrueBase — контрольную точку с 10 триллионами токенов, которая позволяет полностью адаптировать модель под свои нужды.
Trinity-Large-Thinking уже получила положительные отзывы сообщества. На платформе OpenRouter модель стала самой популярной в США, обработав более 80 миллиардов токенов за день. При стоимости $0.90 за миллион токенов Trinity значительно дешевле конкурентов, таких как Claude Opus 4.6 ($25 за миллион токенов).
Arcee планирует использовать наработки Trinity-Large для обновления своих компактных моделей Mini и Nano, открыв их так же для широкого круга пользователей.
Подробнее на iXBT
Предыдущие новости
Netflix научил собственную ИИ-модель без следов удалять объекты из видео и правдоподобно перестраивать сцену
Netflix открыл доступ к модели VOID для редактирования видео с помощью ИИ, которая удаляет из кадра объекты и следы их взаимодействия с окружающей средой, а затем достраивает сцену так, чтобы оставшиеся элементы вели себя правдоподобно без удалённого объекта. ИИ-модель уже доступна для установки на Hugging Face и, по данным разработчиков, в опросе 25 участников получила...
На летящем к Луне корабле Orion снова сломался туалет
Космический корабль Orion продолжает двигаться по направлению к Луне в рамках миссии Artemis II Национального управления по аэронавтике и исследованию космического пространства (NASA) США. Астронавты проводят подготовку к историческому облёту спутника Земли, за время которого они удалятся от нашей планеты дальше, чем когда-либо прежде. Но, к сожалению, корабельный туалет...
Видеокарты Nvidia с GDDR6-памятью оказались уязвимы перед атакой GPUBreach, и защиты от неё, кажется, нет
Ранее стало известно про атаки GDDRHammer и GeForge, с помощью которых можно воздействовать на содержимое GDDR6-памяти видеокарт Nvidia, что позволяет повредить таблицы страниц GPU, перенаправить доступ к памяти центрального процессора и добиться полной компрометации системы. При этом считалось, что включение механизма управления памятью IOMMU является надёжной защитой от...
ИИ перестанет «забывать»: Андрей Карпаты предложил новый способ работы с LLM вместо RAG
Андрей Карпаты, бывший директор по искусственному интеллекту Tesla и сооснователь OpenAI, представил новый подход к управлению знаниями, который может изменить подход к исследовательским проектам. Его метод, названный LLM Knowledge Bases, предлагает использовать большие языковые модели (LLM) для создания и поддержания структурированных баз знаний в формате Markdown (.md). Этот...