- В Германии разрабатывают новый способ... (456)
- Компактная квантовая система обошла крупный... (288)
- Новая статья: Grime 2 — истязание на... (387)
- 408 л.с., расход всего 3,41 л/100 км,... (436)
- Гибридный кроссовер Geely с ИИ и запасом... (407)
- Новая статья: Gamesblender № 770: релиз DLSS... (289)
- Samsung прощается с Arm? Компания готовит... (359)
- Intel после нападок со стороны Arm защищает... (269)
- ФБР предупреждает. Бюро опубликовало... (307)
- ФБР предупреждает. Бюро опубликовало... (315)
- 32 дюйма, WOLED, а не QD-OLED, и частота до... (364)
- Японская сеть Akihabara отдает максимум два... (288)
- Японская сеть Akihabara отдает максимум два... (238)
- Киберспортивный монитор с частотой свыше... (234)
- «Этот вид ощущается совсем иначе».... (402)
- Google представила ИИ-модели Gemma 4. Две из... (412)
Arcee представила Trinity-Large-Thinking — открытую ИИ-модель на 399 млрд параметров, конкурирующую с лидерами рынка
Дата: 2026-04-05 19:10
Arcee, лаборатория из Сан-Франциско, выпустила Trinity-Large-Thinking — текстовую reasoning-модель с 399 миллиардами параметров. Модель распространяется под лицензией Apache 2.0, что позволяет её свободно использовать и модифицировать как независимым разработчикам, так и крупным компаниям.
Trinity-Large-Thinking создана как альтернатива закрытым моделям, которые доминируют на рынке. Релиз совпал с ростом обеспокоенности предприятий по поводу использования китайских архитектур в критической инфраструктуре. Arcee предлагает разработчикам инструмент, который они могут полностью контролировать.
Arcee — небольшая команда из 30 человек, которая выделяется подходом «инженерия через ограничения». В 2026 году компания вложила $20 миллионов, почти половину своего бюджета, в 33-дневный цикл обучения Trinity-Large. Для этого использовался кластер из 2048 GPU NVIDIA B300 Blackwell, что позволило достичь высокой скорости обучения.
Иллюстрация: Nano Banana Модель отличается редкой архитектурой Mixture-of-Experts, где из 400 миллиардов параметров активны только 1,56% (13 миллиардов) для каждого токена. Это обеспечивает высокую скорость и эффективность работы. Для решения проблем стабильности Arcee разработала механизм SMEBU (Soft-clamped Momentum Expert Bias Updates), который равномерно распределяет нагрузку между экспертами.
Обучение Trinity-Large включало 20 триллионов токенов, половина из которых — синтетические данные, созданные с помощью переработки текстов. Такой подход позволил модели лучше понимать концепции и информацию, а не просто запоминать текст.
Ключевым обновлением Trinity-Large-Thinking стала фаза «мышления» перед генерацией ответа. Это улучшило способность модели к выполнению сложных многошаговых задач и обеспечило стабильность в долгосрочных сценариях. На тестах PinchBench модель набрала 91.9 балла, что близко к лидеру рынка Claude Opus 4.6 (93.3).
Сравнительная таблица показателей Arcee Trinity-Large-Thinking. Источник: Arcee Лицензия Apache 2.0 выделяет Trinity-Large-Thinking среди конкурентов, предоставляя предприятиям возможность полного контроля над моделью. Arcee также выпустила Trinity-Large-TrueBase — контрольную точку с 10 триллионами токенов, которая позволяет полностью адаптировать модель под свои нужды.
Trinity-Large-Thinking уже получила положительные отзывы сообщества. На платформе OpenRouter модель стала самой популярной в США, обработав более 80 миллиардов токенов за день. При стоимости $0.90 за миллион токенов Trinity значительно дешевле конкурентов, таких как Claude Opus 4.6 ($25 за миллион токенов).
Arcee планирует использовать наработки Trinity-Large для обновления своих компактных моделей Mini и Nano, открыв их так же для широкого круга пользователей.
Подробнее на iXBT
Предыдущие новости
Netflix научил собственную ИИ-модель без следов удалять объекты из видео и правдоподобно перестраивать сцену
Netflix открыл доступ к модели VOID для редактирования видео с помощью ИИ, которая удаляет из кадра объекты и следы их взаимодействия с окружающей средой, а затем достраивает сцену так, чтобы оставшиеся элементы вели себя правдоподобно без удалённого объекта. ИИ-модель уже доступна для установки на Hugging Face и, по данным разработчиков, в опросе 25 участников получила...
На летящем к Луне корабле Orion снова сломался туалет
Космический корабль Orion продолжает двигаться по направлению к Луне в рамках миссии Artemis II Национального управления по аэронавтике и исследованию космического пространства (NASA) США. Астронавты проводят подготовку к историческому облёту спутника Земли, за время которого они удалятся от нашей планеты дальше, чем когда-либо прежде. Но, к сожалению, корабельный туалет...
Видеокарты Nvidia с GDDR6-памятью оказались уязвимы перед атакой GPUBreach, и защиты от неё, кажется, нет
Ранее стало известно про атаки GDDRHammer и GeForge, с помощью которых можно воздействовать на содержимое GDDR6-памяти видеокарт Nvidia, что позволяет повредить таблицы страниц GPU, перенаправить доступ к памяти центрального процессора и добиться полной компрометации системы. При этом считалось, что включение механизма управления памятью IOMMU является надёжной защитой от...
ИИ перестанет «забывать»: Андрей Карпаты предложил новый способ работы с LLM вместо RAG
Андрей Карпаты, бывший директор по искусственному интеллекту Tesla и сооснователь OpenAI, представил новый подход к управлению знаниями, который может изменить подход к исследовательским проектам. Его метод, названный LLM Knowledge Bases, предлагает использовать большие языковые модели (LLM) для создания и поддержания структурированных баз знаний в формате Markdown (.md). Этот...