- Российскую лунную программу снова... (17)
- Иск на $100 млрд может парализовать работу... (23)
- Россияне массово пожаловались на сбой в... (15)
- Японский полупроводниковый стартап Rapidus... (16)
- 7000 мАч, IP69 и без AMOLED при цене от 290... (17)
- В WhatsApp добавят шумоподавление для... (15)
- Проект «Космическая наука» позволит... (15)
- Project Prometheus Безоса переманил из... (14)
- На рынок вернуться новые системные платы с... (51)
- YouTube-блогера подали на Apple в суд,... (32)
- Несостоявшийся смартфон LG Rollable с... (38)
- МКС может задержаться на орбите: США... (40)
- Технологические компании вкатятся на... (29)
- Инвесторы потребовали от IT-гигантов... (34)
- Инсайдер предупредил о переносе Tomb Raider:... (26)
- Новейшая ракета «Союз-5» готова к запуску:... (39)
Arcee представила Trinity-Large-Thinking — открытую ИИ-модель на 399 млрд параметров, конкурирующую с лидерами рынка
Дата: 2026-04-05 19:10
Arcee, лаборатория из Сан-Франциско, выпустила Trinity-Large-Thinking — текстовую reasoning-модель с 399 миллиардами параметров. Модель распространяется под лицензией Apache 2.0, что позволяет её свободно использовать и модифицировать как независимым разработчикам, так и крупным компаниям.
Trinity-Large-Thinking создана как альтернатива закрытым моделям, которые доминируют на рынке. Релиз совпал с ростом обеспокоенности предприятий по поводу использования китайских архитектур в критической инфраструктуре. Arcee предлагает разработчикам инструмент, который они могут полностью контролировать.
Arcee — небольшая команда из 30 человек, которая выделяется подходом «инженерия через ограничения». В 2026 году компания вложила $20 миллионов, почти половину своего бюджета, в 33-дневный цикл обучения Trinity-Large. Для этого использовался кластер из 2048 GPU NVIDIA B300 Blackwell, что позволило достичь высокой скорости обучения.
Иллюстрация: Nano Banana Модель отличается редкой архитектурой Mixture-of-Experts, где из 400 миллиардов параметров активны только 1,56% (13 миллиардов) для каждого токена. Это обеспечивает высокую скорость и эффективность работы. Для решения проблем стабильности Arcee разработала механизм SMEBU (Soft-clamped Momentum Expert Bias Updates), который равномерно распределяет нагрузку между экспертами.
Обучение Trinity-Large включало 20 триллионов токенов, половина из которых — синтетические данные, созданные с помощью переработки текстов. Такой подход позволил модели лучше понимать концепции и информацию, а не просто запоминать текст.
Ключевым обновлением Trinity-Large-Thinking стала фаза «мышления» перед генерацией ответа. Это улучшило способность модели к выполнению сложных многошаговых задач и обеспечило стабильность в долгосрочных сценариях. На тестах PinchBench модель набрала 91.9 балла, что близко к лидеру рынка Claude Opus 4.6 (93.3).
Сравнительная таблица показателей Arcee Trinity-Large-Thinking. Источник: Arcee Лицензия Apache 2.0 выделяет Trinity-Large-Thinking среди конкурентов, предоставляя предприятиям возможность полного контроля над моделью. Arcee также выпустила Trinity-Large-TrueBase — контрольную точку с 10 триллионами токенов, которая позволяет полностью адаптировать модель под свои нужды.
Trinity-Large-Thinking уже получила положительные отзывы сообщества. На платформе OpenRouter модель стала самой популярной в США, обработав более 80 миллиардов токенов за день. При стоимости $0.90 за миллион токенов Trinity значительно дешевле конкурентов, таких как Claude Opus 4.6 ($25 за миллион токенов).
Arcee планирует использовать наработки Trinity-Large для обновления своих компактных моделей Mini и Nano, открыв их так же для широкого круга пользователей.
Подробнее на iXBT
Предыдущие новости
Netflix научил собственную ИИ-модель без следов удалять объекты из видео и правдоподобно перестраивать сцену
Netflix открыл доступ к модели VOID для редактирования видео с помощью ИИ, которая удаляет из кадра объекты и следы их взаимодействия с окружающей средой, а затем достраивает сцену так, чтобы оставшиеся элементы вели себя правдоподобно без удалённого объекта. ИИ-модель уже доступна для установки на Hugging Face и, по данным разработчиков, в опросе 25 участников получила...
На летящем к Луне корабле Orion снова сломался туалет
Космический корабль Orion продолжает двигаться по направлению к Луне в рамках миссии Artemis II Национального управления по аэронавтике и исследованию космического пространства (NASA) США. Астронавты проводят подготовку к историческому облёту спутника Земли, за время которого они удалятся от нашей планеты дальше, чем когда-либо прежде. Но, к сожалению, корабельный туалет...
Видеокарты Nvidia с GDDR6-памятью оказались уязвимы перед атакой GPUBreach, и защиты от неё, кажется, нет
Ранее стало известно про атаки GDDRHammer и GeForge, с помощью которых можно воздействовать на содержимое GDDR6-памяти видеокарт Nvidia, что позволяет повредить таблицы страниц GPU, перенаправить доступ к памяти центрального процессора и добиться полной компрометации системы. При этом считалось, что включение механизма управления памятью IOMMU является надёжной защитой от...
ИИ перестанет «забывать»: Андрей Карпаты предложил новый способ работы с LLM вместо RAG
Андрей Карпаты, бывший директор по искусственному интеллекту Tesla и сооснователь OpenAI, представил новый подход к управлению знаниями, который может изменить подход к исследовательским проектам. Его метод, названный LLM Knowledge Bases, предлагает использовать большие языковые модели (LLM) для создания и поддержания структурированных баз знаний в формате Markdown (.md). Этот...