- Представлен ПК Machenike Dawn Pro с... (168)
- Американские ИИ-компании не смогут запустить... (278)
- «История творится на наших глазах».... (224)
- Космический корабль доставит на МКС конфеты,... (200)
- Космическая обсерватория «Спектр-М» займётся... (210)
- В условиях дефицита памяти портативная... (207)
- Представлены телевизоры LG QNED evo Mini LED... (363)
- Лазер вместо радио: лунный корабль передаёт... (238)
- В Китае введут строгий стандарт безопасности... (206)
- NASA впервые разрешило астронавтам взять на... (189)
- Сразу после старта лунной миссии Трамп... (298)
- Передача данных по свету достигла 362 Гбит/с... (454)
- Стартап Kintsugi с ИИ-диагностикой депрессии... (460)
- Искусственный интеллект в психиатрии: в США... (465)
- Астрономы подтвердили «запрещённый» диапазон... (500)
- 120 долларов — столько стоит одна... (298)
Arcee представила Trinity-Large-Thinking — открытую ИИ-модель на 399 млрд параметров, конкурирующую с лидерами рынка
Дата: 2026-04-05 19:10
Arcee, лаборатория из Сан-Франциско, выпустила Trinity-Large-Thinking — текстовую reasoning-модель с 399 миллиардами параметров. Модель распространяется под лицензией Apache 2.0, что позволяет её свободно использовать и модифицировать как независимым разработчикам, так и крупным компаниям.
Trinity-Large-Thinking создана как альтернатива закрытым моделям, которые доминируют на рынке. Релиз совпал с ростом обеспокоенности предприятий по поводу использования китайских архитектур в критической инфраструктуре. Arcee предлагает разработчикам инструмент, который они могут полностью контролировать.
Arcee — небольшая команда из 30 человек, которая выделяется подходом «инженерия через ограничения». В 2026 году компания вложила $20 миллионов, почти половину своего бюджета, в 33-дневный цикл обучения Trinity-Large. Для этого использовался кластер из 2048 GPU NVIDIA B300 Blackwell, что позволило достичь высокой скорости обучения.
Иллюстрация: Nano Banana Модель отличается редкой архитектурой Mixture-of-Experts, где из 400 миллиардов параметров активны только 1,56% (13 миллиардов) для каждого токена. Это обеспечивает высокую скорость и эффективность работы. Для решения проблем стабильности Arcee разработала механизм SMEBU (Soft-clamped Momentum Expert Bias Updates), который равномерно распределяет нагрузку между экспертами.
Обучение Trinity-Large включало 20 триллионов токенов, половина из которых — синтетические данные, созданные с помощью переработки текстов. Такой подход позволил модели лучше понимать концепции и информацию, а не просто запоминать текст.
Ключевым обновлением Trinity-Large-Thinking стала фаза «мышления» перед генерацией ответа. Это улучшило способность модели к выполнению сложных многошаговых задач и обеспечило стабильность в долгосрочных сценариях. На тестах PinchBench модель набрала 91.9 балла, что близко к лидеру рынка Claude Opus 4.6 (93.3).
Сравнительная таблица показателей Arcee Trinity-Large-Thinking. Источник: Arcee Лицензия Apache 2.0 выделяет Trinity-Large-Thinking среди конкурентов, предоставляя предприятиям возможность полного контроля над моделью. Arcee также выпустила Trinity-Large-TrueBase — контрольную точку с 10 триллионами токенов, которая позволяет полностью адаптировать модель под свои нужды.
Trinity-Large-Thinking уже получила положительные отзывы сообщества. На платформе OpenRouter модель стала самой популярной в США, обработав более 80 миллиардов токенов за день. При стоимости $0.90 за миллион токенов Trinity значительно дешевле конкурентов, таких как Claude Opus 4.6 ($25 за миллион токенов).
Arcee планирует использовать наработки Trinity-Large для обновления своих компактных моделей Mini и Nano, открыв их так же для широкого круга пользователей.
Подробнее на iXBT
Предыдущие новости
Netflix научил собственную ИИ-модель без следов удалять объекты из видео и правдоподобно перестраивать сцену
Netflix открыл доступ к модели VOID для редактирования видео с помощью ИИ, которая удаляет из кадра объекты и следы их взаимодействия с окружающей средой, а затем достраивает сцену так, чтобы оставшиеся элементы вели себя правдоподобно без удалённого объекта. ИИ-модель уже доступна для установки на Hugging Face и, по данным разработчиков, в опросе 25 участников получила...
На летящем к Луне корабле Orion снова сломался туалет
Космический корабль Orion продолжает двигаться по направлению к Луне в рамках миссии Artemis II Национального управления по аэронавтике и исследованию космического пространства (NASA) США. Астронавты проводят подготовку к историческому облёту спутника Земли, за время которого они удалятся от нашей планеты дальше, чем когда-либо прежде. Но, к сожалению, корабельный туалет...
Видеокарты Nvidia с GDDR6-памятью оказались уязвимы перед атакой GPUBreach, и защиты от неё, кажется, нет
Ранее стало известно про атаки GDDRHammer и GeForge, с помощью которых можно воздействовать на содержимое GDDR6-памяти видеокарт Nvidia, что позволяет повредить таблицы страниц GPU, перенаправить доступ к памяти центрального процессора и добиться полной компрометации системы. При этом считалось, что включение механизма управления памятью IOMMU является надёжной защитой от...
ИИ перестанет «забывать»: Андрей Карпаты предложил новый способ работы с LLM вместо RAG
Андрей Карпаты, бывший директор по искусственному интеллекту Tesla и сооснователь OpenAI, представил новый подход к управлению знаниями, который может изменить подход к исследовательским проектам. Его метод, названный LLM Knowledge Bases, предлагает использовать большие языковые модели (LLM) для создания и поддержания структурированных баз знаний в формате Markdown (.md). Этот...