- M**a без лишнего шума собирает команду... (14)
- Новая статья: Компьютер месяца — апрель 2026... (15)
- Для тех, кому ездить много и дешево:... (40)
- Роботы Maximo установили 100 мегаватт... (33)
- Aston Martin представила гибридный суперкар... (36)
- OpenAI купила популярное шоу TBPN и выходит... (15)
- OpenAI купила популярное тех-шоу TBPN и... (39)
- В Европе создали Euro-Office — пакет офисных... (14)
- Стартап Stardust Solutions привлёк рекордные... (37)
- Geely Atlas впервые получил автопилот. В... (34)
- Магнитное поле Сатурна оказалось... (35)
- Телескоп «Джеймс Уэбб» показал скрытое... (89)
- Лунный аппарат Blue Ghost от Firefly... (80)
- Нержавеющие машины и самолеты можно будет... (198)
- Новый пульт дистанционного управления Xiaomi... (139)
- В Минцифры признают: выявить работу сервисов... (173)
Arcee представила Trinity-Large-Thinking — открытую ИИ-модель на 399 млрд параметров, конкурирующую с лидерами рынка
Дата: 2026-04-05 19:10
Arcee, лаборатория из Сан-Франциско, выпустила Trinity-Large-Thinking — текстовую reasoning-модель с 399 миллиардами параметров. Модель распространяется под лицензией Apache 2.0, что позволяет её свободно использовать и модифицировать как независимым разработчикам, так и крупным компаниям.
Trinity-Large-Thinking создана как альтернатива закрытым моделям, которые доминируют на рынке. Релиз совпал с ростом обеспокоенности предприятий по поводу использования китайских архитектур в критической инфраструктуре. Arcee предлагает разработчикам инструмент, который они могут полностью контролировать.
Arcee — небольшая команда из 30 человек, которая выделяется подходом «инженерия через ограничения». В 2026 году компания вложила $20 миллионов, почти половину своего бюджета, в 33-дневный цикл обучения Trinity-Large. Для этого использовался кластер из 2048 GPU NVIDIA B300 Blackwell, что позволило достичь высокой скорости обучения.
Иллюстрация: Nano Banana Модель отличается редкой архитектурой Mixture-of-Experts, где из 400 миллиардов параметров активны только 1,56% (13 миллиардов) для каждого токена. Это обеспечивает высокую скорость и эффективность работы. Для решения проблем стабильности Arcee разработала механизм SMEBU (Soft-clamped Momentum Expert Bias Updates), который равномерно распределяет нагрузку между экспертами.
Обучение Trinity-Large включало 20 триллионов токенов, половина из которых — синтетические данные, созданные с помощью переработки текстов. Такой подход позволил модели лучше понимать концепции и информацию, а не просто запоминать текст.
Ключевым обновлением Trinity-Large-Thinking стала фаза «мышления» перед генерацией ответа. Это улучшило способность модели к выполнению сложных многошаговых задач и обеспечило стабильность в долгосрочных сценариях. На тестах PinchBench модель набрала 91.9 балла, что близко к лидеру рынка Claude Opus 4.6 (93.3).
Сравнительная таблица показателей Arcee Trinity-Large-Thinking. Источник: Arcee Лицензия Apache 2.0 выделяет Trinity-Large-Thinking среди конкурентов, предоставляя предприятиям возможность полного контроля над моделью. Arcee также выпустила Trinity-Large-TrueBase — контрольную точку с 10 триллионами токенов, которая позволяет полностью адаптировать модель под свои нужды.
Trinity-Large-Thinking уже получила положительные отзывы сообщества. На платформе OpenRouter модель стала самой популярной в США, обработав более 80 миллиардов токенов за день. При стоимости $0.90 за миллион токенов Trinity значительно дешевле конкурентов, таких как Claude Opus 4.6 ($25 за миллион токенов).
Arcee планирует использовать наработки Trinity-Large для обновления своих компактных моделей Mini и Nano, открыв их так же для широкого круга пользователей.
Подробнее на iXBT
Предыдущие новости
Netflix научил собственную ИИ-модель без следов удалять объекты из видео и правдоподобно перестраивать сцену
Netflix открыл доступ к модели VOID для редактирования видео с помощью ИИ, которая удаляет из кадра объекты и следы их взаимодействия с окружающей средой, а затем достраивает сцену так, чтобы оставшиеся элементы вели себя правдоподобно без удалённого объекта. ИИ-модель уже доступна для установки на Hugging Face и, по данным разработчиков, в опросе 25 участников получила...
На летящем к Луне корабле Orion снова сломался туалет
Космический корабль Orion продолжает двигаться по направлению к Луне в рамках миссии Artemis II Национального управления по аэронавтике и исследованию космического пространства (NASA) США. Астронавты проводят подготовку к историческому облёту спутника Земли, за время которого они удалятся от нашей планеты дальше, чем когда-либо прежде. Но, к сожалению, корабельный туалет...
Видеокарты Nvidia с GDDR6-памятью оказались уязвимы перед атакой GPUBreach, и защиты от неё, кажется, нет
Ранее стало известно про атаки GDDRHammer и GeForge, с помощью которых можно воздействовать на содержимое GDDR6-памяти видеокарт Nvidia, что позволяет повредить таблицы страниц GPU, перенаправить доступ к памяти центрального процессора и добиться полной компрометации системы. При этом считалось, что включение механизма управления памятью IOMMU является надёжной защитой от...
ИИ перестанет «забывать»: Андрей Карпаты предложил новый способ работы с LLM вместо RAG
Андрей Карпаты, бывший директор по искусственному интеллекту Tesla и сооснователь OpenAI, представил новый подход к управлению знаниями, который может изменить подход к исследовательским проектам. Его метод, названный LLM Knowledge Bases, предлагает использовать большие языковые модели (LLM) для создания и поддержания структурированных баз знаний в формате Markdown (.md). Этот...