- Мировые продажи планшетов замерли, а... (507)
- На «Яндекс» пожаловались в ФАС из-за... (449)
- Palit подтвердила, что Galax, KFA2 и HOF уже... (415)
- У Роскомнадзора нет ни планов, ни оснований... (472)
- TSMC вкладывается в морские ветряки, чтобы... (164)
- M**a обжаловала вердикт на $4,2 млн по делу... (428)
- Переговоры профсоюза и руководства Samsung... (199)
- ИИ научили следить за животными в дикой... (693)
- Даже хакеры устали от нейросетей: их форумы... (458)
- Google DeepMind будет обучать ИИ в... (443)
- Anthropic занялась повышением... (445)
- «Экономил ради этого целый год»: трейлер... (438)
- Ускоритель AMD Instinct MI430X оказался... (234)
- Оптимизм руководства AMD по поводу серверных... (575)
- Разработка спецификаций PCIe 8.0 прошла... (508)
- Xiaomi представила роутер BE7200 Pro с... (174)
SlideFormer: новый подход к тонкой настройке больших языковых моделей на одном GPU
Дата: 2026-03-30 22:09
Тонкая настройка больших языковых моделей (LLM) становится всё более важной для адаптации к конкретным задачам, но её высокая требовательность к памяти превышает возможности большинства современных GPU. Разработчики из Гонконгского университета науки и технологий (Hong Kong University of Science and Technology, HKUST) представили SlideFormer — систему, которая позволяет выполнять тонкую настройку моделей с более чем 123 миллиардами параметров на одном GPU, таком как Nvidia RTX 4090. SlideFormer предлагает решения для преодоления ограничений памяти и повышения производительности.
Решение использует архитектуру скользящих слоёв, которая позволяет GPU работать как окно, совмещая вычисления на GPU с обновлениями на CPU и многоуровневым вводом-выводом. Система снижает пиковое использование памяти за счёт предварительно выделенных GPU-кэшей и буферов на CPU, что уменьшает фрагментацию и перераспределение памяти. Интеграция методов ввода-вывода и оптимизированных вычислительных ядер Triton устраняет узкие места в вычислениях.
Иллюстрация: Nano Banana Это решение позволяет SlideFormer достигать следующих результатов: увеличение пропускной способности от 1,40 до 6,27 раз по сравнению с существующими решениями, такими как ZeRO-Offload и ColossalAI, снижение использования памяти GPU более чем на 50% и уменьшение потребления памяти CPU на 40%. Например, SlideFormer позволяет тонко настраивать модели с 123 миллиардами параметров на одном RTX 4090, а также обрабатывать пакеты данных в 8 раз больше. На высокопроизводительном ПК с 256 ГБ оперативной памяти система может обрабатывать модели до 24 миллиардов параметров без потери производительности.
SlideFormer открывает новые возможности для демократизации тонкой настройки LLM, позволяя пользователям и небольшим организациям использовать мощь больших моделей без необходимости в дорогих кластерных решениях.
Подробнее на iXBT
Предыдущие новости
ИИ выявил апноэ сна после многолетних ошибок диагностики у пациента с тяжёлыми заболеваниями
Пользователь на форуме Reddit описал случай, в котором языковая модель Claude помогла выявить у 62-летнего пациента апноэ сна — состояние с остановками дыхания во сне, — после многолетних обследований без точного диагноза. Апноэ связано с повышенным риском инсульта, гипертонии и хронической усталости и часто остаётся нераспознанным. Пациент имел тяжёлые сопутствующие...
Раньше это могла быть новая Nokia. В Сети засветился HMD Crest 2 Pro в розовом цвете на новой платформе Qualcomm
Компания HMD готовит смартфон Crest 2 Pro, который, судя по параметрам, будет достаточно недорогим. Так, сердцем послужит SoC Snapdragon 4 Gen 4, которая была представлена в декабре и пока на рынке толком не появилась. Фото X (smashx_60) Смартфон получит самый большой аккумулятор среди аппаратов HMD, но речь о 6000 мАч, что по сегодняшним меркам уже далеко не рекорд. Также...
«Становится только хуже»: инсайдер рассекретил ещё одну игру из апрельской подборки PS Plus, и фанаты не рады
Зарекомендовавший себя рядом достоверных утечек инсайдер billbil-kun c французского портала Dealabs рассекретил ещё одну игру из апрельской подборки для подписчиков базового тарифа сервиса PlayStation Plus. Источник изображения:...
«Я знал, что подобная чушь рано или поздно случится». Разработчик пожаловался на Copilot: ИИ более 11 000 раз добавил саморекламу в описаниях предложенных правок кода на GitHub
Компания Microsoft активно пытается развивать своё ИИ-направление и порой может немного перестараться. Как сообщается, на принадлежащей компании платформе GitHub прямо в описании предложенных правок кода (pull requests) стала появляться самореклама от Copilot. Происходит это не само по себе. Разработчик Зак Мэнсон рассказал, как это произошло в его случае. Он использовал...