- После смещения фокуса на ИИ-агентов выручка... (1825)
- Большая рамка, как у старых смартфонов, зато... (2314)
- Samsung четыре месяца подряд повышает цены... (2375)
- И снова подорожание. И без того не самые... (1911)
- NASA показало зрелищный таймлапс пролета... (2140)
- Новый трейлер раскрыл дату выхода Call of... (2012)
- Asus подняла цены на новые ноутбуки со... (1885)
- Современный 55-дюймовый телевизор Mini LED... (2094)
- Эта камера понимает, что делает человек или... (2090)
- Платформа Snapdragon 8 Elite Gen 6 может... (2257)
- Корабль Orion совершил первое включение... (2280)
- Supermicro начала собственное расследование... (2443)
- Представлен планшет Moto Pad... (2009)
- Представлен смартфон Moto G Stylus 2026:... (2375)
- «Лучший босс, что я видел»: фанатов Diablo... (1941)
- Стране нужен FP64: AMD пообещала повысить... (2293)
Почему иногда ChatGPT «говорит» как пациент с нарушением речи? Учёные нашли ключ к улучшению языковых моделей
Дата: 2025-05-18 11:07
Учёные Токийского университета обнаружили неожиданную связь между работой популярных языковых моделей, таких как ChatGPT, и нарушениями речи у людей. Исследование, опубликованное в мае 2025 года в журнале «Advanced Science», показало, что системы искусственного интеллекта, генерирующие текст, могут «заблуждаться» почти так же, как пациенты с афазией Вернике — заболеванием, при котором человек говорит бегло, но бессвязно. Это открытие не только проливает свет на природу ошибок ИИ, но и предлагает новые методы диагностики речевых расстройств.
В основе работы лежит метод анализа энергетических ландшафтов — подход, заимствованный из физики. Упрощённо его можно представить как визуализацию внутренних процессов в виде шарика, катящегося по рельефной поверхности. Чем «пологий» ландшафт, тем хаотичнее движение — это характерно как для мозга пациентов с афазией, так и для языковых моделей. Например, когда ChatGPT выдаёт убедительный, но ошибочный ответ, его внутренние процессы напоминают «скольжение» шарика по неровной плоскости без чёткого маршрута.
Иллюстрация: Leonardo Исследователи сравнили данные мозговой активности людей с разными формами афазии и внутренние сигналы четырёх языковых моделей, включая GPT-2 и Llama-3.1. Оказалось, что ИИ чаще «спотыкается» так же, как пациенты с рецептивной афазией, которые теряют способность понимать смысл слов.
Профессор Такамицу Ватанабэ из Международного исследовательского центра нейронаук WPI-IRCN подчёркивает: речь не о том, что у чат-ботов есть «повреждения мозга». Однако сходство в обработке информации открывает двойные возможности. Для медицины — это шанс создать объективные критерии диагностики афазии, анализируя паттерны мозговой активности, а не только внешние симптомы. Для разработчиков ИИ — путь к более точным системам, которые можно «настраивать», опираясь на принципы работы здорового мозга. Уже сейчас метод позволяет предсказать склонность модели к ошибкам, изучая её внутреннюю динамику — например, частоту «перескоков» между темами или зацикливание на повторяющихся фразах.
Хотя исследование не даёт готовых решений, оно формирует новую основу для объединения нейробиологов и инженеров. Понимание общих ограничений в обработке информации может привести к прорывам в обеих областях — от умных помощников, которые реже «галлюцинируют», до терапии, адаптированной под индивидуальные особенности мозга.
Подробнее на iXBT
Предыдущие новости
Океан станет гигантским аккумулятором для возобновляемой энергии: Германия создает подводные хранилища энергии
Немецкие ученые из Института Фраунгофера предлагают революционное решение для хранения возобновляемой энергии — гигантские бетонные сферы, погруженные на дно океана. Эта технология, разработанная в рамках проекта StEnSea (Stored Energy in the Sea), может стать альтернативой наземным системам хранения, минимизируя использование земельных ресурсов. Фото: Fraunhofer Сферы...
Искусственный интеллект стал врачом в новой клинике: ИИ-врач работает в Саудовской Аравии
Китайская компания Synyi AI открыла в Саудовской Аравии первую клинику, где искусственный интеллект под именем «Доктор Хуа» самостоятельно диагностирует пациентов. Проект, запущенный в апреле 2025 года в регионе Аль-Ахса в сотрудничестве с местной Almoosa Health Group, направлен на замену врачей первичного звена ИИ-системами. Изображение сгенерировано Grok Пациенты...
В правительстве США потребовали остановить глобальное распространение Huawei HarmonyOS
Два члена Палаты представителей США направили письмо в администрацию с призывом совместно с союзниками заблокировать распространение операционной системы HarmonyOS от Huawei за пределами Китая. Законодатели считают, что платформа может быть использована для кибершпионажа и усиления цифрового контроля со стороны китайского правительства. Источник изображения: Huawei...
Google DeepMind создал универсальный ИИ, который ускорит научные открытия от предсказания структуры белков до решения любых задач программирования
Подразделение Google DeepMind представило AlphaEvolve — новый агент искусственного интеллекта, который, по заявлениям компании, знаменует собой существенный шаг на пути к решению сложных задач в математике и естественных науках. Система основана на больших языковых моделях Gemini, но дополнена «эволюционным» подходом, позволяющим оценивать и улучшать алгоритмы в различных...