- Пионер не всегда готов: ФНС заблокировала... (1388)
- Вышли обзоры Ryzen 9 9950X3D2: на 4 %... (1256)
- CATL представила LFP-аккумулятор 3-го... (992)
- В Китае с размахом вернули к жизни... (1171)
- Microsoft заверила, что Windows 11 прекрасно... (999)
- Telegram оштрафовали в России на 7 млн... (1060)
- Starfield впервые за три года возглавила... (1124)
- Тим Кук продолжит представлять Apple в... (1216)
- Sony и Honda почти закрыли совместное... (1115)
- Представлен компактный планшет Oppo Pad Mini... (1276)
- Xiaomi представила свой первый смартфон с... (1589)
- «Чисто сюжетное приключение»: инсайдер... (1305)
- Руководитель Intel намекнул на появление... (1457)
- В ближайшие годы человек станет «ходячим... (1436)
- Представлена функция OpenAI Chronicle —... (1178)
- Британия проверит Telegram, Teen Chat и Chat... (1551)
Почему иногда ChatGPT «говорит» как пациент с нарушением речи? Учёные нашли ключ к улучшению языковых моделей
Дата: 2025-05-18 11:07
Учёные Токийского университета обнаружили неожиданную связь между работой популярных языковых моделей, таких как ChatGPT, и нарушениями речи у людей. Исследование, опубликованное в мае 2025 года в журнале «Advanced Science», показало, что системы искусственного интеллекта, генерирующие текст, могут «заблуждаться» почти так же, как пациенты с афазией Вернике — заболеванием, при котором человек говорит бегло, но бессвязно. Это открытие не только проливает свет на природу ошибок ИИ, но и предлагает новые методы диагностики речевых расстройств.
В основе работы лежит метод анализа энергетических ландшафтов — подход, заимствованный из физики. Упрощённо его можно представить как визуализацию внутренних процессов в виде шарика, катящегося по рельефной поверхности. Чем «пологий» ландшафт, тем хаотичнее движение — это характерно как для мозга пациентов с афазией, так и для языковых моделей. Например, когда ChatGPT выдаёт убедительный, но ошибочный ответ, его внутренние процессы напоминают «скольжение» шарика по неровной плоскости без чёткого маршрута.
Иллюстрация: Leonardo Исследователи сравнили данные мозговой активности людей с разными формами афазии и внутренние сигналы четырёх языковых моделей, включая GPT-2 и Llama-3.1. Оказалось, что ИИ чаще «спотыкается» так же, как пациенты с рецептивной афазией, которые теряют способность понимать смысл слов.
Профессор Такамицу Ватанабэ из Международного исследовательского центра нейронаук WPI-IRCN подчёркивает: речь не о том, что у чат-ботов есть «повреждения мозга». Однако сходство в обработке информации открывает двойные возможности. Для медицины — это шанс создать объективные критерии диагностики афазии, анализируя паттерны мозговой активности, а не только внешние симптомы. Для разработчиков ИИ — путь к более точным системам, которые можно «настраивать», опираясь на принципы работы здорового мозга. Уже сейчас метод позволяет предсказать склонность модели к ошибкам, изучая её внутреннюю динамику — например, частоту «перескоков» между темами или зацикливание на повторяющихся фразах.
Хотя исследование не даёт готовых решений, оно формирует новую основу для объединения нейробиологов и инженеров. Понимание общих ограничений в обработке информации может привести к прорывам в обеих областях — от умных помощников, которые реже «галлюцинируют», до терапии, адаптированной под индивидуальные особенности мозга.
Подробнее на iXBT
Предыдущие новости
Океан станет гигантским аккумулятором для возобновляемой энергии: Германия создает подводные хранилища энергии
Немецкие ученые из Института Фраунгофера предлагают революционное решение для хранения возобновляемой энергии — гигантские бетонные сферы, погруженные на дно океана. Эта технология, разработанная в рамках проекта StEnSea (Stored Energy in the Sea), может стать альтернативой наземным системам хранения, минимизируя использование земельных ресурсов. Фото: Fraunhofer Сферы...
Искусственный интеллект стал врачом в новой клинике: ИИ-врач работает в Саудовской Аравии
Китайская компания Synyi AI открыла в Саудовской Аравии первую клинику, где искусственный интеллект под именем «Доктор Хуа» самостоятельно диагностирует пациентов. Проект, запущенный в апреле 2025 года в регионе Аль-Ахса в сотрудничестве с местной Almoosa Health Group, направлен на замену врачей первичного звена ИИ-системами. Изображение сгенерировано Grok Пациенты...
В правительстве США потребовали остановить глобальное распространение Huawei HarmonyOS
Два члена Палаты представителей США направили письмо в администрацию с призывом совместно с союзниками заблокировать распространение операционной системы HarmonyOS от Huawei за пределами Китая. Законодатели считают, что платформа может быть использована для кибершпионажа и усиления цифрового контроля со стороны китайского правительства. Источник изображения: Huawei...
Google DeepMind создал универсальный ИИ, который ускорит научные открытия от предсказания структуры белков до решения любых задач программирования
Подразделение Google DeepMind представило AlphaEvolve — новый агент искусственного интеллекта, который, по заявлениям компании, знаменует собой существенный шаг на пути к решению сложных задач в математике и естественных науках. Система основана на больших языковых моделях Gemini, но дополнена «эволюционным» подходом, позволяющим оценивать и улучшать алгоритмы в различных...