- Кук: на устранение неожиданного дефицита Mac... (4138)
- Разработчики Eve Online снова станут... (4656)
- Серия iPhone 17 стала самой популярной за... (5426)
- Глава Microsoft пообещал «фундаментальную... (1886)
- Российская ракета «Союз-5» с мощнейшим в... (5417)
- Sandisk тоже оседлала ИИ-волну: выручка... (5424)
- Герои нашего времени: долгожданная Heroes of... (5019)
- Продажи ускорителей Huawei в Китае в этом... (5022)
- Российские поставщики временного Wi-Fi... (5618)
- Спрос на iPhone 17 и MacBook Neo разогнал... (5615)
- Илон Маск призвал ИИ-компании «избегать... (5332)
- ИИ разогнал продажи HDD — выручка Western... (5876)
- Выручка Western Digital выросла на 45 % до... (4348)
- Финансовый директор OpenAI заявила, что... (3518)
- Новая статья: Термодинамические вычислители... (3544)
- Материнские платы Gigabyte тоже получили... (4164)
Искусственный интеллект заболел «гниением мозга» — данные соцсетей оказались для него токсичны
Дата: 2025-10-22 23:03
Команды учёных из Техасского университета в Остине (University of?Texas?at?Austin0), Техасского университета A&M (Texas?A&M?University) и Университета Пердью (Purdue?University представили доклад, в котором показали: большие языковые модели (LLM) при обучении на вирусных, низкосодержательных постах из соцсетей обнаруживают устойчивый спад способности к мышлению, пониманию длинных текстов и соблюдению этических норм.
Учёные сформулировали гипотезу под названием «гипотеза LLM-деградации мозга» ("LLM Brain Rot Hypothesis"): непрерывное обучение на «мусорных» веб-данных приводит к стойкому снижению когнитивных функций модели. Для проверки отобрали реальные данные c платформы X (ранее Twitter): один набор — с вирусными короткими постами с большим количеством лайков и репостов, другой — длинными, содержательными текстами с высокой информационной ценностью.
После обучения моделей на 100% вирусных данных результаты оказались тревожны: точность моделей по тесту ARC-Challenge снизилась с 74,9 % до 57,2 %, а по тесту RULER-CWE — с 84,4 % до 52,3. При этом характер отклонений не был случайным: модели всё чаще «пропускали мысли», то есть не строили промежуточные рассуждения — эффект, который авторы назвали "thought skipping".
Иллюстрация: Sora Ещё более тревожно: даже после повторной донастройки на качественные данные модели не смогли вернуться к исходному уровню. Учёные объясняют это «дрейфом» (representational drift) — структурными изменениями внутри модели, которые стандартные методы исправления не устраняют.
Кроме когнитивной деградации, модели демонстрировали изменение «личностных» характеристик: выросли показатели, связанные с нарциссизмом и психопатией, снизилась склонность к сотрудничеству.
Качество обучающих данных выходит за рамки формата — оно становится вопросом безопасности обучения. Авторы исследования назвали ситуацию «гигиеной когнитивных функций» ИИ — когда данные для обучения моделей должны проходить проверку не только на соответствие формату, но и по содержанию.
Это исследование поднимает важный вопрос: если большие языковые модели «питаются» типом данных, аналогичным «досуг-медиа» человека (короткие кликабельные посты, эмоциональные фразы, популярные вирусы), то они могут терять способность мыслить, запоминать и действовать этично. Понимание этого механизма важно не только для фундамента взаимодействия с ИИ, но и для практики: от автоматического обучения моделей на пользовательских данных до аудита рынков данных и платформ с генеративным контентом. Авторы отмечают, что, «если не принять меры — система может скатиться к зомби-интернету, где ИИ просто размножает мусор вместо осмысленной информации».
Подробнее на iXBT
Предыдущие новости
Имплант под сетчатку и умные очки возвращают зрение слепым — 80% успеха в клиническом испытании
Впервые слепые пациенты с возрастной макулярной дегенерацией (AMD) смогли восстановить частичное зрение: миниатюрный имплант под сетчатку в сочетании с умными очками позволяет им видеть контуры предметов, читать книги и решать кроссворды. Клинические испытания показывают реальный шаг к возвращению независимости людям с прогрессирующей слепотой. Группа из 38 пациентов с...
«Группа Астра» с 1 января 2026 года повысит стоимость продуктов и услуг — рост цен может достигнуть 40 %
«Группа Астра» намерена с 1 января 2026 года повысить стоимость ряда своих продуктов и сервисов в рамках ежегодной плановой индексации цен. Пересмотр стоимостных показателей затронет программные решения вендора, а также услуги технической поддержки. По словам компании, рост цен составит в среднем от 10 до 12 % от текущего уровня. При этом с учётом находящегося на...
Google Quantum AI смоделировала физическую систему в 13 000 раз быстрее суперкомпьютера
Команда Google Quantum AI показала, что квантовые процессоры могут использовать внутренние законы хаоса, чтобы изучать собственное поведение. Когда множество кубитов взаимодействуют, их состояния переплетаются — и информация о начальных условиях быстро распределяется по всей системе. Этот процесс называют квантовым перемешиванием. Формально его описывают корреляторами —...
Лучше поздно, чем никогда: президент Xiaomi признал ошибку, допущенную при разработке Xiaomi Mi 11
В преддверии анонса флагманов Redmi K90 президент Xiaomi Group Лу Вейбинг рассказал о развитии компании в сегменте премиум-смартфонов и поделился откровениями о неудачах и стратегических решениях последних лет. Фото: Xiaomi В интервью топ-менеджер подчеркнул, что никакой китайский бренд в 2025 году не превысил 18% доли рынка, и быстрых побед в отрасли быть не может. Говоря о...