- Reddit подал в суд на Perplexity за... (92)
- В Ульяновске выпустили миллионную шину... (113)
- Представлен Exeed ES7: премиум-гибрид с 446... (310)
- Умение Альтмана играть на самолюбии... (305)
- Даже сама Apple не хочет забирать гарнитуры... (424)
- Один из самых доступных смартфонов на... (479)
- Десятки смартфонов Huawei получат новейший... (463)
- General Motors анонсировала новые... (435)
- «Мы стремимся к тому, чтобы сервис оставался... (519)
- Более 800 публичных личностей, включая... (352)
- Имплант под сетчатку и умные очки возвращают... (475)
- Искусственный интеллект заболел «гниением... (494)
- Лучше поздно, чем никогда: президент Xiaomi... (537)
- Google Quantum AI смоделировала физическую... (291)
- Торгов не будет? Минцифры отменило приказ о... (507)
- Супергеройская комедия Dispatch от ведущих... (452)
Искусственный интеллект заболел «гниением мозга» — данные соцсетей оказались для него токсичны
Дата: 2025-10-22 23:03
Команды учёных из Техасского университета в Остине (University of?Texas?at?Austin0), Техасского университета A&M (Texas?A&M?University) и Университета Пердью (Purdue?University представили доклад, в котором показали: большие языковые модели (LLM) при обучении на вирусных, низкосодержательных постах из соцсетей обнаруживают устойчивый спад способности к мышлению, пониманию длинных текстов и соблюдению этических норм.
Учёные сформулировали гипотезу под названием «гипотеза LLM-деградации мозга» ("LLM Brain Rot Hypothesis"): непрерывное обучение на «мусорных» веб-данных приводит к стойкому снижению когнитивных функций модели. Для проверки отобрали реальные данные c платформы X (ранее Twitter): один набор — с вирусными короткими постами с большим количеством лайков и репостов, другой — длинными, содержательными текстами с высокой информационной ценностью.
После обучения моделей на 100% вирусных данных результаты оказались тревожны: точность моделей по тесту ARC-Challenge снизилась с 74,9 % до 57,2 %, а по тесту RULER-CWE — с 84,4 % до 52,3. При этом характер отклонений не был случайным: модели всё чаще «пропускали мысли», то есть не строили промежуточные рассуждения — эффект, который авторы назвали "thought skipping".

Ещё более тревожно: даже после повторной донастройки на качественные данные модели не смогли вернуться к исходному уровню. Учёные объясняют это «дрейфом» (representational drift) — структурными изменениями внутри модели, которые стандартные методы исправления не устраняют.
Кроме когнитивной деградации, модели демонстрировали изменение «личностных» характеристик: выросли показатели, связанные с нарциссизмом и психопатией, снизилась склонность к сотрудничеству.
Качество обучающих данных выходит за рамки формата — оно становится вопросом безопасности обучения. Авторы исследования назвали ситуацию «гигиеной когнитивных функций» ИИ — когда данные для обучения моделей должны проходить проверку не только на соответствие формату, но и по содержанию.
Это исследование поднимает важный вопрос: если большие языковые модели «питаются» типом данных, аналогичным «досуг-медиа» человека (короткие кликабельные посты, эмоциональные фразы, популярные вирусы), то они могут терять способность мыслить, запоминать и действовать этично. Понимание этого механизма важно не только для фундамента взаимодействия с ИИ, но и для практики: от автоматического обучения моделей на пользовательских данных до аудита рынков данных и платформ с генеративным контентом. Авторы отмечают, что, «если не принять меры — система может скатиться к зомби-интернету, где ИИ просто размножает мусор вместо осмысленной информации».
Подробнее на iXBT
Предыдущие новости
Имплант под сетчатку и умные очки возвращают зрение слепым — 80% успеха в клиническом испытании
Впервые слепые пациенты с возрастной макулярной дегенерацией (AMD) смогли восстановить частичное зрение: миниатюрный имплант под сетчатку в сочетании с умными очками позволяет им видеть контуры предметов, читать книги и решать кроссворды. Клинические испытания показывают реальный шаг к возвращению независимости людям с прогрессирующей слепотой. Группа из 38 пациентов с...
«Группа Астра» с 1 января 2026 года повысит стоимость продуктов и услуг — рост цен может достигнуть 40 %
«Группа Астра» намерена с 1 января 2026 года повысить стоимость ряда своих продуктов и сервисов в рамках ежегодной плановой индексации цен. Пересмотр стоимостных показателей затронет программные решения вендора, а также услуги технической поддержки. По словам компании, рост цен составит в среднем от 10 до 12 % от текущего уровня. При этом с учётом находящегося на...
Google Quantum AI смоделировала физическую систему в 13 000 раз быстрее суперкомпьютера
Команда Google Quantum AI показала, что квантовые процессоры могут использовать внутренние законы хаоса, чтобы изучать собственное поведение. Когда множество кубитов взаимодействуют, их состояния переплетаются — и информация о начальных условиях быстро распределяется по всей системе. Этот процесс называют квантовым перемешиванием. Формально его описывают корреляторами —...
Лучше поздно, чем никогда: президент Xiaomi признал ошибку, допущенную при разработке Xiaomi Mi 11
В преддверии анонса флагманов Redmi K90 президент Xiaomi Group Лу Вейбинг рассказал о развитии компании в сегменте премиум-смартфонов и поделился откровениями о неудачах и стратегических решениях последних лет. Фото: Xiaomi В интервью топ-менеджер подчеркнул, что никакой китайский бренд в 2025 году не превысил 18% доли рынка, и быстрых побед в отрасли быть не может. Говоря о...