- Представлены телевизоры KTC: теперь и... (3288)
- Мировой Интернет упал из-за «внутренней... (4213)
- Сбой Cloudflare снова «положил» половину... (2581)
- Cloudflare заблокировала 416 млрд запросов... (4328)
- Куда столько: представлен 1000-герцевый... (2635)
- Canon не выдержала конкуренции и закрыла... (2622)
- Canon нет выдержала конкуренции и закрыла... (3149)
- Автомобили Haval подорожали в... (2605)
- Nvidia списала GeForce GTX 10 и GTX 900: для... (3927)
- Представлена новая версия Motorola Edge... (3191)
- Первый в мире на Snapdragon 8 Gen 5, с АКБ... (3431)
- «Невероятно атмосферное приключение»:... (3273)
- Скидки до 560 тыс. рублей: началась... (3051)
- Новая студия создателя Just Cause... (2980)
- «Москвич 5» появился у дилеров до... (3108)
- Возмутивший фанатов кооперативный шутер... (3425)
Искусственный интеллект заболел «гниением мозга» — данные соцсетей оказались для него токсичны
Дата: 2025-10-22 23:03
Команды учёных из Техасского университета в Остине (University of?Texas?at?Austin0), Техасского университета A&M (Texas?A&M?University) и Университета Пердью (Purdue?University представили доклад, в котором показали: большие языковые модели (LLM) при обучении на вирусных, низкосодержательных постах из соцсетей обнаруживают устойчивый спад способности к мышлению, пониманию длинных текстов и соблюдению этических норм.
Учёные сформулировали гипотезу под названием «гипотеза LLM-деградации мозга» ("LLM Brain Rot Hypothesis"): непрерывное обучение на «мусорных» веб-данных приводит к стойкому снижению когнитивных функций модели. Для проверки отобрали реальные данные c платформы X (ранее Twitter): один набор — с вирусными короткими постами с большим количеством лайков и репостов, другой — длинными, содержательными текстами с высокой информационной ценностью.
После обучения моделей на 100% вирусных данных результаты оказались тревожны: точность моделей по тесту ARC-Challenge снизилась с 74,9 % до 57,2 %, а по тесту RULER-CWE — с 84,4 % до 52,3. При этом характер отклонений не был случайным: модели всё чаще «пропускали мысли», то есть не строили промежуточные рассуждения — эффект, который авторы назвали "thought skipping".
Иллюстрация: Sora Ещё более тревожно: даже после повторной донастройки на качественные данные модели не смогли вернуться к исходному уровню. Учёные объясняют это «дрейфом» (representational drift) — структурными изменениями внутри модели, которые стандартные методы исправления не устраняют.
Кроме когнитивной деградации, модели демонстрировали изменение «личностных» характеристик: выросли показатели, связанные с нарциссизмом и психопатией, снизилась склонность к сотрудничеству.
Качество обучающих данных выходит за рамки формата — оно становится вопросом безопасности обучения. Авторы исследования назвали ситуацию «гигиеной когнитивных функций» ИИ — когда данные для обучения моделей должны проходить проверку не только на соответствие формату, но и по содержанию.
Это исследование поднимает важный вопрос: если большие языковые модели «питаются» типом данных, аналогичным «досуг-медиа» человека (короткие кликабельные посты, эмоциональные фразы, популярные вирусы), то они могут терять способность мыслить, запоминать и действовать этично. Понимание этого механизма важно не только для фундамента взаимодействия с ИИ, но и для практики: от автоматического обучения моделей на пользовательских данных до аудита рынков данных и платформ с генеративным контентом. Авторы отмечают, что, «если не принять меры — система может скатиться к зомби-интернету, где ИИ просто размножает мусор вместо осмысленной информации».
Подробнее на iXBT
Предыдущие новости
Имплант под сетчатку и умные очки возвращают зрение слепым — 80% успеха в клиническом испытании
Впервые слепые пациенты с возрастной макулярной дегенерацией (AMD) смогли восстановить частичное зрение: миниатюрный имплант под сетчатку в сочетании с умными очками позволяет им видеть контуры предметов, читать книги и решать кроссворды. Клинические испытания показывают реальный шаг к возвращению независимости людям с прогрессирующей слепотой. Группа из 38 пациентов с...
«Группа Астра» с 1 января 2026 года повысит стоимость продуктов и услуг — рост цен может достигнуть 40 %
«Группа Астра» намерена с 1 января 2026 года повысить стоимость ряда своих продуктов и сервисов в рамках ежегодной плановой индексации цен. Пересмотр стоимостных показателей затронет программные решения вендора, а также услуги технической поддержки. По словам компании, рост цен составит в среднем от 10 до 12 % от текущего уровня. При этом с учётом находящегося на...
Google Quantum AI смоделировала физическую систему в 13 000 раз быстрее суперкомпьютера
Команда Google Quantum AI показала, что квантовые процессоры могут использовать внутренние законы хаоса, чтобы изучать собственное поведение. Когда множество кубитов взаимодействуют, их состояния переплетаются — и информация о начальных условиях быстро распределяется по всей системе. Этот процесс называют квантовым перемешиванием. Формально его описывают корреляторами —...
Лучше поздно, чем никогда: президент Xiaomi признал ошибку, допущенную при разработке Xiaomi Mi 11
В преддверии анонса флагманов Redmi K90 президент Xiaomi Group Лу Вейбинг рассказал о развитии компании в сегменте премиум-смартфонов и поделился откровениями о неудачах и стратегических решениях последних лет. Фото: Xiaomi В интервью топ-менеджер подчеркнул, что никакой китайский бренд в 2025 году не превысил 18% доли рынка, и быстрых побед в отрасли быть не может. Говоря о...