- Samsung ускорила подготовку к массовому... (3284)
- Основатель Koenigsegg заявляет, что... (3438)
- Xiaomi 17 Ultra Leica Edition распаковали на... (3508)
- Doogee выпустила планшеты Tab E3 Pro и Tab... (2944)
- Huawei — король китайского рынка: Mate 80... (2598)
- 533-сильные кроссоверы Huawei с запасом хода... (2329)
- Еще больше современных «китайских УАЗов»: в... (3863)
- Новый Атлас, возвращение АДАМа и город... (2158)
- От -40 до +85 °C: GigaIPC представила... (2883)
- На этом смартфоне можно будет смотреть видео... (3597)
- От -40 °C до 70 °C. CATL начнёт... (2725)
- 430 км только на электротяге (новый рекорд)... (2592)
- Dreame представит свой первый электромобиль... (2565)
- Новый флагман с огромным экраном,... (3233)
- OnePlus Turbo 6 с аккумулятором 9000 мАч,... (2706)
- Представлен очень тихий настольный ПК Asus... (2253)
Искусственный интеллект заболел «гниением мозга» — данные соцсетей оказались для него токсичны
Дата: 2025-10-22 23:03
Команды учёных из Техасского университета в Остине (University of?Texas?at?Austin0), Техасского университета A&M (Texas?A&M?University) и Университета Пердью (Purdue?University представили доклад, в котором показали: большие языковые модели (LLM) при обучении на вирусных, низкосодержательных постах из соцсетей обнаруживают устойчивый спад способности к мышлению, пониманию длинных текстов и соблюдению этических норм.
Учёные сформулировали гипотезу под названием «гипотеза LLM-деградации мозга» ("LLM Brain Rot Hypothesis"): непрерывное обучение на «мусорных» веб-данных приводит к стойкому снижению когнитивных функций модели. Для проверки отобрали реальные данные c платформы X (ранее Twitter): один набор — с вирусными короткими постами с большим количеством лайков и репостов, другой — длинными, содержательными текстами с высокой информационной ценностью.
После обучения моделей на 100% вирусных данных результаты оказались тревожны: точность моделей по тесту ARC-Challenge снизилась с 74,9 % до 57,2 %, а по тесту RULER-CWE — с 84,4 % до 52,3. При этом характер отклонений не был случайным: модели всё чаще «пропускали мысли», то есть не строили промежуточные рассуждения — эффект, который авторы назвали "thought skipping".
Иллюстрация: Sora Ещё более тревожно: даже после повторной донастройки на качественные данные модели не смогли вернуться к исходному уровню. Учёные объясняют это «дрейфом» (representational drift) — структурными изменениями внутри модели, которые стандартные методы исправления не устраняют.
Кроме когнитивной деградации, модели демонстрировали изменение «личностных» характеристик: выросли показатели, связанные с нарциссизмом и психопатией, снизилась склонность к сотрудничеству.
Качество обучающих данных выходит за рамки формата — оно становится вопросом безопасности обучения. Авторы исследования назвали ситуацию «гигиеной когнитивных функций» ИИ — когда данные для обучения моделей должны проходить проверку не только на соответствие формату, но и по содержанию.
Это исследование поднимает важный вопрос: если большие языковые модели «питаются» типом данных, аналогичным «досуг-медиа» человека (короткие кликабельные посты, эмоциональные фразы, популярные вирусы), то они могут терять способность мыслить, запоминать и действовать этично. Понимание этого механизма важно не только для фундамента взаимодействия с ИИ, но и для практики: от автоматического обучения моделей на пользовательских данных до аудита рынков данных и платформ с генеративным контентом. Авторы отмечают, что, «если не принять меры — система может скатиться к зомби-интернету, где ИИ просто размножает мусор вместо осмысленной информации».
Подробнее на iXBT
Предыдущие новости
Имплант под сетчатку и умные очки возвращают зрение слепым — 80% успеха в клиническом испытании
Впервые слепые пациенты с возрастной макулярной дегенерацией (AMD) смогли восстановить частичное зрение: миниатюрный имплант под сетчатку в сочетании с умными очками позволяет им видеть контуры предметов, читать книги и решать кроссворды. Клинические испытания показывают реальный шаг к возвращению независимости людям с прогрессирующей слепотой. Группа из 38 пациентов с...
«Группа Астра» с 1 января 2026 года повысит стоимость продуктов и услуг — рост цен может достигнуть 40 %
«Группа Астра» намерена с 1 января 2026 года повысить стоимость ряда своих продуктов и сервисов в рамках ежегодной плановой индексации цен. Пересмотр стоимостных показателей затронет программные решения вендора, а также услуги технической поддержки. По словам компании, рост цен составит в среднем от 10 до 12 % от текущего уровня. При этом с учётом находящегося на...
Google Quantum AI смоделировала физическую систему в 13 000 раз быстрее суперкомпьютера
Команда Google Quantum AI показала, что квантовые процессоры могут использовать внутренние законы хаоса, чтобы изучать собственное поведение. Когда множество кубитов взаимодействуют, их состояния переплетаются — и информация о начальных условиях быстро распределяется по всей системе. Этот процесс называют квантовым перемешиванием. Формально его описывают корреляторами —...
Лучше поздно, чем никогда: президент Xiaomi признал ошибку, допущенную при разработке Xiaomi Mi 11
В преддверии анонса флагманов Redmi K90 президент Xiaomi Group Лу Вейбинг рассказал о развитии компании в сегменте премиум-смартфонов и поделился откровениями о неудачах и стратегических решениях последних лет. Фото: Xiaomi В интервью топ-менеджер подчеркнул, что никакой китайский бренд в 2025 году не превысил 18% доли рынка, и быстрых побед в отрасли быть не может. Говоря о...