- Google показала Xreal Project Aura —... (3266)
- Google показала трио смарт-очков на Android... (6501)
- Google показала тройку XR-очков: одни только... (5529)
- Соцсеть X заблокировала рекламный аккаунт ЕС... (3350)
- Соцсеть X заброкировала рекламный аккаунт ЕС... (4118)
- Хиты 2025 года против гача-игр прошлого — на... (4230)
- Сервис Apple Fitness+ появится в 28 новых... (5655)
- Вскоре появятся чипы Intel Made in India.... (5270)
- Путешествие Загрея для Мелинои: моддер... (4133)
- Компактный игровой планшет на платформе... (5551)
- 7500 мАч, 512 ГБ памяти, немерцающий экран и... (5058)
- Илон Маск опроверг слухи: SpaceX не гонится... (3758)
- Невероятно, но факт: индийская Tata будет... (3590)
- Honor выпустила смартфон Magic8 Lite с... (5210)
- За Warner Bros разгорелась агрессивная битва... (3231)
- Оперативка по цене самой мощной видеокарты:... (3212)
Искусственный интеллект заболел «гниением мозга» — данные соцсетей оказались для него токсичны
Дата: 2025-10-22 23:03
Команды учёных из Техасского университета в Остине (University of?Texas?at?Austin0), Техасского университета A&M (Texas?A&M?University) и Университета Пердью (Purdue?University представили доклад, в котором показали: большие языковые модели (LLM) при обучении на вирусных, низкосодержательных постах из соцсетей обнаруживают устойчивый спад способности к мышлению, пониманию длинных текстов и соблюдению этических норм.
Учёные сформулировали гипотезу под названием «гипотеза LLM-деградации мозга» ("LLM Brain Rot Hypothesis"): непрерывное обучение на «мусорных» веб-данных приводит к стойкому снижению когнитивных функций модели. Для проверки отобрали реальные данные c платформы X (ранее Twitter): один набор — с вирусными короткими постами с большим количеством лайков и репостов, другой — длинными, содержательными текстами с высокой информационной ценностью.
После обучения моделей на 100% вирусных данных результаты оказались тревожны: точность моделей по тесту ARC-Challenge снизилась с 74,9 % до 57,2 %, а по тесту RULER-CWE — с 84,4 % до 52,3. При этом характер отклонений не был случайным: модели всё чаще «пропускали мысли», то есть не строили промежуточные рассуждения — эффект, который авторы назвали "thought skipping".
Иллюстрация: Sora Ещё более тревожно: даже после повторной донастройки на качественные данные модели не смогли вернуться к исходному уровню. Учёные объясняют это «дрейфом» (representational drift) — структурными изменениями внутри модели, которые стандартные методы исправления не устраняют.
Кроме когнитивной деградации, модели демонстрировали изменение «личностных» характеристик: выросли показатели, связанные с нарциссизмом и психопатией, снизилась склонность к сотрудничеству.
Качество обучающих данных выходит за рамки формата — оно становится вопросом безопасности обучения. Авторы исследования назвали ситуацию «гигиеной когнитивных функций» ИИ — когда данные для обучения моделей должны проходить проверку не только на соответствие формату, но и по содержанию.
Это исследование поднимает важный вопрос: если большие языковые модели «питаются» типом данных, аналогичным «досуг-медиа» человека (короткие кликабельные посты, эмоциональные фразы, популярные вирусы), то они могут терять способность мыслить, запоминать и действовать этично. Понимание этого механизма важно не только для фундамента взаимодействия с ИИ, но и для практики: от автоматического обучения моделей на пользовательских данных до аудита рынков данных и платформ с генеративным контентом. Авторы отмечают, что, «если не принять меры — система может скатиться к зомби-интернету, где ИИ просто размножает мусор вместо осмысленной информации».
Подробнее на iXBT
Предыдущие новости
Имплант под сетчатку и умные очки возвращают зрение слепым — 80% успеха в клиническом испытании
Впервые слепые пациенты с возрастной макулярной дегенерацией (AMD) смогли восстановить частичное зрение: миниатюрный имплант под сетчатку в сочетании с умными очками позволяет им видеть контуры предметов, читать книги и решать кроссворды. Клинические испытания показывают реальный шаг к возвращению независимости людям с прогрессирующей слепотой. Группа из 38 пациентов с...
«Группа Астра» с 1 января 2026 года повысит стоимость продуктов и услуг — рост цен может достигнуть 40 %
«Группа Астра» намерена с 1 января 2026 года повысить стоимость ряда своих продуктов и сервисов в рамках ежегодной плановой индексации цен. Пересмотр стоимостных показателей затронет программные решения вендора, а также услуги технической поддержки. По словам компании, рост цен составит в среднем от 10 до 12 % от текущего уровня. При этом с учётом находящегося на...
Google Quantum AI смоделировала физическую систему в 13 000 раз быстрее суперкомпьютера
Команда Google Quantum AI показала, что квантовые процессоры могут использовать внутренние законы хаоса, чтобы изучать собственное поведение. Когда множество кубитов взаимодействуют, их состояния переплетаются — и информация о начальных условиях быстро распределяется по всей системе. Этот процесс называют квантовым перемешиванием. Формально его описывают корреляторами —...
Лучше поздно, чем никогда: президент Xiaomi признал ошибку, допущенную при разработке Xiaomi Mi 11
В преддверии анонса флагманов Redmi K90 президент Xiaomi Group Лу Вейбинг рассказал о развитии компании в сегменте премиум-смартфонов и поделился откровениями о неудачах и стратегических решениях последних лет. Фото: Xiaomi В интервью топ-менеджер подчеркнул, что никакой китайский бренд в 2025 году не превысил 18% доли рынка, и быстрых побед в отрасли быть не может. Говоря о...