- Пожароопасный разъём 12V-2x6 на системной... (3142)
- Очень быстрый монитор для киберспортсменов,... (2093)
- Эра дешевых смартфонов закончилась? В Honor... (1996)
- Больше никаких зеленых прямоугольников... (1935)
- Запрет AMD искусственный? Энтузиасту удалось... (2301)
- На ступень выше Honor Magic 8 Pro: Honor... (1998)
- Геймерам пора прощаться с 32-битной Windows.... (2115)
- Шестой год подряд Samsung выпускает Galaxy... (1924)
- Как Toyota Corolla, только без экспериментов... (1989)
- Мощность DDoS-атак впервые пробила барьер в... (1651)
- От 3,4 до 5,4 млн рублей: названы 5 самых... (2248)
- Опубликовано фото «аномального» спутника... (2056)
- OLED панели оказались надежнее обычных LCD:... (2223)
- Совершенно новая Toyota Corolla вышла в... (2248)
- Экипаж лунной миссии Artemis 2 отработал... (2069)
- Первая в мире 200-мегапиксельная камера... (2219)
Математики рассчитали, когда ИИ станет опасным для человека
Дата: 2025-05-06 14:50
Большие языковые модели, такие как ChatGPT, способны справляться с решением сложных математических задач, успешно проходить экзамены и даже предлагать способы урегулирования конфликтов между людьми. Однако, несмотря на впечатляющие возможности, генеративный ИИ вызывает определенные опасения: пользователи нередко сталкиваются с некорректными ответами или потенциально опасными рекомендациями.
Изображение сгенерировано Grok Когда-то полезный ИИ может превратиться в источник проблем. Ученые из Университета Джорджа Вашингтона этот момент смогли предсказать с помощью математической формулы. Их исследование раскрывает, как вычислить критическую точку перехода ИИ от надежного помощника к неуправляемому «мистеру Хайду».
По словам профессора Нила Джонсона, «переломный момент» наступает, когда ИИ перегружается информацией, теряет фокус и начинает выдавать ошибочные или выдуманные данные — так называемые галлюцинации. Разработанная формула, основанная на скалярных произведениях векторов, учитывает содержание запросов и особенности обучения модели, позволяя точно определить шаг, на котором происходит сбой.
Ученые также предложили практические меры для предотвращения подобных сбоев. Например, использование более точных и релевантных слов в запросах помогает ИИ сохранять концентрацию. При этом вежливость в общении с чат-ботом, как выяснилось, не влияет на качество его ответов.
Подробнее на iXBT
Предыдущие новости
В Китае пара беспилотников вызвала дождь по требованию — это шаг к управлению погодой
Климатические изменения могут нравиться или не нравиться, но они происходят помимо воли человека. Сделать этот процесс управляемым — то самое будущее, о котором всегда мечтали учёные и писатели-фантасты. И если у писателей всё просто, то у науки путь к цели тернист и непредсказуем, хотя результат, безусловно, ценнее. Научный подход даёт гарантию безопасности и предполагает...
«Билайн» готовит российский сервис ИИ-инференса на отечественном оборудовании
«Билайн» и один из российских производителей серверов ведут переговоры о возможной доработке решений для ИИ-инференса — весьма перспективной в обозримом будущем услуги. Сама «Билайн» разрабатывает инфраструктурное ПО, входящее в часть специального программно-аппаратного комплекса, сообщают «Ведомости». На основе таких комплексов партнёры смогут развернуть ИИ-модели, а...
Clair Obscur: Expedition 33 продаётся быстрее Kingdom Come: Deliverance 2 — разработчики похвастались новыми успехами игры
Разработчики из французской студии Sandfall Interactive, основанной выходцами из Ubisoft, похвастались новым достижением своей фэнтезийной пошаговой ролевой игры Clair Obscur: Expedition 33. Источник изображения: X
ЕС необходимо учетверить инвестиции в полупроводники, чтобы не упустить рынок чипов
Евросоюз должен в четыре раза увеличить расходы на финансирование полупроводниковой отрасли и выделить для этого отдельный бюджет. Об этом говорится в официальном отчёте отраслевой ассоциации SEMI по итогам проведённых консультаций с европейскими чиновниками, в рамках которых обсуждался будущий инвестиционный бюджет. Источник изображения: Maxence Pira /...