- Чтобы играть в игры от PlayStation 3 на ПК... (4629)
- В Google Chrome появилась вертикальная... (5195)
- Свежие тесты старичков показывают, что, если... (5104)
- Теперь видеокарту Intel Arc Pro B70 с 32 ГБ... (5226)
- Процессоры Intel Nova Lake предложат... (5303)
- Впервые в истории астронавты на орбите Луны... (4308)
- Создатель Bitcoin снова найден? Журналисты... (4936)
- Россияне стали чаще покупать дорогие... (5462)
- Почти половина из 80 000 уволенных в прошлом... (5149)
- Ноутбуки Apple и Lenovo признали самыми... (4558)
- Компания Framework ожидает дальнейшего... (5369)
- TikTok вложит миллиард евро в европейский... (5656)
- Одной из первых стран, которая запретит... (4671)
- Microsoft объяснила, почему до сих пор не... (6912)
- Инженеры показали «компьютер из воздуха» —... (5696)
- Google прокачает игровые способности Android... (4728)
Математики рассчитали, когда ИИ станет опасным для человека
Дата: 2025-05-06 14:50
Большие языковые модели, такие как ChatGPT, способны справляться с решением сложных математических задач, успешно проходить экзамены и даже предлагать способы урегулирования конфликтов между людьми. Однако, несмотря на впечатляющие возможности, генеративный ИИ вызывает определенные опасения: пользователи нередко сталкиваются с некорректными ответами или потенциально опасными рекомендациями.
Изображение сгенерировано Grok Когда-то полезный ИИ может превратиться в источник проблем. Ученые из Университета Джорджа Вашингтона этот момент смогли предсказать с помощью математической формулы. Их исследование раскрывает, как вычислить критическую точку перехода ИИ от надежного помощника к неуправляемому «мистеру Хайду».
По словам профессора Нила Джонсона, «переломный момент» наступает, когда ИИ перегружается информацией, теряет фокус и начинает выдавать ошибочные или выдуманные данные — так называемые галлюцинации. Разработанная формула, основанная на скалярных произведениях векторов, учитывает содержание запросов и особенности обучения модели, позволяя точно определить шаг, на котором происходит сбой.
Ученые также предложили практические меры для предотвращения подобных сбоев. Например, использование более точных и релевантных слов в запросах помогает ИИ сохранять концентрацию. При этом вежливость в общении с чат-ботом, как выяснилось, не влияет на качество его ответов.
Подробнее на iXBT
Предыдущие новости
В Китае пара беспилотников вызвала дождь по требованию — это шаг к управлению погодой
Климатические изменения могут нравиться или не нравиться, но они происходят помимо воли человека. Сделать этот процесс управляемым — то самое будущее, о котором всегда мечтали учёные и писатели-фантасты. И если у писателей всё просто, то у науки путь к цели тернист и непредсказуем, хотя результат, безусловно, ценнее. Научный подход даёт гарантию безопасности и предполагает...
«Билайн» готовит российский сервис ИИ-инференса на отечественном оборудовании
«Билайн» и один из российских производителей серверов ведут переговоры о возможной доработке решений для ИИ-инференса — весьма перспективной в обозримом будущем услуги. Сама «Билайн» разрабатывает инфраструктурное ПО, входящее в часть специального программно-аппаратного комплекса, сообщают «Ведомости». На основе таких комплексов партнёры смогут развернуть ИИ-модели, а...
Clair Obscur: Expedition 33 продаётся быстрее Kingdom Come: Deliverance 2 — разработчики похвастались новыми успехами игры
Разработчики из французской студии Sandfall Interactive, основанной выходцами из Ubisoft, похвастались новым достижением своей фэнтезийной пошаговой ролевой игры Clair Obscur: Expedition 33. Источник изображения: X
ЕС необходимо учетверить инвестиции в полупроводники, чтобы не упустить рынок чипов
Евросоюз должен в четыре раза увеличить расходы на финансирование полупроводниковой отрасли и выделить для этого отдельный бюджет. Об этом говорится в официальном отчёте отраслевой ассоциации SEMI по итогам проведённых консультаций с европейскими чиновниками, в рамках которых обсуждался будущий инвестиционный бюджет. Источник изображения: Maxence Pira /...