- Ollama получила поддержку аппаратного... (2371)
- Создатель Disco Elysium рассказал, при каком... (2595)
- Nvidia отказалась от чудовищно огромного GPU... (2683)
- Ракету Artemis 2 перед запуском к Луне... (2793)
- Спутник Starlink разрушился на орбите, но... (2244)
- «Мы слышим, что цены растут на все виды... (3152)
- К 2030 году российский рынок электромобилей... (2515)
- К сожалению, это не первоапрельская шутка.... (2774)
- ЕС решил запретить ИИ-контент в официальных... (2669)
- Эксперты призвали Google не показывать детям... (2511)
- Microsoft выпустила экстренное обновление... (2592)
- Heroes of Might & Magic: Olden Era появится... (2786)
- AUO рассказала, что создала первый в мире... (2587)
- Asus объявила цены на новые ноутбуки ROG... (2668)
- Японцы построили генератор запахов для... (2557)
- Microsoft грозит SMS: в Azure увидели угрозу... (2706)
Математики рассчитали, когда ИИ станет опасным для человека
Дата: 2025-05-06 14:50
Большие языковые модели, такие как ChatGPT, способны справляться с решением сложных математических задач, успешно проходить экзамены и даже предлагать способы урегулирования конфликтов между людьми. Однако, несмотря на впечатляющие возможности, генеративный ИИ вызывает определенные опасения: пользователи нередко сталкиваются с некорректными ответами или потенциально опасными рекомендациями.
Изображение сгенерировано Grok Когда-то полезный ИИ может превратиться в источник проблем. Ученые из Университета Джорджа Вашингтона этот момент смогли предсказать с помощью математической формулы. Их исследование раскрывает, как вычислить критическую точку перехода ИИ от надежного помощника к неуправляемому «мистеру Хайду».
По словам профессора Нила Джонсона, «переломный момент» наступает, когда ИИ перегружается информацией, теряет фокус и начинает выдавать ошибочные или выдуманные данные — так называемые галлюцинации. Разработанная формула, основанная на скалярных произведениях векторов, учитывает содержание запросов и особенности обучения модели, позволяя точно определить шаг, на котором происходит сбой.
Ученые также предложили практические меры для предотвращения подобных сбоев. Например, использование более точных и релевантных слов в запросах помогает ИИ сохранять концентрацию. При этом вежливость в общении с чат-ботом, как выяснилось, не влияет на качество его ответов.
Подробнее на iXBT
Предыдущие новости
В Китае пара беспилотников вызвала дождь по требованию — это шаг к управлению погодой
Климатические изменения могут нравиться или не нравиться, но они происходят помимо воли человека. Сделать этот процесс управляемым — то самое будущее, о котором всегда мечтали учёные и писатели-фантасты. И если у писателей всё просто, то у науки путь к цели тернист и непредсказуем, хотя результат, безусловно, ценнее. Научный подход даёт гарантию безопасности и предполагает...
«Билайн» готовит российский сервис ИИ-инференса на отечественном оборудовании
«Билайн» и один из российских производителей серверов ведут переговоры о возможной доработке решений для ИИ-инференса — весьма перспективной в обозримом будущем услуги. Сама «Билайн» разрабатывает инфраструктурное ПО, входящее в часть специального программно-аппаратного комплекса, сообщают «Ведомости». На основе таких комплексов партнёры смогут развернуть ИИ-модели, а...
Clair Obscur: Expedition 33 продаётся быстрее Kingdom Come: Deliverance 2 — разработчики похвастались новыми успехами игры
Разработчики из французской студии Sandfall Interactive, основанной выходцами из Ubisoft, похвастались новым достижением своей фэнтезийной пошаговой ролевой игры Clair Obscur: Expedition 33. Источник изображения: X
ЕС необходимо учетверить инвестиции в полупроводники, чтобы не упустить рынок чипов
Евросоюз должен в четыре раза увеличить расходы на финансирование полупроводниковой отрасли и выделить для этого отдельный бюджет. Об этом говорится в официальном отчёте отраслевой ассоциации SEMI по итогам проведённых консультаций с европейскими чиновниками, в рамках которых обсуждался будущий инвестиционный бюджет. Источник изображения: Maxence Pira /...