- В Пекине стартовали первые в мире Всемирные... (32)
- Когда Intel наконец-то доработает драйвера.... (36)
- Автономность планшетов Surface Pro 11... (48)
- Asus выпустила белые версии GeForce RTX 5060... (50)
- Teenage Engineering Computer-2 — полностью... (41)
- 183 страны не смогли договориться:... (53)
- В преддверии десятого испытательного полёта... (60)
- M**a проведёт масштабные изменения в... (62)
- ИИ помог создать новые антибиотики против... (61)
- Inspur представила суперускоритель Metabrain... (62)
- Anthropic ужесточает контроль над своим... (65)
- Представлена первая в мире контактная... (57)
- 2 миллиарда долларов и 690 миллионов... (62)
- Google Gemini был доступен для россиян всего... (63)
- Представлены Infiniti QX80 2026 Terrain Spec... (57)
- Geely Emgrand — бюджетный седан с... (67)
Anthropic ужесточает контроль над своим ИИ-ботом Claude, опасаясь создания ядерного оружия
Дата: сегодня 15:14
Компания Anthropic обновила политику использования своего чат-бота Claude AI, реагируя на растущие опасения по поводу безопасности. Помимо ужесточения правил кибербезопасности, Anthropic теперь конкретно указывает на наиболее опасные виды оружия, разработка которых с помощью Claude запрещена.
В обновлённой политике использования прямо запрещается применять Claude для разработки биологического, химического, радиологического или ядерного оружия. Ранее Anthropic запрещала использование Claude для «производства, модификации, проектирования, продажи или распространения оружия, взрывчатых веществ, опасных материалов или других систем, предназначенных для причинения вреда или потери человеческих жизней», обновлённая версия расширяет этот запрет, конкретно включая высокомощные взрывчатые вещества, а также биологическое, химическое, радиологическое и ядерное (БХРЯ) оружие. Это изменение не было особо выделено в публикации компании.
В мае Anthropic внедрила защиту «Уровень безопасности ИИ 3» вместе с запуском новой модели Claude Opus 4. Эти меры безопасности предназначены для затруднения взлома модели, а также для предотвращения её использования в разработке БХРЯ оружия.

В своём сообщении Anthropic также признаёт риски, связанные с инструментами на основе агентов ИИ, включая функцию агента, которая позволяет Claude управлять компьютером пользователя, а также Claude Code, инструмент, который встраивает Claude непосредственно в терминал разработчика.
В ответ на эти потенциальные риски компания включила в свою политику использования новый раздел «Не подвергать опасности компьютерные или сетевые системы». Он включает правила, запрещающие использование Claude для обнаружения или использования уязвимостей, создания или распространения вредоносных программ и разработки инструментов для атак типа «отказ в обслуживании».
Кроме того, Anthropic смягчила свою политику в отношении политического контента. Вместо полного запрета создания любого контента, связанного с политическими кампаниями и лоббированием, теперь запрещается только использование Claude для «случаев, которые являются обманчивыми или дестабилизирующими для демократических процессов, или включают в себя таргетинг избирателей и кампаний». Компания также уточнила, что её требования ко всем «высокорискованным» случаям использования, которые применяются, когда Claude используется для предоставления рекомендаций физическим или юридическим лицам, распространяются только на сценарии, ориентированные на потребителей, а не на коммерческое использование.
Подробнее на iXBT
Предыдущие новости
ИИ помог создать новые антибиотики против самых опасных инфекций
Учёные Массачусетского технологического института (MIT) с помощью искусственного интеллекта разработали два новых класса антибиотиков, которые эффективно действуют против устойчивых к лечению бактерий гонококковой инфекции (Neisseria gonorrhoeae) и золотистого стафилококка (Staphylococcus aureus, MRSA). Эти возбудители вызывают тяжёлые инфекции, всё чаще не поддающиеся...
Представлена первая в мире контактная OLED-линза для самостоятельной диагностики сетчатки глаза
Современные методы оценки состояния сетчатки глаза в форме процедуры электроретинографии (ЭРГ), которые требуют сложного оборудования и определённых усилий от пациентов, зачастую неудобны — например, во время диагностики им не разрешают моргать. Южнокорейские учёные обещают предельно упростить ЭРГ, для чего они создали первую в мире беспроводную контактную линзу со...
Inspur представила суперускоритель Metabrain SD200 для ИИ-моделей с триллионами параметров
Китайская компания Inspur создала суперускоритель Metabrain SD200 для наиболее ресурсоёмких задач ИИ. Система, как утверждается, может работать с моделями, насчитывающими более 1 трлн параметров. Платформа Metabrain SD200 объединяет 64 карты в единый суперузел с унифицированной памятью. В основу положены открытая архитектура 3D Mesh и проприетарные коммутаторы Open Fabric...
M**a проведёт масштабные изменения в структуре ИИ-подразделений — в четвёртый раз за полгода
Компания M**a в четвёртый раз за последние шесть месяцев меняет структуру своих подразделений, занимающихся искусственным интеллектом (ИИ), сообщает Reuters со ссылкой на The Information. Новое подразделение Superintelligence Labs будет разделено на четыре команды: TBD Lab (название пока не определено); группу по продуктам, включая ассистента M**a AI; инфраструктурную...