- Китайско-российский заменитель Hyundai Santa... (587)
- Учёные выдвинули теорию о происхождении... (613)
- Omdia: быстрый рост спроса на TPU Google... (407)
- «К чёрту Embracer Group»: неизвестный... (407)
- Российскую игровую приставку собрались... (617)
- «Китайский Nissan Navara», Nissan Qashqai и... (641)
- Ubitium придумала универсальный процессор —... (399)
- Range Rover Sport и Porsche Macan сберегают... (382)
- Range Rover Sport и Porsche Macan сберегают... (373)
- Аналог Geely Tugella за 1,85 млн рублей. К... (385)
- В России выставили на продажу совершенно... (363)
- NASA показало «рождественскую ель»... (352)
- Альтернатива Toyota Land Cruiser Prado и... (336)
- Patriot представила SSD P400 V4 PCIe 4.0 —... (578)
- Замена Toyota Alphard и Toyota Sienna.... (349)
- Первая в мире материнская палата Mini-ITX со... (410)
Илон Маск, Стив Возняк и ещё тысяча экспертов в области ИИ призвали как минимум на полгода остановить обучение ИИ вроде GPT-4 и ему подобных
Дата: 2023-03-29 19:31
В Сети появилась петиция под названием «Приостановить гигантские эксперименты с искусственным интеллектом: открытое письмо», в которой содержится призыв приостановить на время обучение различных передовых систем искусственного интеллекта вроде GPT-4. Обращение подписали Илон Маск, Стив Возняк и ещё около 1000 экспертов в области ИИ.
Есть опасения, что неконтролируемое развитие ИИ может привести к появлению враждебной по отношению к людям системы вроде SkynetПауза нужна для того, чтобы выработать и стандартизировать протоколы безопасности в отношении ИИ — многие опасаются слишком быстрого развития систем, подобных GPT-4, и того, что случится, если вдруг искусственный интеллект выйдет из-под контроля.
«Мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4. Об этом перерыве необходимо объявить публично, его исполнение должны быть проверяемым и охватывать всех ключевых участников отрасли. Если такая пауза не может быть сделана в кратчайшие сроки, то правительства должны вмешаться и ввести мораторий», — сказано в открытом письме.
Также подписанты предлагают создать на государственных уровнях новые регулирующие органы и системы контроля, которые могли бы гарантировать безопасность для людей систем ИИ.
Подробнее на iXBT
Предыдущие новости
У МАЗа готов конкурент новейшему КамАЗу К5. Новый минский тягач получит двигатель мощностью 550 л.с.
Минский автомобильный завод анонсировал новый седельный тягач МАЗ-541SA5 с колёсной формулой 4 х 2. Судя по компонентам (двигателю и трансмиссии), этот автомобиль станет прямым конкурентом КамАЗу К5. МАЗ-541SA5 получит китайский двигатель Weichai WP13.550E62 объёмом 13 л и мощностью 550 л.с., а также 12-ступенчатую роботизированную коробку передач Fast Gear F12JS26A (тоже...
Samsung в следующие 10 лет намерена выпустить SSD ёмкостью 1024 Тбайт
Samsung собирается выпустить твердотельный накопитель ёмкостью 1000 Тбайт, заявил на мероприятии China Flash Memory Market Summit 2023 генеральный менеджер группы по планированию продуктов на флеш-памяти NAND Къюнгрюн Ким (Kyungryun Kim). Об этом рассказал китайский ресурс ASMag. Топ-менеджер сообщил, что «в следующие десять лет» ёмкость одного SSD достигнет 1 Пбайт....
Подписчикам PS Plus в апреле раздадут новую игру авторов Dead by Daylight, бывший эксклюзив PlayStation и крысиный ролевой экшен
Издательство Sony Interactive Entertainment на сайте официального блога PlayStation представило апрельскую подборку бесплатных игр для подписчиков любого из тарифов сервиса PlayStation Plus, начиная с самого базового. Источник изображения: Steam...
HP представила экологичные цветные лазерные принтеры с особыми картриджами и сниженным на 27 % энергопотреблением
HP объявила об обновлении своей линейки цветных лазерных принтеров Color LaserJet с прицелом на снижение энергопотребления и физических отходов. Компания утверждает, что новые принтеры потребляют на 27 % меньше электроэнергии, а объём пластиковых упаковочных компонентов сократился на 78 % по сравнению с прежними решениями серии. Источник изображений:...