- Руководство Ford: системы дизайна и САПР... (1021)
- В России продают идеальные «Жигули» —... (834)
- Американский ИИ-стартап ищет деньги, чтобы... (956)
- Китайский аналог Toyota Alphard подорожал в... (1475)
- Прирост в полтора раза за одно поколение.... (876)
- И наушники, и немного украшение. Edifier... (1167)
- Intel расширит мощности для упаковки и... (1383)
- Переход на отечественные печатные платы... (1021)
- Wi-Fi 7+, до 3570 Мбит/с, возможность... (1003)
- 200 Мп, 100 Вт и большие батареи: раскрыты... (1226)
- Годы уходят, а деньги приходят: сборы на... (831)
- В OpenAI введён «красный код»: Альтман... (916)
- Это не компьютерная графика: боевой робот... (1059)
- Теперь официально: в России начали выпускать... (1238)
- Яндекс выпустил климатический модуль для... (1081)
- «Катастрофически плохая идея»: бывший... (1208)
Голосовой помощник предложил ребёнку выполнить потенциально смертельный челлендж
Дата: 2021-12-30 14:28
Голосовые ассистенты всё прочнее укрепляются в нашей жизни, что порой приводит к достаточно забавным и интересным ситуациям. Однако, как показал недавний случай, порой голосовой ассистент может быть опасным. Причём смертельно.
История произошла в США. 10-летняя девочка попросила голосовой помощник Alexa придумать ей челлендж. На что Alexa выдала следующее:
Вставьте зарядное устройство для телефона розетку примерно наполовину, а затем дотроньтесь до открытых контактов монеткой
Неизвестно, чем бы закончилась данная история, если бы рядом в этот момент не находилась мать девочки. Именно она и рассказала эту историю. В тот день мать с дочерью делали различные физические упражнения, и после выполнения очередного девочка попросила Alexa придумать для неё какой-то челлендж. Видимо, девочка по умолчанию подумала, что ИИ предложит выполнить ей какое-либо новое упражнение. Но получилось совсем иначе.
Расследование показало, что голосовой ассистент взял челлендж из некоего сообщества Our Community Now, изначально оговорив, что предлагаемый вызов ИИ нашёл в Сети. В целом же данный челлендж стал популярен в социальных сетях, включая TikTok, ещё около года назад. К примеру, один из таких случаев в прошлом году закончился пожаром. Ирония в том, что Alexa взяла текст вызова из статьи, которая как раз предупреждала родителей об опасности подобных челленджей.
Amazon сразу отреагировала на историю, заявив, что исправила ошибку, как только узнала о ней, правда, неясно, что именно в данном случае является ошибкой и как её исправили. В конце концов Alexa просто не способна понять опасность того или иного челленджа, который она наугад берёт в Сети.
Подробнее на iXBT
Предыдущие новости
Сроки окупаемости топовых видеокарт при майнинге Ethereum возросли до двух лет
Статистику показал майнер под ником ПроТОН на YouTube. Такая ситуация сложилась из-за падения доходности при добыче Ethereum, а также из-за подорожания и нехватки видеокарт. Быстрее всего же окупятся две модели — NVIDIA GeForce RTX 3060 и RTX 3060 Ti...
Жители пяти населённых пунктов Рыбинского района получат доступ к интернету
В Рыбинском районе закончены работы по установке точек беспроводного доступа к Wi-Fi. Бесплатным интернетом теперь смогут пользоваться жители села Никольского, посёлков Костино и Кстово Покровского сельского поселения, села Сретенья Волжского поселения и деревни Свингино Судоверфского...
Флагман Huawei дороже 3000 долларов поступил в продажу в Китае
В прошлом месяце Huawei анонсировала премиальную версию своего складного телефона Huawei Mate X2 с кожаной задней панелью. Смартфон с приставкой Collector's Edition выпускается в чёрном, белом и красном цветах. Компания Huawei начала продажи специальной версии Huawei Mate X2 Collector's Edition в Китае. Телефоны доступны с 12 ГБ оперативной памяти и 512 ГБ флеш-памяти...
Пользователей WhatsApp предупредили о новой мошеннической схеме
Мошенники придумали новый способ обмана пользователей WhatsApp, сообщает портал