- Москвичи и не только массово пожаловались на... (367)
- Блогер показал разборку iPhone 17 и... (314)
- Google урезала бесплатный доступ к Gemini 3... (839)
- Производитель легендарных Cherry MX... (291)
- Двигатель «ушёл» под днище: в России у... (798)
- Ему не нужны ни чехол, ни плёнка. Первый... (438)
- Яндекс выпустил новый фен 2-в-1 под... (421)
- Kia с мотором от Hyundai Solaris, с... (528)
- Первый в мире флагман на Qualcomm Snapdragon... (418)
- Два сверхъярких OLED-экрана, уникальный... (306)
- Два сверхярких OLED-экрана, уникальный... (439)
- Мини-флагман с большим характером,... (415)
- Volkswagen и BMW практически пропали с... (287)
- «С тех пор игра сильно изменилась»: Ubisoft... (439)
- Аккумулятор 8300 мАч, 100 Вт, 165 Гц, первый... (348)
- Неубиваемый Moto G Power (2026) показали... (567)
Голосовой помощник предложил ребёнку выполнить потенциально смертельный челлендж
Дата: 2021-12-30 14:28
Голосовые ассистенты всё прочнее укрепляются в нашей жизни, что порой приводит к достаточно забавным и интересным ситуациям. Однако, как показал недавний случай, порой голосовой ассистент может быть опасным. Причём смертельно.
История произошла в США. 10-летняя девочка попросила голосовой помощник Alexa придумать ей челлендж. На что Alexa выдала следующее:
Вставьте зарядное устройство для телефона розетку примерно наполовину, а затем дотроньтесь до открытых контактов монеткой
Неизвестно, чем бы закончилась данная история, если бы рядом в этот момент не находилась мать девочки. Именно она и рассказала эту историю. В тот день мать с дочерью делали различные физические упражнения, и после выполнения очередного девочка попросила Alexa придумать для неё какой-то челлендж. Видимо, девочка по умолчанию подумала, что ИИ предложит выполнить ей какое-либо новое упражнение. Но получилось совсем иначе.
Расследование показало, что голосовой ассистент взял челлендж из некоего сообщества Our Community Now, изначально оговорив, что предлагаемый вызов ИИ нашёл в Сети. В целом же данный челлендж стал популярен в социальных сетях, включая TikTok, ещё около года назад. К примеру, один из таких случаев в прошлом году закончился пожаром. Ирония в том, что Alexa взяла текст вызова из статьи, которая как раз предупреждала родителей об опасности подобных челленджей.
Amazon сразу отреагировала на историю, заявив, что исправила ошибку, как только узнала о ней, правда, неясно, что именно в данном случае является ошибкой и как её исправили. В конце концов Alexa просто не способна понять опасность того или иного челленджа, который она наугад берёт в Сети.
Подробнее на iXBT
Предыдущие новости
Сроки окупаемости топовых видеокарт при майнинге Ethereum возросли до двух лет
Статистику показал майнер под ником ПроТОН на YouTube. Такая ситуация сложилась из-за падения доходности при добыче Ethereum, а также из-за подорожания и нехватки видеокарт. Быстрее всего же окупятся две модели — NVIDIA GeForce RTX 3060 и RTX 3060 Ti...
Жители пяти населённых пунктов Рыбинского района получат доступ к интернету
В Рыбинском районе закончены работы по установке точек беспроводного доступа к Wi-Fi. Бесплатным интернетом теперь смогут пользоваться жители села Никольского, посёлков Костино и Кстово Покровского сельского поселения, села Сретенья Волжского поселения и деревни Свингино Судоверфского...
Флагман Huawei дороже 3000 долларов поступил в продажу в Китае
В прошлом месяце Huawei анонсировала премиальную версию своего складного телефона Huawei Mate X2 с кожаной задней панелью. Смартфон с приставкой Collector's Edition выпускается в чёрном, белом и красном цветах. Компания Huawei начала продажи специальной версии Huawei Mate X2 Collector's Edition в Китае. Телефоны доступны с 12 ГБ оперативной памяти и 512 ГБ флеш-памяти...
Пользователей WhatsApp предупредили о новой мошеннической схеме
Мошенники придумали новый способ обмана пользователей WhatsApp, сообщает портал