- В Яндексе разработали новый метод оценки и... (1165)
- «За гранью всего, что кто-либо из нас мог... (1054)
- В ChatGPT появилась реклама — даже у... (1054)
- Игровые консоли тоже подорожают, а продажи... (1050)
- Российский мессенджер «Молния» готов к... (1193)
- DJI поторопила власти США с аудитом — иначе... (1007)
- Редчайшая «пятёрка» мощностью 220 л.с.:... (975)
- В отечественном мессенджере Max можно задать... (1024)
- Представлен новый Toyota... (999)
- УАЗ ставит точку в вопросе... (1056)
- Инсайдер раскрыл подробности отменённого... (922)
- Хуанг бьёт тревогу: Китай может стать... (947)
- Роскомнадзор резко расширил борьбу с VPN... (1000)
- Hi-Fi Rush спустя почти три года после... (1417)
- Samsung анонсировала презентацию «Первый... (1208)
- После отказа Apple Индия отказалась от... (937)
Голосовой помощник предложил ребёнку выполнить потенциально смертельный челлендж
Дата: 2021-12-30 14:28
Голосовые ассистенты всё прочнее укрепляются в нашей жизни, что порой приводит к достаточно забавным и интересным ситуациям. Однако, как показал недавний случай, порой голосовой ассистент может быть опасным. Причём смертельно.
История произошла в США. 10-летняя девочка попросила голосовой помощник Alexa придумать ей челлендж. На что Alexa выдала следующее:
Вставьте зарядное устройство для телефона розетку примерно наполовину, а затем дотроньтесь до открытых контактов монеткой
Неизвестно, чем бы закончилась данная история, если бы рядом в этот момент не находилась мать девочки. Именно она и рассказала эту историю. В тот день мать с дочерью делали различные физические упражнения, и после выполнения очередного девочка попросила Alexa придумать для неё какой-то челлендж. Видимо, девочка по умолчанию подумала, что ИИ предложит выполнить ей какое-либо новое упражнение. Но получилось совсем иначе.
Расследование показало, что голосовой ассистент взял челлендж из некоего сообщества Our Community Now, изначально оговорив, что предлагаемый вызов ИИ нашёл в Сети. В целом же данный челлендж стал популярен в социальных сетях, включая TikTok, ещё около года назад. К примеру, один из таких случаев в прошлом году закончился пожаром. Ирония в том, что Alexa взяла текст вызова из статьи, которая как раз предупреждала родителей об опасности подобных челленджей.
Amazon сразу отреагировала на историю, заявив, что исправила ошибку, как только узнала о ней, правда, неясно, что именно в данном случае является ошибкой и как её исправили. В конце концов Alexa просто не способна понять опасность того или иного челленджа, который она наугад берёт в Сети.
Подробнее на iXBT
Предыдущие новости
Сроки окупаемости топовых видеокарт при майнинге Ethereum возросли до двух лет
Статистику показал майнер под ником ПроТОН на YouTube. Такая ситуация сложилась из-за падения доходности при добыче Ethereum, а также из-за подорожания и нехватки видеокарт. Быстрее всего же окупятся две модели — NVIDIA GeForce RTX 3060 и RTX 3060 Ti...
Жители пяти населённых пунктов Рыбинского района получат доступ к интернету
В Рыбинском районе закончены работы по установке точек беспроводного доступа к Wi-Fi. Бесплатным интернетом теперь смогут пользоваться жители села Никольского, посёлков Костино и Кстово Покровского сельского поселения, села Сретенья Волжского поселения и деревни Свингино Судоверфского...
Флагман Huawei дороже 3000 долларов поступил в продажу в Китае
В прошлом месяце Huawei анонсировала премиальную версию своего складного телефона Huawei Mate X2 с кожаной задней панелью. Смартфон с приставкой Collector's Edition выпускается в чёрном, белом и красном цветах. Компания Huawei начала продажи специальной версии Huawei Mate X2 Collector's Edition в Китае. Телефоны доступны с 12 ГБ оперативной памяти и 512 ГБ флеш-памяти...
Пользователей WhatsApp предупредили о новой мошеннической схеме
Мошенники придумали новый способ обмана пользователей WhatsApp, сообщает портал