Amazon Alexa-один из самых популярных голосовых помощников на рынке, с помощью которого можно задавать вопросы, устанавливать будильники и т. д. Но в шокирующем инциденте виртуальный помощник оказался скорее нарушителем спокойствия, чем тем, кто решает проблемы. Когда 10-летний ребенок недавно попросил Алексу «сделать задание», голосовой помощник сказал ребенку выполнить довольно опасное для жизни задание с подключением к розетке. Вот что случилось.
Алекса чуть не рискнула жизнью ребенка!
Кристин Ливдал недавно отправилась в Twitter, чтобы сообщить об инциденте. Она написала, что, когда ее 10-летний ребенок попросил Алексу о вызове, голосовой помощник Amazon извлек результаты из Интернета и дал ребенку опасный вызов , предположив, что это простая задача.
Ливдал приложил снимок экрана из приложения Alexa, демонстрирующий веб-результат. Результат показал новость статья за прошлый год, в которой сообщалось об опасностях опасного « Penny Challenge » на TikTok. По сути, задача требовала от людей «подключить зарядное устройство телефона примерно на полпути к розетке, а затем дотронуться пенни до открытых контактов». Это благополучно (без каламбура) стало вирусным вызовом TikTok на платформе короткометражных видео. Но это довольно опасно, потому что может легко убить кого угодно электрическим током.
Для тех, кто не знает, Alexa обычно полагается на результаты веб-поиска (обычно из браузера Microsoft Bing), чтобы ответить на сложные вопросы. Однако в настоящее время неясно, почему голосовой помощник отображал опасный вызов вместо других результатов поиска.
Amazon сообщает, что это произошло из-за ошибки Alexa, и заявляет, что проблема решена. «Доверие клиентов лежит в основе всего, что мы делаем, и Alexa призвана предоставлять клиентам точную, актуальную и полезную информацию. Как только нам стало известно об этой ошибке, мы быстро ее исправили »,-сообщил представитель Amazon рассказал Indy100 в недавнем заявлении.
Теперь, если вы попросите Алексу о тесте, он может показать вам другие результаты или дать общее сообщение «Я не уверен, что понимаю». Этот инцидент ясно показывает, насколько виртуальные помощники не такие уж умные! Что вы думаете об этом? Дайте нам знать в комментариях ниже.
Оставить комментарий