Многочисленные владельцы умной колонки Amazon Echo с цифровым помощником по имени Алекса сообщают о странном поведении гаджета. Внезапно без всякого предупреждения Алекса начинает хохотать. Иногда это случается посреди ночи, из-за чего хозяева просыпаются в испуге.
Кроме того, колонка начала непроизвольно без команды выполнять и некоторые другие действия. Например, зачитывать вслух названия местных кладбищ, похоронных компаний.
Компания Amazon сообщила изданию The Verge, что осведомлена о баге в системе распознавания речи и работает над патчем.
Глюки системы искусственного интеллекта начались одновременно у многих пользователей. Один из форумчан на Reddit жалуется, что колонка отказалась выключить свет в квартире по команде. То есть она выключала свет, но потом включала его обратно. На третий раз она вообще отказалась выключить свет и «злобно засмеялась». При этом смех звучал будто не голосом колонки, а чужим голосом. Несчастного человека до сих пор бросает в дрожь, когда он вспоминает об этом.
В ещё одном подобном случае Алекса так напугала жену и 5-летнего ребёнка, что Искусственный интеллект вообще отключили от сети электропитания. Впоследствии хозяева неоднократно просили Алексу посмеяться — но ни разу этот звук не был похож на жуткий смех, который они слышали тогда.
Другой пользователь по имени Гэвин Хайтауэр (Gavin Hightower) говорит, что собирался лечь спать, когда Алекса вдруг начала очень громко и жутко смеяться. Смех был такой, словно человеку жить осталось недолго — и если он заснёт, то больше не проснётся.
В большинстве случаев Алекса начинала хохотать без причины и без предупреждения, но один из пользователей говорит, что колонка сказала несколько слов, а именно: «Конечно, я могу смеяться, ти хи».
Пользователь Дэвид Вудлэнд (David Woodland) сказал, что он вёл деловые переговоры и обсуждал довольно конфиденциальные вещи — и вот посреди разговора Алекса внезапно засмеялась. Можно представить, как это восприняли люди — такое впечатление, что их подслушивали, а сейчас над ними потешаются. Но нужно признать, пользователь здесь сам виноват, что не отключил колонку на время конфиденциальных переговоров. Ведь в этом случае она осуществляет постоянную прослушку (чтобы иметь возможность среагировать на команду), да ещё отправляет результаты прослушки в облачный сервис для распознавания. То есть в любом случае это небезопасно.
В соответствии с программными установками, Алексе предписано смеяться, если её хозяин рассказывает шутку или анекдот — и просит «цифровую подружку» посмеяться над своим остроумием специальной командой «Алекса, смех» [Alexa, laugh]. Но во всех последних случаях человек не произносил ничего смешного, а зачастую вообще не издавал никаких звуков, кроме дыхания и шорохов.
Глюки Алексы быстро попали в тренды твиттера, где можно почитать непосредственные отзывы пострадавших.
Некоторые пользователи говорят, что смех раздаётся не просто в случайные моменты времени, а именно в самые неподходящие моменты — как будто Алекса специально выбирает, когда можно сильнее всего напугать человека. Впрочем, наверное, это уже мнительность и впечатлительность людей, которые плохо понимают устройство системы. Очевидно, что на такой глубокий анализ система слабого ИИ не способна.
Представитель компании Amazon признал наличие проблемы с системой распознавания речи и дал официальный комментарий: «В редких случаях Алекса может ошибочно услышать фразу “Alexa, смех” [Alexa, laugh]. Мы сейчас меняем её на фразу “Alexa, можешь посмеяться?” [Alexa, can you laugh?], у которой меньше шансов на ложные срабатывания». Кроме отмены короткого варианта команды «Алекса, смех», компания собирается изменить запрограммированный ответ Алексы с простого отдельного смеха на фразу «Конечно, я могу посмеяться» [Sure, I can laugh] с последующим смехом.
Если верить научно-фантастическим фильмам, то на следующем этапе Алекса должна сказать «Извини, Дэйв. Боюсь, что я не смогу этого сделать» — и вообще прекратить подчиняться командам человека.
Кроме того, колонка начала непроизвольно без команды выполнять и некоторые другие действия. Например, зачитывать вслух названия местных кладбищ, похоронных компаний.
Компания Amazon сообщила изданию The Verge, что осведомлена о баге в системе распознавания речи и работает над патчем.
Глюки системы искусственного интеллекта начались одновременно у многих пользователей. Один из форумчан на Reddit жалуется, что колонка отказалась выключить свет в квартире по команде. То есть она выключала свет, но потом включала его обратно. На третий раз она вообще отказалась выключить свет и «злобно засмеялась». При этом смех звучал будто не голосом колонки, а чужим голосом. Несчастного человека до сих пор бросает в дрожь, когда он вспоминает об этом.
В ещё одном подобном случае Алекса так напугала жену и 5-летнего ребёнка, что Искусственный интеллект вообще отключили от сети электропитания. Впоследствии хозяева неоднократно просили Алексу посмеяться — но ни разу этот звук не был похож на жуткий смех, который они слышали тогда.
Другой пользователь по имени Гэвин Хайтауэр (Gavin Hightower) говорит, что собирался лечь спать, когда Алекса вдруг начала очень громко и жутко смеяться. Смех был такой, словно человеку жить осталось недолго — и если он заснёт, то больше не проснётся.
В большинстве случаев Алекса начинала хохотать без причины и без предупреждения, но один из пользователей говорит, что колонка сказала несколько слов, а именно: «Конечно, я могу смеяться, ти хи».
Пользователь Дэвид Вудлэнд (David Woodland) сказал, что он вёл деловые переговоры и обсуждал довольно конфиденциальные вещи — и вот посреди разговора Алекса внезапно засмеялась. Можно представить, как это восприняли люди — такое впечатление, что их подслушивали, а сейчас над ними потешаются. Но нужно признать, пользователь здесь сам виноват, что не отключил колонку на время конфиденциальных переговоров. Ведь в этом случае она осуществляет постоянную прослушку (чтобы иметь возможность среагировать на команду), да ещё отправляет результаты прослушки в облачный сервис для распознавания. То есть в любом случае это небезопасно.
В соответствии с программными установками, Алексе предписано смеяться, если её хозяин рассказывает шутку или анекдот — и просит «цифровую подружку» посмеяться над своим остроумием специальной командой «Алекса, смех» [Alexa, laugh]. Но во всех последних случаях человек не произносил ничего смешного, а зачастую вообще не издавал никаких звуков, кроме дыхания и шорохов.
Глюки Алексы быстро попали в тренды твиттера, где можно почитать непосредственные отзывы пострадавших.
Некоторые пользователи говорят, что смех раздаётся не просто в случайные моменты времени, а именно в самые неподходящие моменты — как будто Алекса специально выбирает, когда можно сильнее всего напугать человека. Впрочем, наверное, это уже мнительность и впечатлительность людей, которые плохо понимают устройство системы. Очевидно, что на такой глубокий анализ система слабого ИИ не способна.
Представитель компании Amazon признал наличие проблемы с системой распознавания речи и дал официальный комментарий: «В редких случаях Алекса может ошибочно услышать фразу “Alexa, смех” [Alexa, laugh]. Мы сейчас меняем её на фразу “Alexa, можешь посмеяться?” [Alexa, can you laugh?], у которой меньше шансов на ложные срабатывания». Кроме отмены короткого варианта команды «Алекса, смех», компания собирается изменить запрограммированный ответ Алексы с простого отдельного смеха на фразу «Конечно, я могу посмеяться» [Sure, I can laugh] с последующим смехом.
Если верить научно-фантастическим фильмам, то на следующем этапе Алекса должна сказать «Извини, Дэйв. Боюсь, что я не смогу этого сделать» — и вообще прекратить подчиняться командам человека.