Pull to refresh

Comments 25

Спасибо за перевод. Однако статья, на мой взгляд, довольно спорная!

Гестуры в воздухе только в кино выглядят круто. На практике же, гораздо проще перенести руку на несколько сантиметров к тачпаду / мышке, чем махать в воздухе конечностями. Кроме того, что руки устают, есть другая проблема — отсутствие обратной связи, как тактильной так и визуальной. А «эвристики» настолько запутывают human-machine интерфейс, что не каждая девочка-промоутер его осилит, не говоря уже о казуальных прохожих.

Технология несомненно имеет место быть, но не в том виде, в каком её рисует Голливуд. Думаю наличие очков дополненной реальности и перчаток с обратной связью сделает её более привлекательной.

P.S. Моё мнение основано на реальном опыте.
оставил вам комментарий ниже — промахнулся мимо кнопки «ответить»
кстати, насчёт видео, где можно про это поподробнее почитать?
Данный прототип не описывался и его развитие было приостановлено до лучших времен. В плане работы с трекингом и манипуляцией чем либо виртуальным, могу сказать следующее:

а) Работать, естественно, лучше в относительной системе координат, для каждой из ладоней за точку отсчета брать плечо или локоть. Это позволит избежать «встаньте вот сюда, тогда все заработает… нет-нет поближе… протяните руки подальше...»

б) Работать, лучше в скоростях а не в абсолютных значениях положения ладони, что в идеале позволит избавится от резких скачков объекта управления (которому нужно будет добавить «массу»).

в) Неплохая идея — добавить «силу» воздействия, т.е. например чем ближе рука к экрану тем сильнее реакция среды на воздействие.

В целом идея такова — имитация жесткого / контактного воздействия, из-за отсутствия обратной связи, приводит к резким изменениям среды, как только человек приступает или оканчивает манипуляцию. Имитация плавного, силового воздействия (почувствуй силу, Люк), работает лучше, но и здесь есть нюансы, например необходимо чётко отрабатывать жест «всё, устал», когда человек резко опускает руки вниз и всё, что он накрутил, куда-то сливается.
Конечно, физическая усталость имеет место быть и её обязательно нужно учитывать, однако эти размышления являются одними из первых подходов к этой задаче и, уверен, спустя несколько лет исследований и проектирований будут приемлемые интерфейсы, которые будут учитывать и усталость в том числе.

Сходу в голову приходят следующие вещи:
– управление взглядом — ими можно управлять фокусом между окнами/приложениями/экранами;
– я сейчас сижу за столом и локти лежат на столе, что позволяет мне долго время держать руки перед экраном в вертикальном положении;
– добавьте голос;
– добавьте определение положения/наклона головы.

кажется уже сейчас можно думать над конкретными применениями таких интерфейсов
— управление взглядом
Негативный момент заключается в том, что вам по-любому нужна кнопка включения или выключения трекинга, иначе случайные флуктуации в поведении человека приведут к печальным последствиям

– добавьте голос;
Аналогичная проблема, как и выше. Говорить слова гораздо медленнее, чем сделать то же самое мышкой или на клавиатуре.

– добавьте определение положения/наклона головы.
Чем больше дополнительных способов взаимодействия вы подключаете, тем сильнее должен быть контроль оператора над собственным телом.

Нельзя отвлекаться от экрана, говорить глупости и мотать головой. Иначе можно что-то удалить, послать глупости важному человеку, или стать очередным клиентом психолога, чтобы научиться управлять своим гневом.

Другими словами, в текущих интерфейсах (клавиатура, мышь, тачпад) гораздо больше удобства, скорости работы и эргономики, чем во всех предложенных. Исключение составит нейроинтерфейс, который будет напрямую связан с мозгом.
Негативный момент заключается в том, что вам по-любому нужна кнопка включения или выключения трекинга, иначе случайные флуктуации в поведении человека приведут к печальным последствиям

случайные флуктуации можно учитывать, сглаживая + я не говорю про конкретное использование взгляда.

Аналогичная проблема, как и выше. Говорить слова гораздо медленнее, чем сделать то же самое мышкой или на клавиатуре.

Сири уже вполне неплохо разбирает разговорный английский

Чем больше дополнительных способов взаимодействия вы подключаете, тем сильнее должен быть контроль оператора над собственным телом.

опять же я не говорю про конкретную реализацию. Отвернулся от монитора — заблокировал экран, начал поворачивать обратно — разблокировал обратно.

Другими словами, в текущих интерфейсах (клавиатура, мышь, тачпад) гораздо больше удобства, скорости работы и эргономики, чем во всех предложенных. Исключение составит нейроинтерфейс, который будет напрямую связан с мозгом.

над ними ещё толком не работали
Сири уже вполне неплохо разбирает разговорный английский

Тут же вспоминается серия BBT, где Крипке с Сири разговаривал…

Да, всё правильно, функция определяет форму.

Управление взглядом / положением головы, вполне реализуемо, более того, востребовано у людей с ограниченной подвижностью. Однако, как оказалось, накладывает свой отпечаток на восприятие реального мира. Помните то самое желание нажать ctrl+z только что написанному / нарисованному на бумаге? А теперь представьте, что вы начинаете упорно моргать, наклонив голову, сверля взглядом выключатель на стене.

Ну а если серьезно, зрение всегда было самостоятельным процессом, как средство воздействия на окружающий мир оно используется людьми только в личном общении, и всегда при поддержки мимики.
Как вам такой сценарий: посмотрел презрительно на окно, оно «испугалось» и закрылось, вы сознали что эмоция спонтанна, расстроились, система решила, «ой, хозяин устал» и перегрузилась…

Локти на столе, допустим, но опять таки, как часто может понадобится управление гестурами? Как вы считаете, где оно было бы удобно? Сам я на вскидку могу назвать только картографию, да и то, при использовании трекпада не придется отрывать даже запястий.

Распознавание речи, да, в этом направлении наметился серьезный прорыв, надеюсь в ближайшее время технология прочно войдет в нашу жизнь. Хотя, сам, по прежнему, чувствую себя «чукчей» из бородатого анекдота, когда спрашиваю свой телефон «Телефона-телефона, я кушать хочу!»
Как вам такой сценарий: посмотрел презрительно на окно, оно «испугалось» и закрылось, вы сознали что эмоция спонтанна, расстроились, система решила, «ой, хозяин устал» и перегрузилась…

это беда конкретной реализации

Локти на столе, допустим, но опять таки, как часто может понадобится управление гестурами? Как вы считаете, где оно было бы удобно? Сам я на вскидку могу назвать только картографию, да и то, при использовании трекпада не придется отрывать даже запястий.

навигация по сайтам, документам, окнам
С микромоторикой пальцев можно сделать гораздо больше интересных вещей, нежели с трекингом скелета. К сожалению поставок железа ждать ещё пол года.
Благодаря голосовым функциям компьютеры становятся членами социума пользователя, и их «личности», воспринимаемые пользователем, являются крайне важным аспектом дизайна.


Странно что никто еще не попытался объяснить человеко-компьютерное взаимодействие с помощью трансакционного анализа. Так как уровень интеграции машины в личности неуклонно растет.

Вот небольшая цитата:
На своих терапевтических сеансах Эрик Берн обратил внимание на то, как меняется голос, тембр, интонации, когда пациенты рассказывают свои истории: в какой-то момент они начинают говорить другими голосами – то звонкими, напоминающими детские, то суровыми или поучающими, как мог бы говорить недовольный поведением ребенка отец. Наблюдения за пациентами и за самим собой привели Берна к предположению, что изменение голоса связано с разными состояниями «я» (эго-состояниями), в которых находятся пациенты.


Пример такого анализа, мог бы быть таким:



о да, крайне интересно было бы почитать результаты такого исследования.
>>>Благодаря сенсорным интерфейсам взаимодействие пользователей с вычислительными устройствами стало более естественным и интуитивным.
По мне так современные устройства намного более ущёрбны в плане ввода информации, чем отполированные десятилетиями клавиатура и мышь. Играть в трёхмерные игры на планшетах мучительно больно, писать большие объёмы текста на экранных клавиатурах в половину экрана неудобно, нажимающий палец закрывает часть экрана, случайные нажатия приводят к непредсказуемым последствиям, даже жест перетаскивания фотографии в бок для листания менее удобен, естественен и интуитивен, чем просто пара кнопок "<" и ">", меняющих изображения без излишних понтов.
Зато клавиатура и мышь производят не такой «Вау» эффект на окружающих, как все остальные типы взаимодействия человека и компьютера, которые описаны в статье. Для меня существует только один тип взаимодействия, который и качественно, и количественно будет превосходить клавиатуру и мышь — прямой нейроинтерфейс. Остальное — невинные маркетинговые шалости
У меня нет скепсиса, сам активно пользуюсь распознавалками речи для набора текста.
Вы когда-нибудь вращали 3D-объект в Maya или 3DMax мышью?

И я плохо представляю другой столь же хороший интерфейс как Siri для водителя, планирующего встречи по дороге на работу с дефицитом внимания и свободных конечностей.

Для каждой задачи своё решение.
Если память не изменяет, в максе вращение было на средней кнопке мыши / колесе, это довольно удобно, не очень удачный пример. У профессиональных 3D моделеров левая рука задействована на паре десятков хоткеев правая на мышке, при этом на последней используются как правило все 3 кнопки и колесо.

Но гестуры хорошо подошли бы для цифрового скульптинга, но опять таки без прямого визуального или тактильного фидбека, работать будет тяжеловато.
Вращение мышью сделано удобно, не вижу никаких проблем.
помню, мне достаточно тяжело было привыкнуть к этому.
Это давно было? Потому что сейчас исправили много неудобств при работе с объектами и сценой…
С тех пор многое изменилось
Sign up to leave a comment.

Articles