Пример был как показатель в реальной работе (голосой поиск в гугле, апишка от яндекса и т.д.). Я к тому, что сейчас реальных приложений Android, где голосовое управление/жесты к месту — это разве что навигаторы в машине и т.д. (ну может быть с натяжной умные дома, хотя в коментах выше уже это опровергли).
По личному опыту с голосовым распознаванием гугла — шанс сказать что-то с 1 раза 50/50, если именно не напрягаться под распознаватель.
Тоесть сомнения не по лично вашему API, а о таковом способе взаимодействия с приложением в целом на телефонах
Где-то видел статистику по поисковикам, где говорилось что голосовым поиском пользуются ~3% юзеров. Поэтому я согласен, что все эти головые фишки просто игрушка и не более.
Как только придумают как удобно и не выжирая батарею запускать обработчик голоса тогда и будет видна польза. Сейчас же заходим на сайт разработчиков и смотрим, например, видео управления музыкой. Что надо сделать (смотря на видео демо):
1. нажать кнопку
2. поднести телефон (издалека мешают шумы?)
3. четко сказать
4. ждать реакции
В классическом управлении мы бы еще на первом шаге кликнули на play/stop и тд и все. Итого тратим кучу времени на игры с голосовым управлением
Не стремится. На маленьких диагоналях ноутбуков/мониторов точно. Для теликов под 2 метра я только за 4К.
P.S. В моем городе около 7 кинотеатров, при этом показывает в 4К только один из них, да и то не все фильмы
Кто сказал, что она будет работать не правильно? Мой опыт говорит, что поведение nil больше плюс, чем минус, и статистикой (говорю только за себя) это подтверждается
Может я не правильно выразился. Я имел в виду следующее, в многих случаях это очень удобно, например, зачем писать так (как сделали бы по привычке, люди писавшие, на том же C):
Если проще использовать следующее (это вы увидите везде, и в примерах apple, и в принципе в примерах по Objective-C)
-(void)dealloc
{
[obj1 release]; //если obj1==nil, то ничего не произойдет
[obj2 release]; //если obj1==nil, то ничего не произойдет
[super dealloc];
}
По личному опыту с голосовым распознаванием гугла — шанс сказать что-то с 1 раза 50/50, если именно не напрягаться под распознаватель.
Тоесть сомнения не по лично вашему API, а о таковом способе взаимодействия с приложением в целом на телефонах
Как только придумают как удобно и не выжирая батарею запускать обработчик голоса тогда и будет видна польза. Сейчас же заходим на сайт разработчиков и смотрим, например, видео управления музыкой. Что надо сделать (смотря на видео демо):
1. нажать кнопку
2. поднести телефон (издалека мешают шумы?)
3. четко сказать
4. ждать реакции
В классическом управлении мы бы еще на первом шаге кликнули на play/stop и тд и все. Итого тратим кучу времени на игры с голосовым управлением
P.S. В моем городе около 7 кинотеатров, при этом показывает в 4К только один из них, да и то не все фильмы
Такие разрешения выше 1080p есть в яблочных Retina ноутбуках и ничего все нормально. На 720p даже смотреть страшно
Apple MacBook Pro 15 with Retina display Mid 2012
Но круглые иконки приложений мне определенно нравятся))
Если проще использовать следующее (это вы увидите везде, и в примерах apple, и в принципе в примерах по Objective-C)