Pull to refresh
0
0
Send message
Уже отличаю =) Пожалуй это частичный ответ на пару моих вопросов… Но пожалуй z-wave для дома не очень подходит. Т.к. решение не очень бюджетное. Если пару девайсов подключить, пойдет. А если побольше, то выходит не очень интересно с финансовой точки зрения.
Буду признателен если опишите и эту часть и поделитесь ссылками.
Давно хочу кое-что автоматизировать и все руки не доходят…
Какие же вы все (команда) молодцы!
Давно наблюдаю и каждый раз восхищаюсь какой объём работы выполнен на энтузиазме.
Вот бы вам больше средств и контрибьюшена (мечтательно)!
Может потому что на самих презентациях гугловцы сравнивали себя только с Apple?
Я ожидал сравнение камеры с S7, они сравнили только с айфонами. Адаптер показали с айфоном. Отгадайте насчет какого телефона они съязвили про 3.5мм разъем (хотя есть и другие только с usb-c)?

Несмотря на это меня телефон, ассистент и хоум заинтересовали меня. Вау эффект вызвал только ассистент. Остальное просто на уровне «ну, неплохо».

В последнем проекте плюнул на эти костыли для Swagger-a и перешел на RAML + raml2html
В итоге, клиент остался доволен документацией, в документации нет привязки к конкретной технологии, зато все описание выглядит прилично.
Как бонус, можно отдельно задокументировать большую часть ендпоинтов перед началом разработки (с свойствами, доступом и т.п) и дальше пилить серверную часть и клиента независимо друг от друга (сервер покрывался unit + integration тестами, клиент просто мокапил все запросы соответственно документации).

Все время пытался этот способ обойти т.к. боялся проблем из-за расхождения документации и реальности, но как показала практика это не проблема вообще.
Примерно того же ожидал и я.
Я думал что можно будет декларативно описать какой контекст вызывает мое приложение и какие команды в нем доступны.
Например в моем приложении можно управлять роботом. Я ожидал что можно будет попросить Siri «передай Дэниелю <расследуй преступление>». А так максимум что я могу его попросить, это поставить будильник…
Для меня это API пока на уровне «все равно лучше, чем ничего». Я понимаю что они взяли пару популярных use case-ов и позволили их запускать через Siri, но если они таким образом делают основу, то боюсь API нормального развития не получит.

Нужно посмотреть как это организованно в Amazon Echo. Быстрый поиск показал что Google Now позволяет похожим образом вызывать пару частных команд (по крайней мере сейчас).

Я не iOS разработчик, но с интересом слежу за развитием платформы.
Мне, как бэкенд разработчику, предоставляемое API кажется довольно странным… Т.е. услышав анонс того что Siri открыли разработчикам, я ожидал совсем другого API (более декларативного и гибкого). А в итоге есть 5-6 ограниченных сценариев и привкус разочарования. Может просто я привык к тому что API должно покрывать как частные случаи, так и позволять более гибко работать с обобщенным сценарием.
Какого ваше (iOS разработчиков) мнение насчет предоставленного API? Как много реальных use case-ов оно покрывает?

Information

Rating
Does not participate
Date of birth
Registered
Activity