Уже отличаю =) Пожалуй это частичный ответ на пару моих вопросов… Но пожалуй z-wave для дома не очень подходит. Т.к. решение не очень бюджетное. Если пару девайсов подключить, пойдет. А если побольше, то выходит не очень интересно с финансовой точки зрения.
Какие же вы все (команда) молодцы!
Давно наблюдаю и каждый раз восхищаюсь какой объём работы выполнен на энтузиазме.
Вот бы вам больше средств и контрибьюшена (мечтательно)!
Может потому что на самих презентациях гугловцы сравнивали себя только с Apple?
Я ожидал сравнение камеры с S7, они сравнили только с айфонами. Адаптер показали с айфоном. Отгадайте насчет какого телефона они съязвили про 3.5мм разъем (хотя есть и другие только с usb-c)?
Несмотря на это меня телефон, ассистент и хоум заинтересовали меня. Вау эффект вызвал только ассистент. Остальное просто на уровне «ну, неплохо».
В последнем проекте плюнул на эти костыли для Swagger-a и перешел на RAML + raml2html
В итоге, клиент остался доволен документацией, в документации нет привязки к конкретной технологии, зато все описание выглядит прилично.
Как бонус, можно отдельно задокументировать большую часть ендпоинтов перед началом разработки (с свойствами, доступом и т.п) и дальше пилить серверную часть и клиента независимо друг от друга (сервер покрывался unit + integration тестами, клиент просто мокапил все запросы соответственно документации).
Все время пытался этот способ обойти т.к. боялся проблем из-за расхождения документации и реальности, но как показала практика это не проблема вообще.
Примерно того же ожидал и я.
Я думал что можно будет декларативно описать какой контекст вызывает мое приложение и какие команды в нем доступны.
Например в моем приложении можно управлять роботом. Я ожидал что можно будет попросить Siri «передай Дэниелю <расследуй преступление>». А так максимум что я могу его попросить, это поставить будильник…
Для меня это API пока на уровне «все равно лучше, чем ничего». Я понимаю что они взяли пару популярных use case-ов и позволили их запускать через Siri, но если они таким образом делают основу, то боюсь API нормального развития не получит.
Нужно посмотреть как это организованно в Amazon Echo. Быстрый поиск показал что Google Now позволяет похожим образом вызывать пару частных команд (по крайней мере сейчас).
Я не iOS разработчик, но с интересом слежу за развитием платформы.
Мне, как бэкенд разработчику, предоставляемое API кажется довольно странным… Т.е. услышав анонс того что Siri открыли разработчикам, я ожидал совсем другого API (более декларативного и гибкого). А в итоге есть 5-6 ограниченных сценариев и привкус разочарования. Может просто я привык к тому что API должно покрывать как частные случаи, так и позволять более гибко работать с обобщенным сценарием.
Какого ваше (iOS разработчиков) мнение насчет предоставленного API? Как много реальных use case-ов оно покрывает?
Давно хочу кое-что автоматизировать и все руки не доходят…
Давно наблюдаю и каждый раз восхищаюсь какой объём работы выполнен на энтузиазме.
Вот бы вам больше средств и контрибьюшена (мечтательно)!
Я ожидал сравнение камеры с S7, они сравнили только с айфонами. Адаптер показали с айфоном. Отгадайте насчет какого телефона они съязвили про 3.5мм разъем (хотя есть и другие только с usb-c)?
Несмотря на это меня телефон, ассистент и хоум заинтересовали меня. Вау эффект вызвал только ассистент. Остальное просто на уровне «ну, неплохо».
В итоге, клиент остался доволен документацией, в документации нет привязки к конкретной технологии, зато все описание выглядит прилично.
Как бонус, можно отдельно задокументировать большую часть ендпоинтов перед началом разработки (с свойствами, доступом и т.п) и дальше пилить серверную часть и клиента независимо друг от друга (сервер покрывался unit + integration тестами, клиент просто мокапил все запросы соответственно документации).
Все время пытался этот способ обойти т.к. боялся проблем из-за расхождения документации и реальности, но как показала практика это не проблема вообще.
Я думал что можно будет декларативно описать какой контекст вызывает мое приложение и какие команды в нем доступны.
Например в моем приложении можно управлять роботом. Я ожидал что можно будет попросить Siri «передай Дэниелю <расследуй преступление>». А так максимум что я могу его попросить, это поставить будильник…
Для меня это API пока на уровне «все равно лучше, чем ничего». Я понимаю что они взяли пару популярных use case-ов и позволили их запускать через Siri, но если они таким образом делают основу, то боюсь API нормального развития не получит.
Нужно посмотреть как это организованно в Amazon Echo. Быстрый поиск показал что Google Now позволяет похожим образом вызывать пару частных команд (по крайней мере сейчас).
Мне, как бэкенд разработчику, предоставляемое API кажется довольно странным… Т.е. услышав анонс того что Siri открыли разработчикам, я ожидал совсем другого API (более декларативного и гибкого). А в итоге есть 5-6 ограниченных сценариев и привкус разочарования. Может просто я привык к тому что API должно покрывать как частные случаи, так и позволять более гибко работать с обобщенным сценарием.
Какого ваше (iOS разработчиков) мнение насчет предоставленного API? Как много реальных use case-ов оно покрывает?