@AndrewTessa5 фев 2020 в 15:55Управление интерфейсом приложения при помощи жестов (Keras + CoreML)Время на прочтение2 минОхват и читатели3.8KPython * Swift * Из песочницыВсего голосов 5: ↑4 и ↓1+6Добавить в закладки38Комментарии8
@barbaris765 фев 2020 в 20:37Ну, надо же. Идеи прям носятся в воздухе, вот буквально вчера читал: newtechaudit.ru/svertochnaya-nejronnaya-set-ch1 newtechaudit.ru/svertochnaya-nejronnaya-set-i-ch2
@PS_erg6 фев 2020 в 10:06Меня вот интересует один вопрос, есть ли API для работы с данными датчика FaceID? В справке ничего не нашел.
@AndrewTessa6 фев 2020 в 10:12Показать предыдущий комментарийВы имеете в виду это? developer.apple.com/documentation/vision/vndetectfacerectanglesrequest Или же данные, находящиеся в самом устройстве?
@PS_erg6 фев 2020 в 10:39Показать предыдущий комментарийНет, это не то. Я имел ввиду данные 3D сканера
@AndrewTessa6 фев 2020 в 10:50Показать предыдущий комментарийИнтересно, не задавался подобным вопросом. Может быть вам поможет это developer.apple.com/documentation/arkit/scanning_and_detecting_3d_objects. Конечно не ответ на Ваш вопрос, но хоть что-то)
@PS_erg6 фев 2020 в 10:59Показать предыдущий комментарийСпасибо, я как-то пропускал ARKit, а он, оказывается, умеет с фронтальной камерой работать
Управление интерфейсом приложения при помощи жестов (Keras + CoreML)