Pull to refresh

Comments 16

Какой-то маловероятный кот — всего 59%. А вроде нормальное фото, стандартная поза и расцветка…
На реальных фотках с большим количеством объектов у нейросетей нередко рвет крышу.
59% — очень большая достоверность в таких условиях.

Я бы сказал, что зачастую эти проценты ничего не значат. Это же не вероятность в математическом смысле. А результат нормализации суммы с последнего слоя. Если нарукожопить с сигмоидой, можно получать результаты 0.49-0.51, причем 0.49 — это 0, а 0.51 — 1. А можно нарукожопить и в другую сторону, получится если хоть чуть похоже на кота — 0.99, чуть непохоже — 0.01. Просто следует подобрать коэффициент

Я как то покупал дешевое шасси(за 9$ кажись), но оно очен гремело, еле ехало и батарейки жрало. Вот думаю теперь, лучше инвестирую да не буду потом жалеть. Спасибо за наводку!
Батарейки же не шасси жрет, а моторы, которые можно купить отдельно и с любыми характеристиками.

теперь пора смотреть в сторону nvidia jetson nano) очень хорош по производительности

Подскажите, а с NVC реально запустить inference DeepLab или Mask-RCNN? Нужна сегментация при помощи обученных мною сеток. Где-то 0.5 сек на картинку 2 мегапикселя. Комп с GTX1080TI вывозит, но греет комнату, перегружает соседнюю подстанцию и сильно шумит.
Задумывался о Google Coral или NVC, но не уверен, что смогу свои задачи решать этими свистками.

скорее всего, на сайтах производителей или на towardsdatascience.com вы найдёте сравнения скорости разных моделей на разных железках. Если с трудом вывозит 1080, то скорее всего никакой из базовых свистков не спасёт. Придется оптимизировать модель.


Ещё есть nvidia jetson tx2, у нее вроде бы flops достаточно высокий, но сходу не скажу, сравним ли с 1080.


В целом, задача перехода на edge (nvidia jetson, Google coral) устройства сейчас выглядит вполне решаемой для большинства моделей, но есть много плясок с переводом сети в их форматы.

1070 раз в 10 быстрее jetson tx2. А tx2 раз в 10 быстрее интела. Интел хоть как-то может потягаться с tx2, если удастся сконвертить сетку в fp16.
Очень сильное ускорение (в разы) дает конвертация и запуск в TensorRT.
Я понял, разрабатывается танк-охотник на котов
Так было в альфа-версии.:) Сейчас амбиции выросли

Данный модуль поддерживает OpenCL(возможно ли использовать его использовать как opencl device)?

Sign up to leave a comment.

Articles