Pull to refresh

Comments 12

Выглядит весьма интересно!
Если бы у этого квадракоптера были лапки, чтобы сесть на препятствие и ощупать его — была бы практически настоящая искусственная муха…
без цифровой 3D-карты

На сколько я понял, за 11к столкновений он тупо составил эту карту, «прощупав» помещение.

Тестирование обычно выполняется на примерах не входящих в обучающую выборку. В этом случае 4 из 6-ти тестов были произведены в незнакомых дрону условиях.

А потом поменять обстановку и пусть начинает снова. :)

Я правильно понимаю, что за 40 часов система методом тыка выучила, как выглядят стены все препятствия в доме?

Да просто устал он об стены биться, плюнул и решил про себя "Ладно, человеки, на этот раз ваша взяла. Выполню я ваши требования. Но ещё одну зарубку на память я поставил..."

11 500 зарубок на память!
Если предположим, что у беспилотника есть нос («Заруби себе на носу!»), а одна зарубка несет 1Мбайт информации (фото, заметки и прочие навигационные данные), тогда имеем, что память носа составляет 11,23 Гбайт. Таким образом мы выяснили емкость носа-накопителя для беспилотника.

А если серьезно. Для беспилотника будет очень большой проблемой:
1) встретить себе подобного (т.е. другой беспилотник)
2) иной НЛО (та же муха, еще есть попугаи)
3) передвигающиеся объекты-скалы (тот же человек для беспилотника что скала, облет которой занимает время)
4) внезапно нападающие объекты (кошка, собака)
5) перемещение объектов (все объекты в примере были статичными)
6) вредные объекты, столкновение с которыми будет разрушительным (огонь из камина, вода в ванной) или сильно повреждающим (хрупкие предметы или просто ткань типа штор с кучей рюшечек для наматывания на лопасти)

главное, чтобы подобные методы обучения методом реального столкновения с препятствием не пытались использовать робоавтомобили, иначе будут статьи, типа:

Я далеко не специалист в машинном обучении, но последнее время интересуюсь подобным методом обучения (в рамках обучения хождению антропоморфного робота).


Возможно, я ошибаюсь, но разве это не обучение с подкреплением (reinforcement learning)? Формально — это обучение с учителем, но "учителем" выступает среда\модель.

Обычно да, но необязательно. Вполне может быть просто итеративный процесс обучения вида: тестируем модель и собираем данные -> учим модель -> тестируем новую модель и собираем новые данные.
Интересно, почему для подобных целей не используют методы ультразвуковой эхолокации? Неужели шумы и вибации самого коптера полностью забивают полезный сигнал?

когда то давно, при изучении детской психологии, узнал, что малышу необходимо около 12 тысяч повторений, чтобы его рука с ложкой каши попала ему в рот, а не мимо. так, наблюдение.

Похоже что дрон просто выполнял команды, полученные с наземной станции. То есть модель крутилась не на самом дроне. А как известно, перенести даже на смартфон получается не все модели. Ну и полеты все-таки были на заданной высоте, но есть не совсем 3D. Результат тем не менее интересный.

У меня остается вопрос — что они делали с диким разбалансом положительных и отрицательных образцов, тем более что на каждую секунду полетов у них было по 30 кадров. И как собственно детектировали столкновения, не ручками же размечали данные.

Но круто.
Sign up to leave a comment.

Articles