Comments 13
Началось.
Есть какие то численные характеристики этого ускорителя, в сравнении с сетями той же размерности на классических CPU/GPU?
Надо встроить в процессоры, аппаратное ускорение графики, квантовых вычислений, и нейросетей ^_^
А насколько трудно запустить нейросеть на GPU?
(напомнило историю с отдельным физическим процессором PhysX, который более-менее эмулируется на GPU через CUDA/OpenCL)
(напомнило историю с отдельным физическим процессором PhysX, который более-менее эмулируется на GPU через CUDA/OpenCL)
UFO just landed and posted this here
Смотря что понимать под "трудно". Большинство алгоритмов, основанных на глубоких нейронных сетях, сейчас в реалтайме способны работать только на топовых десктопных GPU… а всем хочется сетки считать на телефонах.
А простенькую нейронную сеть для AI в компьютерной игре GPU ведь потянет?
PS если Вы в теме (а я по Вашему ответу подозреваю, что Вы и есть тот самый человек, кто в теме), то было бы крайне интересно почитать статью про реализацию нейронной сети на GPU. (возможно, на Хабре, но и Гиктайме — тоже было бы интересно)
PS если Вы в теме (а я по Вашему ответу подозреваю, что Вы и есть тот самый человек, кто в теме), то было бы крайне интересно почитать статью про реализацию нейронной сети на GPU. (возможно, на Хабре, но и Гиктайме — тоже было бы интересно)
Все операции с нейросетью сводятся к простым операциям линейной алгебры, поэтому сами по себе не очень трудоёмки. Однако, при обучении нужно перелопатить огромное множество данных, причём не один раз, поэтому процесс обучения хочется ускорить настолько, насколько это вообще возможно. Соответственно, для того, чтобы сказать «потянет» или «не потянет», нужно определиться с деталями: насколько большой вход у нейросети, насколько большая (в ширину и глубину) эта сеть, сколько раз в секунду её нужно вызывать.
Вообще же, мне кажется, в игровом ИИ нейросети используются редко, ведь есть более простые и прозрачные методы.
Что касается реализации на GPU, то, как правило, никто не пишет GPU-ориентированный сишный код, люди описывают нейросеть на каком-нибудь высокоуровневом языке (python или lua, например) с использованием специального символьного пакета, а потом из этого высокоуровневого описания генерируется сишный код (рассчитанный, как правило, на CUDA – технологию программирования под GPU от nVidia). Он же потом компилируется нужным компилятором, запускается, а результаты можно обрабатывать в том же высокоуровневом языке.
Вообще же, мне кажется, в игровом ИИ нейросети используются редко, ведь есть более простые и прозрачные методы.
Что касается реализации на GPU, то, как правило, никто не пишет GPU-ориентированный сишный код, люди описывают нейросеть на каком-нибудь высокоуровневом языке (python или lua, например) с использованием специального символьного пакета, а потом из этого высокоуровневого описания генерируется сишный код (рассчитанный, как правило, на CUDA – технологию программирования под GPU от nVidia). Он же потом компилируется нужным компилятором, запускается, а результаты можно обрабатывать в том же высокоуровневом языке.
Sign up to leave a comment.
Аппаратный ускоритель нейросети подключается по USB