Я тут сразу подумал: это что же ещё можно делать массово параллельно на GPU - map-reduce с бизнес логикой?
Пример простой типовой бизнес-таски для GPU - построить гистограмму по большому объему данных. В общем случае на GPU map - легко, reduce - задачка со звездочкой, хотя есть готовые кернелы для редукции.
Примерно, очень грубо, насколько быстрее оптимизированного варианта с CPU будут перемножаться матрицы на встроенном GPU?
да, будет быстрее, на сколько - it depends, хотя маленькие матрицы (условно до 512 х 512) на CPU да еще и с векторизацией, могут считаться быстрее. На некоторых задачах встроенный GPU может быть быстрее чем выделенный, т.к. память общая и нету перекачки RAM <-> VRAM через PCI - это основное узкое горлышко.
Ваще писать бизнес логику на GPU может быть сложновато из-за
достаточно низкоуровневого программирования
необходимости учитывать кучу особенностей именно GPU
Собес в Яндекс, февраль этого года. Если отвести глаза от экрана, то собеседующий говорит "Не надо пытаться нас обмануть, используя LLM/Google" . При этом сам не знает ЯП, на котором решались алгоритмические задачки, а вакансия была на разраба на этом ЯП.
Во во! Postal - адовый треш и угар!
В современном мире такое не стоит исключать вовсе, ЕПОЧЯ) А тут еще скоро 26 апреля, круглая дата. Тревожно как-то.
Да, но зачем так нервничать-то?
Через антенны ЭМИ попадет внутрь стокилограммового куска свинца. Если конечно от антенн что-то останется.
Путь самурая, чё)
Это ты на словах такой смелый. А ты попробуй на карме вывезти!
Бурого звали Радогаст
https://motherfuckingwebsite.com/
Самый универсальный комментарий для любой статьи на хабре.
без http keep alive тестируем скорость открытия tcp сокетов)
Пример простой типовой бизнес-таски для GPU - построить гистограмму по большому объему данных.
В общем случае на GPU map - легко, reduce - задачка со звездочкой, хотя есть готовые кернелы для редукции.
да, будет быстрее, на сколько - it depends, хотя маленькие матрицы (условно до 512 х 512) на CPU да еще и с векторизацией, могут считаться быстрее.
На некоторых задачах встроенный GPU может быть быстрее чем выделенный, т.к. память общая и нету перекачки RAM <-> VRAM через PCI - это основное узкое горлышко.
Ваще писать бизнес логику на GPU может быть сложновато из-за
достаточно низкоуровневого программирования
необходимости учитывать кучу особенностей именно GPU
Вот еще неплохая статья про GPGPU https://habr.com/ru/companies/yandex_praktikum/articles/661543/
Мигает - это для эстетов. Главное вибрирует!
Пользователи сообщили о проблемах подключения к реальной жизни.
Собес в Яндекс, февраль этого года. Если отвести глаза от экрана, то собеседующий говорит "Не надо пытаться нас обмануть, используя LLM/Google" . При этом сам не знает ЯП, на котором решались алгоритмические задачки, а вакансия была на разраба на этом ЯП.