Как стать автором
Обновить
  • по релевантности
  • по времени
  • по рейтингу

Khronos выпустил предварительные спецификации стандарта OpenCL 3.0

Высокая производительностьПрограммированиеC++GPGPUAPI
image
Khronos Group опубликовала предварительные спецификации стандарта вычислений общего назначения с использованием GPU и других процессоров OpenCL 3.0. Эта последняя версия вычислительного API позволяет поставщикам самостоятельно решать, какие функции они будут поддерживать помимо основных спецификаций на базе OpenCL 1.2 2011 года.
Читать дальше →
Всего голосов 7: ↑7 и ↓0+7
Просмотры1.8K
Комментарии 1

NVIDIA показала GPU на Ampere для облачных вычислений и обучения систем на ИИ

GPGPUОблачные вычисленияBig DataИскусственный интеллектПроцессоры
image

NVIDIA на днях продемонстрировала графические процессоры с архитектурой Ampere. Они предназначены для дата-центров, способны выполнять научные расчеты и обрабатывать большие данные.
Читать дальше →
Всего голосов 14: ↑13 и ↓1+12
Просмотры7.9K
Комментарии 11

Миллион партиклов. Часть 1

Высокая производительностьАлгоритмы
Из песочницы
imageХочу рассказать как я создавал, и потом переводил собственную систему частиц на GPU. Как я наивно думал просто будет сделать (мол чо там, двигать частицы, тююю). На самом деле о нюансах, возникающих при реализации, можно говорить очень много и долго, поэтому далее я расскажу только об решении проблем «узких» мест.

История вопроса


Заказчик разрабатывает динамические музыкальные фонтанные комплексы, которые управляются через dmx контроллеры по сценарию. Редактор сценариев он сделал самостоятельно. Но на практике создавать сценарии оказалось неудобным, потому что для того, чтобы видеть как получается нужно иметь целиком построенный и запущенный фонтан. Кроме того, если вдруг дизайнеру хореографу захотелось добавить дополнительные сопла для фонтана — то этого сделать уже практически невозможно. Поэтому заказчик захотел обзавестись модулем для моделирования фонтанов, чтобы хореограф мог без настоящего фонтана разрабатывать сценарии. В целом у меня вышло что-то в таком духе: вот видео того что было смоделировано Hawaii50.wmv, а вот то, что вышло в реале после конструирования фонтана: H5OClip.wmv
Читать дальше →
Всего голосов 90: ↑86 и ↓4+82
Просмотры21K
Комментарии 35

Еще один алгоритм для восстановления смазанных изображений

Обработка изображенийМатематикаMatlab
Из песочницы
Доброго времени суток. Уже столько сказано о методах деконволюции изображений, кажется добавить больше нечего. Однако всегда найдется алгоритм лучше и новее предыдущих. Не так давно был описан итерационный алгоритм, имеющий линейную скорость сходимости при малых затратах памяти, стабильный и хорошо распараллеливаемый. А через некоторое время он был улучшен еще и до квадратичной сходимости. Встречайте: (Fast) Iterative Shrinkage-Thresholding Algorithm.


Читать дальше →
Всего голосов 46: ↑42 и ↓4+38
Просмотры18K
Комментарии 44

Вычисления на GPU – зачем, когда и как. Плюс немного тестов

Блог компании Технологический Центр Дойче БанкаВысокая производительностьАлгоритмыGPGPUВидеокарты
🔥 Технотекст 2020
Всем давно известно, что на видеокартах можно не только в игрушки играть, но и выполнять вещи, никак не связанные с играми, например, нейронную сеть обучить, криптовалюту помайнить или же научные расчеты выполнить. Как так получилось, можно прочитать тут, а я хотел затронуть тему того, почему GPU может быть вообще интересен рядовому программисту (не связанному с GameDev), как подступиться к разработке на GPU, не тратя на это много времени, принять решение, нужно ли вообще в эту сторону смотреть, и «прикинуть на пальцах», какой профит можно получить. 


Читать дальше →
Всего голосов 33: ↑33 и ↓0+33
Просмотры33K
Комментарии 29

Game of Life с битовой магией, многопоточностью и на GPU

Высокая производительностьC++АлгоритмыВидеокарты
🔥 Технотекст 2020

Всем привет!


Недавняя статья на Хабре в очередной раз показала неостывающий интерес к игре «Жизнь» в частности и всевозможным оптимизациям в общем. Статья и комментарии к ней, особенно любопытство к вычислениям на GPU, вдохновили меня на то, чтобы поделиться своими изысканиями на данном поприще и, забегая вперёд, скажу, что повествование пойдёт о расчётах на GPU, битовой магии, многопоточности и огромных полях для игры «Жизнь», порядка миллиарда клеток.


Читать дальше →
Всего голосов 31: ↑30 и ↓1+29
Просмотры9.2K
Комментарии 18

Я вам графония принес! Как нейросеть может улучшить разрешение в старых играх до HD

Работа с видеоPythonМашинное обучение


UPDATE: нашел баг при обучении, исправил, результаты стали существенно лучше, поэтому заменил картинки

Данная статья является вольным переводом моей статьи на Medium.

В детстве я любил играть на компьютере. Совсем маленьким я застал несколько игр на кассетном ZS Spectrum, однако настоящим открытием стали красочные DOS игры 90x годов. Тогда же и зародилось большинство существующих жанров. Немного поностальгировав, я решил вспомнить молодость и запустить одну из старых игр на эмуляторе Dosbox и был неприятно поражен гигантскими пикселями и низким разрешением. Хотя в крупнопиксельной старой графике может быть свое очарование, многих сейчас не устраивает такое качество.

Для повышения разрешения и избавления от угловатости в играх в настоящее время используются различные алгоритмы постпроцессинга и сглаживания (подробно можно почитать, например тут zen.yandex.ru/media/id/5c993c6021b68f00b3fe919c/kak-rabotaet-sglajivanie-v-kompiuternyh-igrah-5c9b3e76d82a083cc9a0f1a7 ), но алгоритмы сглаживания приводят ко всем ненавистной «мыльной» картинке, которая часто еще менее предпочтительна, чем угловатость больших пикселей.
Читать дальше →
Всего голосов 28: ↑24 и ↓4+20
Просмотры15K
Комментарии 35

Boost.Compute или параллельные вычисления на GPU/CPU. Часть 2

C++
Tutorial

Вступление


Привет, Хабр!

Предыдущая часть понравилась многим, поэтому я снова перелопатил половину документации boost и нашёл о чем написать. Очень странно что вокруг boost.compute нету такого же ажиотажа как и вокруг boost.asio. Ведь достаточно, того эта библиотека кроссплатформенная, так ещё и предоставляет удобный (в рамках c++) интерфейс взаимодействия с параллельными вычислениями на GPU и CPU.

Читать дальше →
Всего голосов 5: ↑4 и ↓1+3
Просмотры3.5K
Комментарии 27

Сравнение времени выполнения алгоритма на CPU и GPU

C++GPGPUПараллельное программирование
Recovery mode

Использование CUDA Runtime API для вычислений. Сравнение CPU и GPU вычислений


В данной статье я решил провести сравнение выполнения алгоритма написанного на C++ на центральном и графическом процессоре(выполнение вычислений с помощью Nvidia CUDA Runtime API на поддерживаемом GPU Nvidia). CUDA API позволяет выполнение некоторых вычислений на графическом процессоре. Файл c++ использующий cuda, будет иметь расширение .cu.
Схема работы алгоритма приведена ниже.



Задача алгоритма состоит в том, что найти возможные числа X, при возведении которых в степень degree_of, будет получатся исходное число max_number. Сразу отмечу, что все числа которые будут передаваться GPU, будут хранится в массивах. Алгоритм, выполняемый каждым потоком, имеет приблизительно следующий вид:
Читать дальше →
Всего голосов 17: ↑6 и ↓11-5
Просмотры4.3K
Комментарии 41