Если нужны только первый и последний элементы — есть ещё такой вариант (*_ собирает всё остальное в список):
In [1]: for first, *_, last in (range(10), range(42)):
...: print(f'{first=}, {last=}, {len(_)=}')
...:
first=0, last=9, len(_)=8
first=0, last=41, len(_)=40
Обычно «краями» АЧХ считается падение на 3дБ. Многие производители в ТХ значение падения указывают. Но не всё совсем однозначно — неравномерность в «середине» АЧХ (обычно ближе к ВЧ) может это значение и превышать.
В Titan V есть TPU-ядра (Tensor Processing Unit), рассчитанные на задачи машинного обучения, то есть на тензорную алгебру. Доступ через API, думаю, есть — tensorflow же их как-то использует.
Вот я и думаю: если использовать такую видеокарту для игр (хоть она и стоит 3k$, но мы же оптимистично смотрим в будущее), будут ли тензорные ядра простаивать без дела? Можно ведь рисовать картинку за счёт GPU-ядер а считать физику за счёт TPU-ядер — там их на 110 TeraFLOPS (только не знаю, это отдельно для TPU, или вместе с CUDA).
Интересно, можно ли на видеокартах типа Nvidia Titan V перенести физические вычисления на TPU? И на графическое ядро меньше лишней нагрузки, и, по идее, на тензорном процессоре не должно быть проблем с многомерными массивами. Или я что-то не так понимаю?
Если нужны только первый и последний элементы — есть ещё такой вариант (
*_
собирает всё остальное в список):Вот я и думаю: если использовать такую видеокарту для игр (хоть она и стоит 3k$, но мы же оптимистично смотрим в будущее), будут ли тензорные ядра простаивать без дела? Можно ведь рисовать картинку за счёт GPU-ядер а считать физику за счёт TPU-ядер — там их на 110 TeraFLOPS (только не знаю, это отдельно для TPU, или вместе с CUDA).