All streams
Search
Write a publication
Pull to refresh

Comments 17

PinnedPinned comments

Мне написали что

существует лишь несколько рабочих конфигураций версия Linux+версия Python+версия CUDA+версия PyTorch и для корректной работы без ошибок их нужно знать.

Но я не знаю

Задача изначально странно звучит. Вот есть обсуждаемая статья, 100+ комментариев. Пяток хвалит статью, пяток осуждает, а остальные 90+ обсуждение некоторой конкретики, которую, боюсь, что современными LLM (да что там ими, и своим мозгом тоже) сложно отнести к однозначному одобрению/критике.

Согласен, но мне надо было выделить именно "хвалебные"

А как Вы отличали хвалебные комментарии, от "а ты молодец" в стиле "День радио", и от позитивных комментариев к предыдущим оффтопичным комментариям?

Первые два типа для меня одно и тоже.

В модели параметр настраивается.

Когда-то, еще до ковида, SAP Hana анализировала тональность текста (в том числе с оценкой уровня положительности/негатива) в моем пет-проекте практически онлайн, на лету получая комменты из твиттера через его API. А теперь нейросети надо прикручивать)))

Этот мини проект всё таки больше для того чтобы разобраться что это за зверь локальный AI - чем может быть полезным

В конце сентября Nvidia выпустила для Линукс драйвер 580, с ним пробовали? Почему спрашиваю, в моей задаче оцифровки негативов в Линукс только с этой версией драйвера прога denoise AI стала видеть gpu

Мне написали что

существует лишь несколько рабочих конфигураций версия Linux+версия Python+версия CUDA+версия PyTorch и для корректной работы без ошибок их нужно знать.

Но я не знаю

Как-то тоже пробовал Cuda запустить в докере. Задолбался, так и не заработало ))

После череды падений с CUDA и финальной ошибки «No kernel image» пришлось смириться: GPU в проекте не будет.

Получается cuda по другому и не работает?) Не взлетело почему то, ну да и ладно, cpu справился быстрее, чем то что не запустилось.

У меня была конкретная цель: она была достигнута на CPU. После этого решил отложить запуск на GPU.

Возможно в будущих статьях разберусь и опубликую

Я тоже пришёл к подобным выводам, но на макбуке с M4 Pro. Пробовал обучать простую MLP модель в Keras на GPU, обучалась медленно. Кажется, было очень много синхронизаций CPU и GPU, GPU не нагружался толком. Когда перешёл на CPU, оказалось, что он в одном потоке в разы быстрее! Можно было параллельно обучать несколько моделей с разными гиперпараметрами на разных ядрах, чтобы быстрее найти лучшую конфигурацию.

Так, ну кроме того что автор просто не смог запустить gpu инференс - меня очень смутило что комментарии обрабатываются один за одним а не пачкой. В такой ситуации вся скорость gpu будет уничтожена в ноль временем обмена данными между оперативной памятью и video ram.

Отвертку надо крутить а не стучать по ней молотком))))

спасибо за отзыв и замечание на счёт комментарии обрабатываются один за одним а не пачкой

Sign up to leave a comment.

Articles