Привет, прочитал обе статьи, очень интересно. Подскажите, а чем, собственно говоря, эти видеокарты плохи, если рассматривать только запуск llm через ollama и lmstudio? Я активно пользуюсь github copilot, но нерезиновые тарифы и желание бОльшей конфиденциальности вынуждают думать о selfhosted моделях, судя по тому что я прочитал в статьях, llm бегают очень даже неплохо. Задумываюсь о сетапе их трёх карт CMP 50HX, чтобы в них помещались большинство моделей. Какие могут быть проблемы по сравнению с нормальными картами? Может ли быть такое, что некоторые модели работают отлично, а некоторые - катастрофически неожиданно медленно, из-за того что используют не тот тип вычислений?
Wine не умеет эмулировать другую архитектуру, он не может запускать х86 на arm. Для этого надо прикрутить ещё qemu (сам не юзал, но знаю что через него можно без виртуалки эмулировать другую архитектуру для одного приложения), через него запускать вайн.
Вы знаете как вообще работает VT? это список антивирусов, которые нашли там вирусы. Посмотрите на нормальные типа eset или kaspersky, вы смотрите на NN антивиирусы которые будут ругаться даже на txt. А смотря на комменты, я всё же понял, что стоит вылить на GitHub.
Я предлагаю, но не заставляю. Я могу сказать, что в программе нет никакого вреда, но, разумеется, никто мне просто так не поверит, поэтому, как и все другие действия в интернете вы делаете на своё усмотрение. Я говорю, вирусов нет, но если кто то не будет использовать, мне без разницы, так как проект изначально создавался исключительно в образовательных целях, а лог обновлений в группе ведётся для того, чтобы я мог потом посмотреть на развитие проекта. К тому же вы можете проверить программу антивирусом.
Спасибо, было интересно посмотреть, как работает блокировщик блокировщиков. А вообще, это довольно мерзкая вещь, когда её используют на сайтах с пиратским фильмом и т.п.
Считаю что определение членов в интерфейсе — почти полностью бесполезная и полностью разрушающая понятие "интерфейс". Это как дырка, через которую можно взаимодействовать с объектом.
Как будто идеально будет скомбинировать, собрать на xeon с 4 канальной озу 32гб (а лучше более) и 3 карты - бомж LLM сервер готов
Привет, прочитал обе статьи, очень интересно. Подскажите, а чем, собственно говоря, эти видеокарты плохи, если рассматривать только запуск llm через ollama и lmstudio? Я активно пользуюсь github copilot, но нерезиновые тарифы и желание бОльшей конфиденциальности вынуждают думать о selfhosted моделях, судя по тому что я прочитал в статьях, llm бегают очень даже неплохо. Задумываюсь о сетапе их трёх карт CMP 50HX, чтобы в них помещались большинство моделей. Какие могут быть проблемы по сравнению с нормальными картами? Может ли быть такое, что некоторые модели работают отлично, а некоторые - катастрофически неожиданно медленно, из-за того что используют не тот тип вычислений?
А реверс и сравнение строк под капотом у вас без циклов работает?
Запускаю на обычном вайне через лутрис, все части работают
Хоть я и ответил под комментарием про макос, сам я на нем не концентрировался, не пользуюсь макосью. qemu есть и на линух и на мак
Он транслирует виндовые системные вызовы на линуксовые. Wine - wine is not emulator
Wine не умеет эмулировать другую архитектуру, он не может запускать х86 на arm. Для этого надо прикрутить ещё qemu (сам не юзал, но знаю что через него можно без виртуалки эмулировать другую архитектуру для одного приложения), через него запускать вайн.
И вот исходник github.com/Electrominch/Binder
Считаю что определение членов в интерфейсе — почти полностью бесполезная и полностью разрушающая понятие "интерфейс". Это как дырка, через которую можно взаимодействовать с объектом.