Комментарии 9
О, они тоже изобрели SETI :)
Дело годное.
А потом мы сделаем вам платную раздачу. Потому что.
Хорошее начинание:
В РФ точно не будут официально поставлять чипы для нейронок, а неофициально будет приходить всякое старье. это хоть какая-то альтернатива чтобы не скатиться в каменный век.
На обучение моделей компании тратят десятки, а то и сотни миллионов долл и будут тратить только больше. Если был бы норм кпд, лучше их платить владельцам устройств)
КПД тут всё же маленький. Скорость будет ещё меньше. Если вспомнить тот же SETI@HOME, то ты скачивал кусок данных и по 12 часов его обрабатывал. Тут был смысл.
А нейронками что, да ты можеш разбить большую сеть на меленькие куски и попросить пользователя перемножит матрицу, но тут возня с распределением и передачей данных занимает на порядки больше времени, нежели сам расчёт.
Меня больше смущает вопрос защиты датасетов.
Вот смотрю я описание llama.cpp и там есть поддержка MPI, и люди даже на кластерах rPI запускают, just for fun. Да - очень медленно, да - по сути каждый узел свои слои обрабатывает.
А еще - есть такая штука как Kobold AI Horde. Распределенная система с добровольцами (и с системой их мотивации, мне - очень напоминающий битторент). Да, каждая отдельная сетка должна лезть в объем видеопамяти у этого добровольца(точнее софт добровольца говорит что у него загружено), но запросов то все равно много.
H100 на Авито продают. Думаю кому надо через Казахстан привезут.
МТС тестирует платформу машинного обучения на сторонних устройствах