Комментарии 19
Когда Genesis проектировали закладывали старые поколения и б/у карты? Нет, конечно
Все новые гиперпроекты будут на новых картах. Бухгалтерская уловка не прошла
Названа новая угроза для ИИ: GPU для обучения живут 1–3 года вместо заявленных шести
Все майнеры об этом давно знают. После трёх лет интенсивной работы, как правило, отлетает память и в некоторых случая начинаются проблемы с самим GPU. Так что если карта отмайнила 3 года, то надо менять кулеры на новые и продавать геймерам, т.к. остаточного ресурса для майнинга там почти не осталось. 3 года интенсивной работу - это хороший срок, так как часть карт отъезжает в мир иной раньше из-за прогаров, коротких замыканий и выхода из строя GPU.
Так что уже вложенное в ИИ, что не удалось отбить к текущему моменту, отбить по деньгам уже не получится.
Это так не работает, — это система с памятью, наработанное на этих чипах будет использовано. Оно использовалось для того чтобы получить деньги на следующие, оно закладывает основу для успеха следующих, в виде готовых сетей, и готовой команды, для того чтобы продолжать бизнес. Это кирпичик в монетизацию на следующих этапах. Разумеется у тех, кто будет победителем в этой гонке.
Ну что-то всё показывает на то что этим победителем будет Tesla. Tesla+xAI+SpaceX. Илон.
Основная нагрузка идёт не на GPU, а на видеопамять, в обычных игровых видеокартах — это самый уязвимый элемент, насчёт серверных я правда совсем не уверен. Она там в основном HBM с контролем чётности, возможно что и понадёжнее.
Кто нибудь просветите, почему нельзя вместо GPU сделать аналогичный PCIe - девайс, без видео, только ядра и память?
А зачем? - Я думаю добавить к "ядрам и памяти" разводку элементов для вывода видео стоит копейки.
Были такие для майнинга. Та же видеокарта, только без видеовыхода. Ничем особо не отличалась. При наличии спец драйвера использовали в качестве видеокарты, когда был дефицит, а этих б/у устройств много продавали после майнинга, потому что майнить стало не выгодно
И эти драйвера пишет хабровчанин: https://github.com/dartraiden/NVIDIA-patcher (он крут).
Но почему вы считаете, что нельзя?
Я не считаю, что нельзя )
Задаюсь вопросом, почему такие не делают. Почему не делают сразу материнки не только с CPU, но и c мультиядерным чипом GPU-like. Как я понимаю, преимущество GPU в вычислениях достигается за счет большого количества ядер и то, что они работают в нативном режиме - нет оверхеда на ОС, защищенный режим и т.п. Так и сделали бы сразу на материнке слот под чип с кучей таких ядер и памятью прямого доступа.
И еще, такой отвлеченный гипотетический вопрос. Что, если взять скажем 1000 дешевых смартфонов за 1к руб, прошить нативной прошивкой без андроида, выполняющей код прямо на железе х64, соединить в сеть, и паралельно на них выполнять какую то вычислительную задачу? Насколько это будет эффективно?
По производительности - менее эффективно, нежели потратить этот миллион на нормальные устройства. По аду обслуживания - тысяча смартфонов будет просто провалом.
NPU по сути этим и являются. Только памяти если много, на одном чипе с NPU сделать не получится, размер чипа сильно большой будет, выход годных может упасть. Но можно собирать "бутерброды" - NPU+память вместе, разные технологии есть. Я не отслеживал, но вполне возможно это уже и практикуют, технически для этого все технологии есть и используются индустрией.
Есть, называются Google tpu, например
А что живёт дольше в современном мире?

Названа новая угроза для ИИ: GPU для обучения живут 1–3 года вместо заявленных шести