Обновить

Комментарии 19

Когда Genesis проектировали закладывали старые поколения и б/у карты? Нет, конечно

Все новые гиперпроекты будут на новых картах. Бухгалтерская уловка не прошла

Названа новая угроза для ИИ: GPU для обучения живут 1–3 года вместо заявленных шести

Все майнеры об этом давно знают. После трёх лет интенсивной работы, как правило, отлетает память и в некоторых случая начинаются проблемы с самим GPU. Так что если карта отмайнила 3 года, то надо менять кулеры на новые и продавать геймерам, т.к. остаточного ресурса для майнинга там почти не осталось. 3 года интенсивной работу - это хороший срок, так как часть карт отъезжает в мир иной раньше из-за прогаров, коротких замыканий и выхода из строя GPU.

Так что уже вложенное в ИИ, что не удалось отбить к текущему моменту, отбить по деньгам уже не получится.

Это так не работает, — это система с памятью, наработанное на этих чипах будет использовано. Оно использовалось для того чтобы получить деньги на следующие, оно закладывает основу для успеха следующих, в виде готовых сетей, и готовой команды, для того чтобы продолжать бизнес. Это кирпичик в монетизацию на следующих этапах. Разумеется у тех, кто будет победителем в этой гонке.

Ну что-то всё показывает на то что этим победителем будет Tesla. Tesla+xAI+SpaceX. Илон.

Основная нагрузка идёт не на GPU, а на видеопамять, в обычных игровых видеокартах — это самый уязвимый элемент, насчёт серверных я правда совсем не уверен. Она там в основном HBM с контролем чётности, возможно что и понадёжнее.

Кто нибудь просветите, почему нельзя вместо GPU сделать аналогичный PCIe - девайс, без видео, только ядра и память?

А зачем? - Я думаю добавить к "ядрам и памяти" разводку элементов для вывода видео стоит копейки.

По этой логике, можно еще и для аудио добавить.

У Nvidia в комплекте идут аудиодрайверы, чтобы передавать звук по HDMI. Так что шутка опоздала лет на 20

Были такие для майнинга. Та же видеокарта, только без видеовыхода. Ничем особо не отличалась. При наличии спец драйвера использовали в качестве видеокарты, когда был дефицит, а этих б/у устройств много продавали после майнинга, потому что майнить стало не выгодно

Но почему вы считаете, что нельзя?

Я не считаю, что нельзя )
Задаюсь вопросом, почему такие не делают. Почему не делают сразу материнки не только с CPU, но и c мультиядерным чипом GPU-like. Как я понимаю, преимущество GPU в вычислениях достигается за счет большого количества ядер и то, что они работают в нативном режиме - нет оверхеда на ОС, защищенный режим и т.п. Так и сделали бы сразу на материнке слот под чип с кучей таких ядер и памятью прямого доступа.

И еще, такой отвлеченный гипотетический вопрос. Что, если взять скажем 1000 дешевых смартфонов за 1к руб, прошить нативной прошивкой без андроида, выполняющей код прямо на железе х64, соединить в сеть, и паралельно на них выполнять какую то вычислительную задачу? Насколько это будет эффективно?

По производительности - менее эффективно, нежели потратить этот миллион на нормальные устройства. По аду обслуживания - тысяча смартфонов будет просто провалом.

Да, забыл - отключаются GSM, WiFi, BT, NFC модули, камеры и все, не нужное для работы. Выкинуть корпус, аккумулятор, останется плата. Штук 50 таких плат втыкаются в слоты на обьединяющей плате. Сдох какой-то из юнитов - просто вытащил, выбросил, вставил другой.

NPU по сути этим и являются. Только памяти если много, на одном чипе с NPU сделать не получится, размер чипа сильно большой будет, выход годных может упасть. Но можно собирать "бутерброды" - NPU+память вместе, разные технологии есть. Я не отслеживал, но вполне возможно это уже и практикуют, технически для этого все технологии есть и используются индустрией.

Есть, называются Google tpu, например

А что живёт дольше в современном мире?

Так все долгоживущие устройства устарели, причём тем сильнее, чем дольше проработали)

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости