По Zen7 это действительно пока предположения, но собрали их по разным источникам. Будет возможность сверить ожидания, наверное, уже в конце этого года. А по Zen6 вероятность высокая, поэтому в статье оставили в таком формате )
Мы ожидаем, что в течение следующих 6-ти месяцев тренд будет более менее понятен ) И от текущих максимумов цены отойдут в меньшую сторону. Хотя кто-то обещает и еще более высокие цены, но это скорее какой-то пессимистичный сценарий )
По нашей статистике немного не так. В начале года планка памяти на 64GB RDIMM обходилась около 30 тр , что на 24 модуля давало цену до 800к. Это примерно около 30% от стоимости шасси с процессорами выше 3 ГГЦ по 2шт на хост. Если не брать в расчет еще и GPU в серверах ) То есть память была довольно доступным компонентом. Сейчас же даже 64GB планки стоят от 80к , что дает уже вполне ощутимые почти 2 млн на шасси ) И это цены OEM планок. Возможно в вашем случае сами конфигурации хостов более простые, и на их фоне память была ощутимой строкой. В импортозамещение наступать не будем, так как там немного другая экономика.
Серверы редко апгрейдят, а вот новые вводятся регулярно и вот на новые мощности проблема очень активно влияет. Сейчас фактически память для сервера стоит дороже сервера, чего еще летом не было )
По нашему опыту на аппаратных видеокартах все происходит сильно быстрее. Для работы с текстом, часто хватает видеокарты уровня NVIDIA L4 24GB, но опять же смотря какой объем. Если речь про запуск LLM, то уже исходя из требуемого объема памяти под конкретную LLM
Мы, конечно, про более менее земные нагрузки для реалий РФ, где большинство еще считает подвигом запуск ИИ на картах типа GTX 1080, а 4090 и вообще топ топовый) Про более серьезные решения мы писали в предыдущих статьях, кстати. И лишь малая часть в РФ уже работает в коммерческом продуктиве с L40/A100/H100 . У нас сейчас, даже, те еще квесты с просто достать карты RTX 6000 BSE 96Gb, для рынка РФ.
Видим, что вы уже с практикой ) Напишем про нашу архитектуру. Наши хосты под GPU адаптеры, в настоящий момент стандартные x86 2U хосты Dell R7625 с EPYC 9374F. Так, к примеру, сейчас у нас карты L40S работают парой в таких хостах, соот-но это x16. Больше их просто не поставить ввиду ограничений конкретного сервера. В новом поколении EPYC 9005, мы уже заказываем хосты Dell R7625, под 6 карт L4 в том числе, которые также работают по x16. Диски при этом подключать планируется в RAID массив на уровне контроллера H975i , PCI-e 5,0 соответсвенно. Для GPU меньше x16 не используется у нас. Такая архитектура, обусловлена, в том числе экономикой конечной и уровнем задач для конечного клиента.
Ну что есть то есть, действительно память стала узким местом. Например часто производительность 4090 достаточна для задачи, а вот памяти мало. Отсюда и кастомные доработки, как в комментарии выше. Мы, к примеру, уже начинаем переход на 96 GB в среднем сегменте для работы с ИИ )
Цена сопоставима именно проф видеокарт для серверов , если сравниваем L40S 48GB ( на том же чипе что и 4090 ) и новую RTX 6000 Blackwell 96GB , но последние только только поступают в продажу еще, так как недавно анонсированы. L40S 48GB мы из облака своего отдаем )
Поправили про AM5 для Ryzen 7 , случайно туда добавили и мобильные системы. Сейчас все должно быть хорошо )
По Zen7 это действительно пока предположения, но собрали их по разным источникам. Будет возможность сверить ожидания, наверное, уже в конце этого года. А по Zen6 вероятность высокая, поэтому в статье оставили в таком формате )
Влияние майнинга действительно не затрагивали, возможно в следующих статьях затронем тему )
Пнули товарища, который сказал, что Intel и AMD достаточно будет для опроса, добавили Другое )
ну 486 DX4 особенно топ был, когда еще и кнопка turbo )
Посмотрели именно на борьбу Intel и AMD того времени ) cyrix, как будто, немного раньше был таки )
Дефицит глобальный, не только в какой-то отдельной стране. Производства загружены.
Мы ожидаем, что в течение следующих 6-ти месяцев тренд будет более менее понятен ) И от текущих максимумов цены отойдут в меньшую сторону. Хотя кто-то обещает и еще более высокие цены, но это скорее какой-то пессимистичный сценарий )
По нашей статистике немного не так. В начале года планка памяти на 64GB RDIMM обходилась около 30 тр , что на 24 модуля давало цену до 800к. Это примерно около 30% от стоимости шасси с процессорами выше 3 ГГЦ по 2шт на хост. Если не брать в расчет еще и GPU в серверах ) То есть память была довольно доступным компонентом. Сейчас же даже 64GB планки стоят от 80к , что дает уже вполне ощутимые почти 2 млн на шасси ) И это цены OEM планок. Возможно в вашем случае сами конфигурации хостов более простые, и на их фоне память была ощутимой строкой. В импортозамещение наступать не будем, так как там немного другая экономика.
Серверы редко апгрейдят, а вот новые вводятся регулярно и вот на новые мощности проблема очень активно влияет. Сейчас фактически память для сервера стоит дороже сервера, чего еще летом не было )
В случае AMD, бОльшую часть после анонсов мы видим в моделях )
У серверных EPYC нет встроенной графики , поэтому такие конфигурации мы не тестировали.
По нашему опыту на аппаратных видеокартах все происходит сильно быстрее. Для работы с текстом, часто хватает видеокарты уровня NVIDIA L4 24GB, но опять же смотря какой объем. Если речь про запуск LLM, то уже исходя из требуемого объема памяти под конкретную LLM
Мы, конечно, про более менее земные нагрузки для реалий РФ, где большинство еще считает подвигом запуск ИИ на картах типа GTX 1080, а 4090 и вообще топ топовый) Про более серьезные решения мы писали в предыдущих статьях, кстати. И лишь малая часть в РФ уже работает в коммерческом продуктиве с L40/A100/H100 . У нас сейчас, даже, те еще квесты с просто достать карты RTX 6000 BSE 96Gb, для рынка РФ.
Видим, что вы уже с практикой ) Напишем про нашу архитектуру. Наши хосты под GPU адаптеры, в настоящий момент стандартные x86 2U хосты Dell R7625 с EPYC 9374F. Так, к примеру, сейчас у нас карты L40S работают парой в таких хостах, соот-но это x16. Больше их просто не поставить ввиду ограничений конкретного сервера. В новом поколении EPYC 9005, мы уже заказываем хосты Dell R7625, под 6 карт L4 в том числе, которые также работают по x16. Диски при этом подключать планируется в RAID массив на уровне контроллера H975i , PCI-e 5,0 соответсвенно. Для GPU меньше x16 не используется у нас. Такая архитектура, обусловлена, в том числе экономикой конечной и уровнем задач для конечного клиента.
Еще и дефицит в наличии ) плюс обычная память RDIMM в серверы +50% к цене уже ) ИИ разгоняет цены и на GPU и на NVMe )
48 полезно , но штатно на 4090 не получить )
Ну что есть то есть, действительно память стала узким местом. Например часто производительность 4090 достаточна для задачи, а вот памяти мало. Отсюда и кастомные доработки, как в комментарии выше. Мы, к примеру, уже начинаем переход на 96 GB в среднем сегменте для работы с ИИ )
Да, китайские доработки слышали. Даже в РФ на Авито есть )
Цена сопоставима именно проф видеокарт для серверов , если сравниваем L40S 48GB ( на том же чипе что и 4090 ) и новую RTX 6000 Blackwell 96GB , но последние только только поступают в продажу еще, так как недавно анонсированы. L40S 48GB мы из облака своего отдаем )