Комментарии 7
Вот и появятся рано или поздно асики с прошитым в ПЗУ дипсиком, хоть масочным. Кто-то (что-то) должен уже одернуть зажравшихся видеокартостроителей, а то они что-то совсем офигели с маркетингом своим. Такими темпами как раньше на уровне драйверов вшивали защиту от майнинга, так придумают защиту от ИИ. Или приколы с "твое железо - не твое железо", оплачивай токены.
Защита от ИИ? Серьёзно? С начала ИИ-бума Nvidia гребет деньги лопатой своими видюхами с топовыми чипами. Для них игровая сфера давно ушла на второй план, сейчас они играют по-крупному, поставляя свои чипы крупнейшим игрокам на рынке искусственного интеллекта за очень кругленькие суммы. Никогда не было такого ажиотажа вокруг техники нвидиа, как сейчас. Поэтому "защита от ИИ" в новых видюхах зелёной корпорации если и будет, то точно не в этом мире. Это абсурд.
Ну про защиту от майнинга тоже так говорили, и она была сделана. Неважно, как быстро ее сломали, но она - была. А защита от ИИ у нвидии первый шажочек это "вам не нужен SLI" потому что вы такие сякие накупили бытовых карт и на них ии крутите. Официально это могло подаваться как в целях защиты детей. Посыл то в том, что нифига вы офигели, а ну покупайте наши а100 , а на видюхах вам доступны жалкие 14b.
Просто в майнинг бум не было специализированных для майнинг решений. Не было и крупных корпораций которые рискнули бы зарабатывать на нем. А вот на нейросетях есть потенциал, и у Хуанга ещё с 14 годов были спец решения для этого.
Не будь крупных игроков типа xAI, Microsoft и других которые тоннами покупают чипы то поверьте заблокировали бы запуск тензоров. Ну и самое главное: ИИ не сказывается на продажах карт как сказывался майнинг. Блокировали то из-за нехватки карт для игроков. А сейчас вот новости были что 5xxx серию режут в производстве.
Нейросетям нужна память, и её они режут бешено, несмотря на то что и игры тоже начали больше памяти требовать.
Итого, это как сравнение солёного с квадратным. Использование другое и санкции следовательно другие.
а для обучения нейросетей с Deep Learning — 16 ГБ и более
Хм.. Какую более-менее актуальную модель вы собрались обучать c 16GB VRAM?
Современные модели NVIDIA с тензорными ядрами (серии RTX, Tesla, A100)
Хм... Tesla и A100, по-вашему, являются актуальными? Последняя Tesla была - T4. Release Date - Sep 13th, 2018. Да и A100 уже безнадежно устарела - May 14th, 2020. 5 лет — это безумно много для мира AI и сейчас уже многие с Hopper на Blackwell переходят.
, NVIDIA H800 - идеально)
Почему не H100? Не H200? Почему GPU для китайского рынка? https://www.reuters.com/technology/nvidia-tweaks-flagship-h100-chip-export-china-h800-2023-03-21/
P.S. У вас там еще ссылки поломались
дним из таких решений являются тензорные процессоры (TPU) от Google.
Каким образом TPU от Гугла решают проблемы высокой (относительно чего, кстати) стоимости и
Высокое энергопотребление
Значительное тепловыделение, требующее сложных систем охлаждения
Ограниченный объем видеопамяти, что может стать проблемой при работе с очень большими моделями
Не все алгоритмы машинного обучения одинаково хорошо распараллеливаются
?
Почему для обучения нейросетей используют именно видеокарты