Как стать автором
Поиск
Написать публикацию
Обновить

Комментарии 7

Вот и появятся рано или поздно асики с прошитым в ПЗУ дипсиком, хоть масочным. Кто-то (что-то) должен уже одернуть зажравшихся видеокартостроителей, а то они что-то совсем офигели с маркетингом своим. Такими темпами как раньше на уровне драйверов вшивали защиту от майнинга, так придумают защиту от ИИ. Или приколы с "твое железо - не твое железо", оплачивай токены.

Защита от ИИ? Серьёзно? С начала ИИ-бума Nvidia гребет деньги лопатой своими видюхами с топовыми чипами. Для них игровая сфера давно ушла на второй план, сейчас они играют по-крупному, поставляя свои чипы крупнейшим игрокам на рынке искусственного интеллекта за очень кругленькие суммы. Никогда не было такого ажиотажа вокруг техники нвидиа, как сейчас. Поэтому "защита от ИИ" в новых видюхах зелёной корпорации если и будет, то точно не в этом мире. Это абсурд.

Ну про защиту от майнинга тоже так говорили, и она была сделана. Неважно, как быстро ее сломали, но она - была. А защита от ИИ у нвидии первый шажочек это "вам не нужен SLI" потому что вы такие сякие накупили бытовых карт и на них ии крутите. Официально это могло подаваться как в целях защиты детей. Посыл то в том, что нифига вы офигели, а ну покупайте наши а100 , а на видюхах вам доступны жалкие 14b.

Просто в майнинг бум не было специализированных для майнинг решений. Не было и крупных корпораций которые рискнули бы зарабатывать на нем. А вот на нейросетях есть потенциал, и у Хуанга ещё с 14 годов были спец решения для этого.

Не будь крупных игроков типа xAI, Microsoft и других которые тоннами покупают чипы то поверьте заблокировали бы запуск тензоров. Ну и самое главное: ИИ не сказывается на продажах карт как сказывался майнинг. Блокировали то из-за нехватки карт для игроков. А сейчас вот новости были что 5xxx серию режут в производстве.

Нейросетям нужна память, и её они режут бешено, несмотря на то что и игры тоже начали больше памяти требовать.

Итого, это как сравнение солёного с квадратным. Использование другое и санкции следовательно другие.

Были специальные видеокарты и для майнинга, типа nvidia p100, у меня такая трудится, потертая жизнью но уже достаточно дешевая чтобы делать инференс серверы в распознавание (на цпу тоже можно но сильно улиточно).

а для обучения нейросетей с Deep Learning — 16 ГБ и более

Хм.. Какую более-менее актуальную модель вы собрались обучать c 16GB VRAM?

Современные модели NVIDIA с тензорными ядрами (серии RTX, Tesla, A100)

Хм... Tesla и A100, по-вашему, являются актуальными? Последняя Tesla была - T4. Release Date - Sep 13th, 2018. Да и A100 уже безнадежно устарела - May 14th, 2020. 5 лет — это безумно много для мира AI и сейчас уже многие с Hopper на Blackwell переходят.

NVIDIA H800 - идеально)

Почему не H100? Не H200? Почему GPU для китайского рынка? https://www.reuters.com/technology/nvidia-tweaks-flagship-h100-chip-export-china-h800-2023-03-21/

P.S. У вас там еще ссылки поломались

дним из таких решений являются тензорные процессоры (TPU) от Google.

Каким образом TPU от Гугла решают проблемы высокой (относительно чего, кстати) стоимости и

  • Высокое энергопотребление

  • Значительное тепловыделение, требующее сложных систем охлаждения

  • Ограниченный объем видеопамяти, что может стать проблемой при работе с очень большими моделями

  • Не все алгоритмы машинного обучения одинаково хорошо распараллеливаются

?

Что вы хотите от текста написанного с помощью ChatGPT?

Зарегистрируйтесь на Хабре, чтобы оставить комментарий