Как стать автором
Обновить

Комментарии 33

... может подключаться к обычной линии электропередач...

Это же ИИ. Соберёт манипуляторы, подключится к проводам электропередач, и сбежит...

через понижающий трехфазный трансформатор с масляным охлаждением)

В оригинале "and run from a standard power outlet".

И мой английский не то чтобы супер, но по моему это не про линии электропередач, а скорее про розетки :)

Это скорее про мощность - что не нужно промышленную линию. 15 ампер прокатит.

А вот про 15А я бы уже не был так уверен. Насколько я знаю в США для плит-сушилок-зарядок в частных домах и 30А стоят.

там 110 вольт

В том то и дело что не везде: https://braseelectrical.com/whats-240-volt-outlets-for/

То есть плиты-сушилки-зарядки вроде бы имеют 240V и 30A. А в теории сама розетка поддерживает до 600V и до 60A: https://en.wikipedia.org/wiki/NEMA_connector

Переведено "ИИ‑моделями до 405 млрд параметров" :)

а через розетки без заземления сможет? ;)

Эге! - сказали суровые сибирские прогеры...

Project Digits от Nvidia выглядит как настоящий прорыв в персональных вычислениях! Возможность работы с моделями ИИ до 200 млрд параметров на настольном ПК открывает огромные перспективы для разработчиков, студентов и исследователей.

Особенно впечатляет чип GB10 Grace Blackwell с его производительностью в 1 петафлопс и поддержкой современных CUDA и Tensor-ядер. Объединение двух систем для работы с моделями до 405 млрд параметров звучит как решение, способное конкурировать с серверными кластерными мощностями.

Также радует, что Nvidia делает акцент на доступности — возможность локальной работы с ИИ и дальнейшего переноса проектов в облако с сохранением архитектуры невероятно удобна. Наличие предустановленного ПО и фреймворков вроде PyTorch и Jupyter облегчит жизнь разработчикам.

Будет интересно узнать цену и дату выпуска. Кажется, это устройство может стать «игрой меняющим правилом» для ИИ в повседневной жизни!

Последнее время ботов в коментах много стало...

Какие интересные боты пошли. И их ещё кто-то и плюсует...

Одни пишут - другие плюсуют. Беспроигрышная схема.

Хм, да с такой штукой видеокарты это прошлый век для ML покажутся. Интересно, к нам будут такое возить?

Возить вообще не проблема. Форвадеры как были так и будут здравствовать. Просто конечному потребителю это обойдется дороже.

возить не проблема.. как и отключать, в зависимости от геолокации.

Ну вроде это не литограф, чтобы прям уж вот так делать. И интернет с геолокацией ему вроде и не нужен.

Меня прям оторопь берет. А100 стоит сколько там, 40 тыс долларов? А эта штука 3 (ррц) ну будем считать что даже 10 с учетом перекупов.Сколько памяти и какой версии у а100 а сколько памяти и какой версии тута? Что-то прям несравнимое...

Да за эти бабки вы можете такой асик купить, что будет не только можно, но и нужно =) А эти системы совсем под другое заточены, майнить там крохи будут.

Но если деньги не важны - да пожалуйста, люди вон на ардуине майнили, на ESP и даже на бумаге вручную. Главное процесс, правда?

Если простыми словами, в эту коробочку войдет модель уровня GPT-3 или GPT-4?

Llama 3.1 войдет

В 128 гигов можно поместить Mistral Large 2 123B Q6 или Llama 3.1 405B IQ2_XS. Не GPT-4, но лучше чем GPT-3. С mmap можно разгуляться на все 4 ТБ, правда скорость упадёт в ноль.

Интересно будет сравнить по соотношению цена/производительность с Ryzen AI Max+ 395 раскочегаренным до 120W и укомплектованным 128 ГБ памяти.
Хотя конечно CUDA всё же сильный аргумент не в пользу AMD, по крайней мере пока.

Класс. В будущем ПК будут модульные, можно будет игры с настоящим ИИ делать. Условно, загружается 8b модель и оживляет целую кучу npc в рпгшчке

А насколько сложно таким путем описать характеры, знания и систему репутации NPC?

На мой взгляд это не слишком тривиально, даже при условии массовой доступности железок.

Не думаю, что слишком сложно, ещё от механик игры зависит. Комбинация llm + традиционный код. Правда есть вопрос с обновлениями, если модель обучается именно под конкретную игру, то дороговато получается

Вероятно vds и облака на базе таких решений будут более дешевыми. Если в серверные поставят такие коробки. Для пользователей дом-офис дороговаты и не надо многим домой если они жрут много электроэнергии. Раньше по 20тыс$ профи чипы для ии стоили, и то не помню вроде 60гб, намного слабее, а тут всего 3 тыс$. Можно будет если тема будет развиваться арендовать как тот же vds в зависимости от нагрузки платить 5-10-50$ в месяц.

Настольные устройства не всегда хорошо встают в серверные стойки, например, новый мак мини (на который похоже новое устройство со слов компании) уже не влезает в один юнит, может встать вопрос экономический выгоды для хостера.

Вижу маленькую коробочку (слайд 2) с офигительной вычислительной мощностью и полным отсутствием принудительной вентиляции. Очень интересно

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости