Комментарии 33
... может подключаться к обычной линии электропередач...
Это же ИИ. Соберёт манипуляторы, подключится к проводам электропередач, и сбежит...
через понижающий трехфазный трансформатор с масляным охлаждением)
В оригинале "and run from a standard power outlet".
И мой английский не то чтобы супер, но по моему это не про линии электропередач, а скорее про розетки :)
Это скорее про мощность - что не нужно промышленную линию. 15 ампер прокатит.
А вот про 15А я бы уже не был так уверен. Насколько я знаю в США для плит-сушилок-зарядок в частных домах и 30А стоят.
там 110 вольт
В том то и дело что не везде: https://braseelectrical.com/whats-240-volt-outlets-for/
То есть плиты-сушилки-зарядки вроде бы имеют 240V и 30A. А в теории сама розетка поддерживает до 600V и до 60A: https://en.wikipedia.org/wiki/NEMA_connector
Переведено "ИИ‑моделями до 405 млрд параметров" :)
а через розетки без заземления сможет? ;)
не сбежит?
Project Digits от Nvidia выглядит как настоящий прорыв в персональных вычислениях! Возможность работы с моделями ИИ до 200 млрд параметров на настольном ПК открывает огромные перспективы для разработчиков, студентов и исследователей.
Особенно впечатляет чип GB10 Grace Blackwell с его производительностью в 1 петафлопс и поддержкой современных CUDA и Tensor-ядер. Объединение двух систем для работы с моделями до 405 млрд параметров звучит как решение, способное конкурировать с серверными кластерными мощностями.
Также радует, что Nvidia делает акцент на доступности — возможность локальной работы с ИИ и дальнейшего переноса проектов в облако с сохранением архитектуры невероятно удобна. Наличие предустановленного ПО и фреймворков вроде PyTorch и Jupyter облегчит жизнь разработчикам.
Будет интересно узнать цену и дату выпуска. Кажется, это устройство может стать «игрой меняющим правилом» для ИИ в повседневной жизни!
Хм, да с такой штукой видеокарты это прошлый век для ML покажутся. Интересно, к нам будут такое возить?
Возить вообще не проблема. Форвадеры как были так и будут здравствовать. Просто конечному потребителю это обойдется дороже.
возить не проблема.. как и отключать, в зависимости от геолокации.
Ну вроде это не литограф, чтобы прям уж вот так делать. И интернет с геолокацией ему вроде и не нужен.
Меня прям оторопь берет. А100 стоит сколько там, 40 тыс долларов? А эта штука 3 (ррц) ну будем считать что даже 10 с учетом перекупов.Сколько памяти и какой версии у а100 а сколько памяти и какой версии тута? Что-то прям несравнимое...
биткоин на нем майнить можно? ;-) ;-)
Если простыми словами, в эту коробочку войдет модель уровня GPT-3 или GPT-4?
Интересно будет сравнить по соотношению цена/производительность с Ryzen AI Max+ 395 раскочегаренным до 120W и укомплектованным 128 ГБ памяти.
Хотя конечно CUDA всё же сильный аргумент не в пользу AMD, по крайней мере пока.
Класс. В будущем ПК будут модульные, можно будет игры с настоящим ИИ делать. Условно, загружается 8b модель и оживляет целую кучу npc в рпгшчке
А насколько сложно таким путем описать характеры, знания и систему репутации NPC?
На мой взгляд это не слишком тривиально, даже при условии массовой доступности железок.
Вероятно vds и облака на базе таких решений будут более дешевыми. Если в серверные поставят такие коробки. Для пользователей дом-офис дороговаты и не надо многим домой если они жрут много электроэнергии. Раньше по 20тыс$ профи чипы для ии стоили, и то не помню вроде 60гб, намного слабее, а тут всего 3 тыс$. Можно будет если тема будет развиваться арендовать как тот же vds в зависимости от нагрузки платить 5-10-50$ в месяц.
А на нем запустят DOOM?
Вижу маленькую коробочку (слайд 2) с офигительной вычислительной мощностью и полным отсутствием принудительной вентиляции. Очень интересно
Nvidia анонсировала персональный ИИ-суперкомпьютер за $3 тысячи