Comments 31
Можно не читать дальше заголовка, чтобы понять что это скам.
На самом хайповом и высококонкурентном рынке, где бьются гиганты в виде нвидиа, амд и пытающимся заскочить интеле (пока безуспешно), выходит нереалистичный анонс о супер-пупер устройстве, но никак пруфов и бенчмарков нет. Кто стоит за компанией тоже не ясно.
Ещё и производительность в 4 раза выше, при в 5 раз меньшем энергопотреблении. Там нобелевская премия по создателям плачет при таких спеках
В симулированной модели она вообще ноль ватт потреблять может. Хотя, как известно, лампочки в видеоиграх используют настоящее электричество. ;-)
Производительность набить можно, вопрос в эффективности под конкретные задачи. Условно будет...
Можно ли считать на тензорный ускорителях? Можно! Мощнее ли они типичных GPGPU решений? Конечно! У нас целых 160TFlops! Какая производительность будет не в матричных операциях? Ну.... Для скаляров раз в 16 медленнее обычных... Но мы стараемся исправить это и сделать всего в 8 раз медленнее!
Эти гиганты чудесным образом выпускают схожие по производительности продукты постоянно, вполне могут выдавать пользователям дозировано производительность, чтобы не рисковать. Тем более руководят компаниями буквально родственники.
Вот как крупные компании между собой заключают союзы [1][2].
История с ускорением PhysX (x87-инструкции) вполне может говорить о том, что могут быть места для оптимизации, с мощным бустом. Да и новая архитектура, которая могли пропустить вполне может дать буста.
Да 100 пудов они выдают дозированно ведь технологии с тарелки пришельцев не бесконечные и вот у intel например, запасы уже иссекли, а у amd тарелка по навороченнее будет, а все эти законы мура от лукавого ...
А что, есть какой-то закон природы, который открыл Мур? Или это всё-таки эмпирическое наблюдение, сделанное на определенном этапе развития процессоров? По какой-то причине все носятся с этим Муром, как с писаной торбой, хотя это ни разу не закон и ему никто не обязан подчиняться.
Ага раньше говорили гордо "закон" теперь тихонечко так говорят, что это всего лишь предположение Мура
Я понял из статьи, что она мощнее только на бумаге: Оперативки да, можно воткнуть много, но толку от этого мало, т.к. всё тутже упрётся в пропускную способность и тайминги.
CUDA ядра, ядра трассировки, потоковые процессоры и всё прочее - аналогично: Напихали дофига, но задействовать их на 100% в реальных задачах невозможно - упрёшся в ограничения шины (или в пропускную способность процессора, который попросту не будет успевать выдавать задания ядрам и забирать результат).
В мире CPU таже история - да, можно создать процессор на 1000+ ядер (такие ещё пару лет назад создавали - чисто ради книги рекордов Гинеса). Но в массы они не поступили из-за целой кучи ограничений, не позволяющих использовать их в реальных задачах.
Nikola от мира видеокарт. :)
Кто стоит за компанией тоже не ясно
Как не ясно? Bolt Graphics — значит Усэйн Болт теперь в видеокарты ушёл...
Ну учитывая что заголовок вообще не отражает сути статьи. Вообще. Видяха по факту почти в 2 раза медленнее 5090 700 с лишним тфлопс против 1.2 к. В 10 раз быстрее в трассировке лучей, то есть у тебя освещение выстраиваться будет или прогружаться в игре в 10 раз быстрее. Единственный плюс дополнение памяти в видяху что сделает ее сильно привлекательной для разработчиков игр. Скорее всего именно для этих целей они и предзначены
Очередная пустышка для обиралова "инвесторов" и практически законного обогащения "акселераторов", раскрутивших этот пузырь. Не удивлюсь, если и тут проявится Y-Combinator на горизонте. Единственные умные люди в этой схеме, хоть и жулики.
Впрочем, эта весьма нехитрая схема отлично работает.
Сидит обезьяна на берегу Нила и полощет в воде шкурку от банана. Плывёт мимо крокодил и спрашивает:- Обезьяна, что ты делаешь?- Дай рубль, скажу.Дал крокодил обезьяна рубль и снова спрашивает:- Ну так что ты делаешь?- Не видишь что ли? Шкурку от банана полощу!- Ну и дура ты.- Дура не дура, а сто рублей в день имею!
Не совсем понятно, как "акселераторы" инвестируя в скам смогут обогатиться. Y-Combinator вроде бы обычный венчурный фонд. Разве нет?
Y-Combinator вроде бы обычный венчурный фонд. Разве нет?
Далеко не обычный. Это именно они первые просекли фишку и раскрутили способ создания нового биржевого товара "из ничего". Ввалили средств в создание своего положительного образа, этаких альтруистов за всё новое и хорошее.
Создавать пузыри, гораздо выгоднее, чем их перепродавать. Процентик за раскрутку всегда идёт, а юридических рисков ноль.
На любой негатив в их сторону прилетает сразу и конкретно. PR и юридическое прикрытие - их сильная сторона. Если что-то вдруг есть хорошее - трубим по всем каналам. Если плохое -- "это не мы".
До сих пор было, что материнская плата и процессор - это типа ядро, а видеокарта - периферия.
Пора уже наоборот делать, видеокарты в форм-факторе ATX и которые втыкается процессор, память и "плата расширения" с тем, что сейчас на материнке напаяно :)
Так уже же. В верхней коробочке - CPU, память, SSD и аккум. В нижней видеокарта.
Зачем АТХ? Сразу интегрированная в монитор, каждый пиксель со своим ядром.
Скорее всего, скам - иначе бы руководство сего стартапа в полном составе пиарилось бы так, что интернеты бы трещали.
Либо, что еще может быть, кому-то под заказ делали узкоспециализированный асик, который действительно какую-то одну задачу решает намного круче, чем топовые видеокарты. Это вполне реально, учитывая мировой опыт майнинга. О "заказном" происхождении говорит CPU на карте и 400G интерфейс - это не стали бы ставить на карту для "неопределенного покупателя" точно... Ну а дальше подумали, чего бы не хайпануть на разработанном железе, вот и понеслось - маркетинг запросто нарисует красивые графики, и они будут даже правдой, с одной оговоркой (которую можно увидеть в 10 приложении к пятой редакции договора в 120 сноске), что супер-производительность железо выдает под единственную задачу.
Но в презентации у них вполне конкретно есть рендеринг, игры и высокопроизводительные вычисления:

Несмотря на серверный потенциал, питаться карточка должна от одного 8-пинового PCIe-коннектора. То есть ее энергопотребление не должно превышать 120 Вт.
Кроме того, согласно той-же презентации у Zeus 4c26-256 Chip Power - 500 W, а не 120 на всю карту. А вот у Zeus 1c26-032 указано Board Power - 120 W и сравнивают её при этом с 5080, которая 360 W. Т.е., в мартовской презентации фэнтэзи поменьше, чем в этой статье!

Тут многие пешком под стол ходили, когда SIS Xabre 600 64MB, S3 Delta Chrome S8 и XGI Volari Duo V8 Ultra обещали порвать лидеров рынка. История с завидным постоянством повторяется, как невыученный урок у двоечника.
Скорее всего скам... Уж сильно сладостно-приторно обещания звучат😼 Опять же - гигарейсы производительности в трассировке лучей? Даже звучит смешно🤔 Хотя я ещё эпоху отдельных 3D ускорителей немного застал - приподнесут как отдельный ускоритель "лучей" и дело в шляпе😼
Мощней не значит производительнее, вспоминаем 300 ватные видеокарты из 2000-х
384 ГБ для нейронок было бы неплохо. Жаль только, что всё выдумки.
"У тебя есть ключ? - Лучше! У меня есть рисунок ключа!" Умм. Продавать рендеренги инвесторам, это сейчас так... типично.
ждем проверку в Crysis, ну и DooM'ом можно шлифануть

Видеокарта Zeus в 10 раз мощнее RTX 5090 и имеет расширяемую память. Что это: очередной скам или прорыв?