Pull to refresh

Comments 30

А разве Nvidia не обязала всех производителей указать параметры TDP? Почему сразу не добавить эти данные к полным спекам на официальном сайте?
P.S. Как владелец ASUS ROG Strix SCAR 17 G743QS-HG130T могу рассказать как оно работает (G743QS это G733QS для азиатского рынка).
Эту информацию растиражировали в СМИ, но в действительности никаких строгих требований от NVIDIA нет. Добавить на сайте информацию оперативно не получается из-за того, что спеки берутся из единого шаблона, в котором видеокарта не имеет различий по уровню TGP. Поправим в течение пары дней, я надеюсь.

Вот где точно не хватает в конце статьи промокода на скидку на товар по аналогии с другими компаниями) Новые SCAR 17 выглядят интересно, но цена колется.


А за информацию спасибо.

Сильно не хватает открытой информации о возможностях апгрейда памяти, диска, вайфай карты. Вроде выбираешь ноут по параметрам, а потом надо писать в ТП и гуглить инфу. Неудобно. А ведь это у многих параметр для выбора.
При чем именно еще и гуглить, т.к. поддержка иногда странное говорит (для нашего ноута заявила что макс памяти 16 и диск только сата, однако мы рискнули — вкрячили 32 и нвме и работает).
p.s.: ждем ноут на 5ххх амд и 3ххх rtx, но без 64гб памяти брать не хочется, 32 впритык, а ноут не на полгода берется.

да, вы правы, я пообщаюсь с коллегами, и мы подумаем, как можно эту проблему исправить. Спасибо за обратную связь, это очень ценный комментарий.

Вот да, согласна. Выбрать хороший ноутбук крайне сложно

Там вроде есть модель на 64гб

Да, но она 300 косарей стоит. Предпочитаем взять что попроще, а память и диск просто поменять на свои.
я так и не понял почему при одинаковых названиях в ноутбуке графика медленнее. я например занимаюсь рендером и вижу разницу совсем не в доли процента а скорее в разы.

и еще если карта в ноутбуке потребляет меньше, греется меньше и занимает совсем не 4 слота как в компе. так почему в комп не ставят графику с ноутов если она такая крутая и «ровно такая же без оговорок»?

в итоге я вижу ноут с 2060й картой и она куда медленнее чем аналогичная карта в моем компьютере. если я вижу разницу — так значит она есть. а если она есть — так почему названия те же?

всё что я вижу так это запутывание пользователей. скажем в 30й серии появились еще хх90. это что? как теперь сравнивать? или просто вычитать десяточку и будет тоже самое что ранее? а в 20й серии были Ti и потом еще Super. причем поди разберись Ti быстрее Super или наоборот. и самое главное насколько быстрее?

вспоминается Дилберт:
— А назовем мы товар «Gruntmaster 6000».
— Почему?
— Потому что 3000 звучит как что то начальное, а 9000 уже как что то совсем крутое.
вы правы, но самый простой способ в этой ситуации помнить о фундаментальных вещах, мне почему-то сразу захотелось привести аналогию с автомобилями. Например, двигатель V8 объемом 5,5 литров дает больше лошадиных сил и потребляет больше топлива, чем V8 4 литра и т.п. Тоже самое происходит и здесь с видеокартами: по своей архитектуре чипы плюс-минус одинаковые, но наличие качественной и массивной системы охлаждения в сочетании с хорошими элементами питания позволяет десктопной видеокарте потреблять более 300 Ватт и выдавать крутейшую производительность, в то время как ноутбучной видеокарте производительность будет несколько ниже, но при этом и энергопотребление не превысит 150 Ватт, например.
извините я понятия не имею ничего о машинах и двигателях. так что аналогия не дает ничего мне. но в целом я понимаю что везде обман. не надо пытаться продать мне карту с тем же названием, если она не та же. а сидеть и разбираться в тонкостях нае*** я не хочу.
есть же нормальные конторы делающие нормальные девайсы и называющие их нормально. а есть макбук который 3 поколения выглядит одинаково и процветает как первичный обман так и на вторичке — попытка один выдать за другой. с видео тоже самое — попытка обмануть меня. запутать и обманом продать мне не то что мне надо

ведь никто мне в магазине не даст поставить свой софт на ноутбук чтобы я смог выбрать тот что меня устраивает. тестов ноутбуков тоже особо нет. в итоге выбрать в принципе невозможно ничего. а тут еще и производители ноутов оказывается обманывает вторым слоем после обмана производителя видюхи…

Я желаю вам удачи с таким подходом в жизни, в которой есть автомобили одной модели, но с разными характеристиками; двухкомнатные квартиры разной площади и планировки; компьютеры одной модели, но с разным набором характеристик. Мне кажется, что обманываете здесь вы сами себя своим нежеланием ни в чем разбираться. Извините, но у меня другие принципы.
Плюс вам в карму!

Тестов новых ноутбуков громадное количество, фактически на любую модель можно найти обзор.
А у мобильных видеокарт карт, кстати, есть приписка «для ноутбуков». Погуглить, например, чем отличается 3080 и 3080 «для ноутбуков» несколько минут вашего времени, и еще пару минут чтобы почитать чем отличаются версии с разным TDP найти их тесты (не обязательно с привязкой к конкретной модели ноутбука).

Я купил свой G743QS-HG130T 28 января, а обзор на него уже был доступен 26-го.
Тестов новых ноутбуков громадное количество, фактически на любую модель можно найти обзор.
У кого-то из производителей (вот не вспомним сейчас у кого) в одну и ту же модель рандомно устанавливали то мх250 с 25вт теплопакетом, то с 15вт теплопакетом. На самый первый обзор попала с 25вт что характерно.
Ну смотрите. У нас есть ноутбук. Для маркетинга скажем, что это игровой ноутбук.

Для того, чтобы сделать пользование этим ноутбуком удобным и время его работы удобоваримым, необходимо учесть, что десктопные чипы видеокарт потребляют 250+ватт энергии и выделяют примерно на сотню ватт меньше тепла[1]. Энергию нужно дать, а тепло увести. В ПК это решается с помощью массивной системы охлаждения, которую, конечно, не поставить в ноутбук из-за своих размеров.
Вообще, у нас есть выбор: поставить менее мощную видеокарту, или ограничить её потребление и частоты работы. Но так как игровой ноутбук не продашь без игровой видеокарты, приходится жертвовать, ограничивая чип.
Видеокарта должна вписывается в «тепловой лимит», который может забрать система охлаждения в ноутбуке, поэтому режем ей частоты и потребление энергии, получаем «обрезанную» карту, которая может комфортно находится в ноутбуке. Производительность разумеется из-за этого ниже.
Но итоге может даже получится ситуация, когда карта в ноутбуке менее производительнее своего собрата из находящегося ниже сегмента рынка.[2]

Насчет нейминга — тут все просто. Первые две цифры(а ранее одна), это поколение видеокарты, а остальное — принадлежность к сегменту рынка, или проще, её производительность, выше-лучше-дороже. [3]
Источники
[1]
image
[2.1] Desktop GPU
image

[2.2] Laptop GPU
image
[3]
image

потребляют 250+ватт энергии и выделяют примерно на сотню ватт меньше тепла

А куда 100вт энергии пропадают?

Это как с трансформатором — 380 берет, 220 отдает, на остальные гудит.

глубже ветку читайте. Ну или мы разошлись в уровнях сарказма.
Ну так-то вы правы, но видеокарты в ПК и в ноутбуке одинаковыми не будут никогда.
В ноутбуке важнее энергоэффективность. В ПК сочетание цена\производительность.
В итоге может быть ситуация следующая:
В ноутбуке стоит чип большего размера(а значит и дороже) при его производительность меньше чем у меньшего чипа в ПК, т.к. он работает на более высоких частотах.
И вот как корректно проименовать?
По производительности? Но тогда карты одинаковой производительности в ноутбуках будут дороже.
По чипу? тоже нехорошо, лучше по разному урезать чипы для ноутбуков и ПК, чтобы было больше вариантов как использовать по разному бракованные чипы.
В итоге именуют по сегменту рынка.
*90(ранее 80ti) игровой топ, когда цена не важна.
*80 игровой топ, выше которого уже непропорционально возрастает цена.
*60 средняя игровая
*70 отбраковка от *80, нужно чем-то заполнить пустоту между 60 и 80
*50 -условно игровая.
Оно конечно туда-сюда елозит, всякие Ti\super появляются. Но в принципе более-менее логика есть. Ну а если её нехватает… наверно маркетологи покусали.

slamms, а почему в спецификациях не указываеться максимально возможное количество подключаемых мониторов? Вот возьмём например: ASUS ROG STRIX SCAR 17 G733QS-HG218T я вижу в спецификации:


1x HDMI 2.0b, 1x Type C USB 3.2 Gen 2 (с Power Delivery, Display Port и G-Sync)

один монитор я точно могу подключить через HDMI, а сколько я ещё могу подключить через Type C USB 3.2 Gen 2 при использование одной или двух последовательных докстанций?


Объем оперативной памяти:32 Gb

И опять нет информации это предел или можно расширить до 64 Gb?

Бывает версия на 64 Гбайт, на всех новых ноута два слота и две планки в двухканале, поэтому расширить можно, заменив два текущих модуля на два по 32 Гбайт. Проще сразу на 64 гига купить в таком случае)


Про моники у меня нет ответа, но думаю еще два последовательно должно подключиться, т.е. всего 3 внешних плюс экран ноутбука.

По экранам: маловато...


По ОЗУ: так нет в наличие по ссылке, что была выше, моделей с 64 Gb нет или пока нет =)

Вроде как на новом Зефирусе один слот только, одна планка уже распаяна на матплате?
На новых ASUS ROG STRIX SCAR 15/17 два слота, можно без проблем заменить память на HX432S20IBK2/64, например, и получить 64Gb

Вот тут в обзоре: Memory 32768 MB, 16 GB on board 16 GB SO-DIMM DDR4-3200, max. 48 GB, all slots full
В результате, инженерам NVIDIA пришлось вынужденно вернуться к старым методикам –отключению CUDA-ядер.

Неправда. В серии RTX30**
Мобильные видеокарты имеют менее урезанные чипы, чем видеокарты для ПК.
Меньше CUDA ядер у них не потому, что они обрезаны сильнее, а потому, что используются младние чипы.
Например
GA104 в мобильном исполнении имеет до 6144 cuda ядер.
А в десктопном максимум 5888
GA106 в мобильном до 3840, в десктопном до 3584
Кстати, все производители забывают указать важную вещь, как подключен монитор.
Есть ноутбуки с Nvidia Optimus и есть ноутбуки с аппаратным переключением ввода (MUX-свитч). С оптимусом вывод на монитор (встроенный) идет через встроенную видеокарту, что снижает производительность. С MUX-свичем можно переключить вывод напрямую на матрицу.

Например, на ASUS ROG STRIX SCAR 15/17 нет MUX-свитча, и полную производительность можно получить только подключив внешний монитор по USB-C
Статья расстроила.
Много манипуляций с попыткой доказать, что в тонкий ноут можно вставить графику со стационара и все будет работать не хуже.
К примеру:
«Разница в производительности десктопных и мобильных видеокарт сохранялась до 2016 года, пока NVIDIA не представила архитектуру Pascal и видеокарты GeForce GTX 10-й серии. „
У меня есть ноут с картой 1060, и десктопной 1060 он в подметки не годится.
На сайте можно какие угодно цифры написать, но при использовании тонкого ноута в играх, видеокарта начинает резко резать частоты из-за перегрева. Особенно на второй-третий год жизни ноутбука.

В общем, как по мне, так это плохая попытка прорекламирвоать новинку. Показали бы реальное стравнение с десктопной 3080, например, на киберпанке в расширении 4К на максималках. Плюс замер нагрева ноута. Вот это было бы интересно.

Там не только частоты. И даже не урезанные чипы.
в 3080 десктопной и мобильной стоят РАЗНЫЕ чипы.
Sign up to leave a comment.