Comments 39
геймеры оказались избалованы выбором
Это точно, сидишь и выбираешь — не куплю я в этом году NVIDIA или может AMD не куплю карту? А если обе сразу не купить?
А так очень круто, что нарастили энергоэффективность. Очень жду карты на 75W и что они могут вытянуть.
nVidia делала через поколение: 750 Ti,
Сильно надеялся увидеть 3050 в варианте «до 75», но не судьба. Требует доппитание.
Возможно, будет в 4050, если лучи научат быть менее прожорливыми. И круто будет, если DLSS завезут.
Ну 240/250 была, 550 тоже, вполне себе нормальные карты...
550
настолько, что проигрывала на 20% трёхлетней старушке gtx 750 (не Ti)? И на 40% gtx 750 Ti?
1050 и 1050 Ti обгоняли её на 110% и 140% соответственно!
Максимум — карта для контры. Впрочем, она так и позиционировалась, если мне память не изменяет — для e-sports
AMD в 75W, то ли не умеет, то ли не хочет. У них в этом теплопакете только заглушки были.
4670/5670/6670 не сказать чтобы были прям заглушками, вполне достойные карты для своего времени и цены. По теплопакету RX550 вписывается, но такой не пользовался, не знаю какова она в работе. И даже RX560 вроде как 75вт и бывает без доппитания.
PCI-E 4.0 поддерживает уже 300W, а не 75, как в PCI-E 2.0
Что ни говори, но AMD безусловный лидер в гонке создания проблем :/
Так что лидерства никакого не вижу. Тем более «безусловного».
Это с позиции пользователя или разработчика? Если с позиции пользователя, то наверное и не заметно, т.к. разработчики попотели. Не зря у нас для агентов с AMD в CI висит не мало особых условий и хаков, поверьте.
Для примера запись в gl TextureView как не работала, так и не работает в соответствии со стандартом. Баг висит уже больше года, кажется.
OpenGL и Vulkan возвращают разные ID видеокарты, хотя должны давать одинаковый ID (это пофиксили, ушло всего пол года).
Иногда поменять местами пару строк в шейдере достаточно, чтобы драйвер умер в процессе исполнения (это не я тупой, это подтверждённый практикой.и опытными коллегами опыт — оптимизатор может просто криво "соптимизировать" "ненужную" инструкцию).
При переходе на серию RX5XXX они взяли и поломали анизатропную фильтрацию ¯_(ツ)_/¯
И так далее.
С инструментами для разработчиков тоже беда. Каждую пару лет что-то новое. Старое забрасывается. Новое не работает со старыми моделями.
Но надо отдать должное — они публикуют много интересных текстов и подробностей архитектуры. Жаль, что с софтом они не так продуктивны.
Конкретно для разработки именно под AMD вроде как и нет — OpenGL, DirectX, Vulkan — в теории везде должно работать одинаково. На практике AMD не прощает ошибок — там, где nvidia наплюёт например на неправильный флаг типа желаемой памяти или отсутствия синхронизации в нужном месте, AMD будет ругаться или ломаться требуя точного следования стандарту. Это скорее плюс AMD :) Но если большинство разработчиков с nvidia, то у вас проблемы :)
Могу посоветовать RenderDoc и debugging extensions для opengl/vulkan, если они ещё не знакомы. Без них как без рук.
Ещё есть разные тулзы для профилирования и дебага от самой AMD, но разобраться в них (какие вообще актуальны и стоит пробовать?) чёрт ногу сломит.
Лет 10 уже слышу, что "вот последние пару лет проблем с дровами точно нет, это раньше были" :)
Как сказано выше — это разработчики игр хорошо попотели, чтобы у вас не было артефактов и прочей ереси :)
Не то, чтоб был полный мрак. Но периодически всплывают косяки, для которых приходится сооружать специалтные обходные пути для AMD.
Почему в графиках нет 6900xt? Сейчас в компе стоит. По ощущениям- производительность чуть больше 2х от производительности 5700xt
Если карта будет на 20% слабее, но на 250% доступней по цене, я её куплю даже не задумываясь.
Тем не менее, на полки магазинов их вернули по ценам от 17 и выше тысяч рублей, за 1030 просят 9тр, и так далее.
Нет, цены на видяхи сейчас диктуются исключительно «рыночными» аспектами, а не ценами за их характеристики.
Другой момент, но это больше в сторону огорода зеленых камень, что им мешает поставить в средний уровень 6 ГБ или 8 ГБ видеопамяти, пусть и не самой быстрой? Ничего не мешает, но не ставят. При том, что цена за гигабайт видеопамяти пусть и не ноль, но очень скромная.
А на публике да — «мы переживаем за геймеров».
ИМХО, бюджетный — это от 100 до 200 долларов.
Я не отрицал рыночные цены.
Наоборот я отрицал не рыночные цены(возможность существования карты -20% производительности +250% доступности)
Можно гнать старые и слабые видюхи за 150 долларов и всё равно будут брать.
Как раз сейчас цены как никогда пропорциональны характеристикам.
Вот пример,
на старте 3090 была в 2+ раза дороже, чем 3080, а производительность отличалась процентов на 15-20.
А сейчас что? цена отличается уже не в 2+ раза, а процентов на 30 наверно(если интересны точные цены посмотрите сами, но месяца полтора назад было так)
NVIDIA Ampere против AMD RDNA 2: битва архитектур