
Есть ли на рынке видеокарта, которая тянет все игры, и стоит разумных денег? Вопрос разумности, конечно, весьма относительный. Но, думаю, все согласятся, что GTX 1050 и RX 560 на эту роль вполне тянули. Они не только предлагали неплохую производительность, но и не требовали к себе особого отношения. Их можно было просто воткнуть в слот – и никаких тебе дополнительных кабелей или супер-мощных блоков питания. Есть 75 Вт — и хватит. Вот были времена, правда? Сейчас таких карт не делают. Совсем. Но как так вышло?
Почему подорожали видеокарты
Чтобы понять, почему бюджетные видеокарты исчезли, нужно отмотать на несколько лет назад. GTX 1050 и RX 560 были массовым продуктом. Их буквально скупали миллионами все те, кому хотелось просто поиграть без напрягов.
Объемы производства этих карточек исчислялись миллионами. Да, маржа, которую они приносили своим производителям, была небольшой. Но она была стабильной за счет высокого спроса. А Asus, GIGABYTE и другие бренды выходили в плюс за счет количества.
А потом случился 2017 год, и все пошло под откос. Именно тот год считается точкой невозврата, когда майнинговая лихорадка навсегда изменила рынок видеокарт.
Майнеры были готовы скупать любые карты, лишь бы собрать свои фермы. В ход буквально шло все, что могло хоть как-то использоваться для добычи криптовалюты. Поэтому цены закономерно пошли вверх. Например, GTX 1050 Ti, которая изначально стоила 150 долларов, вдруг стали продавать за 300-400. А RX 580 спокойно уходила за 600 долларов вместо 250.
Из-за этого границы между доступными и топовыми видеокартами стали постепенно размываться. В какой-то момент стало банально непонятно, где бюджетки, а где флагманы, потому что все стоило одинаково неподъемных денег. Но майнерам-то было все равно. Они были готовы покупать даже дорогие карточки и вовсю конкурировали с геймерами, которые уже успели распробовать рей-трейсинг и другие технологии улучшения игр.
Так неожиданно выяснилось, что существует аудитория – причем немаленькая, – готовая платить за GPU больше, чем базовые 150-200 долларов. Намного больше. А какой тогда смысл продолжать ставить все на бюджетный сегмент, если средний и премиальный тоже неплохо развиваются и в силу более высокой маржинальности приносят куда больше денег?

Поэтому стратегия изменилась. В 2018 году на рынке появилась NVIDIA RTX 2080 Ti за 1200 долларов. Многие говорили, что это безумие. Но карта продавалась отлично. Затем появилась RTX 3090 за 1500. Потом RTX 4090 за 1600+. А теперь бал правит RTX 5090 за 2000 с лишним – и ничего.
Окончательно этот тренд закрепила пандемия. Выпуск полупроводников встал, и дефицит чипов ударил по всем отраслям сразу. Именно в тот момент бюджетный сегмент окончательно потерял смысл. Ну какой толк пытаться продать миллион дешевых карточек с маржой 15% (даже если найти для всех них чипы), если можно продать полмиллиона дорогих с маржой 40%. Денег это принесет даже больше, а головной боли при этом будет меньше.
К 2023-му ситуация с чипами выправилась. Майнинг Ethereum прекратился после перехода на Proof of Stake. Казалось бы, рынок должен был вернуться к нормальности.
Но не срослось. А почему?
Как дефицит памяти влияет на цены видеокарт
Потому что появилась новая проблема, и она оказалась куда серьезнее всех предыдущих. Память. Точнее, ее катастрофическая нехватка. Samsung, SK Hynix, Micron – три кита мирового производства памяти – приняли решение переключиться на HBM и серверную DDR5 для дата-центров.
Почему? Рост популярности нейросетей и строительство большого числа дата-центров для их обучения привели к колоссальному скачку спроса на память. Причем в таких объемах, что производители и сами перестали поспевать за потребностями профессионального рынка. Что и говорить про консьюмерский сегмент.
Нет, совсем память с потребительского рынка это, конечно, не вымыло. Но она стала дороже. GDDR6, которая используется в некоторых видеокартах, подорожала на 30-60%. Много ли это? Ну, в абсолютных цифрах, может, и не много. Но для производителя, у которого на счету каждый цент, это очень ощутимо.

Возьмем условные RTX 5050 и Radeon RX 9060 XT, которые входят в сегмент видеокарт за 249-299 долларов. Раньше планку GDDR6 на 8 ГБ для них можно было купить за 30-40 долларов. Теперь тот же объем стоит 50-65 долларов. Добавим сюда чип GPU, плату, систему охлаждения, сборку, R&D и рекламу, которые тоже стоят денег, и выясним, что себестоимость карт подскакивает весьма заметно.
Но продавать-то их все равно надо за исходные деньги, потому что дороже их просто не купят. Да, можно использовать GDDR7, на которую вроде как дефицита нет, и оправдать рост цены – но она стоит еще дороже, чем GDDR6, поэтому выгадать что-то вряд ли удастся. А иначе производители бы уже давно это сделали.
Но ведь ситуация может стать еще хуже. По информации отраслевых экспертов, память может подорожать еще больше. Поэтому AMD и NVIDIA даже всерьез думают свернуть бюджетные линейки в принципе. RTX 5060, RTX 5050, Radeon RX 9060 XT – все они рискуют либо выходить в мизерных количествах просто для галочки, либо исчезнуть с рынка совсем. Потому что экономика их производства просто не сходится.
Почему исчезли карты на 75 Вт без дополнительного питания?
Впрочем, виноваты не только плохие дяди, которые спровоцировали дефицит всего и вся. Не в последнюю очередь на цены повлияло и развитие технологий. Если раньше можно было поставить видеокарту, которая потребляла максимум 75 Вт прямо через PCIe-слот, и забыть про дополнительные кабели питания, то теперь такое стало чем-то из разряда фантастики.
Причин тому несколько:
Во-первых, современные архитектуры стали требовательнее к ресурсам: добавились аппаратные рейтрейсинг-ускорители, DLSS, многие другие функции, которые требуют больше вычислительных мощностей и, соответственно, энергии. В итоге общий TDP новых GPU вырос, и уложиться в те же 75 Вт стало почти невозможно.
Во-вторых, с развитием производства и доминированием высоко��ощных карт цена и сложность разъемов снизилась, а блоки питания с нужными кабелями превратились в стандарт даже в дешевых ПК. Так что производителям стало проще ставить доппитание и делать карты мощнее, нежели мучиться с лимитами.
А мощность – это тепловыделение, а значит, и повышенные требования к системе питания и охлаждения. Это раньше видеокарты были компактными и не очень горячими. Сегодня даже условно средняя видеокарта – это двух- или трехвентиляторный монстр с толстым массивом ребер, кучей теплотрубок и массивной металлической пластиной на обратной стороне.
Это не просто эстетика. Хороший охлад стоит денег. У некоторых моделей весь скарб для теплоотвода сам по себе стоит 20-25 долларов. Добавим сюда подсистему питания пожирнее, дополнительные фазы, качественные дроссели и конденсаторы, и выясним, что только обвязка вокруг чипа сегодня будет стоить как половина бюджетной видеокарты из 2017 года.
Почему мобильные GPU не используют как дискретные
И вот тут возникает вопрос: а почему бы производителям просто не взять маленький мобильный чип из ноутбука и не превратить его в дешевую дискретку для народа? Звучит-то вполне разумно: сами чипы уже существуют, производятся массово, стоят недорого. Но в реальность эту идею воплощать не торопятся. Во всяком случае, в коммерческих объемах.
Все дело в том, что мобильные GPU изначально проектируют под совсем другие условия: низкие частоты, узкие шины, маленькие объемы кэшей, жесткие лимиты по энергии и теплу. По факту это кристаллы, которые должны работать в корпусе толщиной 18 миллиметров и не расплавить клавиатуру. В настольной карте такие чипы ведут себя как что-то среднее между встроенной графикой и бюджетными картами пятилетней давности. То есть смысла от них в десктопной сборке не будет никакого.

Но даже это не самое главное. Куда важнее – экономическая целесообразность, которой в этой схеме попросту нет. Ведь охлаждение, память и плата стоят одинаково, независимо от того, какой там GPU — 20- или 120-ваттный. И в том, и в другом случае нужно поставить нормальный радиатор, вентилятор, VRM и память.
Получается парадокс: кристалл дешевый, а вся остальная карта — нет. И, все бы ничего, но на выходе получается продукт, который работает хуже, чем хочется, стоит дороже, чем должен, и не нужен ну просто никому.
Монополия NVIDIA: кто определяет цены на рынке видеокарт
Но ведь не все придерживались той же стратегии, что и NVIDIA. Та же AMD и Intel исторически стремились покорить рынок именно через бюджетный сегмент. Но все же знают, что чудес не бывает.
Поэтому уже по итогам первого квартала 2025 года NVIDIA владела 92% рынка дискретных видеокарт. То есть из 9,2 миллиона проданных карточек на ее долю приходилось примерно 8,5 миллионов. Для сравнения: AMD получила жалкие 8%, а Intel вообще ноль.
Как так вышло, спросите? Ну, причины на самом деле лежат на поверхности.
Во-первых, NVIDIA – вот так сюрприз, правда? – неплохо умеют в драйвера. Софт видеокарт от зеленых действительно работает практически без нареканий, а сами они совместимы с наибольшим количеством игр. Это огромный плюс для массового пользователя, который не хочет прыгать с беты Андромеды на бета-драйвер и тестировать всякие костыли.
Во-вторых, NVIDIA располагает самым широким ассортиментом современных технологий. В первую очередь это, конечно, DLSS 4 — технология, которая буквально вытягивает производительность в играх, здорово апскейлит картинку при минимальных потерях качества и возводит карточки средней ценовой категории в чуть ли не премиальный класс.
В-третьих, решения NVIDIA очень хорошо показали себя в обучении нейросетей. Даже неспециализированные игровые видеокарты типа RTX 4090 и RTX 5090 очень активно используются в ИИ-системах. Особенно в Китае. Дошло до того, что NVIDIA даже была вынуждена выпустить для рынка КНР специальные урезанные D-версии, которые в меньшей степени пригодны для ML.
AMD, как производитель потребительских видеокарт, конечно, не пасует. Линейка Radeon RX 7600 — это вполне приличные карты. Но только если не сравнивать их напрямую с решениями NVIDIA. Например, RTX 4060 хоть и стоила немного дороже, предлагала на 10-15% более высокую производительность при меньшем ресурсопотреблении. Все бы ничего, но из-за дефицита памяти RX 7600 подорожала, и это сделало ее еще менее рациональным выбором.
А Intel? Ну, тут все еще проще. Несмотря на то что на бумаге та же B580 выглядела как прорыв (все-таки 12 ГБ VRAM за 249 долларов не каждый день встретишь), по факту испытывала еще большие проблемы с драйверами и оптимизацией, чем карты AMD. Поэтому их покупали в основном те, у кого очень сильно урезан бюджет.
Получается, что NVIDIA сегодня – фактически единственный производитель, который может себе держать цены высокими и продавать. Продавать много. Ну, а что? Имя работает. CUDA нужна для всего, что связано с ML и AI. Драйверы зрелые, работают стабильно во всех играх. DLSS дает прирост производительности на 30-50% в современных играх. А когда ты контролируешь рынок, то и правила – и даже цены – устанавливаешь тоже ты.
Какую недорогую видеокарту купить в 2025
Означает ли это, что в 2025 году совсем не осталось вариантов купить недорогую видеокарту? Конечно же, нет. Вопрос только в том, что считать недорогим. Если вы ищете карточку по цене уровня GTX 1050, могут возникнуть некоторые сложности.
Та же RTX 5060 стоит в районе 30-35 тысяч рублей в зависимости от исполнения. На сегодня это самая свежая карточка NVIDIA в доступном сегменте. За эти деньги вы получаете 8 ГБ VRAM стандарта GDDR7, архитектуру Blackwell, энергопотребление на уровне 130 Вт и производительность примерно на 15-20% выше, чем у RTX 4060. Для игр в Full HD это вполне рабочий вариант. Другое дело, что это и близко не аналог GTX 1050 – во всяком случае, по цене.
Да, всегда можно посмотреть на карты предыдущего поколения, но RTX 4060 если и встречается, то стоит не дешевле, чем RTX 5060, а 5060 Ti отдают еще на треть дороже. Зато здесь вы получите сразу 16 ГБ VRAM GDDR7, производительность на 30-40% выше RTX 5060, энергопотребление 155 Вт и возможность играть в 1440p.
За 26-28 тысяч рублей можно купить Radeon RX 7600. Это карта AMD на архитектуре RDNA 3 c 8 ГБ памяти GDDR6 и энергопотреблением 130 Вт. По производительности такая будет отставать от RTX 5060 процентов на 20-25, но и стоит почти на 7-8к дешевле.

Ну, и самый базовый сегмент – до 20 тысяч рублей. За эти деньги карточки, конечно, тоже существуют. И вот они и являются наиболее близкими по ценообразованию альтернативами GTX 1050. Например, RTX 3050. Это видеокарта на архитектуре Ampere с 8 ГБ памяти GDDR6 и энергопотреблением около 130 Вт. По производительности она будет примерно на уровне GTX 1660 Ti, может чуть выше. То есть современные AAA-тайтлы в Full HD на средних настройках вполне потянет. Вот только это карта трехлетней давности, и это надо учитывать.
Так что, как видите, бюджетные карты не исчезли совсем. Они есть. Просто изменилась сама планка “дешево”. Сегодня индустрия живет в режиме HBM, ИИ-ускорителей и сложных технологических решений, где просто нет места недорогим GPU на 75 Вт, которые способны тянуть ААА-тайтлы на максимальных настройках с рей-трейсингом.
