Я брал видеокарту на «Озоне» за свои кровно заработанные, и, честно говоря, был удивлён неинформативности карточек товаров. Буквально никто и нигде не пишет, что мы получим. Будет ли адаптер miniDP на DP, и будет ли низкопрофильная планка в комплекте. Может показаться, что я много прошу, но это вполне стандартный набор для проф. карт Nvidia. Магазины даже фото сами делать не хотят и используют таковые прямо с сайта Nvidia. Впоследствии во время тестов обнаружится ещё один забавный бонус от продавцов: ECC, который указан на странице товара, не существует в реальности, но об этом далее.

Наверное, при такой цене стоило понизить свои ожидания. Но я даже не представлял, насколько. Моя покупка приехала в картонной коробке от магазина, а внутри меня ждал буквально пакет с самой видеокартой внутри. Никаких адаптеров и LP планок. Даже заводской коробки нет.

Я питал большую надежду установить эту карту в свой 2U сервер для редких игр и кодирования видео, но без LP планки у меня это не получится. LP планка ищется по p/n «NVIDIA 151-1108», в Китае их нет, но, к моему удивлению, они есть на «Озоне».

Вскрываем пакет и изучаем видеокарту. Не знаю, как вам, а лично мне очень нравится дизайн профессиональных карт Nvidia. Старые серии FX, например, 4600, поставлялись с очень стильным прозрачным кожухом. Карты попроще имели металлические кожухи. А теперь все карты RTX А серии получили пластиковые кожухи со строгим, но стильным дизайном.

Как и «взрослые» карты A серии, «маленькая» А400 получила турбинное охлаждение. Но, как по мне, она имеет немного странный дизайн. Дело в том, что старшие модели типа A2000 A4000 и т. д. всасывают воздух при помощи турбины, прогоняют через радиатор, дальше по закрытому кожуху и выбрасывают этот самый горячий воздух за борт компьютера через PCIE планку с отверстиями. Таким образом горячий воздух не остаётся внутри корпуса и не будет попадать обратно в контур охлаждения и в остальные компоненты системы.

Но тут в планке PCIE нет отверстий для выброса воздуха, а кожух не закрывает всю плату до конца. Отчего горячий воздух будет попадать обратно в систему охлаждения видеокарты и нагревать весь компьютер. Что может быть очень критично в таких компактных решениях, как MINISFORUM MS-A2 или Lenovo серии Tiny.

Бэкплейта карточка также не получила. Все компоненты сзади открыты, и при установке надо быть максимально осторожным.

Несмотря на свои размеры, эта кроха получила 4 порта Displayport версии 1.4a, сюда можно подключить аж 4 монитора с разрешением 4К при 120 Гц без какого-либо сжатия потока. Либо 4 монитора с 8К разрешением и 60 Гц при сжатии (Display Stream Compression).

Пара фото со старшей сестрой (RTX 200 ADA 16GB).

Характеристики

Осмотрев карту, перейдём к её характеристикам. Под капотом установлен чип GA107. Если вам кажется, что вы где-то его видели, то вам не кажется… Этот самый чип устанавливался на целый список видеокарт:

  • RTX 3050 4/6/8 GB, включая десктоп и мобильные TI / MAX Q версии.

  • RTX 2050 для ноутбуков.

  • Серверные карты A2 / A16 на 16 GB, без видеовыходов.

  • RTX A1000 8 GB, а также мобильные на 4 и 6 GB.

  • RTX A500 в виде MXM модуля.

Что забавно, каждый раз этот чип получает разные характеристики. Например, в A1000 мы имеем 2304 шейдерных юнита, а тот же чип в A400 уже похудел до 768 юнита. Делать абсолютно новый чип под каждую ревизию видеокарты было бы банально дорого, поэтому я вполне поверю в теорию отбраковки, и в таком случае получается, что RTX A400 — это самые неудачные экземпляры самого простого чипа, что есть у Nvidia на данный момент. Ещё одно забавное наблюдение заключается в дате выхода этого чипа. Его первое появление замечено аж в декабре 2021 года в составе мобильной RTX 2050. A400 же появилась на свет в апреле 2024 года, когда на рынке уже были карты RTX 4XXX.

Памяти тут аж 4 ГБ, и это очень мало. Я предположу, что это связано с шиной в 64 бит. Банально чипов GDDR6 с меньшим объёмом нет, и это самый минимум, что можно было поставить. Конечно, для видеостены это приличный объём, но для любых других задач хочется хотя бы 6 ГБ, ну и шину 96 бит в придачу.

Для сравнения я решил составить табличку с конкурентами этой видеокарты, которые также представлены в однослотовом и Low Profile исполнении.

RTX A400

RTX 3050 (6 GB)

RX 6400

Arc A380

RTX 1000

Архитектура

Ampere

Ampere

RDNA2

Xe-HPG

Ampere

Техпроцесс

8 nm

8 nm

6 nm

6 nm

8 nm

VRAM

4 GB

6 GB

4 GB

6 GB

8 GB

Тип памяти

GDDR6

GDDR6

GDDR6

GDDR6

GDDR6

Шина памяти

64-bit

96-bit

64-bit

96-bit

128-bit

Поддержка ECC

нет

Нет

Нет

Нет

нет

Пропускная способность

~96 GB/s

~168 GB/s

~128 GB/s

~186 GB/s

~192 GB/s

Частота GPU (boost)

~1750 MHz

~1800 MHz

~2320 MHz

~2000 MHz

~1462 MHz

CUDA / Stream / Xe cores

768 CUDA

2304 CUDA

768 SP

1024 ALU

~2816 CUDA

RT-ядра

GEN 2

GEN 2

нет

есть

GEN 2

Кодеки

H264 / H265 (av1 декодер)

H264 / H265 (av1 декодер)

H264 / H265

H264 / H265 / AV1

H264 / H265 / (av1 декодер)

PCIe

4.0 x8

4.0 x8

4.0 x4

4.0 x8

4.0 x8

Энергопотребление

~50W

~75W

~53W

~75W

~50W

Цена

14-18к

15-21к

14-16к

15-20к

39-50к

И вот, если проанализировать табличку, становится понятно, что RTX A400 — не лучший выбор для большинства задач, как минимум на бумаге.

  • В играх RTX 3050 будет более предпочтительной. Несмотря на повышенное потребление, она будет стабильно быстрее не только A400, но и её собрата A1000 за счёт частот и количества ядер.

  • В кодировании видео A400 также позади, на данный момент уже старый Arc A380 банально имеет кодировщик AV1, которого у конкурента от Nvidia просто нет.

  • Может, вам надо подключить много мониторов с большим разрешением? И тут Intel опять побеждает, ведь у него на борту порты DisplayPort версии 2 и HDMI 2.1 вместо стареньких DP 1.4a у RTX A400.

Драйверы и фишки

Для тестов игр я использовал свежий GameReady драйвер версии 595.79. Для рабочих бенчмарков использовался Studio драйвер версии 595.79.

[!Заметка про драйверы] На практике я не обнаружил значимой разницы между этими драйверами. Я сравнивал тесты в SPECvievpref и Cyberpunk 2077. Результаты производительности были абсолютно идентичные. Вообще, Studio драйверы считаются более стабильными и выходят реже, чем GameReady. Но недавние события с драйверами Nvidia также задели Studio ветку, и они также вызывали проблемы и чёрные экраны.

При покупке на странице товара, да и в некоторых магазинах РФ, было указано наличие ECC (коррекции ошибок). В реальности ECC тут нет. В софте есть галка включения ECC, но при наведении на неё софт сообщает, что видеокарта не поддерживает ECC.

Зато из профессиональных фишек нам дали Nvidia Mosaic. И это, наверное, единственная по-настоящему полезная фишка этой видеокарты! Эта функция позволяет объединять несколько дисплеев в один большой дисплей, который также виден как ОДИН дисплей в Windows. При этом Mosaic поддерживает компенсацию рамок дисплеев и наложение стыков (для проекторов). Точно синхронизирует вывод на все дисплеи без разрывов.

Дома такое, наверное, не сильно нужно, ну разве что вы решите сделать стену из четырёх мониторов. Но в бизнес-среде штука вполне полезная и нужная. Например, для огромных видеостен, симуляторов, трейдинга с большим количеством экранов для графиков и т. д.

Настройка Mosaic

Ради интереса я решил сделать один широкий монитор из пары FullHD мониторов.

Для этого подключил мониторы и начал строить свою конфигурацию. Выбрал топологию 1х2.

Далее выбрал мониторы и выставил им одно разрешение и герцовку.

Выставил номера мониторов как они у меня стоят.

На этом этапе мониторы уже показывают картинку, и можно скорректировать либо все мониторы сразу, либо каждый индивидуально. Например, сделать их немного внахлест или наоборот, сделать между ними зазор.

Тесты — Игры

Для тестов я использовал такую конфигурацию:

  • Плата Minisforum BD895i SE с процессором AMD Ryzen 9 8945HX на 16 ядер и 32 потока с частотой более 5 ГГц.

  • Оперативная память A-Data 32 GB (2х16 GB) на частоте 5600 МГц и 39 таймингах.

  • Samsung 970 EVO 2TB в качестве загрузочного диска.

  • Блок питания Formula V Line PSFX-1000 на 1000W.

Изображение захватывается при помощи карты захвата и на производительность не влияет. Мониторинг ведётся при помощи программы FPS Monitor.

Far Cry 5

Ставим разрешение FullHD, максимальные настройки (без HD текстур и размытия в движении) и получаем FPS от 30 до 45, в среднем цифра колеблется в районе 37. Результат, честно говоря, удручающий. Даже престарелая 1050TI, которая вышла почти 10 лет назад, показывает FPS немного выше, чем RTX A400.

Встроенный бенчмарк на таких настройках рапортует о 37 FPS в среднем.

Но может, мы слишком много требуем от этой карты, и низкие настройки спасут ситуацию? Не совсем. FPS, конечно, подрастает до 56 в среднем, а если смотреть в асфальт или в небо, то можно увидеть эталонные 60–70 кадров. Но в пылу боя счётчик всё ещё бывает ниже 50 FPS. Играть так можно, но результат откровенно плох.

Cyberpunk 2077

Запускаем «Киберпанк» на впечатляющих настройках, в нативном FullHD, с отключёнными эффектами (зерно, глубина резкости и т. д.) и получаем 10–15 FPS в нагруженных сценах.

Но ведь у нас не простая видеокарта, а RTX карта, она должна поддерживать DLSS, который сильно улучшает ситуацию на старших видеокартах, и он спасёт нашу подопытную? Как бы не так. Включение DLSS на пресете «производительность» понижает FPS до 8–9…

Ради интереса ставим пресет «трассировка лучей — минимальная», включаем DLSS на производительность, и теперь FPS уже в районе 6.

Только снизив настройки до минимальных и включив DLSS на «производительность», я смог получить приемлемый FPS выше 30. Этот результат ничем иным, как печальным назвать просто нельзя. Хорошие встроенные видеокарты от AMD, например, 780M, будут более производительные в киберпанке, при этом в TDP 50 ватт умещается как видеокарта, так и процессор на 6–8 ядер.

Чтобы поиграть с RTX тенями и отражениями, придётся снизить разрешение до 720p, установить низкие настройки и включить DLSS на «производительность».

Раз AAA тайтлы прошлых лет идут плохо, то, может быть, киберспорт по зубам нашей карточке?

Counter Strike 2

Запускаем CS2 в нативном FullHD с минимальными настройками. FSR я отключил, сглаживание тоже убрал.

На таких настройках игра идёт просто прекрасно! В совсем тяжёлых сценах с дымом FPS проседает до 100, иногда при подгрузке нового оружия в раунде есть просадки до 93–95 FPS, но в целом средний FPS был в районе 180.

Dota 2

В «Доте» я выставил минимальные настройки, но множитель разрешения поднял до 100 %, дабы получить нативные 1080p, а ограничитель FPS поднял до 240.

С такими настройками FPS отличный. Если герои просто стоят на линии и фармят, то иногда он упирается в потолок (240 кадров), а видеокарта буквально недогружена. Но в тяжёлых замесах FPS может падать вплоть до 80–90, при этом, если на экране появляется какой-то новый эффект, могут быть просадки вплоть до 70 FPS. Средний FPS в течение 20 минут оказался на уровне 130.

Но «Дота» — это та игра, где максимальные настройки вполне себе приемлемы. Тут много косметических предметов, которые выглядят хорошо только на высоких уровнях настроек, а FPS на низких настройках был очень многообещающий. Поэтому ставим максимальное качество и смотрим результат.

И тут RTX A400 не подвела! FPS был стабильно в районе 60–70 даже в тяжёлых драках, а на линии можно видеть цифру в 90 FPS. Играть на максимальных настройках вполне комфортно.

Под конец игровых тестов подведём итоги и сравним этого рабочего монстра с RTX 3050 6GB, с той самой 3050, которую называли manufactured garbage и плохой покупкой буквально для любых задач.

Игра

A400

3050 6GB

Far Cry 5 / Ultra

37 FPS

75 FPS

Cyberpunk 2077 / ultra

13 FPS

46 FPS

Cyberpunk 2077 / 720 + low + DLSS

62 FPS

153 FPS

Counter Strike 2 / low

180 FPS

270 FPS

Dota 2 / low

130 FPS

190 FPS

Dota 2 / high

65 FPS

130 FPS

Выводы неутешительные. Конечно, игры карточка запускает, и при определённых настройках поиграть в современные тайтлы можно даже с приемлемым FPS. Но будем честны: никакого смысла брать её для игр нет. Буквально что угодно лучше, чем эта видеокарта, например, б/у GTX 1060 на 3 ГБ будет минимум в 2 раза дешевле и примерно на 50 % мощнее. Что уж говорить про RTX 3050 на 6 ГБ. При схожей цене она буквально вперёд ногами вынесла A400, не оставив никаких шансов на отыгрыш.

Тесты — софт для работы

Раз в играх карта показала себя совсем плохо, то, может, в рабочих задачах она сможет отыграться и показать настоящий результат? Ведь это профессиональная, а не игровая карта. С этой мыслью я запускал SPECvievpref. Это не просто бенчмарк, а целый набор софта из проф. индустрии весом более 100 ГБ, бенчмарки которого запускаются у вас на ПК.

И вот нюанс. Бенчмарк не проходит один из тестов. Я было подумал, что проблема в моих руках или в Windows. Но обновление драйверов и смена Windows никак не повлияли на результаты, и бенчмарк в любом случае вылетает на этом тесте. Судя по логу, тест вылетает по очень банальной причине: кончилась видеопамять.

Игнорируем ошибки, проводим остальные тесты, заодно добавляем в них RTX 3050 и получаем вот такую табличку:

Тест

Результат RTX A400

Результат RTX 3050 6GB

3dsmax-08

8.07

15.5

blender-01

9.56

22.38

catia-07

12.78

20.43

creo-04

37.77

56.88

energy-04

12.01

10.03

maya-07

46.10

76.71

medical-04

26.58

17.30

snx-05

55.03

44.13

solidworks-08

19.59

10.15

unreal_engine-01

17.38

42.06

Я много раз слышал, что Quadro видеокарты хорошо показывают себя в какой-то особой нагрузке, в CAD и в медицинских приложениях. И вот первый раз, когда я своими глазами это увидел! Большинство тестов всё ещё работают лучше на обычной игровой 3050, но буквально 2 категории показали ощутимый перевес в сторону A400, и ими оказались:

  • CAD приложения (Solidworks / Siemens NX).

  • Медицинские и геофизические сканы (визуализация КТ/МРТ сканов, объёмов).

Шум и нагрев

Стоит сказать, что тут ситуация отличная. Охлаждение оказалось очень тихим. Конечно, оно не бесшумное, но, если установить карту в корпус и отойти примерно на метр, её звук уже почти не слышен. При этом нагрев в очень адекватных рамках, при 24 ˚С в комнате ядро прогревается максимум до 74 ˚С, а VRM платы — до 70 ˚С.

Выводы

Карточка достаточно занятная. Интересно было посмотреть, как Nvidia перерабатывает одни и те же чипы и успешно продаёт их в огромном диапазоне цен. Итоговая производительность также сильно удивляет. Продавать видеокарту уровня 1050TI по цене 1050 TI, спустя 10 лет от её выхода — это надо уметь.

Наличие поддержки трассировки лучей тут оказалось абсолютно бесполезным. В играх результат улучшается, но не сильно, а проф. софта, который готов утилизировать эту технологию при таком малом количестве памяти, я не нашёл. Да и профессиональной её не назвать, без поддержки ECC.

После всех тестов я пришёл к выводу, что покупать RTX A400 стоит буквально в нескольких случаях:

  • Нужна однослотовая + низкопрофильная карта с низким TDP, но подешевле. В тот же мини ПК Minisforum MS-01 или подобные ему железки, где банально больше ничего не влезет. В 1U сервер. Иначе, если поднять бюджет, то можно смотреть на A1000 или 2000E, которые будут сильно производительнее при том же формат факторе и TDP.

  • Нужно объединить много мониторов в один виртуальный для вывода видео. Например, для рекламного билборда или трансляций, где нет особой нагрузки на 3Д подсистему, но есть требование в технологии типа Nvidia Mosaic. Сюда же будет бонусом AV1 декодер.

  • Она попадётся дёшево. Если покупать её за смешную цену на уровне 5–8к рублей, то почему бы и нет? В таком случае соотношение цена/производительность будет очень даже в рынке.

  • Особый софт, например, CAD системы или медицинские/геофиз. приложения, которые рендерят большие объёмы на видеокарте.

Кстати, я завёл Telegram-канал Tiralab. Там — спойлеры к статьям, полезные ссылки и тесты разного железа. Если вам интересны хоумлаб и эксперименты с оборудованием, добро пожаловать!

© 2026 ООО «МТ ФИНАНС»