Комментарии 102
Поддерживаю. Брал 8гб карту, потому что на новый хороший монитор 2к+ уже деньги зажал. Брать "с запасом" для 1080 посчитал не целесообразным. Лично для меня сделали 4060 8гб, спасибо куртка.
Соболезную жертве маркетинга. Потом не удивляйтесь откуда после 10 минут игры у вас взялись статтеры и почему текстуры не успевают прогружаться.
Ну, для подгрузки ассетов HoMM 3 и восьми гигов хватит :)
Нет, не удивляюсь. Брал просто чтобы пройти киберпанк на ультрах. Прошёл, пусть и с длсс на качество, но с лучиками и всё такое как у взрослых. Так зачем мне 12+ гб на 1080 я всё равно не понял... Как-то глупо решать за другого взрослого человека, что ему на самом деле нужно)
Это ещё ладно. Современные игры любят внезапно падать без сообщения об ошибках когда кончилась vram.
Ну этот бред про статтеры и текстуры как раз таки маркетинговый бред.
Но продавать НОВЫЕ урезанные видеокарты и преподносить как фичу это действительно полный прогрев на бабло. А если не текущее поколение то и цене уже будет соответствовать.
Apple тоже говорила, что 8 гб достаточно всем. А потом по-тихому обновила до 16 гигов.
Угу, говорила. 5 лет назад.
Никто в Apple не говорил «вам хватит 8 гб до конца света».
И 5 лет назад 8 гб были норм опцией для базового устройства. Действительно, в большинстве случаев хватало.
Тут тоже самое говорят - 8 ГБ для fullhd
И это правда норм. Мне моих хватает и для 2к, а иногда и для 4к. Притом, что у меня 3060 TI. А тут карточка даже бодрее
8 гб не было норм еще во времена интел маков, что уж говорить про времена м-серии.
Взял 32 гб и пользуюсь своим м1 про до сих пор.
8 гб не было норм еще во времена интел маков
Вполне норм было. Пользовался примерно до 19 года, гонял и виртуалки, и IDE с жабой. Тот макбук (late 2013) до сих пор пор жив, планирую на него линукс вкорячить =)
Это известное когнитивное искажение: глаз «замыливается», когда долго пользуешься откровенно тормозной техникой. А MacBook 2013 года в 2019 году с IDE и Java — это ой какие тормоза, но тебе кажется, что всё работает нормально.
Потом садишься за чей-то чужой новый ноутбук, поработаешь на нём хотя бы пару часов — возвращаешься на свой и видишь: это же слайд-шоу! Работать уже просто невозможно. Нужно срочно менять ноутбук.
Поэтому, когда у меня был тормозной MacBook, я старался не садиться за чужие свежие ноуты — чтобы не словить это чувство.
Это известное когнитивное искажение: глаз «замыливается», когда долго пользуешься откровенно тормозной техникой.
У меня рядом HP с i7 стоял, было с чем сравнивать.
Ой вру, HP был до этого, тогда это была сонька, тоже с i7 но более свежего поколения. Не стал удалять предыдущее предложение, чтобы намекнуть что я не только на макбуках все время.
А MacBook 2013 года в 2019 году с IDE и Java — это ой какие тормоза, но тебе кажется, что всё работает нормально.
Собственно потому что начал постепенно замечать некоторые лаги в некоторых местах и загрейдился в начале 20 на более современное железо.
тормозной MacBook
Когда я слышу фразу "тормозной MacBook" я представляю железку возрастом эдак лет 10, а то и 15. У меня сейчас рядом на столе стоят late 2019 и m4 pro - первый по сравнению со вторым выглядит чуточку задумчивее в интерфейсе (про вычислительные таски сейчас не будем, речь именно про "выглядит"), если постоянно между ними переключаться. Но если работать за ним чуть больше чем минут 20-30, то все весьма прилично.
Просто у меня как раз был macbook pro 2012 на i7 (последняя модель, где можно было и память апгрейдить и ссд самому засунуть итд).
И вот с ним я в эти же года и замечал тормоза в сравнении с новыми макбуками. Там рамы было 32 гига и хороший ссд. Расставался скрипя сердцем.
А у друга был эир тоже 2012 года с 8 гб памяти. Там тормоза были вообще жуть.
С чего взялись 5 лет? Буквально же недавно оправдывали 8гб тем, что у их 8гб = 16гб на других ос.
разрешение экрана в играх как правило не влияет на потребление видеопамяти
модели, текстуры и прочие ассеты в видеопамять загружаются те же самые, вне зависимости от того какой у тебя монитор
Скоро повсюду будут пихать нейросети и тут потребление видеопамяти в космос улетит. От чего я уже считаю, что 16 гб будет маловато
склонен больше верить, что под нейросети появится новый класс пользовательских устройств втыкаемых в материнку. Видеокарты тоже не сразу появились. Будет какая-нибудь нейрокарта. Без DLSS, RayTracing, PhysX, GSync, энкодинга в несколько интерфейсов типа vga/hdmi/displayport и рендера 12к video, ShadowPlay и Nvidia Broadcast.
В общем, все свистоперделки с платы нафиг, нужно суровое советское перемножение матриц и ничего более
Таки были отдельные карты на физику и быстренько умерли, потому как видеокарты тоже справлялись. А раз нету большой разницы, то лучше вложить больше в видюху, чем в отдельное устройство
Нейрокарты уже есть, но не для рядового геймера. Для геймера уже давно всё впихнули в видиху
Так а если в играх и программах задействуется графика, рендер? То есть нужна и видеокарта, и нейрокарта. А если нужен и процессор, и видео, и нейро, то задержки передают привет
Мне наоборот показалось, что с приходом ИИ память в видеокартах для обычных пользователей резко перестала расти и даже сократилась. Видимо, производители видеокарт аффилированы с крупными поставщиками ИИ и хотят, чтобы пользователь по подписке получал доступ к серверам, а не у себя локально запускал.
Новые игры типа Индианы Джонса уже минимум 12гиг требуют просто для того, чтобы запуститься
где ты это взял? На 8гб 6600 карте отлично играется
На низких и FSR (не помню есть ли там) в производительность с диким мылом по всему экрану?
Шведы, как и Финны, не могут в оптимизацию - слишком заняты lagom)) А если серьезно, то столько игр хороших не пройдено еще, что до индианы дойти жизни не хватит наверно. Я только в 2025 прошел киберпанк, пропустил в своё время ведьмак 3, mass effect и даже gta 5 как то мимо меня прошёл, видимо слишком стар) Будущие и текущие БФ идут на 8гб без проблем. Про индюшатину вообще молчу. Всем по потребностям. А вы и дальше сидите меняйте каждый год видеокарты на очередную хх90 серию и мониторы на n+2k, только ваш выбор и ваше дело)
Будущие и текущие БФ идут на 8гб без проблем
Ага, обязательно. Сидите на копиуме дальше.
А вы и дальше сидите меняйте каждый год видеокарты
Я комп собрал 2 года назад. До этого сидел на ноуте с 1650 и 4Гб памяти. Обновился 2 месяца назад с RTX 3060Ti до RX 6750XT, практически бесплатно. И господи как стало приятнее играть не не наблюдать ВНЕЗАПНЫЕ прогрузы текстур перед носом, а также дропы во время долгих сессий.
Во что играть стало приятнее? Раз уж обсуждаем копиум, то копиум тут современные игры. Из последнего больмень был elden ring, но он отлично себя чувствует на 4060. Собирать сетап, чтобы вкушать современный кал игропрома - да пожалуйста, дело ваше
Вы не поверите, но в тот же КП, БФ, Метро и другие проверенные временем игры. А свои суждения обо мне как "покупает каждый год видеокарту под кал игропрома" я попрошу оставить при себе. Вы сами выше мне тыкали что негоже взрослому человеку тыкать как ему и что делать.
Объективно эти игры идут в 1080 на 4060 в достаточном ФПС 80-90+ на максимальных настройках. Не говоря уж про "проверенные временем", которые и на старой рыксе пойдут с запасом. Дальше уже пустая демагогия, игра в бенчмарк, киберспорт и мастурбация на мониторинг.
Объективно эти игры идут в 1080 на 4060 в достаточном ФПС 80-90+ на максимальных настройках
Пруфы? Ссылки на тесты будут? Особенно КП на "максималках" на 4060 интересно посмотреть.
1080 на 4060
максимальных настройках
ФПС 80-90+
Покажите скриншот ваших "максимальных настроек" в cp2077 пожалуйста.
Ты сейчас людям мир сломаешь
Не знаю кто там что кому сломает, но ещё полгода назад у меня была 3070TI, тащемта например. Поменял её на 4070TS только из-за 16 гигабайт. Потому что с 8 гигами жить можно, но не очень хочется.
Не, если устраивает low/middle качество текстур, то можно жить на 8 гигах. Закрывать браузер при запуске RE4 Remake, мониторить память через GPU-Z или другими способами. А ещё игры просто падают если vram закончилась. Без объяснения причин.
У мну не падают. И браузер не закрывается. И ютьюб фоном. И это на 3060 Ti.
Вы не думали, что проблема может быть не только в объеме?
И браузер не закрывается. И ютьюб фоном. И это на 3060 Ti
Речь была про Vram. Или ты запускаешь браузер в видеопамяти?
Да и речь была о проектах 2025 года, в которых есть "фича" падать из-за нехватки vram (потому что 8гб не хватает). Если ничего не падает, значит эти игры и не запускались
Браузер таки кушает видеопамять, на аппаратное ускорение. Регулярно при работе с тяжелыми неиронками приходится закрывать его, чтобы освободить пару последних процентов. У меня даже Edge настроен на этот случай как запасной браузер без ускорения.
Не думал, потому что проблема в объеме видеопамяти. Это уже 100 раз проверено и не только мной. А браузер иногда жрёт гигабайт видеопамяти и больше.
Очевидно, нынешние карты х060 - это аналог затычек из нулевых типа 5200 или 710 за 35 долларов, где экономят каждый дайм.
Мне кажется, вы смотрите куда-то не туда, если эти вам кажется очевидным. Это скорее аналог лоу-мидла, типа 5770, 8800gs, 960 или 1050ти. До полноценных мидлов не дотягивают, т.к. не хватает бюджета и экономия на спичках, но и совсем не затычка для вывода картинки. А при учёте что кроме мейнстрима игры хорошо если раз в пять лет обновляются - их за глаза для всяких автосимов, особенно если пожертвовать 5% эффектов ради кратно более высокого фпс. У меня например 6600хт абсолютно без проблем тянет всё что мне надо в 4к, научить сына базовым вещам за рулём типа траектории и переноса веса этого достаточно. Наверное в полноценный триплскрин билд надо что-то пошустрее, но раз в пару месяцев пару дней погонять да детей развлечь - более чем. Кажется, у меня даже тепловой пакет стоит меньше родного, чтобы меньше прогревало помещение - а может и сбросилось уже давным давно.
5060ti (16) и 2к на максималках вывезет с приемлемым фпс. Интересная затычка, не правда ли?
Да, не особо ушла от 4060ti, но всё же
5060ti (16) и 2к на максималках вывезет с приемлемым фпс
Ну как вам сказать... Смотря что считать приемлимым

В трёх из восьми игр в твоём списке ФПС больше 30, что во времена моей юности считалось плавным. Ещё две игры на грани. Итого не тянет только 2/8 ААА игр. Но что, если пользователь предпочитает играть во что-то кроме крупнобюджетных экшенов?
Изначально говорилось про:
2к на максималках вывезет с приемлемым фпс
Вряд ли человек имел ввиду про пиксельное инди
Вы прикалываетесь или спорите из принципа? Плавность определяется мин. фпс, 30фпс считались игровыми в 90х, пара случаев с 40+фпс никак не исправит факта, что в большей части игр карта фактически неработоспособна.
Конечно, трассировка лучей это же такая необходимость
И в то же время длсс/фср нам вообще не понадобится
Без трассировки получается вот так. С трассировкой и генерацией в статье чуть дальше. Но это же неудобные цифры, нужно нагрузить карту так, как сможет вывозить только 5090.
Ввиду нормализировавшейся цены это отличная карта в наше время

Конечно, трассировка лучей это же такая необходимость
Вообще-то да. Я не могу купить видеокарту без тензорных блоков, Nvidia не предоставляет такой возможности. Значит нужно их использовать. А во-вторых, сейчас тенденция на "нативный" рейтрейсинг (Indiana Jones, Doom Dark Ages). Что с этим будем делать?
Что с этим будем делать?
Сама нвидиа даёт на это ответ постоянно: rt + dlss
Генерация кадров так или иначе это полезная штука, не смотря на её минусы
К тому же, наверняка найдутся модификации на просторах сети, чтоб отключить принудительную трассировку
Генерация кадров так или иначе это полезная штука, не смотря на её минусы
Ее минус в том что она бесполезна если FPS меньше 60
Ранее был саркастичный выпад в сторону вуконга и 13 фпс, верно? Так ведь даже 5090 с трассировкой на 2к не вывозит 60+ фпс.

Вы промазали веткой? Что сказать-то хотели?
Не промазал. Сказал ровно то, что мы и обсуждали. Логические цепочки в этой дискуссии крайне простые.
А перед этим мне было сказано о минусе генерации, хотя я сам и сказал о минусах, соответственно последующий тейк уже подразумевался. Тут скорее вопрос зачем вторить про минусы.
Мы не обсуждали 5090, но вы зачем-то вкинули это сюда.
>Ее минус в том что она бесполезна если FPS меньше 60
Во всё том же вуконге с трассировкой себе такое позволить не может ни исходная 5060ти, ни даже 5090, которая является топом 50-линейки.
Соответственно это и есть ответ на вопрос "Что с этим будем делать?". Либо принимать ситуацию как есть, либо ждать чего-то нового, ибо даже самая лучшая карта (при условии "Значит нужно их [ядра трассировки] использовать") не даст 60+ фпс.
В чём проблема?
Я считаю, что 60+мин.фпс важнее / базовее макс. настроек и когда человек говорит о них, то 1е требование заведомо выполняется. Но, возможно, я неправ.
Это не новые игры, это конкретно индиана
Не только новые - вон на текущей своей 3060 с 12гб памяти запустил недавно относительно старенький Wolfenstein II: The New Colossus всего лишь в 2560х1440 на ультре и игра мне заявила что у меня видеопамяти как-то вобще прямо впритык хватает - работать оно конечно будет, но стабильность не гарантируется.
З.Ы. до этого в первый раз я ее проходил когда-то в 1920х1200 на 1070Ti с 8гб видеопамяти тоже на смеси высоких и ультра настроек.
"640 килобайт хватит на всё" (с)
Кроме игр, которые на 8Гб идут, и игр, которые не идут, есть ещё большой процент игр, которые будут идти до определённого момента в игре, затем падать. И вот тут никакой бенчмарк уже не поможет. Так что к чёрту эти 8Гб, а потом сидеть и гадать: пойдёт, не пойдёт.
А зачем падать то? Вроде ж если чего-то нужного в видеопамяти не нашлось, тогда пойдем в оперативку, а то и прости Господи на диск. Да, фризы/статеры весьма вероятны, но прям чтобы падать....
И тем не менее падает. Потому что всё, что вы перечислили, надо предусмотреть, а работу на 8Гб тестируют по остаточному принципу. В первую очередь игру тестируют на консолях, потому что там бывает трудно обновить. На любых консолях сейчас больше 8Гб. А на ПК всегда в задворках гуляет мысль "Ну, будет падать - выпустим патч, так что хрен с ним".
Я заметил, что AMD карты лучше справляются с переполнением памяти. Когда у меня был ноутбук с 2060 на 6 гигабайт, то я постоянно сталкивался с исчерпанием видеопамяти, когда кадры в секунду могут падать с любых сразу до 2-3 и помогал только перезапуск игры\уровня. На AMD даже на 4 гиговой 570 та же игра с теми же настройками хоть и шла медленнее (чип слабее), но при этом FPS не падал в единичные значения. Очень наглядно такое поведение недавно показали в этом видео (да, там выкручивали настройки и разрешение специально для воспроизведения проблемы), таймкод на поведение 6700XT 12GB когда аллоцированной видеопамяти становится вплоть до 16 гигабайт: https://youtu.be/e4GCxObZrZE?si=DbHTGWnN1RFcNS9j&t=751
Второй Сталкер на GeForce 3070 8Gb и мониторе 3К на близких к минимальным настройках регулярно проваливался в единицы FPS. Теперь буду брать 16Gb, скорее всего 5070 Ti.
Вот тут еще обсудили 8 гигов.
Любая конфигурация меньше 10 гигабайт в 2025 нежизнеспособна, и она станет неюзабельна в один день: с релизом нового поколения консолей. Это скоро. А лично я бы не рассматривал к покупке ничего меньше 12 гигабайт. Да, даже для 1080P. NVIDIA будет до последнего пытаться всучить 8 гигабайт, потому что они хотят, чтобы вы платили больше денег за возможность крутить нейронки. Но у вас нет никаких причин с этим мириться, голосуйте рублем против.
Может быть хоть Intel не подведет, их новые Arc Pro B60 Dual 48G обещают быть дешевыми и с жирной памятью - может быть и на десктопы с подобным подходом приедут консьюмерские версии. Было бы хорошо.
А еще есть яблочные силиконы с unified memory =) Мини с M4 pro и 64GB / 273GB/s - на сайте эппл 2к за него насчиталось.
Ходит слушок, что арки будут отдавать по 1000$. Я не силен в маках, но вижу Mac Studio с 96 гигами за 4000 баксов. Это таки 3 видеокарты по 48 гигов + платформа на сдачу.
Впрочем, NVIDIA тоже свой Digits со 128 гигами памяти угрожали выпустить примерно за 4 тысячи.
Mac Studio с 96 гигами за 4000 баксов.
Судя по сайту эппл, там M3 Ultra. Там скорость оперативы сильно выше чем у pro - 819GB/s. И таки лучше подождать на M4 Ultra.
ЕМНИП там GPU на уровне 4070, что конечно неплохо, но хотелось бы получше. Плюсом софт слабо оптимизирован по Mac (именно для нейронок). Nvidia тут без вариантов с гиганским списком оптимизаций под CUDA. Хотя Intel вроде тоже шевелятся в эту сторону, AMD догоняет.
GPU на уровне 4070

UPD:
Похоже гуглоробот на картинке выше соврал, пишут что на ультре 80 core gpu.
https://wccftech.com/m4-ultra-performance-against-rtx-4090/
А у Pro, да, на уровне 4060-4070.
Плюсом софт слабо оптимизирован по Mac (именно для нейронок).
Какой софт? Емнип, под metal уже все что есть работает хорошо.
https://www.techspot.com/news/105649-apple-m4-max-beats-rtx-4070-blender-but.html
Середка между 4070 и 4080.
Какой софт?
Я же говорю - нейронки.
Середка между 4070 и 4080.
Вы обращайте внимание на эти pro/max/ultra - они очень сильно отличаются.
Я же говорю - нейронки.
Так какой конкретно софт то? В llama.cpp, например, завезли поддержку metal несколько лет назад. Лично гонял модельки в ollama - все на уровне.
Блин, спутал Max и Ultra :/
Лично гонял модельки в ollama - все на уровне
На уровне чего? Я гонял сначала на своей 3060Ti потом RX6750XT. 12Gb это конечно хорошо и 14B+16к контекста работают шустро, но медленнее чем CUDA. Хочешь не хочешь, а оптимизации годами писались под одну конкретную архитектуру.
На уровне чего?
На уровне - значит в принципе примерно как я и примерно ожидал.
Я не знаю с чем сравнить, более-менее приличных видеокарт в наличии нет. На m4 pro в оллама у меня вот так, без настроек и тп, сразу на дефолте на разных вопросах и простых логических задачах:
deepseek-coder-v2:16b-lite-instruct-q4_0 - 80-83 tokens/s
deepseek-coder-v2:16b-lite-instruct-q5_K_M - 61-62 tokens/s
qwen2.5:14b-instruct-q4_K_M - 24-25 tokens/s
deepseek-r1:14b-qwen-distill-q4_K_M - 23-25 tokens/s
qwen3:30b-a3b-q4_K_M - 49-50 tokens/s
gemma3:12b-it-q8_0 - 17-18 tokens/s
Хочешь не хочешь, а оптимизации годами писались под одну конкретную архитектуру.
Оптимизации чего? Насколько я понимаю, там тупо вызовы API соотв. фреймворков (metal/cuda/etc) для вычислений, а вся магия кроссплатформенна, и оно может и на cpu работать.
а вся магия кроссплатформенна
Нет, вы неправильно понимаете.

А можете подробнее рассказать?
Так то вот что нашел

Но q4 модели вполне норм там работают.
Могу только поверхносто пояснить. При использовании CUDA-бэкенда происходит вызов архитектурно оптимизированных подпрограмм (compute kernel). Они работаю ТОЛЬКО на видеокартах Nvidia их НЕЛЬЗЯ ни перенести ни "перекомпилировать" никуда. Единственный путь это писать заново их. Собственно Intel и AMD этим сейчас занимаются работая над oneAPI и ROCm соответственно. Как работает бэк на Metal/Vulkan я не знаю, скорее всего там просто ниавный подход с небольшими оптимизациями.
Госпади, как же эти олигофрены со своими 8 гигами достали уже. Пора уже очнуться и сделать конкурентное решение, но по ощущениям, красные и зелëные словно сговорились.
Неделю назад с 6 Гб поставил, а они уже больше 8 хотят!
Не совсем понял значение слова "защитили" в заголовке. От кого защитили? Рыночек же порешает, не?
Зато разрабы игр не защищают.
Но на самом деле эти 100500 пикселей лучше ли выглядят чем старые 720?
Когда ищешь игровой ноутбук, хочешь 720 но с хорошей матрицей
Да, лучше. Потому что DLSS это ещё и антиалиасинг, который наконец-то не заставляет выбирать между беспомощностью SMAA и размытостью TAA. Поэтому я его включаю даже там, где и без него всё летает.
Играл сталкер 2, на 1600р у меня лагает даже с DLSS. Каково моё было удивление, когда отключил DLSS и... Лагает так же, но увидел четкую картинку , а не мыло мыльное - как будто прозрел, глазу приятно. Но в принципе если не сравнивать то и с DLSS можно играть... Не знаю что там на 720, нету уже таких мониторов даже, но вот когда-то на телевизоре играли - никакого сглаживания не надо было, ибо оказывается это проблема пикселей
1080р ещё долго будет. Т.к. в своё время это было единственное средство выживания при майнерском буме. Да и сейчас цены на видеокарты завышены.
Я лишь грустно смотрю на это со своими 3 гб vram😥
AMD защищает опцию 8 ГБ VRAM в новых видеокартах для игр в 1080p, так как этого «на самом деле более чем достаточно»