Российский умелец перепаял на RTX 3070 16 ГБ видеопамяти, и карта работает с ними стабильно



    7 марта 2021 года российский блогер под ником VIK-on рассказал, что смог установить на видеокарту Palit GeForce RTX 3070 Gaming Pro в два раза больше видеопамяти — 16 ГБ GDDR6. При этом графический адаптер работает стабильно, если правильно контролировать частоты GPU и памяти программой EVGA Precision.

    Блогер смог заменить восемь штатных модулей памяти 1GB GDDR6 (Samsung K4Z803256C-HC14) на 2GB GDDR6 (K4ZAF3258M-HC14) того же производителя. Основная проблема возникла потом — как запустить всю доступную память на обновленной карте.

    Nvidia c 2018 года, начиная с графических процессоров Turing (GeForce 20, GeForce 16, Quadro и в Tesla T4), поставляет vBIOS партнерам в зашифрованном виде. Невозможно его скачать, изменить и загрузить обратно на карту. Тем более, что ни у одного из производителей нет vBIOS для GPU GA104 с 16 ГБ видеопамяти.

    VIK-on все же смог получить доступ ко всему новому объему памяти путем задействования нужной конфигурации страпов (strap), которую он получил опытным путем с помощью подключения определенных резисторов на печатной плате видеокарты. Судя по видео, блогер достаточно долго пытался найти нужные резисторы на текстолите платы, но ему никак не удавалось идентифицировать их нужную связку. В итоге он нашел четыре резистора, отвечающие за обвязку drmos около одной из фаз питания и шим контроллера pci, причем они были размещены на разных сторонах печатной платы.

    Блогер пояснил, что карта с 16 ГБ видеопамяти хоть и запустилась, но работала нестабильно, вылетала, фризила картинку, а часть тестов вообще не могли на ней запуститься. Попытки использовать разные версии видеодрайвера и менять настройки в nvidiaprofile не решали проблем. Причем карта показала такую же нестабильность и в Linux.

    Ролик про установку 16 ГБ GDDR6 видеопамяти на Palit GeForce RTX 3070 Gaming Pro.

    Блогер пояснил, что смог запустить стабильно видеокарту, когда залочил частоты ядра и памяти на уровне 1980 МГц и 8001 МГц в программе EVGA Precision x1. Причем температура карты без нагрузки составляет около 39-42 градусов даже при такой постоянной частоте.

    Обновленная карта набрала в тесте 3DMark Time SpyNow 13 783 балла (было 8 356 баллов до обновления), а в Unigine Superposition 8K она получила 4914 очков.

    Ролик про решение проблем и тесты обновленной видеокарты.
    Реклама
    AdBlock похитил этот баннер, но баннеры не зубы — отрастут

    Подробнее

    Комментарии 38

      +3
      Вспоминается олдскульная trio s3, где были панельки под память. А теперь вот такой изврат. Хотя смысл сего мероприятия так и не понятен. Технически никто не запрещает разметить 16 гигов, а вот софт где достать? Вот биос не оценил таких стараний
        +9

        Просто удивительно, что вообще получается что то модифицировать. Для меня с моими знаниями это уже техника на грани фантастики. А автор видео методом тыка что то смог сделать.


        Я лет 15 назад смотрел сериал Звёздные врата, там технологии Гоа-олдьдов были продвинутые, на кристаллах. И я смеялся со сцены, когда Картер щупами прибора пощупала здоровенные, разноцветные кристаллы и воскликнула — "этот надо заменить".


        Ещё пара десятков лет эта сцена повторится наяву. Только и останется, что пощупать карточку щупами цешки и воскликнуть — "сдохла, надо весь компьютер менять". Хотя с компьютерами apple уже будущее здесь. Профессия ремонтника умрет, родится профессия заменителя кристаллов.

          0
          Ну может там пробой у кристалла и тестером можно проверить?
          Грубо говоря как с транзистором, если эмиттер с коллектором звонятся то всё.
            0

            С другой стороны и средства для измерений растут в способностях — если раньше ремонтник мог рассчитывать на лупу, мультиметр и 40-вт паяльник, то сейчас обычный микроскоп — ничего удивительного, осциллограф на гигагерцы — да пожалуйста, тепловизор — даже у детей, электронный микроскоп в гараже — встречается, так глядишь и микротомографы с разрешением в десятки миллиметров через десять лет не будут удивлять (они у кого надо и сейчас есть, вопрос когда будут достаточно дешёвы, чтобы поставить в условном сервисе или домашней лабе).

            0

            Панельки не работают на современных частотах

              0
              Панельки образно. Нынче есть другие разъемы, те же сокеты процессорные например.
              Другое дело что все это удорожает конструкцию при том что понадобится нескольким процентам потребителей всего.
              +1
              Хотя смысл сего мероприятия так и не понятен.

              Эмм… Увеличить объём памяти? Не?
                0
                Карта работает нестабильно и ясно почему, в биосе карты прописаны тайминги для памяти и скорее всего количество страниц (т.е. объем). Смысл перепайки если у тебя нет возможности пропатчить, а лучше перекомпилировать биос?
                Даже на уровне идеи ясно что задача без содействия разработчика девайса трудновыполнимая.
                  +1
                  Стабильно работает. Не дочитали?
                  Размер памяти конфигурируется резисторами.
                    +1
                    Хм, занятная история. Когда читал этот пост второй половины (про лок по частоте и про стабилизацию работы) не было.
              +6
              А можно вытаскивать результаты из роликов сразу в статью? Ну в самом деле…
                +2
                Добавил результаты тестов в публикацию.
                  –1
                  Кажется, что не всё добавили. Оговорюсь, что осуждаю далее написанное.

                  Лично я зашел в статью узнать, какой прирост в майнинге, ждать ли ещё большего дефицита чипов и подорожания, получилось ли увеличить доходность.

                  Так что краткий TL;DR: Нет, пока что карта нестабильна, если и майнит, то до ~58mh в разгоне, притом что форумные майнеры свои 3070 насилуют вплоть до 63-64.

                    0

                    Майнерам тут не рады. Уходите

                      0
                      Я не майнер, но, увы, приходится за ситуацией невольно следить из-за интереса к компьютерному железу и сколько-то разбираться в текущем рынке и его причинах.

                      ...
                      Впрочем, даже если для таких людей по Вашему, представляющему всё комьюнити, мнению места нет, то у меня есть чем Вас обрадовать — я на хабре за редким исключением ридонли.
              • НЛО прилетело и опубликовало эту надпись здесь
                  0
                  Если найдёте такую новость (а можно и с 16 ГБ) — давайте, пожалуйста, два зелёных свистка вбок :)
                    0
                    Нет, чип гп GP107 поддерживает только 4 чипа памяти и не умеет работать с 2гбитными чипами. Максимум можно поменять производителя памяти с выставлением страпов, но зачем?
                    • НЛО прилетело и опубликовало эту надпись здесь
                        0

                        В теории да.

                      0
                      Если цель — экономия на покупке, то такой подход нерационален.
                      +2
                      Лет 7 назад хотел провернуть такую же штуку в устройстве, разработанном в компании, но не смог — разработчик не подключил дополнительную линию адреса от DRAM к CPU. Пришлось заказывать новую ревизию платы. Здесь товарищу повезло, что производитель карты был готов к такому объему памяти.
                        0
                        Производитель карты скорее по недосмотру не удалил лишнюю дорожку из референс дизайна, чтобы хардварно ограничить возможность увеличения объёма, или побоялся удалением дорожки поломать все задержки. В мире очень мало специалистов, способных с нуля нарисовать такие платы, все копируют оригинальные рефдизайны.
                          0

                          Сейчас же все эти ddr не требуют доп дорожек?

                        +5
                        То блогеров называют инженерами, то наоборот…
                          +3

                          Что-то вспоминается бюджетные версии GeForce 4, на которые некоторые производители ставили вдвое больше памяти, но ее нельзя было использовать из-за ограничений то-ли драйвера, то-ли самого чипа.

                            +1
                            Не только GeForce4, у меня в старом ноутбуке с GT540M стоит 2 ГБ. Причём ни одно приложение не задействовало более 500...700 МБ. В итоге сделалал в ней 1 ГБ RAM-диск для кэша браузера.
                              +1

                              RAM-диск на видео? Занятно! Что софт для этого?

                                +1
                                Так и называется — GPU Ram Drive, к ней нужен ImDisk Virtual Drive. Есть автозагрузка, в моём ноутбуке данные на этом диске сохраняются в спящем режиме (возможно, зависит от реализации). Скорость ниже, чем у системной ОЗУ — порядка 1 ГБ/с, но зато ресурс SSD не расходуется.
                            0

                            Справедливости ради, эксперименты с увеличением памяти не новы, и применение страпов для конфигурации объёма и чипов памяти я видел у профильных спецов канала Core:
                            https://youtu.be/4IqdquoHLmk (1060, тут с биос проще)

                              0
                              Было бы круто если бы можно было просто на самой плате иметь сокет под чип и разъём GDDR и использовать их, захотел расширить память — воткнул плашку, устарел чип — поменял. Ну или чтобы было соглашение между производителем карт и процессоров/чипсетов, чтобы видеопамять бралась из пула устройства DDR/NVME/PCIE. Воткнул в PCIe дополнительную плашку GDDR6 и можно разрешение текстур апнуть. Не так как в shared memory конечно или всяких SLI. Эх мечты, мечты.
                                0
                                Времена нынче не те, такие штуки делать никому не нужно, да и не факт что возможно (нет стандарта плюс высокие частоты и разъемы не очень дружат).
                                Тут одно поколение процессоров на мамке предыдущего поколения запустить легально не дают на том же сокете, куда уж там решениям которые раньше не существовали.
                                  +2
                                  Да толку — через 5 лет и так выйдет новый стандарт сокета. Вот купил я в 2014 году десктоп с i5 4 поколения- и толку теперь с того что можно вытащить проц? Стандарт сокета то поменялся, и так вместе с материнкой менять.
                                    0
                                    Согласен на все 100. Сама мысль «потом может быть заменю на что посолиднее» хоть и греет душу, но лет так через 5 рассыпается в прах от необходимости в полностью новом железо, ибо стандарты подросли и без новых сокетов/разъемов тут никак.
                                    А с другой стороны дешевые платы с распаянными ЦПУ — только атомы и их аналоги. Хочешь помощнее встроенное — это хотя бы ноутбучные ЦПУ и тут сюрприз — массовых решений нет, рукой машут индастриал варианты с нецензурной ценой.
                                      0
                                      Сама мысль «потом может быть заменю на что посолиднее» хоть и греет душу, но лет так через 5 рассыпается в прах от необходимости в полностью новом железо

                                      От платформы зависит. У меня, например, апгрейдами домашний компьютер прожил с 2009 по 2018-й. И нынешний агрегат уже с Ryzen 3600 проапргейдился до Ryzen 5900.
                                        0
                                        Само собой, все от конкретного применения зависит. И я высказался про свой случай, когда апгрейд делается очень редко. Я бы с удовольствием взял за основу платформу с распаянным ЦПУ. Но увы — они как правило сильно дороже стандартных десктоп вариантов при +- сопоставимой производительности (если говорить о производительных решениях)
                                        0
                                        У меня ноут жил ну не 10 лет, но близко:
                                        — оперативку с 8 до 16 апнул
                                        — жесткий на 1 тб перенёс на место двд, а на его место поставил ссд на 128.
                                        — ссд на 128 заменил на 256
                                        — ссд на 256 заменил на 512
                                        — долго думал над установкой fullhd ips матрицы, но так как режим обычно был работа с внешним моником, а базовый — дополнительно для всяких чатиков, то не стал
                                        — ссд на 512 вынул в комп, на его место поставил 256, 16 гигов заменил на 8 и в таком виде отдал родителям под интернетики.
                                    +1
                                    Цитата из коментариев к второму видео от автора:
                                    еще одно обновление… оказывается ларчик просто открывается, по подсказке одного из подписчиков, при выборе макс режима производительности в панели нвидия карта стала нормально работать без костылей. так что как то так. единственное что частота ядра и памяти в этом случае держится на уровне 1770/7000 соответственно но это уже мелочи

                                    Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                                    Самое читаемое