Macbook Pro с GF8600 — спешу вас предупредить, в чипах Нвидии это серии (GF8400-8600) определённого года выпуска (по-моему 2008) заводской брак, они вылетают. У нас вылетело так 2 ноутбука, один из которых — именно Macbook Pro. Сервисный ремонт очень проблемный — чип впаян на материнку, да и купить его уже не реально.
[извиняюсь за маленький офф-топ]
Интересует нагрузка на видеокарту при подключении столь большого монитора. «Сдохнет» ли карта быстрее при таком использовании? Есть ли разница в DVI и HDMI смотря с той же стороны «нагрузки»?
Ээ… у меня к одной Radeon 5850 подключены три монитора (Eyefinity рулит), суммарноe разрешение системы — 4368 * 1080. Полтора года уже живет без проблем, разве что один раз вынимал кулер от пыли продуть :) Каким образом карточка от этого должна «дохнуть»?
во-первых, мне одному кажется, что вся смысловая нагрузка поста может быть высказана одним предложением типа «Используйте внешнюю видеокарту через переходник %модель% с внешним БП»?
во-вторых, непонятно, почему пост в DIY.
в-третьих, стоило бы сказать в начале поста, что мы не «апгрейдим видеокарту ноутбука», а делаем из ноутбука десктоп.
в-четвертых, БП с больщой мощностью вообще не требуется, мы питаем только видео среднего класса, а не десктоп вместе со всеми процессорами-хардами-материнками
в-пятых, платка с переключалкой для ATX тоже является излишеством, ее можно было реализовать прямо на самом ATX коннекторе, причем вручную. достаточно замкнуть зеленый(обычно) на черный, что бы БП начал подавать ток.
1 вот и делай посты с одним таким предложением. они будут очень интересны!
2 для сравнения, чтобы видна была альтернатива. чтобы хабраюзеры заинтересовались и сравнивали. а как сравнят, то поймут минусы и плюсы подхода.
3 это не десктоп. это тот же ноут, который не был разобран и перепаян. были бы автором — сказали бы как хотели. я сказал так, как сказал.
4 БП — для будущего компа. если брать — то хорошее.
5 про АТХ — напишите им в тайвань чтобы в мануале показали какие проводки надо замыкать вручную на БП :-D
*уже набежали, я вас ждал. :-D
**хоть в открытую пишите что не нравится. уважение вам за это!
Там на платке маленький переключатель. А сделана она для того, чтобы маленьких детей при включении компьютера током при «ручном замыкании» проводов не ударило. Это банальные правила безопасности.
детей нет не спорю. но дело не в этом, просто я радиотехник по образованию и мастер по ремонту железа на работе. максимальное напряжение на «хоботе» к мамке 12 вольт, сила тока там тоже не большая и то это не на проводах которые закорачиваются для включения. Ну и вообще если вы переживаете за детей — не стоит оставлять разобраную(бп это внутренняя деталь, не предназначеная для шаловливых ручек) технику в доступном для них месте. Шанс что ребенок всунет пальцы в вентилятор БП намного больше чем то что его стукнет током.
>1 вот и делай посты с одним таким предложением. они будут очень интересны!
мой тезис был тоооненьким намеком на то, что не нужно захламлять один из лучших блогов хабра унылейшими фекалиями, которые к тому же ни разу не соответствуют тематике
>2 для сравнения, чтобы видна была альтернатива. чтобы хабраюзеры заинтересовались и сравнивали. а как сравнят, то поймут минусы и плюсы подхода.
Вы неадекватны. каким образом Ваш тезис отвечает на мой вопрос «Почему _это_ в DIY»?
>3 это не десктоп. это тот же ноут, который не был разобран и перепаян. были бы автором — сказали бы как хотели. я сказал так, как сказал.
Вы обманули аудиторию Хабра, снабдив унылый вы^W пост «желтым» заголовком. Видеокарту ноутбука Вы никоим образом не проапгрейдили, как обещали в начале поста.
И моя карма еще недостаточно заминусована Вами, друзей позовите, а то я ж не замолчу, пока в минус не уйду.
а) не парьтесь, не в карме счастье
б) посту я поставил плюс — работа всё же была проделана
в) в карму я поставил минус — в комментариях Вы ведёте себя крайне неадекватно
1 счастье я ловлю при постройке драконов
2 ему пофиг на это
3 а я в карму в ответ ничего не поставил.
Карма — это не комментарии. Комменты при минусовой карме вы и пишите.
Карма — это показатель, на основе которого система хабра определяет, можно автору посты дальше писать или нет.
Потому и удалю при минусе.
И останетесь с одними корпоративными блогами. Да будет рекламохабр — демотиватор!
Карма это отношение пользователей к конкретно данному человеку. Вы действительно себя проявляете крайне неадекватно. Не нужно строить из себя Нострадамуса, предсказывая что будет дальше и что произойдет с Хабром.
осталось состряпать к этому монстру какой-нить корпус, дабы выглядело не так страшно, ну а так конечно гуд, гораздо более дешёвое решение, нежели то предлагается под ключ (я так думаю, ибо ни Amilo Sa 3650, ни ViDock Gfx на ебее не нашёл)
Тоже было первой мыслью — видеокарточку с адаптером и небольшой БП (полноценный ATX-монстрик тут действительно нафиг нe нужен) поставить в небольшой корпус, в него же вделать кнопку включения. В перспективе — сделать в корпусе отверстия под VESA-крепления и прикрутить сзади на монитор, как неттопы.
да, мысль пожалуй очень верная, правда не знаю на тему крепления этого «ящичка» на монитор (вопрос в ширине этого ящичка). В общем я думаю как продолжение темы будет интересно почитать
Для программирования на CUDA. Сказал же. Данных мало, думать много.
Как усилитель Matlab — хреновина классная же. :)
А то что PCI-E x1 — не влияет. Там не текстуры пересылаются.
Если б только играться то конечно, можно самый дешевый БП и GT9800 и будет счастье школоте)))
видяху и бп вы взяли слишком мощные для поставленой задачи и возможностей pci-ex1. а смысла в смене проца на древнем офисном буке вообще не вижу. Думаю за потраченные вами на весь этот апгрейд деньги можно было взять современный игровой ноут.
15т.р. это у нас 500$ если не ошибаюсь, продаем еще старый ноут за 200-300$ и получаем бюджет для вполне неплохого ноута. Но если стояла задача наростить вычислительную мощность в плане CUDA/Stream/итд или для подключения большого количества моников тогда ваше «творчество» имеет право на жизнь.
— мощная видяха обычно и не нужна. обычно задача — подключить к буку 3-4 экрана при одном штатом DVI/DP. тут какаянть quadro nvs на pci-e x1 справляется на ура
— IBM (lenovo) давно уже выпускает (возможно к современным моделям не катит) t6x advanced dock со слотом x16 для видеокарты и pci-e x1 на нее через док-разъём.
основная беда всех этих решений, впрочем в том, что нормального «андока» этой видеокарты просто нет и при желании отключить внешние экраны и унести бук в другое место, приходится делать ребут. потому имхо они и не прижились так сильно — в писюках pci(e) hotplug очень печальный.
Да. Есть обычная SSD ExpressCard 4ГБ. Она как флэшка на лету определяется.
Также и эта ExpressCardPCIe. Подключил ее — и драйвер nvidia цепляется, основной экран идет влево на большой монитор.
Сначала как моргнуло все — аж испугался что все, хана ноуту, а потом оно чудесным образом ожило на соседнем экране.
Вот только выключить так не разу не получилось. Попробую как «извлечь устройство».
В трее сейчас обнаружил нового поселенца — называется «видеоконтроллер VGA-совместимый».
Если при включении ноута ExpressCard был включен то он не получает верной инициализации и не видится в ОС. Приходится после выключения ноута вытаскивать его. А при загрузке winlogon — втыкать обратно. Порядок запуска питания платы тоже важен.
Порядок такой:
1. В трее отключаем адаптер как будто usb-носитель. В результате тут же происходит выгрузка драйвера и основным монитором стал тот, что на ноуте.
2. Выключаем питание основной платы с помощью удобной кнопочки на мини ATX плате (а не разматываем провода).
3. Вытаскиваем ExpressCard. Винда издает «тылынь» о подтверждении вынимания.
4. ОС работает ок.
P.S. Ранее пробовал без 1пп. В итоге все замирало и только хард-ресет укладывал ноут спать. Вриходилось вырубать ноут не вынимая ExpressCardPCIe.
1. Имхо — как минимум удачное решение при необходимости подключать к ноуту с малым количеством видеовыходов несколько мониторов. Но если на ноуте есть DVI / HDMI / RGB (любых два из них), то этот момент в ценности уже отпадает.
2. Надо порыть дилэкстрим и прочих — может, подешевле найдётся аналог.
3. Вопрос: "… плата может подключаться и через 4 PCI-Ex1 интерфейса ..." — означает ли это, что эта плата, подключенная через n интерфейсов, будет в n раз быстрее передавать данные на видеокарту?
Тащим игру за окошко на тот монитор, который подключен к нужной видеокарте. И все! :-D
Например тащю alien swarm влево — 32 FPS, тащю на ноут окно его — 3 FPS…
Винда смотрит позицию окна и какой моник отвечает за эти координаты, ну и говорит нужной видюхе api вызовы directx.
Что приятно — так это что в 7ке все это происходит на лету и абсолютно незаметно для пользователя.
Тогда согласен.
Но в некоторых случаях просто тащу окно на нужный моник и в настройках выставляю fullscreen — он цепляется за тот моник, куда был перетащен.
Корпус бы чтоль человечий сколхозил. Так то идея интересная. Превратить таскабельный бук в мощную числодробилку там где это надо (на работе, например). Про матлаб хорошо вспомнили, ага.
Для игр на офисном ноуте это извращение, но пост всё-таки надо было сделать как обзор платы самой.
За плату с переходником на x4 спасибо, искал подобное решение, но конечный итог не нашёл, теперь мои поиски закончены :) Буду держать на заметке.
Почему-то все уперлись в применение в качестве переходника для видео. А никто не думал, что можно тестировать raid контроллеры, перепрошивать то, что упало при прошивке в обычной системе, применять там где нету ничего кроме x4 разъема например, а вставить надо x8 или x16, для тестировщиков, для сервис центров и т.д.
Люди смотрите шире, а вы уперлись в игрушки. Глупо.
Автора конечно не поощряю за сам пост, так как стоило бы рассказать про сам переходник, а не видяху и игры, а в остальном спасибо за наводку по переходникам.
Точно такое же проделал со своим HP DV9690en, правда я взял GTX460 768MB. Работает также — на ура. <a href=«habrahabr.ru/blogs/DIY/104046/'>Тут писал об этом.
Только я брал не PE4H, а PE4L, я решил что незачем переплачивать за режим 2x который мой ноут всёровно не потянет — обошлось в 65$ с доставкой.
Плата точно также при 100% нагрузке трещит. (Кстати, это нормально?) Сама плата очень интересно сделана, текстолит-резина(?)-тесктолит, и скреплена болтами, такой трехслойный бутерброд.
Перерасти? Разве что в головную боль или депрессию. Или бессонницу.
Приличный БП стоит достаточно смешных денег, 2.5к за Thermaltake TR2 на 550+- ватт, которого за глаза большинству — не так много, а учитывая его КПД и бесшумность — так и вообще копейки.
На оверклокерах можно поискать, как такие дроссели заливают лаком внутри, чтобы не пищали. Сам не видел инструкций, только упоминание о них, но смысл понятен — найти пустоты, в которых болтаются проводки дросселей, залить и высушить. Если дроссель открытый, то это совсем просто. Можно ещё найти похожий на сгоревшей матплате или в магазине и поменять.
(Удивительно, почему некоторые статьи (я об этой и Вашей) о том же самом привлекают огромное внимание, а точно такие же — нет? Может быть, день публикации был неудачный? Но то и то — выходные. Может, здесь более наглядно — что хотим и что получили?)
Ух ты. Поздравляю! GTX460 — вещь, да? :-D
— Intel Core 2 Duo T7500 2.2Ghz
— 3GB RAM
завидую. у меня всего 2ГБ потолок. и стоковый камень был слабее значительно.
GTX460 действительно вещь :)
Не жалею что взял её.
Камень к сожалению греется очень сильно (50 в простое), пришлось программно понизить вольтаж — помогло, скинул 10 градусов.
Ну и ноутбук то у вас изначально был не предназначен для этого, офисные как никак.
Вас ещё повезло что у вас можно нормально включать-выключать, у меня только в Спящий режим и обратно, а то замучаешься обратно включать потом. Нечему завидовать :)
Так и сделал, просто дело в том что если его не выводить из спящего режима, а включать, то он сначала рухнет в BSOD и только со второго раза загрузится. Не знаю с чем это связанно.
Да, можно, с этим проблем не возникнет, PCIe x1-16 обратно совместимы, тоесть можно втыкать x1 в x16 и наоборот.
Только если хотите всунуть полный (Или больше чем x1) в слот x1, смотрите чтобы он был на конце открытым, и чтобы нечего не мешало ему дальше слота.
Помоему, это уже было…
Вы знаете, там у производителя китайского еще и схемы плат и полностью все есть… Я дома такую сам собрал: помогло наличие запчастей, дохлая материнка и умение делать печатные платы
Действительно было — выше автор коммент сделал.
Но когда надо было — поиск в сети на тему «апгрейд видеокарты ноутбука» — не дал нужных результатов.
Было все не то. Потому и название топика такое. Чтобы те, кому надо — сразу нашли.
Большое спасибо за пост. Очень дельно и понятно, сделаю себе также, т.к от стационарника отказался, живу и работаю на ноуте, а когда нахожусь дома хочется больше 2х мониторов и производительности.
Эта статья гораздо интереснее, чем заказные высеры Бумбурума и несёт полезную информацию, в отличие от обзоров ноутбуков, псевдо-насов и дорогих компьютеров которые покупают в Юлмарте.
Я всё, сливайте.
Ну не знаю, что-то это попахивает расстройством психики:-) Из знакомых если кто и берет ноут как замену десктопу, то только в случае частых переездов, либо им достаточно мощности, в игры не играют, а на фильмы хватает. Но взять и из ноута сделать замену десктопу для игр, купить для него клавиатуру, блок питания, видяху и монитор, какой смысл, перевозить так же громоздко, как и обычный десктоп.
Когда нужно перевозить его — а это явно не для игр — там видеокарта и монитор не нужны. Берем и перевозим т.к. ноут целый.
А когда приехали домой — то дома можно и оторваться на полную :-D
вместо одного слабого места получили два слабых места возведенные в квадрат.
Это я о размышлениях из серии, а что случится если у одного из БП (АТХ или штатный от ноута) начнется утечка по току на минус. Минус то простите теперь у обоих БП общий. Получим разность потенциалов на разных БП и в лучшем случае сработает защита в БП, в худшем похороним весь этот огород. Даже по фото видно, что в нескольких сантиметрах от этой конструкции еще и батарея — здравствуй земля.
Не знаю таких способов. Экран ноутбука имеет на выходе тонкий шлейф, втакающийся в спец. гнездо на материнке.
У него нет DVI\HDMI входа. Возможно в некоторых ноутах и есть такие экраны типа KVM, но я не встречал.
Даже если и есть DVI вход у экрана, то одновременно может быть только один видеовход.
Для внешней видеокарты желательно иметь внешний монитор. Иначе вы получите только CUDA\Stream ускоритель.
Можно заставить это работать на мониторе ноутбука, но для этого надо чтобы изначально в ноуте стояло видео от Intel. Тогда можно добиться связки а-ля Optimus, там в статье есть ссылка на форум, на нём для этого есть дрова. Но я бы это крайне не советовал этого, так как поток PCIe x1 и так не очень велик, а если его ещё и обратно гнать, то он станет ещё медленнее, и тогда вообще не будет в этом смысла.
я наверное извращенец, но всё же спрошу:
есть старый ноут с Linux на борту — хватает на всё что нужно, но иногда (прям совсем иногда) очень нужна 3д акселерация (на Intel 945GM особо не получается) в VirtualBox, в которой другая ось. И вот вопрос — можно ли с этой штукой забабахать 3д ускорение в виртуальной машине (можно с монитором в видяху)?
Прошло 5 лет, но вот ответ неправильный. В линуксе не важно где у тебя окно, ускорение идет выбором устройства. В линуксе можно пробросить PCI физически в виртуалку. Таким методом можно макось запустить и на ней рендредить на внешней видеокарте видео, к примеру.
Ну или винду и там в игрушки играть.
На фотке под надписью «Подключаем все это дело по схеме:» ноут делл 1535, я свой родной ноут везде узнаю) Статья о ноута самсунговском, а картинка с деллом.
И зачем столько возни?
Хай энд видеокарта + не самый мощный ноутбук + китайский контроллер, который сложно достать + низкая пропускная способность, следовательно низкий профит.
И это только ради кучи мониторов. Смысл?
Апгрейд видеокарты ноутбука