Pull to refresh

Comments 141

Да вы, батенька, извращенец! (В хорошем смысле ))
ага, еще и добил ссылкой на убийцу времени.
Маньяк, как минимум.
Интересно а с mac mini такой трюк пройдет?
А втыкать то там некуда это все дело, так что не пройдет.
Интересно а пройдет ли с Macbook Pro старенький не юнибади с GF8600?

Пожалуй можно попробовать, осталось найти владельца видяхи и БП :)
Macbook Pro с GF8600 — спешу вас предупредить, в чипах Нвидии это серии (GF8400-8600) определённого года выпуска (по-моему 2008) заводской брак, они вылетают. У нас вылетело так 2 ноутбука, один из которых — именно Macbook Pro. Сервисный ремонт очень проблемный — чип впаян на материнку, да и купить его уже не реально.
В курсе, но бог миловал пока, тьху-тьху-тьху :)
Вау, чудны китайские умельцы. Никогда б не подумал, что существует такой переходник.
[извиняюсь за маленький офф-топ]
Интересует нагрузка на видеокарту при подключении столь большого монитора. «Сдохнет» ли карта быстрее при таком использовании? Есть ли разница в DVI и HDMI смотря с той же стороны «нагрузки»?
Монитор как монитор. Разве есть разница в сроке службы в зависимости от размеров монитора?
Ээ… у меня к одной Radeon 5850 подключены три монитора (Eyefinity рулит), суммарноe разрешение системы — 4368 * 1080. Полтора года уже живет без проблем, разве что один раз вынимал кулер от пыли продуть :) Каким образом карточка от этого должна «дохнуть»?
ну как же — три моника, значит напруга должна быть большая, карта быстрее изнашивается!
/irony
Не напряжение, а поток данных! Изнашиваются контакты разъема видеокарты, по ним в три раза больше данных пролетает!
во-первых, мне одному кажется, что вся смысловая нагрузка поста может быть высказана одним предложением типа «Используйте внешнюю видеокарту через переходник %модель% с внешним БП»?
во-вторых, непонятно, почему пост в DIY.
в-третьих, стоило бы сказать в начале поста, что мы не «апгрейдим видеокарту ноутбука», а делаем из ноутбука десктоп.
в-четвертых, БП с больщой мощностью вообще не требуется, мы питаем только видео среднего класса, а не десктоп вместе со всеми процессорами-хардами-материнками
в-пятых, платка с переключалкой для ATX тоже является излишеством, ее можно было реализовать прямо на самом ATX коннекторе, причем вручную. достаточно замкнуть зеленый(обычно) на черный, что бы БП начал подавать ток.
подписываюсь под каждым словом.
1 вот и делай посты с одним таким предложением. они будут очень интересны!
2 для сравнения, чтобы видна была альтернатива. чтобы хабраюзеры заинтересовались и сравнивали. а как сравнят, то поймут минусы и плюсы подхода.
3 это не десктоп. это тот же ноут, который не был разобран и перепаян. были бы автором — сказали бы как хотели. я сказал так, как сказал.
4 БП — для будущего компа. если брать — то хорошее.
5 про АТХ — напишите им в тайвань чтобы в мануале показали какие проводки надо замыкать вручную на БП :-D

*уже набежали, я вас ждал. :-D
**хоть в открытую пишите что не нравится. уважение вам за это!
>1 вот и делай посты с одним таким предложением. они будут очень интересны!
Каждый должен знать какие проводки замыкать на блоке питании для теста его работоспособности.
Там на платке маленький переключатель. А сделана она для того, чтобы маленьких детей при включении компьютера током при «ручном замыкании» проводов не ударило. Это банальные правила безопасности.
там нечему бить током
Просто у вас нет детей. И потому пофиг.
детей нет не спорю. но дело не в этом, просто я радиотехник по образованию и мастер по ремонту железа на работе. максимальное напряжение на «хоботе» к мамке 12 вольт, сила тока там тоже не большая и то это не на проводах которые закорачиваются для включения. Ну и вообще если вы переживаете за детей — не стоит оставлять разобраную(бп это внутренняя деталь, не предназначеная для шаловливых ручек) технику в доступном для них месте. Шанс что ребенок всунет пальцы в вентилятор БП намного больше чем то что его стукнет током.
>1 вот и делай посты с одним таким предложением. они будут очень интересны!
мой тезис был тоооненьким намеком на то, что не нужно захламлять один из лучших блогов хабра унылейшими фекалиями, которые к тому же ни разу не соответствуют тематике
>2 для сравнения, чтобы видна была альтернатива. чтобы хабраюзеры заинтересовались и сравнивали. а как сравнят, то поймут минусы и плюсы подхода.
Вы неадекватны. каким образом Ваш тезис отвечает на мой вопрос «Почему _это_ в DIY»?
>3 это не десктоп. это тот же ноут, который не был разобран и перепаян. были бы автором — сказали бы как хотели. я сказал так, как сказал.
Вы обманули аудиторию Хабра, снабдив унылый вы^W пост «желтым» заголовком. Видеокарту ноутбука Вы никоим образом не проапгрейдили, как обещали в начале поста.

И моя карма еще недостаточно заминусована Вами, друзей позовите, а то я ж не замолчу, пока в минус не уйду.
Дык я за пост в минусе, не волнуйтесь. Хабробыдло побеждает.

А если пост не нравится — его отхабрят, а не будут +29 за 40 минут ставить.

P.S. разве такого дракона сделает адекватный? :-DDD))))))
а не будут +29 за 40 минут ставить.

Если Вы помните, недавняя недостатья про regexp-ы тоже на главную вылезла. Сейчас автор её сам удалил.
Не знаю. Не видел. Тоже удалю, как карму меньше 15 сделаете. Уже -20 за пост. Фигли.

Может в результате поста в магазинах купить можно будет такие платки, а не искать на другом краю света.
Платки и сейчас в магазинах купить можно (простите за этот искрометный бред).
Какой Вы добрый сегодня. Будете каждому несогласному карму сливать? Как это по-взрослому.
3 камента. в карме -3. Какие выводы? Кто их поставил? )))

Кстати, за этот пост меня mydoom благодарить должен. У него за пост +5 уже. У меня -15. )))

Да и какая разница? Перестанем посты просто писать. И станет хабр демотиватором и местом ссылок. ))
Это мой 4 пост, и уже таааак демотивирует. ))))

А вообще тенденция печальная на хабре. Шо пезец просто. Не знал, пока первый пост не сделал.
«Мама я не виноват! Он первый начал! :'-(»
Вы всегда скобочками абзацы заканчиваете?
А друзей позвали вы. Я вам вернул ваш минус. Не более.
Так что вместо со своим хабрабыдлом радуйтесь.
Плюсы, минусы… Какая разница? Развели черт знает что на целую ветку…
Надо же. +3 поставили комменту.
Неужели и вправду надо было сделать одним предложением этот пост???

Все так и считают???

А как же дракона посмотреть? :-D
Да не, не все. Интересный пост, не парься. :)
а) не парьтесь, не в карме счастье
б) посту я поставил плюс — работа всё же была проделана
в) в карму я поставил минус — в комментариях Вы ведёте себя крайне неадекватно

У меня всё.
1 счастье я ловлю при постройке драконов
2 ему пофиг на это
3 а я в карму в ответ ничего не поставил.

Карма — это не комментарии. Комменты при минусовой карме вы и пишите.
Карма — это показатель, на основе которого система хабра определяет, можно автору посты дальше писать или нет.
Потому и удалю при минусе.

И останетесь с одними корпоративными блогами. Да будет рекламохабр — демотиватор!
Карма это отношение пользователей к конкретно данному человеку. Вы действительно себя проявляете крайне неадекватно. Не нужно строить из себя Нострадамуса, предсказывая что будет дальше и что произойдет с Хабром.
осталось состряпать к этому монстру какой-нить корпус, дабы выглядело не так страшно, ну а так конечно гуд, гораздо более дешёвое решение, нежели то предлагается под ключ (я так думаю, ибо ни Amilo Sa 3650, ни ViDock Gfx на ебее не нашёл)
Тоже было первой мыслью — видеокарточку с адаптером и небольшой БП (полноценный ATX-монстрик тут действительно нафиг нe нужен) поставить в небольшой корпус, в него же вделать кнопку включения. В перспективе — сделать в корпусе отверстия под VESA-крепления и прикрутить сзади на монитор, как неттопы.
да, мысль пожалуй очень верная, правда не знаю на тему крепления этого «ящичка» на монитор (вопрос в ширине этого ящичка). В общем я думаю как продолжение темы будет интересно почитать
видео не вставилось (
сделал UPD посту.
Проще было бы купить новый ноут. Лучше даже десктоп — по деньгам тоже было бы, а по времени в разы меньше.
Как раз нет. Сэкономил на материнке (UD5), корпусе(5т.р.), ОЗУ (3x2GB) и процессоре (i930). Если брать — то хорошее. А это минимум 20 килорублей надо.
Могли бы взять 925ый феном, мать на 790ом, 8 гиг рам 1600 на семерках и видяху — для игр и экспериментов — за глаза на 3-4 года.
Бурум, перелогинься. Твое железо уже обсудили.
Перелогинился. На чем мы там остановились? )
Вы совершенно не разбираетесь в выборе комплектующих…
А зачем настолько мощную видюху? Мне кажется проц из неё всё не выжмет и можно было вполне обойтись экземпляром подешевле.
Для программирования на CUDA. Сказал же. Данных мало, думать много.
Как усилитель Matlab — хреновина классная же. :)
А то что PCI-E x1 — не влияет. Там не текстуры пересылаются.

Если б только играться то конечно, можно самый дешевый БП и GT9800 и будет счастье школоте)))
Любопытно, возьму на заметку. Внешние видеокарты — это интересно.
Задумка и реализация на 5, но практический смысл нулевой)
видяху и бп вы взяли слишком мощные для поставленой задачи и возможностей pci-ex1. а смысла в смене проца на древнем офисном буке вообще не вижу. Думаю за потраченные вами на весь этот апгрейд деньги можно было взять современный игровой ноут.
Уже писал про мощность и зачем.
А потратил всего 8+4+3 = 15т.р.

Там под столом Кормен, Ривест, Штайн лежит. ;)

Не всем же играть то за компьютерами! :-D
15т.р. это у нас 500$ если не ошибаюсь, продаем еще старый ноут за 200-300$ и получаем бюджет для вполне неплохого ноута. Но если стояла задача наростить вычислительную мощность в плане CUDA/Stream/итд или для подключения большого количества моников тогда ваше «творчество» имеет право на жизнь.
для откомментировавших выше:

— мощная видяха обычно и не нужна. обычно задача — подключить к буку 3-4 экрана при одном штатом DVI/DP. тут какаянть quadro nvs на pci-e x1 справляется на ура

— если нужен эстетический вариант в корпусе — magma.com/expressbox1.asp например

— IBM (lenovo) давно уже выпускает (возможно к современным моделям не катит) t6x advanced dock со слотом x16 для видеокарты и pci-e x1 на нее через док-разъём.

основная беда всех этих решений, впрочем в том, что нормального «андока» этой видеокарты просто нет и при желании отключить внешние экраны и унести бук в другое место, приходится делать ребут. потому имхо они и не прижились так сильно — в писюках pci(e) hotplug очень печальный.
Кстати забыл сказать!
1. Включаем ноутбук (отдельно).
2. Затем питание БП, затем платы, вставляю в ExpressCard — и оно схватывается на лету!

Через 3 сек ставится драйвер и тут же переключается режим показа на 2 монитора.
А при выключении ExpressCard что происходит? Она же, как я понимаю, плаг-энд-плей?
Да. Есть обычная SSD ExpressCard 4ГБ. Она как флэшка на лету определяется.
Также и эта ExpressCardPCIe. Подключил ее — и драйвер nvidia цепляется, основной экран идет влево на большой монитор.
Сначала как моргнуло все — аж испугался что все, хана ноуту, а потом оно чудесным образом ожило на соседнем экране.

Вот только выключить так не разу не получилось. Попробую как «извлечь устройство».
В трее сейчас обнаружил нового поселенца — называется «видеоконтроллер VGA-совместимый».

Если при включении ноута ExpressCard был включен то он не получает верной инициализации и не видится в ОС. Приходится после выключения ноута вытаскивать его. А при загрузке winlogon — втыкать обратно. Порядок запуска питания платы тоже важен.
отож. выключить — главная проблема :)
попробую из трея вырубить. завтра напишу результат.
Подтверждаю о вынимаемости лапы дракона из ноута!

Порядок такой:
1. В трее отключаем адаптер как будто usb-носитель. В результате тут же происходит выгрузка драйвера и основным монитором стал тот, что на ноуте.
2. Выключаем питание основной платы с помощью удобной кнопочки на мини ATX плате (а не разматываем провода).
3. Вытаскиваем ExpressCard. Винда издает «тылынь» о подтверждении вынимания.
4. ОС работает ок.

P.S. Ранее пробовал без 1пп. В итоге все замирало и только хард-ресет укладывал ноут спать. Вриходилось вырубать ноут не вынимая ExpressCardPCIe.
Мне кажется, это нужно добавить в топик. Я, например, еще ни разу не слышал о видео-картах plug&play :)
Магма стоит денег довольно много. Вместо магмы действительно лучше купить новый компьютер/ноутбук.
согласен. но к ноуту подключить 4 экрана — других вариантов нет.
Сие творение уже мало похоже на ноутбук. Интересно было бы сходить с этим мутантом в макдак :D
угу, и запитать видеокарту от автомобильного аккумулятора
Который заодно с ноутбуком и монитором носить с собой в рюкзаке.
каждый раз доставать из авто)
1. Имхо — как минимум удачное решение при необходимости подключать к ноуту с малым количеством видеовыходов несколько мониторов. Но если на ноуте есть DVI / HDMI / RGB (любых два из них), то этот момент в ценности уже отпадает.

2. Надо порыть дилэкстрим и прочих — может, подешевле найдётся аналог.

3. Вопрос: "… плата может подключаться и через 4 PCI-Ex1 интерфейса ..." — означает ли это, что эта плата, подключенная через n интерфейсов, будет в n раз быстрее передавать данные на видеокарту?
Есть разновидности комплектации платки PE4H.
Вместо ExpressCard они могут использовать переходник на материнку.

Вот о чем речь:



а уних нет наоборот, даунгрэйда — переходник платы с AGP2x воткнуть в мать с pci-e 16x, 4x или 1x
А как система выбирает на какую карту подавать полноэкранную 3D-игру?
В Винде один из мониторов выбирается «основным», на нем же система и цепляет таскбар, экран логина и т.д.
Не, ответ на его вопрос будет такой:

Тащим игру за окошко на тот монитор, который подключен к нужной видеокарте. И все! :-D
Например тащю alien swarm влево — 32 FPS, тащю на ноут окно его — 3 FPS…

Винда смотрит позицию окна и какой моник отвечает за эти координаты, ну и говорит нужной видюхе api вызовы directx.
Что приятно — так это что в 7ке все это происходит на лету и абсолютно незаметно для пользователя.
Он о играх без окошек, которые стартуют сразу в fullscreen. Оконныe приложения можно таскать туда-сюда, это понятно :)
Тогда согласен.
Но в некоторых случаях просто тащу окно на нужный моник и в настройках выставляю fullscreen — он цепляется за тот моник, куда был перетащен.
Так ведь далеко не во всех полноэкранных играх есть оконный режим вроде. Или в современных во всех?
Более того, пока на экране больше половины окна — та видяха и рисует картинку для обоих мониторов.
У которой большая половина. Проверено. Более того, стояли рядом R5830 и N260ка и к каждой было по одному монитору.
Корпус бы чтоль человечий сколхозил. Так то идея интересная. Превратить таскабельный бук в мощную числодробилку там где это надо (на работе, например). Про матлаб хорошо вспомнили, ага.
Корпус будет. Выпилю. :-D
UPD добавил…

P.S. не ставьте ↑ статье. Статье на это пофиг.
>не топовая видеокарта
>>Palit GTX 460 2GB.
Не знаю как это назвать
Видяшку с блоком питания и переходником оформить в корпус бы точно не помешало.
А у меня такой небольшой дурацкий вопрос, где можно мобильный процессор найти отдельно?
Не отказался бы от апгрейда.
я брал T7600 на www.notebook1.ru
парнишка ехал из астрахани в севастополь.
пришлось перехватываеть его в москве.
Для игр на офисном ноуте это извращение, но пост всё-таки надо было сделать как обзор платы самой.
За плату с переходником на x4 спасибо, искал подобное решение, но конечный итог не нашёл, теперь мои поиски закончены :) Буду держать на заметке.
Почему-то все уперлись в применение в качестве переходника для видео. А никто не думал, что можно тестировать raid контроллеры, перепрошивать то, что упало при прошивке в обычной системе, применять там где нету ничего кроме x4 разъема например, а вставить надо x8 или x16, для тестировщиков, для сервис центров и т.д.
Люди смотрите шире, а вы уперлись в игрушки. Глупо.
Автора конечно не поощряю за сам пост, так как стоило бы рассказать про сам переходник, а не видяху и игры, а в остальном спасибо за наводку по переходникам.
Точно такое же проделал со своим HP DV9690en, правда я взял GTX460 768MB. Работает также — на ура. <a href=«habrahabr.ru/blogs/DIY/104046/'>Тут писал об этом.
Только я брал не PE4H, а PE4L, я решил что незачем переплачивать за режим 2x который мой ноут всёровно не потянет — обошлось в 65$ с доставкой.
Плата точно также при 100% нагрузке трещит. (Кстати, это нормально?) Сама плата очень интересно сделана, текстолит-резина(?)-тесктолит, и скреплена болтами, такой трехслойный бутерброд.
Трещит или свисто-писко-трещит? Последнее — звук дросселей, нормально, для китайщины / дешевухи.
Скорее второе. А со временем это не может перерасти во что-нибудь большее? Так как помойму БП у меня тоже издаёт не самые приятные звуки.
Перерасти? Разве что в головную боль или депрессию. Или бессонницу.

Приличный БП стоит достаточно смешных денег, 2.5к за Thermaltake TR2 на 550+- ватт, которого за глаза большинству — не так много, а учитывая его КПД и бесшумность — так и вообще копейки.
На оверклокерах можно поискать, как такие дроссели заливают лаком внутри, чтобы не пищали. Сам не видел инструкций, только упоминание о них, но смысл понятен — найти пустоты, в которых болтаются проводки дросселей, залить и высушить. Если дроссель открытый, то это совсем просто. Можно ещё найти похожий на сгоревшей матплате или в магазине и поменять.

(Удивительно, почему некоторые статьи (я об этой и Вашей) о том же самом привлекают огромное внимание, а точно такие же — нет? Может быть, день публикации был неудачный? Но то и то — выходные. Может, здесь более наглядно — что хотим и что получили?)
Просто моя статья сначала была в песочнице, я за неё инвайт получил, поэтому не все видели :)
Ух ты. Поздравляю! GTX460 — вещь, да? :-D
— Intel Core 2 Duo T7500 2.2Ghz
— 3GB RAM
завидую. у меня всего 2ГБ потолок. и стоковый камень был слабее значительно.
GTX460 действительно вещь :)
Не жалею что взял её.
Камень к сожалению греется очень сильно (50 в простое), пришлось программно понизить вольтаж — помогло, скинул 10 градусов.
Ну и ноутбук то у вас изначально был не предназначен для этого, офисные как никак.
Вас ещё повезло что у вас можно нормально включать-выключать, у меня только в Спящий режим и обратно, а то замучаешься обратно включать потом. Нечему завидовать :)
Кнопка «спящий режим» в винде же программируемая.
Любое из событий выключения можно повесить на нее.
Разве не так?
Так и сделал, просто дело в том что если его не выводить из спящего режима, а включать, то он сначала рухнет в BSOD и только со второго раза загрузится. Не знаю с чем это связанно.
Вопрос: а карту PCIe x16 можно ведь вставить в слот x1 (от PE4L) и спокойно работать?
Да, можно, с этим проблем не возникнет, PCIe x1-16 обратно совместимы, тоесть можно втыкать x1 в x16 и наоборот.
Только если хотите всунуть полный (Или больше чем x1) в слот x1, смотрите чтобы он был на конце открытым, и чтобы нечего не мешало ему дальше слота.
Ого, не слышал о таком решении вообще. Уже вижу, куда мог бы применить. Спасибо!
Помоему, это уже было…
Вы знаете, там у производителя китайского еще и схемы плат и полностью все есть… Я дома такую сам собрал: помогло наличие запчастей, дохлая материнка и умение делать печатные платы
Действительно было — выше автор коммент сделал.
Но когда надо было — поиск в сети на тему «апгрейд видеокарты ноутбука» — не дал нужных результатов.
Было все не то. Потому и название топика такое. Чтобы те, кому надо — сразу нашли.
Большое спасибо за пост. Очень дельно и понятно, сделаю себе также, т.к от стационарника отказался, живу и работаю на ноуте, а когда нахожусь дома хочется больше 2х мониторов и производительности.
И всё это вместо того, чтобы за те же деньги пойти и купить нормальный десктоп.
Всегда подозревал, что у ноутбукофагов что-то не в порядке с головой…
Эта статья гораздо интереснее, чем заказные высеры Бумбурума и несёт полезную информацию, в отличие от обзоров ноутбуков, псевдо-насов и дорогих компьютеров которые покупают в Юлмарте.
Я всё, сливайте.
Батальон хомяков главнокомандующего минусует постепенно, в течении недели, пока никто не видит. Проверенно.
да похуй, сюда и в рид-онли уже заходить противно становится
Ну не знаю, что-то это попахивает расстройством психики:-) Из знакомых если кто и берет ноут как замену десктопу, то только в случае частых переездов, либо им достаточно мощности, в игры не играют, а на фильмы хватает. Но взять и из ноута сделать замену десктопу для игр, купить для него клавиатуру, блок питания, видяху и монитор, какой смысл, перевозить так же громоздко, как и обычный десктоп.
Есть разные задачи.

Когда нужно перевозить его — а это явно не для игр — там видеокарта и монитор не нужны. Берем и перевозим т.к. ноут целый.
А когда приехали домой — то дома можно и оторваться на полную :-D
вместо одного слабого места получили два слабых места возведенные в квадрат.
Это я о размышлениях из серии, а что случится если у одного из БП (АТХ или штатный от ноута) начнется утечка по току на минус. Минус то простите теперь у обоих БП общий. Получим разность потенциалов на разных БП и в лучшем случае сработает защита в БП, в худшем похороним весь этот огород. Даже по фото видно, что в нескольких сантиметрах от этой конструкции еще и батарея — здравствуй земля.
habrahabr.ru/blogs/DIY/104046/

Нашел что «Необходим внешний монитор». Можно ли заставить внешнюю видеокарту отображать на монитор ноутбука?
Не знаю таких способов. Экран ноутбука имеет на выходе тонкий шлейф, втакающийся в спец. гнездо на материнке.
У него нет DVI\HDMI входа. Возможно в некоторых ноутах и есть такие экраны типа KVM, но я не встречал.
Даже если и есть DVI вход у экрана, то одновременно может быть только один видеовход.

Для внешней видеокарты желательно иметь внешний монитор. Иначе вы получите только CUDA\Stream ускоритель.
Можно заставить это работать на мониторе ноутбука, но для этого надо чтобы изначально в ноуте стояло видео от Intel. Тогда можно добиться связки а-ля Optimus, там в статье есть ссылка на форум, на нём для этого есть дрова. Но я бы это крайне не советовал этого, так как поток PCIe x1 и так не очень велик, а если его ещё и обратно гнать, то он станет ещё медленнее, и тогда вообще не будет в этом смысла.
Блин, найти не могу, на www.overclockers.ru/ был материал, как самостоятельно такую штуку сделать, со схемой
Автор, просто чуточку скромнее будь) и будет тебе счастье) уверяю)
я наверное извращенец, но всё же спрошу:
есть старый ноут с Linux на борту — хватает на всё что нужно, но иногда (прям совсем иногда) очень нужна 3д акселерация (на Intel 945GM особо не получается) в VirtualBox, в которой другая ось. И вот вопрос — можно ли с этой штукой забабахать 3д ускорение в виртуальной машине (можно с монитором в видяху)?
Да. Окно ВМ должно быть на мониторе, присоединенной к внешней видюхе.
Прошло 5 лет, но вот ответ неправильный. В линуксе не важно где у тебя окно, ускорение идет выбором устройства. В линуксе можно пробросить PCI физически в виртуалку. Таким методом можно макось запустить и на ней рендредить на внешней видеокарте видео, к примеру.
Ну или винду и там в игрушки играть.
На фотке под надписью «Подключаем все это дело по схеме:» ноут делл 1535, я свой родной ноут везде узнаю) Статья о ноута самсунговском, а картинка с деллом.
И зачем столько возни?
Хай энд видеокарта + не самый мощный ноутбук + китайский контроллер, который сложно достать + низкая пропускная способность, следовательно низкий профит.
И это только ради кучи мониторов. Смысл?
Дороговато что то все таки 100 баксов за контролер
Sign up to leave a comment.

Articles