Comments 105
Еще одно «бескровное» решение забыли: купить видеокарту ATI HD 5xxx с поддержкой Eyefinity :)
или попросту купить видеокарту которая поддерживает 3 одновременно подключенных монитора.
UFO just landed and posted this here
Не поверите, но ни одна видеокарточка от nVidia физически не позволяет подключить три монитора. Физически — в смысле три кабеля (DVI*2 + HDMI) просто невозможно туда воткнуть из за очень продуманного расположения разъемов.
я мне кажется там один из DVI и HDMI являются взаимоисключающими. Вряд ли там 3 RAMDAC'а стоят.
Скорее всего, но это не исключает того что туда физически нельзя воткнуть кабеля от трёх мониторов.
зачем ramdac для цифрового dvi?
UFO just landed and posted this here
У меня два монитора подключено — по DVI и HDMI, без проблем работают одновременно. При этом свободен ещё D-Sub разъём. Надо будет попробовать к нему подключить третий монитор ради интереса :)
Глупость говорите. У меня на GTX 460 прекрасно втыкаются одновременно 3 разъема. Если не верите, могу сфотографировать.
UFO just landed and posted this here
Активный display-port->dvi переходник стоит весьма дорого. Дешевле купить вторую/третью видюшку начального уровня.
Да и кого сейчас проблемы с количеством pci-ex x16 слотов?
Да и кого сейчас проблемы с количеством pci-ex x16 слотов?
Очумелые ручки :) И как оно в деле?
Элт рядом жк, у меня глаза не вытекают?
у вас*
Когда у меня не было денег на нормальное железо, я тоже как только не извращался :)
Ни коим образом не хочу оскорбить автора, но похоже, что он сейчас проходит через эту же стадию. И это здорово на самом деле :)
Ни коим образом не хочу оскорбить автора, но похоже, что он сейчас проходит через эту же стадию. И это здорово на самом деле :)
Не совсем угадали. Эти 3 монитора — для работы в офисе, а там трудно и долго доказывать необходимость выделения для работы 3 мониторов, когда другие пользуются максимум двумя :). А для работы (IDE Eclipse + тестированите в фронтенда в браузерах) 3 монитора, причём с не менее 1600 пикс — довольно полезны.
(2Aquahawk) C ЭЛТ есть один очевидный секрет: чтобы они были по качеству не хуже LCD, сведение должно быть идеальным. Мониторы подобраны (и настроены) именно такие.
(2Aquahawk) C ЭЛТ есть один очевидный секрет: чтобы они были по качеству не хуже LCD, сведение должно быть идеальным. Мониторы подобраны (и настроены) именно такие.
у ЭЛТ есть одно примемущество: На них можно МЕНЯТЬ РАЗРЕШЕНИЕ, а для тестирования иногда это удобно.
Красавчик! Автору «пятерка».
Как называется этот зверь с 7-ю 16x?
Нашел, кому интересно: www.evga.com/articles/00537/
В ХР и Семерке возможна установка видеокарт разных производителей, а вот Виста такого не поддерживает — можно только одного производителя.
UFO just landed and posted this here
А попробуйте, вот и будет вам пруф.
UFO just landed and posted this here
Отличный ответ, да. Интересно — проверяйте, нет — проходите мимо. Это вам решать, я вас не заставлял.
1. Для проверки нужно 2 видеокарты, а не три.
2. Гугл и Яндекс никто не отменял.
3. То, что я не привел доказательств, это еще не значит, что мое утверждение ложно и меня нужно минусовать.
1. Для проверки нужно 2 видеокарты, а не три.
2. Гугл и Яндекс никто не отменял.
3. То, что я не привел доказательств, это еще не значит, что мое утверждение ложно и меня нужно минусовать.
Уважаемый, то что нельзя запустить PhysX, это еще не значит, что данная конфигурация не работоспособна.
Новая модель драйверов требует, чтобы графическая аппаратура поддерживала по крайней мере Shader Model 2.0 (fixed function pipeline is now translated to 2.0 shaders). Однако, по информации Microsoft, на 2009 год только около 1-2 процентов аппаратуры использовало модель драйверов Windows XP[5], а остальные уже являются WDDM-совместимыми. Модель также требует наличия некоторых других аппаратных возможностей (по этой причине, например, аппаратура, поддерживающая SM 2.0, такая как Intel GMA 900, не проходит сертификацию на WDDM [6]).
Одно из ограничений драйвера WDDM версии 1.0 в том, что он не поддерживает одновременно несколько драйверов в многоадаптерном многомониторном окружении. Если у многомониторной системы более одного графического адаптера, оба адаптера должны использовать один и тот же драйвер WDDM. Если используется более одного драйвера, Windows выключит один из них.[7]. У WDDM 1.1 уже нет такого ограничения.
UFO just landed and posted this here
Тупые хомяки снова минусуют то, в чем не разбираются.
интересно, теперь можно будет сделать 4 рабочих места из 1 компа?
Как вариант, если есть мать на чипе AMD, то можно встроенный радеон использовать в hybrid crossfire с дискретной AMDшной графикой. Вот тебе и третий монитор и плюсом немножко производительности в играх
Да божеш ты мой! Покупаем десяток www.nix.ru/autocatalog/adapters_switches/STLab_U470_USB_to_VGA_Adapter_88604.html — и у нас десять отдельных выходов под мониторы. Второй раз вижу на хабре статью про подключение третьего монитора, но везде: Eyefinity, напильники и прочая ерунда.
ты знаешь как комп будет тормозить?? хотябы с одним адаптером попробуй поработать. там 2d-ускорения никакого нет, не говоря уже о 3d
Уважаемый, я не советую то, чем не пользовался. У меня стоит именно та что по ссылке. На этом мониторе постоянно Media Player Clasic, портебление памяти 2 метра, загрузка ЦП: 0. Да, в кризис популять не выйдет, но для «работы» — вполне.
еще у подобных девайсов есть серьезные проблемы с хендлами. видео кажут тудым сюдым, но если содерживое окна меняется(по результатам рассчетов) без перерисовки самого окна, в лучшем случае получите слайдшоу, со скоростью обновления равной скорости клика по заголовку окна.
Думаю USB to DVI будет актуальней.
2д не нужно медиаплееру. 0% загрузки цп — это ложь. у меня медиаплеер тоже умеет кучу фильмов открывать с загрузкой пара процентов ЦП. хех
UFO just landed and posted this here
Спасибо, добавил в статью как возможность, но статья несколько не об этом, что подчёркивает шутка в пункте 1.5. Если есть желание потратить деньги на апгрейд, есть 8 способов сделать это с разной степенью изощрённости. И только один (ну или два-три, если валяется видео PCI или если есть встроенная графика на матплате), который условно-бесплатен: если валяется без дела маломощная видеокарта PCI-e (что намного более вероятно, чем адаптер), денег вообще не понадобится.
Если я правильно понял то компьютер на такой видеокарте не стартует? Тоесть биос на нее инфу не выводит? Просто был недавно случай, выгорел главный PCI-E порт на мамке, я вот так выпилил PCI-E 1x но видео не поднялось…
И в решениях на подключения 3-го монитора вы забыли о простой PCI карточке. Если игры не играть то и какой-то ATI на 4 мб вполне хватает… Конечно можно и что-то покруче, например у меня есть GeForce4 64 мб под PCI
И в решениях на подключения 3-го монитора вы забыли о простой PCI карточке. Если игры не играть то и какой-то ATI на 4 мб вполне хватает… Конечно можно и что-то покруче, например у меня есть GeForce4 64 мб под PCI
Если у вас выгорел PCI-E разъем то скорее всего он утянул за собой еще и коммутатор. А так работать оно должно. Вторая часть разъема где варьируется количество контактов отвечает за шину передачи данных и она может варьироваться.
Matrox выпускают еще кучу забавных видюх, и под PCI и под PCI-Ex1. конечно куда менее бюджетно нежели выпилить дремелем, но менее коленочное решение.
Не пробовал. При старте первый раз мелькнул экран биоса на 2-м компьютере, поэтому, скорее всего, карта запустится. Не нарушился ли случайно разъём при выпиливании? Это более вероятная причина незапуска. Или, как говорили выше, выгорело ещё что-нибудь.
Второй PCIE X16 работал с одиночной видеокартой (опыт был на чипсете nVidia с сокетом A.939).
PCI дописал в статью. Его не вспомнил, потому что решения на новых картах очень дорогие, а на доступных по цене старых — не поддерживают большие мониторы из-за ограниченности памяти.
Второй PCIE X16 работал с одиночной видеокартой (опыт был на чипсете nVidia с сокетом A.939).
PCI дописал в статью. Его не вспомнил, потому что решения на новых картах очень дорогие, а на доступных по цене старых — не поддерживают большие мониторы из-за ограниченности памяти.
Чувак, ты гений, так расписать фразу «спилите задний бортик разъема» не каждому дано :)
Да, я тоже удивляюсь, но у массы народа есть опасения о том, что так делать возможно. Далеко не все читали статьи об архитектуре PCIe и слова о том, что количество линий PCI express для протокола обмена не имеет значения. Поэтому надо показать, доказать, да и процесс работы, оказалось, имеет массу оговорок.
У меня стоит 2008R2, в мамке встроенная видюшка с двумя выходами, и Radeon HD4850 с двумя выходами. Система прекрасно определяем 4 выхода и поддерживает 4 монитора. По логике семерка должна уметь также. Можно обойтись и без напильника.
Я правильно понял, что любая видеокарта аппаратно совместима с х1 (со спецификацией на pci-x не знаком), и ограничения исключительно физические?
Странно в таком случае, что их не сделали совместимыми на физическом уровне (чтобы в этом месте на «старших» pci-x была выемка)
Странно в таком случае, что их не сделали совместимыми на физическом уровне (чтобы в этом месте на «старших» pci-x была выемка)
Да. часть призводителей делает открытые PCIe x4 в которые можно ставить полноценную видеокарту.
Да. Это написано хотя бы в Википедии. Не полностью совместимо — требуются все контакты питания для карт расширения с длинными разъёмами, об этом упомянуто в статье. Но на практике это ни на что не влияет (разве что какой-то производитель видеокарты ошибётся и не замкнёт все эти линии накоротко).
Можно разориться на Matrox M9188 и на 8 мониторов… =)
О таком способе не знал, может когда-нибудь и пригодится =)
О таком способе не знал, может когда-нибудь и пригодится =)
UFO just landed and posted this here
Забавно, забавно.
А если к GT240 на PCI Ex 16x по этому способу добавить GT7600 на PCI ex 1x — на одномониторной конфигурации профит будет?
А если к GT240 на PCI Ex 16x по этому способу добавить GT7600 на PCI ex 1x — на одномониторной конфигурации профит будет?
Не будет, т.к. 7600GT даже для PhysX не использовать, к сожалению =\ Не говоря уж об SLI, где даже GT/GS заводятся в тандеме исключительно после перепрошивки биоса и выравнивания частот.
В смысле, что даже разные индексы одного видеочипа работают вместе лишь после существенных шаманств.
У самого GT240 установлена — и 7900GS артефактная в ящике стола. Думал о PhysX, был разочарован. Если кто подскажет возможное применение этого полудохлика — буду весьма благодарен :)
У самого GT240 установлена — и 7900GS артефактная в ящике стола. Думал о PhysX, был разочарован. Если кто подскажет возможное применение этого полудохлика — буду весьма благодарен :)
Гм, это про всю серию или конкретно про 7600GT?
черт, случайно отправил. Я к тому, что у меня 8800GT разных производителей и с разными частотами прекрасно работали в SLI, никаких шаманств.
Я, если честно, доподлинно не знаю — критично ли выравнивание частот, может они и сами выравниваются, черт знает.
1. SLI на плате без аппаратной поддержки SLI — не пойдёт. Поэтому для процессоров c2d SLI будет работать только на чипсетах NVidia.
2. Если плата с чипсетом NVidia, SLI пойдёт только для 2 одинаковых моделей видеокарт. Если видеокарты — серии 7xxx то ещё официально требовалась одинаковость производителя, для 8xxx и старше такого ограничения нет. Но практически, карты 7xxx работали от разных производителей в SLI.
2. Если плата с чипсетом NVidia, SLI пойдёт только для 2 одинаковых моделей видеокарт. Если видеокарты — серии 7xxx то ещё официально требовалась одинаковость производителя, для 8xxx и старше такого ограничения нет. Но практически, карты 7xxx работали от разных производителей в SLI.
Теперь у меня не возникает вопроса как сделать из одного монитора три.
Порадовал пункт «1.4) Отрезать лишний текстолит от видеокарты, как, например, здесь:».
Выглядит очень брутально.
Выглядит очень брутально.
А ведь есть еще и USB-мониторы ссылка.
Пробовал работать с тремя девятнашками, в итоге откатился на два 23". Неудобно с тремя.
А чем 1.3 отличается от 1.5?
Различным отношением к деньгам.
1.3) Купить материнскую плату с 2 или более разъёмами PCI-Express x16 (многие платы не нижней ценовой категории).
1.5) Сильно не заморачиваться, а купить матплату, на которой стоит побольше PCI-Express x16-разъёмов:
Купить материнскую плату != купить материскую плату?
1.5) Сильно не заморачиваться, а купить матплату, на которой стоит побольше PCI-Express x16-разъёмов:
Купить материнскую плату != купить материскую плату?
www.evga.com/products/moreInfo.asp?pn=270-WS-W555-A1&family=Motherboard%20Family&series=Intel%205520%20Series%20Family
(MSRP: $599.99 — «цена в минимальной конфигурации»)
Сравните с ценой на эту
(MSRP: $599.99 — «цена в минимальной конфигурации»)
Сравните с ценой на эту
Честно говоря я все еще не понял в чем соль
www.evga.com/products/moreInfo.asp?pn=270-WS-W555-A1&family=Motherboard%20Family&series=Intel%205520%20Series%20Family
(MSRP: $599.99 — «цена в минимальной конфигурации»)
Или такую www.ulmart.ru/goods/202091/?head=1&from=rambler_price_msk.
Сравните с ценой на эту
www.flashcom.ru/market/product.php?ELEMENT_ID=86382&SECTION_ID=1698
(3315 р. в России). Может, действительно для кого-то никакой разницы. Но это и есть различное отношение к деньгам.
(MSRP: $599.99 — «цена в минимальной конфигурации»)
Или такую www.ulmart.ru/goods/202091/?head=1&from=rambler_price_msk.
Сравните с ценой на эту
www.flashcom.ru/market/product.php?ELEMENT_ID=86382&SECTION_ID=1698
(3315 р. в России). Может, действительно для кого-то никакой разницы. Но это и есть различное отношение к деньгам.
Уважаемый, а причем тут цена?
Т.е. 1.5 это тот же вариант что 1.3 но дороже? :)
Т.е. 1.5 это тот же вариант что 1.3 но дороже? :)
Не только. Смотрите внимательнее. Вам придётся потратиться не только на матплату, но и на всю периферию. Плата с 8*PCIex x16 отличается совершенным пренебрежением к оставшимся у Вас картам расширения, а значит, и к Вашим деньгам.
К тому же, я написал, что 1.5 — это шутка. В направлении цены. Если быть совершенно серьёзным, на этом месте я должен был бы написать: «Если у Вас есть (желание потратить) деньги на апгрейд, то Вам совершенно не надо читать дальше, хватит и тех 9 способов, тем более что есть платы с 8*PCIex x16. Покупаете их, меняете все карты на PCIex, и Вы впереди планеты всей».
Тут уже были несколько возгласов: зачем делать, если можно купить? Смысл статьи — в противоположном: зачем покупать, если можно делать. Пункт 1.5 — самое яркое отражение противоположного подхода, поэтому он выделен отдельно. (К нему ещё карту Eyefinity 5870 6 Edition: www.amdclub.ru/novosti-hardware/radeon-hd-5870-eyefinity-shest-vichodov-mini-displayport-v-komplekte .)
www.thg.ru/graphic/amd_radeon_hd_5870_eyefinity_6_edition/
В этой статье где-то нашли мониторы 1920x1080 за 229$, и всего у них получилось вместе со стойками 1374$ за 6 мониторов. Очень дёшево.
К тому же, я написал, что 1.5 — это шутка. В направлении цены. Если быть совершенно серьёзным, на этом месте я должен был бы написать: «Если у Вас есть (желание потратить) деньги на апгрейд, то Вам совершенно не надо читать дальше, хватит и тех 9 способов, тем более что есть платы с 8*PCIex x16. Покупаете их, меняете все карты на PCIex, и Вы впереди планеты всей».
Тут уже были несколько возгласов: зачем делать, если можно купить? Смысл статьи — в противоположном: зачем покупать, если можно делать. Пункт 1.5 — самое яркое отражение противоположного подхода, поэтому он выделен отдельно. (К нему ещё карту Eyefinity 5870 6 Edition: www.amdclub.ru/novosti-hardware/radeon-hd-5870-eyefinity-shest-vichodov-mini-displayport-v-komplekte .)
www.thg.ru/graphic/amd_radeon_hd_5870_eyefinity_6_edition/
В этой статье где-то нашли мониторы 1920x1080 за 229$, и всего у них получилось вместе со стойками 1374$ за 6 мониторов. Очень дёшево.
есть мониторы со встроенными видеокартами ))
www.ixbt.com/monitor/samsung-ld220g.shtml
www.ixbt.com/monitor/samsung-ld220g.shtml
Сейчас не так мало плат которые имеют на борту несколько пси-е разьемов ( даже среди бюджетных решений) + есть специально для таких задачей карты с разьемом PCI.
Хотя автору респект за труд, не часто встречаются нынче компьютерные маньяки :)
Хотя автору респект за труд, не часто встречаются нынче компьютерные маньяки :)
Цитата: «кроме некоторых очень требовательных приложений наподобие Microsoft Flight Simulator, Crysis, Call Of Duty 4» [я не достоин вставлять теги]
Т.е. при подключенных двух мониторах в полноэкранном режиме (в игре) производительность будет ниже, чем в той же самой игре, с теми же настройками, только без второго монитора? Даже если во втором монике исключительно AIMP и Seesmic?
Я с недавних пор счастливый обладатель двух ЖК, поэтому интересуюсь :) И да — Call of Duty 4 — далеко не требовательная.
Т.е. при подключенных двух мониторах в полноэкранном режиме (в игре) производительность будет ниже, чем в той же самой игре, с теми же настройками, только без второго монитора? Даже если во втором монике исключительно AIMP и Seesmic?
Я с недавних пор счастливый обладатель двух ЖК, поэтому интересуюсь :) И да — Call of Duty 4 — далеко не требовательная.
Посмотрите тесты в статье (на tomshardware.com). На карте x1 сильно падает производительность на CoD4. Требовательность здесь — к объёму потока данных. Если поток в среднем за какое-то время превышает 250МБ/с — будет торможение.
Если заработает — то да
Спасибо, уже работает)
не могли бы поделиться? достаточно было прорезать порт? Или вы методоб обрезки текстолита поставили?
Не помешала бы информация) Спасибо.
Хоть это и было 8 лет назад, но в тот раз воспользовался райзером 1x-to-16x, Типа такого: https://www.aliexpress.com/item/32841943772.html
Sign up to leave a comment.
Ставим вторую видеокарту в разъём PCI-Express x1