Как стать автором
Обновить

Комментарии 105

Еще одно «бескровное» решение забыли: купить видеокарту ATI HD 5xxx с поддержкой Eyefinity :)
или попросту купить видеокарту которая поддерживает 3 одновременно подключенных монитора.
Сейчас хорошую карточку купить непросто из-за роста курса коинов, а начальные хоть и имеют три разъема, одновременно работать будут только два
НЛО прилетело и опубликовало эту надпись здесь
Не поверите, но ни одна видеокарточка от nVidia физически не позволяет подключить три монитора. Физически — в смысле три кабеля (DVI*2 + HDMI) просто невозможно туда воткнуть из за очень продуманного расположения разъемов.
я мне кажется там один из DVI и HDMI являются взаимоисключающими. Вряд ли там 3 RAMDAC'а стоят.
Скорее всего, но это не исключает того что туда физически нельзя воткнуть кабеля от трёх мониторов.
зачем ramdac для цифрового dvi?
НЛО прилетело и опубликовало эту надпись здесь
У меня два монитора подключено — по DVI и HDMI, без проблем работают одновременно. При этом свободен ещё D-Sub разъём. Надо будет попробовать к нему подключить третий монитор ради интереса :)
Я подключил. Работают любые два канала. Из трёх.
Глупость говорите. У меня на GTX 460 прекрасно втыкаются одновременно 3 разъема. Если не верите, могу сфотографировать.
НЛО прилетело и опубликовало эту надпись здесь
Активный display-port->dvi переходник стоит весьма дорого. Дешевле купить вторую/третью видюшку начального уровня.
Да и кого сейчас проблемы с количеством pci-ex x16 слотов?
Очумелые ручки :) И как оно в деле?
Элт рядом жк, у меня глаза не вытекают?
у вас*
Когда у меня не было денег на нормальное железо, я тоже как только не извращался :)
Ни коим образом не хочу оскорбить автора, но похоже, что он сейчас проходит через эту же стадию. И это здорово на самом деле :)
Не совсем угадали. Эти 3 монитора — для работы в офисе, а там трудно и долго доказывать необходимость выделения для работы 3 мониторов, когда другие пользуются максимум двумя :). А для работы (IDE Eclipse + тестированите в фронтенда в браузерах) 3 монитора, причём с не менее 1600 пикс — довольно полезны.

(2Aquahawk) C ЭЛТ есть один очевидный секрет: чтобы они были по качеству не хуже LCD, сведение должно быть идеальным. Мониторы подобраны (и настроены) именно такие.
у ЭЛТ есть одно примемущество: На них можно МЕНЯТЬ РАЗРЕШЕНИЕ, а для тестирования иногда это удобно.
Красавчик! Автору «пятерка».
Как называется этот зверь с 7-ю 16x?
В ХР и Семерке возможна установка видеокарт разных производителей, а вот Виста такого не поддерживает — можно только одного производителя.
НЛО прилетело и опубликовало эту надпись здесь
А попробуйте, вот и будет вам пруф.
НЛО прилетело и опубликовало эту надпись здесь
Отличный ответ, да. Интересно — проверяйте, нет — проходите мимо. Это вам решать, я вас не заставлял.

1. Для проверки нужно 2 видеокарты, а не три.
2. Гугл и Яндекс никто не отменял.
3. То, что я не привел доказательств, это еще не значит, что мое утверждение ложно и меня нужно минусовать.
НЛО прилетело и опубликовало эту надпись здесь
А я не обиделся,
«я потому такой злой, что у меня на велосипде сиденья нету» (с) Почтальон Печкин

Ссылку сразу не дал, т.к. не мог вспомнить, где читал.
Минусование стимулирует память.

Обидно же, когда вы правы, а вас минусуют.
Народу нужны аргументы.
Минусы сливают мою карму и стимулируют никому ничего не писать вообще.
Не те выводы.
«2. Гугл и Яндекс никто не отменял. » ©
Уважаемый, то что нельзя запустить PhysX, это еще не значит, что данная конфигурация не работоспособна.
Новая модель драйверов требует, чтобы графическая аппаратура поддерживала по крайней мере Shader Model 2.0 (fixed function pipeline is now translated to 2.0 shaders). Однако, по информации Microsoft, на 2009 год только около 1-2 процентов аппаратуры использовало модель драйверов Windows XP[5], а остальные уже являются WDDM-совместимыми. Модель также требует наличия некоторых других аппаратных возможностей (по этой причине, например, аппаратура, поддерживающая SM 2.0, такая как Intel GMA 900, не проходит сертификацию на WDDM [6]).

Одно из ограничений драйвера WDDM версии 1.0 в том, что он не поддерживает одновременно несколько драйверов в многоадаптерном многомониторном окружении. Если у многомониторной системы более одного графического адаптера, оба адаптера должны использовать один и тот же драйвер WDDM. Если используется более одного драйвера, Windows выключит один из них.[7]. У WDDM 1.1 уже нет такого ограничения.
НЛО прилетело и опубликовало эту надпись здесь
Тупые хомяки снова минусуют то, в чем не разбираются.
интересно, теперь можно будет сделать 4 рабочих места из 1 компа?
и раньше можно было. это от ОС и софта зависит, а не от типа видеокарт.
с pci и agp видеокартами это было настолько геморно, что проще было купить 4 отдельных компа.
Можно запихнуть две-три материнки в один корпус.
молотком
Как вариант, если есть мать на чипе AMD, то можно встроенный радеон использовать в hybrid crossfire с дискретной AMDшной графикой. Вот тебе и третий монитор и плюсом немножко производительности в играх
Кстати кто нибудь знает как задействовать этот hybrid crossfire? Специально купил ати, чтобы встроенная помогала при обработке, но включить обе не удалось
Там не все подряд матери работают в hybrid режиме. Какая мать и какая дискретная карта?
Да божеш ты мой! Покупаем десяток www.nix.ru/autocatalog/adapters_switches/STLab_U470_USB_to_VGA_Adapter_88604.html — и у нас десять отдельных выходов под мониторы. Второй раз вижу на хабре статью про подключение третьего монитора, но везде: Eyefinity, напильники и прочая ерунда.
ты знаешь как комп будет тормозить?? хотябы с одним адаптером попробуй поработать. там 2d-ускорения никакого нет, не говоря уже о 3d
Уважаемый, я не советую то, чем не пользовался. У меня стоит именно та что по ссылке. На этом мониторе постоянно Media Player Clasic, портебление памяти 2 метра, загрузка ЦП: 0. Да, в кризис популять не выйдет, но для «работы» — вполне.
еще у подобных девайсов есть серьезные проблемы с хендлами. видео кажут тудым сюдым, но если содерживое окна меняется(по результатам рассчетов) без перерисовки самого окна, в лучшем случае получите слайдшоу, со скоростью обновления равной скорости клика по заголовку окна.
Возможно, но за полтора года юзания (MPC, фотошоповские тулбары) ничего подобного.
Думаю USB to DVI будет актуальней.
2д не нужно медиаплееру. 0% загрузки цп — это ложь. у меня медиаплеер тоже умеет кучу фильмов открывать с загрузкой пара процентов ЦП. хех
НЛО прилетело и опубликовало эту надпись здесь
Спасибо, добавил в статью как возможность, но статья несколько не об этом, что подчёркивает шутка в пункте 1.5. Если есть желание потратить деньги на апгрейд, есть 8 способов сделать это с разной степенью изощрённости. И только один (ну или два-три, если валяется видео PCI или если есть встроенная графика на матплате), который условно-бесплатен: если валяется без дела маломощная видеокарта PCI-e (что намного более вероятно, чем адаптер), денег вообще не понадобится.
Если я правильно понял то компьютер на такой видеокарте не стартует? Тоесть биос на нее инфу не выводит? Просто был недавно случай, выгорел главный PCI-E порт на мамке, я вот так выпилил PCI-E 1x но видео не поднялось…

И в решениях на подключения 3-го монитора вы забыли о простой PCI карточке. Если игры не играть то и какой-то ATI на 4 мб вполне хватает… Конечно можно и что-то покруче, например у меня есть GeForce4 64 мб под PCI
Если у вас выгорел PCI-E разъем то скорее всего он утянул за собой еще и коммутатор. А так работать оно должно. Вторая часть разъема где варьируется количество контактов отвечает за шину передачи данных и она может варьироваться.
Matrox выпускают еще кучу забавных видюх, и под PCI и под PCI-Ex1. конечно куда менее бюджетно нежели выпилить дремелем, но менее коленочное решение.
Не пробовал. При старте первый раз мелькнул экран биоса на 2-м компьютере, поэтому, скорее всего, карта запустится. Не нарушился ли случайно разъём при выпиливании? Это более вероятная причина незапуска. Или, как говорили выше, выгорело ещё что-нибудь.

Второй PCIE X16 работал с одиночной видеокартой (опыт был на чипсете nVidia с сокетом A.939).

PCI дописал в статью. Его не вспомнил, потому что решения на новых картах очень дорогие, а на доступных по цене старых — не поддерживают большие мониторы из-за ограниченности памяти.
Чувак, ты гений, так расписать фразу «спилите задний бортик разъема» не каждому дано :)
Да, я тоже удивляюсь, но у массы народа есть опасения о том, что так делать возможно. Далеко не все читали статьи об архитектуре PCIe и слова о том, что количество линий PCI express для протокола обмена не имеет значения. Поэтому надо показать, доказать, да и процесс работы, оказалось, имеет массу оговорок.
У меня стоит 2008R2, в мамке встроенная видюшка с двумя выходами, и Radeon HD4850 с двумя выходами. Система прекрасно определяем 4 выхода и поддерживает 4 монитора. По логике семерка должна уметь также. Можно обойтись и без напильника.
Я правильно понял, что любая видеокарта аппаратно совместима с х1 (со спецификацией на pci-x не знаком), и ограничения исключительно физические?

Странно в таком случае, что их не сделали совместимыми на физическом уровне (чтобы в этом месте на «старших» pci-x была выемка)
Да. часть призводителей делает открытые PCIe x4 в которые можно ставить полноценную видеокарту.
НЛО прилетело и опубликовало эту надпись здесь
Да. Это написано хотя бы в Википедии. Не полностью совместимо — требуются все контакты питания для карт расширения с длинными разъёмами, об этом упомянуто в статье. Но на практике это ни на что не влияет (разве что какой-то производитель видеокарты ошибётся и не замкнёт все эти линии накоротко).
Можно разориться на Matrox M9188 и на 8 мониторов… =)

О таком способе не знал, может когда-нибудь и пригодится =)
НЛО прилетело и опубликовало эту надпись здесь
Забавно, забавно.
А если к GT240 на PCI Ex 16x по этому способу добавить GT7600 на PCI ex 1x — на одномониторной конфигурации профит будет?
Не будет, т.к. 7600GT даже для PhysX не использовать, к сожалению =\ Не говоря уж об SLI, где даже GT/GS заводятся в тандеме исключительно после перепрошивки биоса и выравнивания частот.
В смысле, что даже разные индексы одного видеочипа работают вместе лишь после существенных шаманств.

У самого GT240 установлена — и 7900GS артефактная в ящике стола. Думал о PhysX, был разочарован. Если кто подскажет возможное применение этого полудохлика — буду весьма благодарен :)
Гм, это про всю серию или конкретно про 7600GT?
черт, случайно отправил. Я к тому, что у меня 8800GT разных производителей и с разными частотами прекрасно работали в SLI, никаких шаманств.
Я, если честно, доподлинно не знаю — критично ли выравнивание частот, может они и сами выравниваются, черт знает.
1. SLI на плате без аппаратной поддержки SLI — не пойдёт. Поэтому для процессоров c2d SLI будет работать только на чипсетах NVidia.
2. Если плата с чипсетом NVidia, SLI пойдёт только для 2 одинаковых моделей видеокарт. Если видеокарты — серии 7xxx то ещё официально требовалась одинаковость производителя, для 8xxx и старше такого ограничения нет. Но практически, карты 7xxx работали от разных производителей в SLI.
Теперь у меня не возникает вопроса как сделать из одного монитора три.
Порадовал пункт «1.4) Отрезать лишний текстолит от видеокарты, как, например, здесь:».
Выглядит очень брутально.
а на них играть в 3d игры можно?
на USB 2.0-видеокартах можно максимум посмотреть кинцо, примерно в таком же качестве как по RDP в GE.

по сабжу — пилите, шура, пилите. не проще брать видео изначально с pci-e x1? опять говно и палки.
Пробовал работать с тремя девятнашками, в итоге откатился на два 23". Неудобно с тремя.
НЛО прилетело и опубликовало эту надпись здесь
А чем 1.3 отличается от 1.5?
Различным отношением к деньгам.
1.3) Купить материнскую плату с 2 или более разъёмами PCI-Express x16 (многие платы не нижней ценовой категории).
1.5) Сильно не заморачиваться, а купить матплату, на которой стоит побольше PCI-Express x16-разъёмов:

Купить материнскую плату != купить материскую плату?
Честно говоря я все еще не понял в чем соль
www.evga.com/products/moreInfo.asp?pn=270-WS-W555-A1&family=Motherboard%20Family&series=Intel%205520%20Series%20Family
(MSRP: $599.99 — «цена в минимальной конфигурации»)
Или такую www.ulmart.ru/goods/202091/?head=1&from=rambler_price_msk.
Сравните с ценой на эту
www.flashcom.ru/market/product.php?ELEMENT_ID=86382&SECTION_ID=1698
(3315 р. в России). Может, действительно для кого-то никакой разницы. Но это и есть различное отношение к деньгам.
Уважаемый, а причем тут цена?
Т.е. 1.5 это тот же вариант что 1.3 но дороже? :)
Не только. Смотрите внимательнее. Вам придётся потратиться не только на матплату, но и на всю периферию. Плата с 8*PCIex x16 отличается совершенным пренебрежением к оставшимся у Вас картам расширения, а значит, и к Вашим деньгам.

К тому же, я написал, что 1.5 — это шутка. В направлении цены. Если быть совершенно серьёзным, на этом месте я должен был бы написать: «Если у Вас есть (желание потратить) деньги на апгрейд, то Вам совершенно не надо читать дальше, хватит и тех 9 способов, тем более что есть платы с 8*PCIex x16. Покупаете их, меняете все карты на PCIex, и Вы впереди планеты всей».

Тут уже были несколько возгласов: зачем делать, если можно купить? Смысл статьи — в противоположном: зачем покупать, если можно делать. Пункт 1.5 — самое яркое отражение противоположного подхода, поэтому он выделен отдельно. (К нему ещё карту Eyefinity 5870 6 Edition: www.amdclub.ru/novosti-hardware/radeon-hd-5870-eyefinity-shest-vichodov-mini-displayport-v-komplekte .)

www.thg.ru/graphic/amd_radeon_hd_5870_eyefinity_6_edition/
В этой статье где-то нашли мониторы 1920x1080 за 229$, и всего у них получилось вместе со стойками 1374$ за 6 мониторов. Очень дёшево.
Будем считать это разновидностью USB2VGA.
Сейчас не так мало плат которые имеют на борту несколько пси-е разьемов ( даже среди бюджетных решений) + есть специально для таких задачей карты с разьемом PCI.

Хотя автору респект за труд, не часто встречаются нынче компьютерные маньяки :)
Цитата: «кроме некоторых очень требовательных приложений наподобие Microsoft Flight Simulator, Crysis, Call Of Duty 4» [я не достоин вставлять теги]

Т.е. при подключенных двух мониторах в полноэкранном режиме (в игре) производительность будет ниже, чем в той же самой игре, с теми же настройками, только без второго монитора? Даже если во втором монике исключительно AIMP и Seesmic?
Я с недавних пор счастливый обладатель двух ЖК, поэтому интересуюсь :) И да — Call of Duty 4 — далеко не требовательная.
Посмотрите тесты в статье (на tomshardware.com). На карте x1 сильно падает производительность на CoD4. Требовательность здесь — к объёму потока данных. Если поток в среднем за какое-то время превышает 250МБ/с — будет торможение.
250Мб/с — это пропускная одной линии PCIe rev1. С каждой ревизией скорость удваивается
Зависит от версии, на rev4, вполне себе неплохо должно быть, пропускная на одной линии равна пропускной на 16ти у PCIe rev1
Я ведь правильно понимаю, что если воткнуть в PCI-E 1x карту типа такой, то она справится с проигрыванием видео 1080p?
Если заработает — то да
Спасибо, уже работает)

не могли бы поделиться? достаточно было прорезать порт? Или вы методоб обрезки текстолита поставили?

Не помешала бы информация) Спасибо.

спасибо! к сожалению мне корпус не позволяет видеокарту разместить иначе. Но судя по строению там чисто удилитель контактов, значит должно сработать и "пилить".

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории