Комментарии 487
К слову встречались и цветные типа голубого
Насколько я помню — цвет радиатора не имел никакого отношения к тепловыделению, а определялся исключительно «фирменным стилем» производителя карты.
Так, у Gainward GeForce2 Ti/500 XP AGP Gold Sample 2002 года все радиаторы (включая радиаторы на памяти) были красно-малинового цвета, у Intel i740 AGP (1998) — золотистого, у Matrox Millennium G400 — черного, у карт ASUS — белого.
Самые простые, некрашеные, были у Voodoo 3 — 3dfx особо не заморачивалась.
(вся инфа — из коробки, с моими старыми видеокартами :)
И некрашеные тогда были, и золотистые (часто), и зелёные, и синие…
Это не краска, а тончайший слой химически измененного состава. Теплопроводность от этого не ухудшается. Черный, кстати, тоже можно получить анодированием.
Да, теплопроводность у анодированной плёнки алюминия хуже, чем у чистого, но 15 микрометров — на этот показатель не влияют.
Все, точка. Вопрос решен — зачем радиатор с плохой теплопроводностью?
Во-первых увеличивается площадь поверхности за счет микропор, возникающих при вылете частиц в процессе анодирования.
Увеличивается суммарная площадь поверхности оксида, но не поверхности теплообмена между радиатором и воздухом. А процесс теплообмена гетерогенный. Поэтому теплопроводность и снижается.
А вот что влияет — так это повышающаяся степень черноты! У анодированного алюминия с плёнкой окисла 15 мкм она составляет 0,8 против 0,2- 0,3 у неанодированного.
Чернота это поглощение видимой части спектра, однако с чего бы алюминию или оксиду алюминия что-то в видимом спектре поглощать? Они отражают. Почернеть с поверхности алюминий может лишь при растворении — останутся частицы сажи (остатки выгоревшего анода в ходе получения металла) но не слой оксида.
БЫСТРОЕ НАГРЕВАНИЕ ОБОИХ КОРПУСОВ ГОВОРИТ ОБ ИХ МАЛЕНЬКОМ ВЕСЕ
Теплообмен от массы не зависит, он зависит лишь от площади теплообмена, толщины теплопроводящего материала и коэффициента теплопроводности этого материала.
Увеличивается суммарная площадь поверхности оксида, но не поверхности теплообмена между радиатором и воздухом.
Представьте это как два процесса: теплообмен между радиатором и оксидной пленкой + теплообмен между оксидной пленкой и воздухом. Если теплопроводность оксидной пленки больше, чем теплопроводность воздуха, но ниже, чем теплопроводность алюминия, то после определенного преимущества в площади поверхности контакта с воздухом итоговый теплообмен будет не хуже, чем у чистого алюминия, а дальше даже и лучше.
Что касается теоретических доказательств, то вот вам выжимки из справочника «Источники питания РЭА», издательство Радио и Связь, 1985г., раздел 11.
Насколько я понял, перенос теплоты осуществляется в комплексе: излучением, конвекцией и коиндукцией. Насколько я также понял, в пассивном варианте радиатора как раз в большей степени излучением (радиацией). Нагуглился только скан документа.

Т.о., анодированный алюминий на активном радиаторе — маркетинговый трюк (там больше конвекции, чем радиации), а на пассивном — обоснованное решение. Пусть меня поправят, если я ошибаюсь.
Ок, пусть будет так. Может, вы поделитесь ссылкой, где бы опытным путём было доказано обратное?
В этом нет нужды. Тепло- и электропроводность у анодированного алюминия хуже чем у обычного, а потому по определению он не может быть лучшим радиатором. Конечно, в химии практика стоит во главе, но это не распространяется на однозначную чушь вроде термоядерной реакции при электролизе. Так и тут.
Насколько я также понял, в пассивном варианте радиатора как раз в большей степени излучением (радиацией).
Он везде одинаков — теплообмен между поверхностью радиатора и воздухом. Между пассивным радиатором и тем на который дует вентилятор нету разницы кроме градиента температур — вокруг пассивного радиатора воздух обновляется медленнее, а потому градиент температуры между ним и воздухом меньше. Когда воздух постоянно обновляется то градиент более-менее стабилен и велик. Вещи, на самом деле, очевидные.
Вот очень краткая выжимка:
Если бы она еще была…
Т.о., анодированный алюминий на активном радиаторе — маркетинговый трюк (там больше конвекции, чем радиации), а на пассивном — обоснованное решение.
Выкрашенный в черный цвет штука немного полезная. Но при старой поверхности, будь она хоть маслом пропитана — плохое решение. Но т.к. раньше были и анодированные и просто выкрашенные в золотой цвет алюминиевые радиаторы и практика работы с ними есть, могу заметить что они не сильно хуже чистых.
Если вы, всё таки, ознакомитесь с документом (хотя бы с выжимкой), то удивитесь, что крашенная поверхность радиатора даже лучше (краска, разумеется, годится не любая).
Вот вам ссылка на полный документ: www.toroid.ru/book/naiveltGS.zip
Выжимка на месте, нажмите релоад, может не сразу подтянулась.
Посмотрел. Там про черноту вообще-то написано, а не про пользу анодирования.
то удивитесь, что крашенная поверхность радиатора даже лучше (что краска, разумеется, годится не любая).
Не увидел ничего такого. Там оценивается степень черноты т.е. способность тела поглощать излучение.
ну, если вы и таблицу не смотрели, то я умываю руки :)
про матовую краску в конце таблицы…
я бы это назвал «коэффицент пушистости», т.к. эмаль и лак там выходят лучше аннодирования, а матовая краска работает ещё лучше :)
да нет, же, цвет вообще ни причем.
Ешкин крот! Что такое черный пигмент, какое его главное свойство?
У меня есть видеорегистратор с подсветкой инфракрасными светодиодами, и рассматривать мир через его экранчик интересно. Чёрные джинсы и чёрная пластмасска могут выглядеть совсем иначе.
7 Особого беспокойства будут заслуживать цены на сильные и средне-сильные видеокарты. Т.к. NVIDIA уже давно вышла на плато, можно ожидать очередного скачка цен на вышеозначенные видеокарты в новом поколении, или в следующем. Как бы то ни было, скачок цен на топы не за горами.
Хуанг уже давно озвучил и повторил, что след.поколение 100% будет дороже, из-за дорогих НИОКР и неудержимого роста цен на оперативную память.
И дороже будет всё, не только топы.
Странно, что этот факт не влияет на рассуждения автора
Ой. Автор не заметил процесс вытеснения недорогого ценового сегмента видеокарт — встроенными в процессор решениями, а вы требуете внимания к криптовалютам )
1 Встроенные видеоядра широко предлагаются покупателям с 2010 года и даже раньше (встроенные в чипсет были). Но популярности они никогда не имели. Почему?
2 Их низкая популярность обусловлена низкой производительностью. Видеоядра нужны не для игр, а для обработки и отображения 2d. В 3d режиме тягаться с видеокартами они не могут.
3 Следовательно встроенные видеоядра не составляют конкуренции видеокартам и на их рынок влияния оказывать не могут.
Их низкая популярность обусловлена низкой производительностью.
Я с 2005 года не встречал бюджетно-офисных компьютеров с отдельной видеокартой.
А их только в нашей организации сотни.
Когда появились магазины электроники — большая часть ПК «для дома» в них имела низкую цену и встроенную графику.
Недорогие видеокарты сейчас берут, в основном, на замену вышедшим из строя, или слишком «горячим» видеокартам в старых компьютерах.
Я с 2005 года не встречал бюджетно-офисных компьютеров с отдельной видеокартой.
Офисных. Бюджетных полным полно. Но даже в случае офисного компьютера по любому лучше запихнуть какую-нибудь старинную GF8800, чем сидеть на встроенной графике. Ведь это так или иначе нагрузка на кристалл, а умрет GF8800 ее не жалко.
Когда появились магазины электроники — большая часть ПК «для дома» в них имела низкую цену и встроенную графику.
Но ПК из Эльдорадо конечно плохой пример, разве не так? Я бы сказал, очень, очень плохой.
Но даже в случае офисного компьютера по любому лучше запихнуть какую-нибудь старинную GF8800
У нас около 850 ПК.
Найдите GF8800 хотя бы для 1% из них )
Но самое главное — в этом нет никакого смысла, так как GF8800GT — это уровень встроенных видео HD Graphics 4200, 4400, 4600, P4600 и P4700 — уровень 2013 года.
Но ПК из Эльдорадо конечно плохой пример, разве не так? Я бы сказал, очень, очень плохой.
Ну, вам не угодить. Сейчас люди предпочитают ноуты и планшеты, в которых другой графики, кроме встроенной вообще нет.
Найдите GF8800 хотя бы для 1% из них )
Но зачем? Если они все закупались вместе с одинаковым набором комплектующих, там GF8800 неоткуда взяться.
GF8800GT — это уровень встроенных видео HD Graphics 4200, 4400, 4600, P4600 и P4700 — уровень 2013 года.
Не стоит преувеличивать возможности Интелловской графики.
Ну, вам не угодить. Сейчас люди предпочитают ноуты и планшеты, в которых другой графики, кроме встроенной вообще нет.
Зависит от возраста. Планшеты люди предпочитали покупать несколько лет назад, а сейчас уже распробовали что это такое (у меня напр. планшеты были только для чтения книг и походов на пляж, да и то изредка).
gpu user benchmark с вами не согласен. Intel HD 630 не дотягивает даже до GTS 450 (+20%), и существенно отстает даже от дешевых GTX 460 SE (+65%) плат, в то время как референс GTX 460 (+93%) вообще кажется чем-то недостижимым.
Не стоит преувеличивать возможности Интелловской графики.
Однако на свежем NUC-е (7-го поколения Core-ей) вполне можно было играть «на минимальных 1080@30» в свеженький к тому моменту BF1, что недоступно для 8800GT ни под каким соусом. Так что — встроенной графики вполне хватит под «кинцо» и прочие непроизводительные вещи и старые игрули лет десяти от роду.
На Ультре результаты-то получше будут. Насчет Battlefield 1 сложно сказать, может только из-за отсутствия аппаратной поддержки 11-го директа не запустится, однако, схожесь 4-го Беттлфилда и 1 однозначно указывает на реальную возможность играть даже на 8800. Только игра ужасная и мне не понравилась.
Планшеты люди предпочитали покупать несколько лет назад, а сейчас уже распробовали что это такое
Это у вас были неправильные планшеты.
У меня Surface Pro 4 (i5) — это второй полноценный компьютер у меня на столе.
При всех сохранившихся плюсах планшета.
И да, на этом планшете видеокарта быстрее, чем 8800 GTS 320 MB 2007 года
(время от времени запускаю на этом планшете Fallout 3 :)
У меня Surface Pro 4 (i5) — это второй полноценный компьютер у меня на столе.
При всех сохранившихся плюсах планшета.
Насчет полноценности нельзя согласится. Полноценность компьютера это прежде всего его функциональность — способность выполнять задачи. А рабочие задачи планшет наравне с компьютером ATX выполнять не может — нет клавиатуры и мышки. А если они появятся, то планшет тут-же превратится в обрезанный ультрабук. Что удобно делать на планшете не превращая его в ультрабук? Книги читать, да по интернету серфить, музыку послушать, в игру примитивную поиграть. Но о серьезной работе, даже о написании статьи тут речи нет.
И да, на этом планшете видеокарта быстрее, чем 8800 GTS 320 MB 2007 года
(время от времени запускаю на этом планшете Fallout 3 :)
Запустить можно много что, но как играть в шутер, созданный под клаву и мышку? Нужно добавить клаву и мышку, поставить планшет на стол вертикально, да еще и в зарядку бы воткнуть, чтобы батарея не села. А это будет уже концептуально не планшет, а ультрабук. С таким успехом можно прикупить дешовый ноутбук который ту-же игру потянет без проблем.
Это конечно мое мнение, но считаю его полностью обоснованным. Планшеты стали популярными и будут занимать свою нишу не потому что они функциональны, а потому что их функциональности с головой хватает определенной группе людей.
Полноценность компьютера это прежде всего его функциональность — способность выполнять задачи.
Похоже, что вы просто незнакомы с Surface Pro 4 )
Единственное принципиальное отличие от моего десктопа — ограниченный конструктивом (неразборный девайс) объем оперативной памяти. Даже с обычными дисками проблем нет — к док станции самого Surface подключен док для двух HDD (да и Apple USB SuperDrive — тоже :)
нет клавиатуры и мышки.
Есть, и в отличии от ультрабуков — клавиатура отстегивается (мышь блютуз)
но как играть в шутер, созданный под клаву и мышку?
Я же сказал, что у вас были неправильные планшеты ) С клавой и мышкой все в полном порядке, как и с графикой в Нью-Вегас.
поставить планшет на стол вертикально,
У Surface встроенная откидная подставка. Не каждый монитор позволяет регулировать угол наклона — Surface это позволяет.
Планшеты стали популярными и будут занимать свою нишу
Это было первое поколение планшетов (iPad и его клоны)
Surface Pro — это второе.
И клонов у него уже тьма-тьмущая, Samsung Galaxy Book 12 например.
Единственное принципиальное отличие от моего десктопа — ограниченный конструктивом (неразборный девайс) объем оперативной памяти. Даже с обычными дисками проблем нет — к док станции самого Surface подключен док для двух HDD (да и Apple USB SuperDrive — тоже :)
Так дело не в начинке — многие ноутбуки за свою жизнь вообще никогда не испытывают смены каких-либо комплектующих.
Есть, и в отличии от ультрабуков — клавиатура отстегивается (мышь блютуз)
Главное не в наличии или возможности, а в практическом применении. Практическое применение клавиатуры и мыши у планшета будет такое-же как и у ультрабука — ноутбука. И планшет превратится в урезанный ноутбук. Вины самого планшета тут нет, просто задача которую он выполняет (напр. игра в шутер) требует именно ноутбука/ стационарного компьютера и ограничивается вовсе не железом внутри.
Я же сказал, что у вас были неправильные планшеты ) С клавой и мышкой все в полном порядке, как и с графикой в Нью-Вегас.
Смтр. выше. Ну если точнее — как выглядит игровой процесс в Fallout 3 на планшете? Можно получить описание?
У Surface встроенная откидная подставка.
Да знаю я это! Речь идет не о возможности, а том что для игры планшет будет превращен в ноутбук.
Не каждый монитор позволяет регулировать угол наклона
По-моему каждый. Даже ЭЛТ мониторы.
Это было первое поколение планшетов (iPad и его клоны)
Surface Pro — это второе.
И клонов у него уже тьма-тьмущая, Samsung Galaxy Book 12 например.
Ну вообще было еще более старое поколение, просто планшеты не получили распространения до мощной рекламной акции Эппл, да и железо за ними не поспевало. Вспоминаем Microsoft Tablet PC.
Однако, дело не в поколениях — функциональность и концепция устройства не меняется между поколениями. В противном случае, устройство сменило бы название. Если на планшете по определению нельзя было играть в шутеры, созданные для клавиатуры + мышь, не превращая его в аналог ноутбука (т.е. уже выводя из класса) то ни на каком поколении этого нельзя будет делать.
многие ноутбуки за свою жизнь вообще никогда не испытывают смены каких-либо комплектующих.
Мой старенький Mac-F2268AC8 еще будучи гарантийным — проапгрейдил память. А количество замен HDD и SSD я уже не помню. Плюс поменяли батарею. Потому как
Потом Эппл прикрыло лавочку.
Для ноутбуков возможность замены чего-либо ограничена искусственно.
И планшет превратится в урезанный ноутбук
Почему- урезанный? Там полная функциональность ноута, включая практически полноразмерную клаву с тачем.
И время работы больше, чем у большинства «полноценных» ноутов.
как выглядит игровой процесс в Fallout 3 на планшете? Можно получить описание?
Так же как и на десктопе — одна рука на клаве, другая на мышке.
(Там другая проблема — свободного времени мало )
По-моему каждый. Даже ЭЛТ мониторы.
Это вам в жизни повезло.
Вспоминаем Microsoft Tablet PC.
У меня был в руках UMPC от самсунг — Q1
Технически интересная штучка, но совершено бесполезная в реальной жизни. Потом подался какой-то таблет от НР на шарнире — по факту это был обычный нетбук со всеми присущими нетбукам недостаткам.
Сейчас совсем другое.
В противном случае, устройство сменило бы название.
Это как маркетологи решат )
Если на планшете по определению нельзя было играть в шутеры, созданные для клавиатуры + мышь, не превращая его в аналог ноутбука (т.е. уже выводя из класса)
Тем не менее — Surface Pro это планшет, а не ультрабук.
Планшет, на котором можно играть в шутеры.
Мой старенький Mac-F2268AC8 еще будучи гарантийным — проапгрейдил память.
С потерей гарантии.
Для ноутбуков возможность замены чего-либо ограничена искусственно.
Скорее просто отработали свою жизнь а там на органы как донора.
Так же как и на десктопе — одна рука на клаве, другая на мышке.
(Там другая проблема — свободного времени мало )
Вот об этом и речь. Для игры планшет нужно превращать в ноутбук и даже более — аналог стационарного компьютера. По-другому никак. Вот и ограничение функциональности планшета как отдельного устройства которое требовалось доказать — чтобы играть в игры напр. нужно перевести его в состояние ПК. По-другому никак.
Тем не менее — Surface Pro это планшет, а не ультрабук.
Безусловно. Но в виде планшета он не может выполнять большое число функций и чтобы их выполнить приходится переводить его в состояние ноутбука или ПК.
Планшет, на котором можно играть в шутеры.
Но только если есть клавиатура и мышь. Как на планшете сыграть не получится.
С потерей гарантии.
С какого перепугу? Читайте внимательнее, там написано, что даже в официальной инструкции есть раздел, как это делать. У моих MacMini та же штука.
Это не так.
У MacMini например, внизу круглая крышка, не опломбированная и никак не заблокированная, просто обычная защелка. Используется для самостоятельного добавления пользователем модулей памяти (под ней как раз они). Гарантия не теряется.
Впрочем, вполне может быть — замена заменой, но компания гарантирует работу только с оригинальной частью. Если бы это была явно съемная деталь не входящая в комплект поставки(например SD-карта или USB-флешка), то да — гарантия бы не слетала.
Почему же нет на ноутах не встроенной графики?
Вы просто проспали этот момент.

Вся стаья вообще одно сплошное ИМХО
Просто у вас все округленно тем, что погрешность графика у вас 200% и «экспоненциальный рост цены».
PS. Процессоры как-то так не выросли в то же время.
хватит умничать
Отличный аргумент на IT-ресурсе, чо уж там. Так мы и до «чё, самый умный штоле?» докатимся.
p.s. он прав, называть эту конструкцию «турбиной» — безграмотная чушь, распространненость которой никак ее не оправдывает.
Турбина, вне зависимости от конструкции, это устройство обратного преобразования — потока воздуха в механическую энергию.
Положите системный блок на бок)
Будет еще хуже. Проверено в эпоху всеобщего увлечения HTPC корпусами (около 2007 г.)
Именно тогда в ход пошли «слотовые» кулеры (см. ниже) — без них такие корпуса вообще превращались в «буржуйку»

Если бы лет 20 назад кто-то пересмотрел компоновку компьютерных плат таким образом
Как раз 20 лет назад эта компоновка и была пересмотрена- на смену АТ пришел АТХ.
В качестве довода для смены стандарта как раз приводилось улучшение охлаждения элементов материнской платы и карт расширения )
Это все из-за плоского PCI-E. Когда его заменят на что-то современное тогда и будут клепать видюшки любой массы и размера, хоть на 1000 Ватт.
Это все из-за плоского PCI-E. Когда его заменят на что-то современное тогда и будут клепать видюшки любой массы и размера, хоть на 1000 Ватт
Скорее всего — перейдут к исполнению мощных видеокарт в виде отдельного выносного блока со своим охлаждением и питанием.
И тогда в основном системнике снова станет тихо, прохладно, сухо и комфортно.
(Да и сам системник будет много меньше по размерам, чем внешняя видеокарта )

Вообще я сам по себе твердый сторонник полностью открытого корпуса, без всяких крышек, собранном полностью на алюминиевом профиле. Пусть даже расположение компонентов остается ATX.
Дык интел придумали BTX, в том числе и для того чтоб оптимизировать охлаждение. Но как-то не пошло и сам же Интел все это свернул первый
если бы разработали стандарт для плат с двумя сокетами — для CPU и GPU и годный для удобного жидкостного охлаждения…
Или наоборот — расточительный, но компактный в плане места вариант — охлаждать теплоноситель элементами Пельтье, более высокая температура выносного радиатора позволит более эффективно отдавать тепло при меньших размерах, но за счёт того, что и радиатор будет сколько-то потреблять :)
Про то, что при этом кардинально улучшится температурный режим внутри корпуса, я уже и не говорю.
Ниже, кстати, почти один в один предложили вариант — geektimes.ru/post/299135/#comment_10670797 :)
Или задействовать холодную воду из водопровода
Я на полном серьезе рассматривал эту идею, вода-то не по счетчику. Меня остановили прежде всего цены на ватерблоки тогда ну и плюс если не будет воды, не будет и компьютера. А в остальном все несложно — фильтр из ваты против взвешенных частиц, трубки с катионитом и анионитом, на выходе деминерализованная вода.
или в свете современных «зеленых» тенденций — «сливать» это тепло в тепловой аккумулятор дома
По секрету — 400Вт которые валят из самого горячего ЦП и видеокарты мало для обогрева даже небольшого помещения. Они только летом хорошо подогревают воздух, когда в нем под 35 град.
Или наоборот — расточительный, но компактный в плане места вариант — охлаждать теплоноситель элементами Пельтье
Но это опять-же слишком дорого, даже с пост-советскими ценами на электричество. У элемента Пельте КПД ок. 30%, так что для охлаждения устройств с тепловыделением 400Вт нужна 1.2 кВт батарея элементов Пельте.
Про то, что при этом кардинально улучшится температурный режим внутри корпуса, я уже и не говорю.
Обдумывая все это я пришел к идее полностью открытого корпуса, без каких либо стенок. Уже год эксплуатирую черновой вариант, в конце лета наверняка соберу себе окончательный вариант из оксидированного и окрашенного в черный цвет алюминиевого профиля, специальных пластиковых уголков для него и даже не поленюсь заворонить стальной крепеж в смеси NaNO3 и NaOH.
Я считаю, что полностью открытый корпус — лучшее что сейчас можно сделать из реального.
Ниже, кстати, почти один в один предложили вариант
Я видел. Влияние ноутбучных технологий прослеживается. На практике несложно сделать почти тоже самое если взять вместо тепловых трубок общую СВО.
да, из-за того, что водяное охлаждение считается чем-то элитным — цены на компоненты запредельные. А было бы это чем-то массовым — было бы совсем другое дело.
> если не будет воды, не будет и компьютера.
если не будет электричества — тоже :), а теплоёмкость у воды неплохая, чтобы воду в офисном кулере 20л нагреть на 20 градусов — надо полкиловатта в течении часа…
> 400Вт которые валят из самого горячего ЦП и видеокарты
> мало для обогрева даже небольшого помещения
это я понимаю.., но сам смысл «зеленых» технологий именно в том, чтобы собирать «уходящее» тепло везде понемногу — на вентиляции, на сточных водах, на охлаждении компа…
> что полностью открытый корпус — лучшее что сейчас
> можно сделать из реального.
есть мнение, что это не так — в открытом корпусе очень сложно управлять воздушными потоками. Как-то видел даже статью о том, что для тех же майнинговых ферм лучше ставить ограничители, которые разделяют воздушные потоки и гарантируют, что к каждой видеокарте подводится холодный воздух «снаружи», а не уже подогретый соседом.
> На практике несложно сделать почти тоже самое если взять
> вместо тепловых трубок общую СВО.
опять же всё упирается в массовость и, соответственно, в цену, да и то, что сокеты CPU и GPU лежат в ортогональных плоскостях, делает систему «сильно трехмерной», а будь они в одной плоскости — система получилась бы более компактной.
если не будет электричества — тоже :), а теплоёмкость у воды неплохая, чтобы воду в офисном кулере 20л нагреть на 20 градусов — надо полкиловатта в течении часа…
Дык 20 литров-то. В случае с проточной водой главное преимущество — не нужно охлаждать теплоноситель. Ну и в конце концов пойду я помыться — напор-то упадет, а бывают моменты когда напор вообще слабый и его хватает только на включение колонки. Тогда опять-же компьютер становится нефункциональным.
есть мнение, что это не так — в открытом корпусе очень сложно управлять воздушными потоками.
Там в этом необходимость отпадает. Во-первых, каждый компонент имеет свое воздушное пространство и его кулер охлаждает именно его. Во-вторых, в отличии от закрытого корпуса, вокруг всегда находится неограниченный объем свежего холодного воздуха.
опять же всё упирается в массовость и, соответственно, в цену, да и то, что сокеты CPU и GPU лежат в ортогональных плоскостях, делает систему «сильно трехмерной», а будь они в одной плоскости — система получилась бы более компактной.
Однако, дело как раз в том, что мы возвращаемся как раз к ATX, просто с системой водяного охлаждения.
Первые поколения распространенных графических ускорителей обходились даже без радиаторов, как мы видим на примере S3 Trio
У вас неточность в сравнениях. S3 Trio была 2D ускорителем.
3D/2D ускоритель тех времён выглядел вот так:

У вас неточность в сравнениях. S3 Trio была 2D ускорителем.
3D/2D ускоритель тех времён выглядел вот так:
Voodoo Rush вышел в 1997, когда S3 Trio (пик популярности — 1995) уже была архаизмом
(в реалиях ВТ того времени — год надо считать за пять нынешних )
Ну на фото разница 10-12 лет от 1995 к 2007 году. Обычная видуха и 3Д комбайн.
В 1997 и на 486-ом можно было комфортно жить, не говоря уже о «устаревшей» S3 Trio, о производительности видеокарт в те времена массовый покупатель вообще не думал. Тогда оперативки бы не 8 а 16Мб… вот это да — апгрейд. А видеокарта — просто есть и всё.
В 1997 и на 486-ом можно было комфортно жить
Всегда есть люди, готовые жить и работать в спартанской обстановке.
Но «486» и «комфорт» для 1997 года уже не были синонимами.
1997 — это время TX97-E i430TX и Pentium 266MMX. Да и память к этому времени подешевела, насколько я помню. Плюс винты уже были от 1,6 Гб (Caviar AC31600) до 3,2 Гб (Caviar AC33100).
Я сам просто в Москве не жил, и может у вас там в 1997 (а особенно в 1998, август, да) и покупали массово новые процессоры на старте продаж… может быть, но поверьте остальная страна жила по другому. И еще раз повторю — массовый покупатель не смотрел на видеокарту вообще (она просто была и всё), максимум учитывалась доступность драйверов в условиях недоступности интернета.
… для кого-то просто любой «персональный компьютер» и «комфорт» уже были синонимами. Но я понимаю что страна в 90-ых оч по разному жила.
Но я понимаю что страна в 90-ых оч по разному жила.
А сейчас нет?
Судя по тому, что вы игнорируйте мой вопрос о стране проживания, вы наверное жили в России и наверное в Москве.
Нет, вы не угадали. СНГ, но не Россия, город-миллионник, в котором в то время было по две компьютерных выставки в год, несколько десятков компьютерных фирм и примерно по 10 квартир с компьютерами на 100 квартирный жилой дом в не самом престижном районе города. И Интернет (появление в 1995, к 1997 — достаточно массовое явление, хотя и дорогое и не быстрое)
Судя по Москве 1993 года — там с этим делом обстояло много лучше.
можно вспомнить Virge 3d
Разве что в контексте появления термина «видеоускоритель» и «3D» применительно к видеокартам.
3D, как явление — появилось в 1996 г., вместе с Voodoo Graphics.
Я еще помню восторги по этому поводу в «Мире игрушек» и как чертыхались люди, купившие себе перед этим довольно дорогие видеокарты, на которых из 3D-игрушек ничего не запускалось )
Но Voodoo Graphics было редким и дорогим удовольствием, и 3D реально пошел в массы как раз начиная с более дешевого и глючного Voodoo Rush.
У меня в те времена, кстати была Сапфировская Radeon 9600.
Обычному игруну от них ни горячо, ни холодно.
Плюс аппаратные консоли, с их железом ниже себестоимости. Плюс из-за паритета в железе с PC, консоли уже выходили слабее, чем топовые PC на момент их выпуска. Но игроделы оказались вынуждены подстраиваться под них, тем самым ограничивая аппаратные требования.
Т.е. целевой аудиторией облачного гейминга оказалась очень странная прослойка людей, которые имеют компьютер с Intel вместо видеокарты, не имеют приставки, но хотят играть. А если вспомнить про ограничение требований под консоли, то уже через пару лет после выпуска очередного поколения, проблема «поиграть» решается покупкой самой бюджетной видеокарты, которая там не менее перекроет по качеству картинки и латентности облачный сервис.
На самом деле я в восторге от GeForce Now — можно спокойно побегать в современный шутер на рабочей машинке. Не надо игровое железо. Работает в командировке. Ну это все правда пока оно бесплатно (впрочем Parsec + AWS не сильно дорогой)
Закрывались они и по другим факторам. Во-первых, во многих нужно было или покупать игры заново, или играть в то, что дают по подписке. Во-вторых, никаких модов. В третьих, высокие сетевые задержки. Наконец, командировочные (особенно вахтовики) часто работают в таких местах, где интернет работает медленно, видеопоток по такому соединению не передать.
Из условно отечественных: Playkey и Loudplay. Первый, правда, Linux до сих пор не поддерживает как клиента, а жаль.
Наконец, я знаю как минимум двух человек, отказавшихся от облачного стриминга, потому что он пережимает аудиопоток с большими потерями(!). Как хорошо, что я не меломан)
Кроме латенси, тут другая модель: OPEX vs CAPEX. Вот так взять и вывалить тысяч 50 за игровой компьютер могут далеко не все работающие люди, а платить подписку — около тысячи рублей в месяц — доступно даже студентам и школьникам (хоть и не всем).
Что-то я не верю в них.
А вы попробуйте.
Нет, я вполне серьезно спрашиваю насчет того факт ли это или нет. Просто если бы лично меня спросили о выходе из строя видеокарт при майнинге, я бы все-таки отнес это явление к факту.
У меня из 10 карт еще 7 штук вполне живы после больше 4 лет почти непрерывной круглосуточной работы под полной нагрузкой (около 2х лет майнинг, дальше научные распределенные вычисления в основном).
Причем 3 шт накрылись в первые год-полтора работы — отсеился брак, а прошедшие отсев с тех пор работают без проблем.
В одной производитель вместо смазки в вентиляторах применял какое-то дерьмо, которое при длительных работах при повышенных температурах густело до тех пор пока вентилятор не «вставал колом» — в холодном виде даже пальцем с трудом можно было провернуть (вот кто-то бы мог подумать что для смазки деталей изначально предназначенных для охлаждения горячих чипов нужно использовать смазку не боящуюся высоких температур?!)
Можно было бы не сложно починить (поменять вентиляторы или даже попытаться разобрать и спазать), но я сдал это дерьмо обратно производителю и получил деньги назад.
В 2х других что-то выгорело в цепях питания.
Причем 3 шт накрылись в первые год-полтора работы — отсеился брак, а прошедшие отсев с тех пор работают без проблем.
Да, пик выхода устройств из строя всегда приходится на первые полгода-год. Так что в этом смысле БУ техника имеет большую надежность чем новая.
поменять вентиляторы или даже попытаться разобрать и спазать
О замене лучше вообще не думать т.к. по нынешним ценам на Али один вентилятор стоит более 1 тыс. руб. Там наверное было что-то вроде солидола — загущенного мылом минерального масла. Масло со временем испарялось, а смазка становилась все гуще и гуще.
полноразмерных плат CGA или EGA в исходном виде, или например более древний S3 928, или например IBM PGA.

В моем первом x86 компьютере CGA карта под ISA шину по размеру была равна материнской плате (и располагалась прямо над ней формируя «2й этаж» и соединяясь с материнской платой через «елочку»). Еще даже больше чем на этом фото (длина примерно такая, только шире).
Следующая (сразу VGA минуя EGA) была уже раз в 5 меньше по размеру.
Автору повезло, что он не видел полноразмерных плат CGA или EGA в исходном виде
Карты для VESA local bus тоже не были маленькими, но встречались чаще.

давайте оценим ее«Давайте сравним садовую тачку и Белаз...»
Почему бы вам не сравнить S3 Trio с современными интегрированными видеокартами?
Напрашиваются следующие выводы:
1. Автор сравнивает теплое с мягким.
2. Если уж сравнивать мощность, то лишь удельную — на единицу производительности при равных задачах.
3. В линейке Nvidia хорошо прослеживается тренд отношения производительности к потребляемой мощности:
GTX 670 (170W, 5.4k pm) = 32
GTX 770 (230W, 6.1k pm) => 26 — тот же техпроцесс, что и в 670 (28нм)
GTX 970 (145W, 8.5k pm) = 59
GTX 1070 (150W, 11k pm) = 73
(в качестве мерила производительности использовал результат в 3DMark11 с процессором i5-2500 на штатных частотах)
GTS 250 (150W, 2.5k) = 16.6
GTS 450 (106W, 2.5k) = 23.5
GTX 650 (65W, 3.5k) = 53.8
GTX 750 (55W, 5.5k) = 100(таже архитектура и техпроцесс, что и у 950)
GTX 950 (90W, 9k) = 100
GTX1050 (75W, 9.8k) = 130.6
Почему бы вам не сравнить S3 Trio с современными интегрированными видеокартами?
Потому что это разные устройства.
1. Автор сравнивает теплое с мягким.
Где? Однако же при желании можно и материю с энергией сравнивать, почему бы и нет.
Если уж сравнивать мощность, то лишь удельную — на единицу производительности при равных задачах.
Чтобы собрать такие данные нужно не просто обладать горой видеокарт и полугодом времени. Нужно еще и обладать неким тестом, который не будет оказывать преференций не GeForce не Radeon.
В линейке Nvidia хорошо прослеживается тренд отношения производительности к потребляемой мощности
А теоретическая производительность у них разная, вот и все. За счет этого у них есть экспоненциальный рост отношения производительности к TDP. Значит, 970 и 1070 поспевали еще кое-как за требования рынка, а 770 нет (очевидно кстати).
Тот же i7 от поколения к поколению прирастает этак на 10% производительности. Как такое продавать? Если купили топовый i7 первого поколения, то можно и сидеть на нём по сей день. Где же тут гнусный маркетинг?
Почему не сделать процессор большим или не ввести в консьюмерский рынок многопроцессорные системы? Рассказать как это круто-модно, добиться поддержки виндой.
Наверняка есть какая-то логичная причина, почему так не делают?
PS ну а то, почему консьюмерский софт прохладно относится к огромным процам — банальная техническая невозможность дальнейшего роста тактовых частот на ядро процессора. А в мультиядра консьюмер софт (за исключением рендеринга видео части) пока не придумали как просто раскладывать.
Если кристалл жрет много электричества, то всю полученную энергию с кпд около 100% он превращает в тепло. А отводить сильно больше 100-200 Вт с площади кристалла в сотни кв.мм не получается.
См. Harnessing the Four Horsemen of the Coming Dark Silicon Apocalypse и другие публикации Dark Silicon: https://en.wikipedia.org/wiki/Dark_silicon ftp://ftp.cs.utexas.edu/pub/dburger/papers/ISCA11.pdf http://darksilicon.org/
The study shows that regardless of chip organization and topology, multicore scaling is power limited to a degree not widely appreciated by the computing community.…
While transistor dimensions continue scaling, power limitations curtail the usable chip fraction. At 22 nm (i.e. in 2012), 21% of the chip will be dark and at 8 nm, over 50% of the chip will not be utilized using ITRS scaling
Neither CPU-like nor GPU-like multicore designs are sufficient to achieve the expected performance speedup levels. Radical microarchitectural innovations are necessary to alter the power/performance Pareto frontier to deliver speed-ups commensurate with Moore’s Law.
Увеличивать площадь чипов сложно и дорого (но делают всяческие сверхдорогие Xeon/Xeon Phi, в т.ч. на 200-300Вт и Виндой на 64+ ядрах с площади в 683 мм2).
Размер чипов и микросборок на Silicon Interposer ограничен (максимальный размер одного кристалла задается лимитом степперов. У всех производителей ASML, Nikon, Canon — степпер засвечивает за 1 проход "Field Size" — не более чем 26x33 мм=850 кв.мм., у EUV заявлены те же 26x33).
Есть варианты и продукты с использованием микросборок без Silicon Interposer на всю площадь — EMIB от Интела, MCM(MCM-L?) у AMD c EPIC. Некоторые считают, что оптику следует интегрировать ближе к чипу, чтобы можно было создавать многочиповые решения/снижать затраты энергии на передачу данных.
У видяхи мощи больше, при сравнимом TDP, если в абсолютных цифрах.
Для домашнего применения он малоприменим, жует он только красиво распараллеленый и векторизованный код, на обычном ветвлении или скалярном коде его производительность хуже i3 будет.
Если речь идет о KNC, где флопсы тоже водились, которая втыкается как карта в PCI-E то боже упаси. Это первый пень с векторным юнитом и очень принудительным SMT. Применение этой сугубо флопосовой штуке еще меньше чем КНЛь, т.к. ей нужно накидывать и забирать данные через двольно медленные PCI-E, набортной памяти там очень и очень мало.
https://www.ssken.gr.jp/MAINSITE/event/2013/20130827-sci-1/lecture-01/SSKEN_sci2013-1_simon_presentation.pdf#page=14
Watts per Square cm — nuclear reactor vs multicore cpu — чуть менее 100 Вт на кв.см. (прогноз от 2007 до 2020 г)
2017 — обычные системы охлаждения отводят около 150 Вт на кв.см https://www.computerworld.com/article/3209724/computer-processors/cpu-architecture-after-moores-law.html "Removing 150 watts per square centimeter is the best we can do without resorting to exotic cooling"
2004 — эксперименты с испарителями — https://spectrum.ieee.org/computing/hardware/beat-the-heat "We are removing 300 to 400 watts per square centimeter with our current prototype"
https://www.nextbigfuture.com/2017/10/holy-grail-of-intrachip-microcooling-1000-watts-per-square-centimeter-achieved.html https://www.hpcwire.com/2017/10/24/purdue-researchers-hit-darpa-cooling-target-1000wcm2/ (https://www.sciencedirect.com/science/article/pii/S0017931017322573 "Heat fluxes up to 910 W/cm2 are dissipated using the dielectric fluid HFE-7100.")
DARPA финансирует "микроканалы" в чипе для отведения на уровне 1 кВт с кв.см. ("The 5 mm × 5 mm silicon chip area, with resistive heaters and local temperature sensors fabricated directly on the opposite face, is cooled by a 3 × 3 array of microchannel heat sinks that are fed with coolant using a hierarchical manifold distributor")
Следующий уровень — 10 кВт с кв.см. — это примерно как на поверхности ооочень большой кучи гниющих листьев ("2001 IEEE International Solid State Circuits… if the trend toward ever more fiery chips were to continue unchecked, and surely it will not, microprocessors a decade from now will be pouring out as much power as the surface of the sun, some 10000W/cm^2")
«Логика» имеет в разы (если не на порядок) большее удельное потребление/тепловыделение чем SRAM и периферия. Если на нее будет приходиться большая часть площади чипа, то тепло снимать будет крайне проблематично. С локальными перегревами уже сталкиваются. Например Intel после того как сделали «широкие» и эффективные AVX модули столкнулись и проблемой их локального перегрева — несмотря, что общей производительности системы охлаждения вроде бы вполне достаточно можно получить точечный локальный перегрев компактного (меньше 1 мм2) но очень прожорливого вычислительного модуля из-за ограниченной теплопроводности материалов.
А так когда исполнительные блоки щедро «разбавлены» памятью и другими относительно слабо греющимися структурами снимать тепло намного проще.
Pentium 200 — 15.5W
Pentium II 450 (250нм) — 27.1W
Pentium III 1133 (180нм) — 39.55W
Pentium 4 HT 3.4 (130нм) — 89W
Pentium 4 HT 3.8 (90нм) — 110W
Pentium D 960 (65нм) — 130W
Core 2 Extreme QX9775 (45нм) — 150W // и вот это похоже предел
Core i7 3970X Extreme Edition (35нм) — 150W
Core i7-5960X Extreme Edition (22нм) — 140W
Core i7-6950X (14нм) — 140W
А в этом году будет 10 лет первым i7 и по сути можно так на них и сидеть всё ещё.
Intel Core i7-7820X: 14нм, 2017г., 140W, ~450$, 18646 cpumark
Полагаю, что скорость процессора перестала так уж сильно влиять удобство работы с компьютером — для типовых задач хватает с запасом. А те, кому нужна высокая производительность (3D-графика, работа с видео), часто смотрят в сторону серверных многопроцессорных решений или специализированного железа.
Да, но это привели топ сегодняшний.
А если взять начальный уровень, то, к примеру, современный G4560 4899 cpumark-попугаев. Или i3-7100 — 5811. Так что купив систему с процом за 600 зелени, вполне можно и сегодня комфортно ощущать. И Лишь i5-7400 и i3-8100 обгоняют пожилого старичка, да и то, не настолько радикально, чтобы побежать за ними с криком Shut up and take my money.
i3-7100 — 51W
Это процессоры с пониженным энергопотреблением и интегрированной видеокартой. Для ноутбуков, в общем.
i5-7400 — 65W, i3-8100 — 65W и тоже интегрированные видеокарты.
Если у вас нет цели радикально снизить энергопотребление, например — для перехода на пассивное охлаждение, то разумеется нет смысла менять мощный хоть и устаревший десктопный процессор на экономичный, но слабый современный.
Для бюджеток настолок, а не для ноутбуков. Для ноутбуков идут с буквенными суффиксами — в частности U (ULV), HQ или HK для более прожорливых и производительных. 51, 54W это вполне себе настольные параметры — это всего лишь процессор, а еще потребляет ОЗУ, мост, жесткие диски и т.д.
Просто благодаря прогрессу и уменьшению техпроцесса они стали меньше потреблять, только и всего.
Если смотреть топ-к-топу, то да.
Но фокус в чем — что многие уже "наигрались" и им не нужен сегодняшний топ, да и программ немного, которыми сегодняшние топы можно полноценно загружать. А есть ли смысл менять старый топ на новую бюджетку — вот этот вопрос люди и рассматривают.
Плюс многие, у кого был старый бюджетный проц, рассматривают возможность покупки старого же топа или современной бюджетки.
Core 2 Extreme QX9775 (45нм) — 150W // и вот это похоже предел
i9-7980XE (14нм) — 165W
Threadripper 1950X (14нм) — 180W
Xeon 8168 Platinum (14нм) — 205W
FX-9590 (32нм) — 220W
Ответ прост — тепловыделение. отвод тепла из центра кристалла — та ещё задача.
Почему не сделать процессор большим
Цена и отвод тепла. Это очевидно.
или не ввести в консьюмерский рынок многопроцессорные системы?
Цена X2 за плату, цена X2 за пару процессоров, отсутствие каких-то реальных приложений, способных загрузить 16 ядер в быту (хотя можете взять 8е поколение — там 6-8 ядер не в X-серии).
добиться поддержки виндой.
Можете просто сменить свой 3.11 на что-то посовременнее — там поддержка есть.
Одно время, с появлением у AMD серии FX, вроде вообще процов без графического ядра почти не осталось. И у Интела, и у АМД массово шли процы со встроенным видео. Но вот новые Райзены и Тредрипперы без графики же?
Раньше считалось, что встроенная графика в процах AMD мощнее, чем в процах Интела, это следствие ещё со времён покупки ATI. А что сейчас?
Если я соберу игровой компьютер с дискретной видеокартой и процессором с видеоядром, как они взаимодействуют сегодня? Объединяют вычислительную мощность? В норме работает ядро проца, а под нагрузкой сама включается дискретная видеокарта? Или это надо переключать в биосе? А если проц и видеокарта от разных производителей, скажем, проц AMD со встроенной графикой, а видеокарта nVidia?
Если я захочу собрать максимально приближенный к игровому комп не покупая видеокарту, полагаясь только на видеоядро процессора, на какие модели смотреть? Что сможет такой комп, какие известные игры в каком разрешении потянет (примерно)?
Как сейчас связано наличие встроенной графики в процессоре и наличие видеовыхода на самой материнке? То есть может ли быть ситуация, что на материнке стоит сокет для процессора, опционально имеющего видеоядро, а материнка без видеовыхода? Как тогда задействовать это ядро? Или сейчас видеовыход есть всегда, если проц подразумевает видеоядро?
Или вот наоборот. Раньше были материнки для офисной работы и для начальных компов, со встроенной простейшей графикой (обычно от Intel) при отсутствии в процессоре видеоядра, а как сейчас устроена видеоподсистема в этой нише, ну если видеовыход на материнке есть, а процессор стоит без видеоядра. Как тогда будет работать графика? Остаётся ли в материнке простейшее встроенное видео, или просто при установке проца без видеоядра монитор, подключённый к такой материнке, работать не будет?
Было бы интересно, если б кто-то ответил) А то у меня что-то по этим вещам путаница.
Одно время, с появлением у AMD серии FX, вроде вообще процов без графического ядра почти не осталось. И у Интела, и у АМД массово шли процы со встроенным видео. Но вот новые Райзены и Тредрипперы без графики же?
Райзены с приставкой g — с графикой. Все остальное у амд — без графики.
Раньше считалось, что встроенная графика в процах AMD мощнее, чем в процах Интела, это следствие ещё со времён покупки ATI. А что сейчас?
С приходом райзенов со встроенной графикой — амд снова уделывает интел по встроенной графике (как-никак, но у них все же хоть и урезанная, но все еще vega)
Если я соберу игровой компьютер с дискретной видеокартой и процессором с видеоядром, как они взаимодействуют сегодня? Объединяют вычислительную мощность? В норме работает ядро проца, а под нагрузкой сама включается дискретная видеокарта? Или это надо переключать в биосе? А если проц и видеокарта от разных производителей, скажем, проц AMD со встроенной графикой, а видеокарта nVidia?
Каждая работает отдельно от другой. Максимум — рабочий стол можно расширить на мониторы не зависимо от того к какой видеокарте они подключены.
Если я захочу собрать максимально приближенный к игровому комп не покупая видеокарту, полагаясь только на видеоядро процессора, на какие модели смотреть? Что сможет такой комп, какие известные игры в каком разрешении потянет (примерно)?
Разрешение 1080p:

может ли быть ситуация, что на материнке стоит сокет для процессора, опционально имеющего видеоядро, а материнка без видеовыхода? Как тогда задействовать это ядро? Или сейчас видеовыход есть всегда, если проц подразумевает видеоядро?
Может, но редко. Никак не задействовать если видеовыхода нет.
Или вот наоборот. Раньше были материнки для офисной работы и для начальных компов, со встроенной простейшей графикой (обычно от Intel) при отсутствии в процессоре видеоядра, а как сейчас устроена видеоподсистема в этой нише, ну если видеовыход на материнке есть, а процессор стоит без видеоядра. Как тогда будет работать графика? Остаётся ли в материнке простейшее встроенное видео, или просто при установке проца без видеоядра монитор, подключённый к такой материнке, работать не будет?
В матерях сейчас ничего не встроено и без соответствующего процессора ничего работать не будет.
Одно время, с появлением у AMD серии FX, вроде вообще процов без графического ядра почти не осталось
Они просто по сегментам разделили. AM3 платформа для тех, кому нужны мощные ЦП и ГП, а втройка ни к чему, FM2 — для офиса и тех, кому встройки хватает.
Но вот новые Райзены и Тредрипперы без графики же?
Опять то же самое: разделение сегментов. В топах редко кому встройка нужна, поэтому на TR4 (платформа под Threadripper) встроенной нет, а вот на AM4 есть как процы без встройки, Ryzen 3, 5 и 7, так и со встройкой средне-бюджетные Ryzen 3 и 5, у которых встройка по уровню примерно как GT 1030, если память нормальная.
Раньше считалось, что встроенная графика в процах AMD мощнее
И сейчас все так же. У Интел была Iris Pro, но она в основном в процах для дорогих тонких ноутов используется. А обычная HD Graphics по уровню как встройка в бюджетных процах АМД. Да и на Ириску Интел подзабил, скоро должны появиться процы Интел для ноутов и миниатюрных ПК со встройкой АМД.
Объединяют вычислительную мощность?
Не взаимодействуют. АМД уже не поддерживают такого, последние процы с гибридным кроссом — на сокете FM2+. А переключать дискретку и встройку, в зависимости от нагрузки, умеют только ноутбуки. А в десктопе попросту малость проблематично пробрасывать на выход одной видяхи картинку с другой, особенно если они разных фирм, вот и не реализуют.
Если я захочу собрать максимально приближенный к игровому комп не покупая видеокарту, полагаясь только на видеоядро процессора, на какие модели смотреть?
Пока что только две модели Ryzen: Ryzen 3 2200G и Ryzen 5 2400G. У них встройки в HD (1280х720 или 1366х768) на высоких почти все потянут с приемлемым FPS, а в FullHD — средние, самые тяжелые — на низких.
То есть может ли быть ситуация, что на материнке стоит сокет для процессора, опционально имеющего видеоядро, а материнка без видеовыхода?
Все модели не изучал, но в теории возможно. В таком случае встройку попросту никак не выйдет юзать. Но если такие мамки и есть — это наверняка топы, на чипах вроде Z270, брать подобную по цене намного дороже бюджетного игрового проца, который в ней будет стоять, глупо, лучше чутка добавить и взять мамку на H110 и GTX 1050 Ti.
ну если видеовыход на материнке есть, а процессор стоит без видеоядра. Как тогда будет работать графика?
Никак. Если встройки нет — выход на мамке бесполезен, только дискретку надо.
Раньше считалось, что встроенная графика в процах AMD мощнее, чем в процах Интела, это следствие ещё со времён покупки ATI. А что сейчас?
А сейчас — графика AMD в процессорах Intel.
https://ark.intel.com/products/130411/Intel-Core-i7-8705G-Processor-with-Radeon-RX-Vega-M-GL-graphics-8M-Cache-up-to-4_10-GHz
А в реальной жизни эти процессоры продаются? Видел всего одно устройство с таким процессором — и опять же, которого нет в продаже — NUC Skull
Да и странно пихать такое мощное видеоядро в i7, к i7 пользователь ну всяко насобирает денег на 1050 или аналог.
Да и странно пихать такое мощное видеоядро в i7, к i7 пользователь ну всяко насобирает денег на 1050 или аналог
Я предпочитаю формат Mini ITX, а там — чем меньше корпус, тем лучше.
Поэтому такое решение могу только приветствовать.
Я тоже люблю компактные решения, но без большого ущерба заменяемости компонентов. К примеру, у меня 30х25х9, размером с видеомагнитофон, общим весом 3.15кг — с дискретной видеокартой. Вполне себе справляется)
К примеру, у меня 30х25х9, размером с видеомагнитофон, общим весом 3.15кг — с дискретной видеокартой.
Z97I-PLUS, i5 4690, PowerColor HD 7750, 16 Гб, HDD & SSD, ODD 5" (!) — в корпусе 240мм x 135мм x 295мм (BT-02B-U3-250VS) — но это уже старый комп.
Для нового есть корпус 235х65х200 мм, туда дискретную карту уже нельзя поставить в принципе.
Я играть люблю, мне без дискретки пока никак.
Вышеупомянутый Intel i7-8705G будет стоить неприлично дорого для меня первые 3 года с момента выхода в продажу.
У меня неплохая сборка, но единственный компонент, купленный новым — 1050 Ti. Остальное — и i7-4770, и 2х8GB, и даже мать — куплены б/у.
Сейчас планирую SSD прикупить еще один — и тоже б/у.
ет, слишком маленький. Вот microATX
microATX — это ни вашим ни нашим.
Слишком большой для малогабаритного компа и слишком маленький для «навороченного» компьютера.
Как вот приятно было бы засунуть в microATX Core i7-8700, охлаждая его старинным Scythe Susanoo без вентиляторов. И дополнить GTX1080ti со сниженными частотами, напряжением и пассивным радиатором. Это, я считаю, разумное решение — максимум мощи при реальном тепловыделении не более 150Вт.
техника не должна работать на износ, собирать, я бы сказал, нужно с любовью.
Я тут ранее выкладывал свой конфиг Mini ITX. Работает с 2015 года.
Сейчас люблю делать сборки на H110I-Plus с G4400, 8 Гб и SSD в корпусах 235х65х200 мм. Получаются отличные офисные компы.
И дополнить GTX1080ti
Внешняя видеокарта. Благодаря майнерам — можно сделать и самому :)
Сейчас люблю делать сборки на H110I-Plus с G4400 и SSD в корпусах 235х65х200 мм. Получаются отличные офисные компы.
А поиграть? По сути тонкий клиент на пеньке — ничего нового.
Внешняя видеокарта. Благодаря майнерам — можно сделать и самому :)
Но будет в итоге два блока питания, или провода тянущиеся из корпуса к видеокарте. Плюс шум вентиляторов, плюс ящик или сама видеокарта рядом. Некрасивый вариант, я бы сказал.
А поиграть? По сути тонкий клиент на пеньке — ничего нового.
С точки зрения офиса — такой комп по скорости работы неотличим от компа на Core i7-6700. При намного меньшей цене и размерах корпуса — 235х65х200 можно крепить к задней стенке монитора.
плюс ящик или сама видеокарта рядом
Внешняя видеокарта нужна время от времени. Отключил — и в ящик.
С точки зрения офиса — такой комп по скорости работы неотличим от компа на Core i7-6700.
Нет. Так очень многие считаю, особенно когда в глаза не видели не пеньков, не i3, не i7, не говоря уже о ЦП AMD. Это с точки зрения бенчмарков создает такое впечатление, в реальности-же работать на слабом процессоре Интел сущее наказание. Он постоянно норовит загрузиться на 100%.
Внешняя видеокарта нужна время от времени. Отключил — и в ящик.
Там провода будут неудобно висеть. Провод райзера, провода два питания из БП. Или вообще отдельный БП. В общем. решение нельзя сказать что изящное.
ru.gigabyte.com/Graphics-Card/GV-N1070IXEB-8GD#kf
Только по моему Thunderbolt 3 на основе USB Type-C вне ноутов тяжеловато встретить.
Нет. Так очень многие считаю, особенно когда в глаза не видели не пеньков, не i3, не i7,
У меня G4400 и i7-6700 рядом стоят ) С одинаковыми наборами офисного софта на борту (производственная необходимость).
Нет там никакой разницы. И вообще — недорогие процы от Интел — вещь сейчас более интересная, чем топ (речь не о играх, напоминаю).
Там провода будут неудобно висеть
Проводами меня не запугать ) Их в любом случае много, и никакие беспроводные технологии тут уже не помогут: картинка из сети, но похоже (мысленно перевернуть :)

Получаются отличные офисные компы.
Ну даже не знаю… я бы
В 2014-ом в моем офисном появились 16Гб памяти. А на сегодня этого не хватает вообще никак. Надо бы 32 минимум (развожу руками).
Что сможет такой комп, какие известные игры в каком разрешении потянет (примерно)?
Из моего опыта — интегрированная видеокарта Intel Iris Pro Graphics 580 сравнима с HD 7770 (R7 260/360) или GT 650.
на материнке стоит сокет для процессора, опционально имеющего видеоядро, а материнка без видеовыхода? Как тогда задействовать это ядро?
На некоторых материнках с доп. функциональностью есть разъемы LVDS. Встречал, но не использовал.
ну если видеовыход на материнке есть, а процессор стоит без видеоядра. Как тогда будет работать графика
Никак. Это, к слову — известная «ошибка покупателя». Люди берут «топовую» систему с мощной видеокартой и слегка экономят на процессоре. Вроде все ОК.
Но через некоторое время топ перестает им быть, некогда мощная видеокарта становится сравнимой по производительности со встроенной графикой новых процессоров — но при этом продолжает оставаться энергонеэффективной.
Вполне рабочая система переводиться в ранг офисной машины, для которой большая и горячая видеокарта — существенный минус. Карта выкидывается — и в этот момент вдруг выясняется (сюрприз-сюрприз) что в проце нет встроенной графики…
Если я захочу собрать максимально приближенный к игровому комп не покупая видеокарту, полагаясь только на видеоядро процессора, на какие модели смотреть? Что сможет такой комп, какие известные игры в каком разрешении потянет (примерно)?Если речь о том, что бы только собрать и протестировать фпс — подойдет все что выше хасвела.
А вот если вы вдруг решите поиграть, результат неприятно удивит. Сильный лаг управления из-за медленной шины памяти. А потому для «поиграть на минималках» лучше будет даже 730 или 1030, но никак не встроенное в проц.
Обзорщики и любители фпс этого не знают и обычно это не учитывают.
Как сейчас связано наличие встроенной графики в процессоре и наличие видеовыхода на самой материнке? То есть может ли быть ситуация, что на материнке стоит сокет для процессора, опционально имеющего видеоядро, а материнка без видеовыхода? Как тогда задействовать это ядро? Или сейчас видеовыход есть всегда, если проц подразумевает видеоядро?Никак. У меня мать на чипсете Н55, мать без видеовыхода и процессор без видеоядра. Хотя сам чипсет как раз подразумевает видеовыход.
Ситуация когда есть видеовыход, но нет видеоядра, возможна, у вас просто не будет картинки.
2) Требуемый вид железа зависит от возможностей передачи контента человеку. Позавчера это была командная строка, где видео ускорители были не нужны, вчера это небольшие мониторы, которым нужны ускорители для простеньких эффектов, сегодня это 4к экраны, которые требуют монструозных числодробилок, являющихся по сути компьютером в компьютере, завтра это будут VR очки на ARM процессорах с небольшой мощностью.
Моя идея в том, что то как выглядят видеокарты — это следствие, а не первопричина. Предсказывать интереснее более вышестоящие идеи и технологии. Вот случится чудо, придумают как клепать дешевую 8k матрицу для моника. Да на следующий же день Хуанито заявит, что очередное поколение будет 400W двухголовая с х4 RAM топ карта, покрывающая нужды таких моников.
Наличие дешевых матриц 4К или 8К еще не значит, что все бросятся покупать себе видеокарты под стать.
Сегодня уже легко купить монитор 4К или телек (еще проще и дешевле), но много ли на рынке доступных видеокарт, которые будут тянуть такое разрешение?
Плюс я наверно не очень удачно выразился с фразой «придумают как клепать» 4к… надо было еще добавить «придумают как продать», потому что моник — штука очень долгоиграющая, и убедить человека выкинуть старый и купить новый (не важно 4к или обычный) — еще надо суметь. Тут много проблем уровня курицы и яйца, нет поддержки со стороны винды <-> нет стимула клепать 4к контент и игры с расчетом на него. Но в итоге всего этого… именно в отношении видеочипов, я думаю, если бы вопросы винды и наличия контента решились, то карты бы подтянулись относительно сразу.
2 Тут есть свои мелочи. напр. разрешение 1920х1080 на данный момент можно назвать достаточным для геймерсокого ПК. переход к более высокому разрешению пока неоправдан объективно — если и переходить то к 4к.
Моя идея в том, что то как выглядят видеокарты — это следствие, а не первопричина. Предсказывать интереснее более вышестоящие идеи и технологии. Вот случится чудо, придумают как клепать дешевую 8k матрицу для моника. Да на следующий же день Хуанито заявит, что очередное поколение будет 400W двухголовая с х4 RAM топ карта, покрывающая нужды таких моников.
Однако же люди попросту не смогут купить такую видеокарту из-за цены — чип будет слишком дорогим.
чип будет слишком дорогим.
Сам чип дешевый, основные затраты на R&D. Ну, говорят еще память дорогая.
Думаю майнинг на гпу поднявший цены на отдельные карты в 3 раза показал что цена производства и отпускная цена вещи слабосвязанные.
эффект SSD настолько настолько заметен везде…
Опять-же не могу согласиться. Эффект SSD заметен только когда ОС забита чем не попадя, висит куча непонятных и неизвестных процессов, в трее скрыто программ пять всякой дряни и мейл.ру. Но и тогда не факт что SSD сильно улучшит ситуацию если ЦП слабый (все мы знаем способность слабых процессоров Intel вроде i3 грузиться на 100% чуть ли не от чиха рядом).
прорыва в качестве работы (если делать за ним хоть что-то большее, чем раскладывание пасьянса) за компом за последние годы.
У меня вообще никаких проблем с этим нет. Отклик работающих программ меня абсолютно устраивает, ну а платить деньги чтобы ОС и Photoshop прогрузились немного быстрее — по-моему это нерационально.
Да я даже соглашусь на откат на поколения назад во всём железе вплоть до первых intel Core, но только с ssd (и у меня есть такие компы в наличии, и я помню как они работали с хардами, и как они оживились с момента перехода на ssd).
Нужно просто следить за системой, контролировать загрузку. В протвином случае SSD не спасет.
платить деньги чтобы ОС и Photoshop прогрузились немного быстрее — по-моему это нерационально.
Если для вас разница в 2 — 2,5 раза является небольшой, то вам действительно SSD не нужен.
Я тоже долго отрицал ссд, а теперь не представляю жизнь без твердотельника.
Я не отрицаю SSD, не капли. Просто нахожу сейчас его покупку невыгодной.
Я не против SSD, да и нет сомнений, что в будущем флеш-память вытеснит с пользовательских компьютеров HDD. Как карты памяти вытеснили малюточки микродрайвы. Другой вопрос, когда наступит этот момент, дело в том, что до момента паритета SSD и HDD (речь не обязательно идет о равенстве цен, цена может компенсироваться еще чем-то) любая покупка SSD попросту инвестиция в его развитие. Но инвестиция невыгодная мне как покупателю.
512 гб за ~$100 — это даром. Но я боюсь безымянных китайский брендов.
Ну, это людей почти не интересует т.к. в магазинах большинство SSD накопителей низшей и средней ценовой категории представлено ими. Условно говоря, в том-же ДНС по сути большинство SSD ничем не отличаются от той сомнительной китайщины о которой идет речь.
А какой паритет Вы хотите?
Тут все вместе. Цена за Гб, емкость (покупать носители по 240Гб смешно-же сейчас), надежность которая напрямую связана с отработанностью технологии и т.д. Я пока не чувствую, что SSD в паритете с HDD, даже если бы не низкой, а средней ценой за 512Гб были 6.5 тыс. рублей. Вот когда за эту сумму будут стабильно продаваться носители 1 Тб, то тогда да, можно задуматься о покупке нескольких, скажем, в RAID0. Старые HDD я превращу окончательно в хранилища информации и буду их включать только по мере надобности. Но такой момент еще не настал и до него еще несколько лет.
У меня был ноут на Целероне Ivy Bridge с SSD, и знаете его использование меня никогда не напрягало. А вот на i7-4770 с HDD иногда в районе стула подгорает.
На SSD банально отклик системы лучше.
У меня был (есть?) нетбук с 8-кой. Когда я купил его, это был самый дешевый Делл в российской рознице за 15 тр (при курсе 1 к 32). Там было из коробки 2ГБ ОЗУ, Хард (320 или 500, не помню) и Винда 8.1 кажется. Это было убогое нечто. После смены ОЗУ на 4 ГБ и установки SSD он наконец стал работать, правда и по цене приблизился к ультрабукам Lenovo S300.
А потом я снес винду и зажил счастливо)
У меня оператива менялась как Asus EEE PC 1000h (10"), 2008, так и на Dell 3137 (11.6"), 2014. Первое точно называлось нетбуком, второе так не называлось, но функционально тоже самое — маленький, легкий, убогий по характеристикам, относительно недорогой (к слову, Асеры были от 12 тысяч тогда, ровно как и Асусы — но у них к тому времени убрали Ethernet порт, да и корпус был похлипче).
Насчет SSD такой пример. Я решил посмотреть на практике что мне (именно мне) даст переход на SSD в плане браузера (Firefox) и перенес его папку, папку его кешей, настроек и т.д. на диск смонтированный в оперативке. Немного быстрее, но не принципиальнее. А SSD с диском смонтированном в памяти вообще сравниться не может по определению.
Этот старичок сразу превратился в «ракету», — стартует, запускает браузер и программу для учета продаж моментально, отзывчивость системы возросла в разы и уже не берут нервы когда пытаешся на нем что то запустить и слышишь только хруст винчестера, который поднапрягся.
Скорость отклика могу согласиться что повысилась, это вполне естественно. А вот собственно вычислительная способность Core2Duo никак повыситься не могла и как он грузился на 100% в браузере с двумя вкладками, так он очевидно и продолжил грузиться.
Даже в офисные ПК на работе уже последние лет 4-5 беру только SSD.
Если заказчик хочет SSD вместо HDD и большие объемы хранить на каждом компьютере не нужно, то это наилучшее решение. Ну и плюс конечно любой носитель информации работники обязательно загадят, если не запретить пользователям все что не связано с работой.
Поэтому даже из соображений надежности ссд куда лучше винчестеров себя показывают, раньше из 300 ПК фирмы в год под замену шло не менее 10-15 винчестеров.
Юзвери, что с них взять. SSD в принципе не может быть надежнее ибо большое число флешек в параллели все равно остаются флешками. Могу свой пример привести — у меня напр. никогда еще не один винчестер не вышел из строя, при этом менее 3-х дисков у меня едва ли когда-то стояло. Единственный случай — когда головка сделала царапину на Сигейте я и то исправил — разметил диск на разделы т.о., чтобы поврежденная область была вне разделов. И смешно ли сказать, уже 4-й год у родственников работает несмотря на царапину.
В общем, SSD конечно заменят HDD, но я выжидаю момент когда SSD станут доступными на уровне жестких дисков, чтобы не переплачивать впустую. Даже сейчас покупку SSD для себя считаю не сильно оправданной.
В общем, SSD конечно заменят HDD, но я выжидаю момент когда SSD станут доступными на уровне жестких дисков, чтобы не переплачивать впустую. Даже сейчас покупку SSD для себя считаю не сильно оправданной.
как раз для таких как вы (и я тоже) есть отлично решение — кеширующий SSD.
В большинстве случаев достаточно даже 32Gb SSD + штатный HDD (у меня 2Tb). В зависимости от того какой вариант выберете, а их огромное кол-во, можно получить многократный прирост. 16-64Gb сейчас стоят более чем приемлимо. В итоге получаем объем HDD, с отзывчивостью чуть ниже SSD.
Гибридный HDD?
Где? Я ничего не писал про гибридный HDD.
Только что цена на SSD 16-64Gb — доступна.
Судя по категоричному ответу, тему настаивать не буду.
де? Я ничего не писал про гибридный HDD.
А о чем тогда речь, собственно?
Только что цена на SSD 16-64Gb — доступна.
Да, но они из-за своей малой емкости неактуальны. Да и будут весьма медленнее накопителей больших размеров.
А о чем тогда речь, собственно?
Об умном кешировании, когда кешируется только то, что нужно, а не всё подряд.
Поиск по словам:
RocketHybrid
RocketCache
Первое дешево, второе современнее и дороже, но возможности заметно больше. Начинал с первого. Сейчас второе.
128ГБ smartbuy кеширует Barracuda 6Tb
Потраченный ресурс SSD за год(чуть больше) всего 2.5Tb на запись.
Можно почти также своими руками сделать и SSD из карт памяти (объединяются в RAID0).
Из карт памяти получится плохая замена SSD.
Небыстрая и недолговечная.
Но суть не в этом, это просто пример бессмысленности. Т.к. поставщики флеш-памяти везде одни, то стоимость самодельного SSD будет почти такая-же как и у SSD такой-же емкости. При сомнительном качестве (хотя не факт, да и охлаждение можно организовать улучшенное). Так и с самодельными гибридными дисками.
Если их туда 100500 штук поставить
Зачем так.
Попытка замены SSD достаточно недешевой картой памяти (Class 10 UHS, 45 Мб на чтение) не привела к положительным результатам ))
HDD быстрее ее в два раза, хороший SSD — раз в 20.
А попытка сделать с помощью 8 гиговой флешки USB 3.0 некое подобие гибридного диска — привела очень быстрой смерти всех флешек, принявших участие в этом эксперименте.
Ну, нужно разбирать каждый конкретный случай
Да что там разбирать: карта на чтение по тесту CDM5 дает 83 Мб/сек, SAMSUNG MZFLV128HCGR, там же — 713 Мб/сек, SAMSUNG MZ-V5P256BW — все 1454.
А с флешками что было? Собрали много флешек и объединили в рейд?
Все было проще — ReadyBoost.
Да что там разбирать: карта на чтение по тесту CDM5 дает 83 Мб/сек, SAMSUNG MZFLV128HCGR, там же — 713 Мб/сек, SAMSUNG MZ-V5P256BW — все 1454.
Или рейд неправильно работает, или карты плохо питаются.
Все было проще — ReadyBoost.
А, это все чушь. Сомневаюсь что он когда-нибудь работал бы хорошо.
Или рейд неправильно работает, или карты плохо питаются.
Там нет рейда ) Обычное подключение. Карта «по паспорту» не должна давать больше.
А, это все чушь. Сомневаюсь что он когда-нибудь работал бы хорошо.
Нормально работал, быстро.
Но недолго.
Там нет рейда ) Обычное подключение. Карта «по паспорту» не должна давать больше.
Нет, я про само устройство. Флешки в рейд объединяются, скорость растет пропорционально. Как в SSD.
Флешки в рейд объединяются, скорость растет пропорционально
Нет, не растет. В какой-то момент достигается предел пропускной способности контроллера.
У софтовых RAID (типа Intel RST) это происходит поразительно быстро.
Это обычный гибридный HDD своими руками.Покажите на такие же деньги гибридный HDD. Хотя нет, просто покажите гибридный HDD с размером SSD 128Гб. А после десяток моделей, чтоб назвать это «обычным».
Можно почти также своими руками сделать и SSD из карт памяти (объединяются в RAID0).Редкостная чушь теоретика. От самсунг и интел удивляются, почему вы не их консультант, они дураки дорогие чипы управления каждый год улучшают и выпускают, а оказывается можно взять китайский рейд0 и сделать «почти так же». Может кто-то ошибается? Может потому, что скорость линейной записи 50Mbs мало кого устроит, а может потому, что цена самого адаптера 40-50$, без SD карт.
Бэкблейз недавно статистику опубликовали. 12% брака по Сигейтам, чуть ниже Тошибы и WD, еще ниже HGST (на уровне 3%).
У меня где-то валялась статистика по Intel и Samsung SSD, так там меньше 1%. Если не гонять постоянно перезапись, что возможно, но не у всех такой сценарий, то от Intel'a или Samsung'a решения уже надежнее хардов.
SSD в принципе не может быть надежнее
Учитывая реальные условия эксплуатации (ударные нагрузки от пинания системника ногами во время работы ) — может.
Системники на столах страдают не меньше: от ударов швабр уборщиц по ножкам столов (могут сбить бутылку, стоящую на столе)
Опять же, любителей стучать по системнику во время разговора или в такт музыке никто не отменял.
SSD конечно заменят HDD
При нынешних технологиях — нет. У меня есть HDD диски, хранящиеся в коробках по нескольку лет. При подключении их к компьютеру проблем обычно не возникает.
А вот с SSD, по слухам, проблемы начинаются после трех месяцев такого хранения.
Опять же, любителей стучать по системнику во время разговора или в такт музыке никто не отменял.
Мне хорошо, у меня основной компьютер вообще в самодельном корпусе из уголков, скоро новый начну делать. Стучать при всем желании не по чему.
У меня есть HDD диски, хранящиеся в коробках по нескольку лет. При подключении их к компьютеру проблем обычно не возникает.
А вот с SSD, по слухам, проблемы начинаются после трех месяцев такого хранения.
Где-то выше я начал с того что в пользовательских компьютерах. Собственно, я так думаю потому что повышение скорости интернета попросту избавит большинство людей от необходимости держать многотеррабайтные диски по рукой. Ну SSD на 1-2 Тб хватит идеально для системы и программ. В том сегменте где нужны большие объемы данных, HDD будет держаться еще довольно долго. Что-то типа ленточных накопителей.
повышение скорости интернета попросту избавит большинство людей от необходимости держать многотеррабайтные диски по рукой
Достаточно много людей так думало и прокололось ))
Плюс не далее как сегодня, по оставшейся неизвестной причине, у нас на 10 минут вырубился интернет — что мгновенно привело к коллапсу все наши современные облачные технологии.
HDD будет держаться еще довольно долго
Он будет держатся до появления какой-то новой технологии хранения данных. Современные угрозы ему не представляют.
Что-то типа ленточных накопителей.
Были бы в продаже ленточные накопители формата 5" с картриджами на 20...50 Тб, да за разумную цену — взял бы непременно.
Достаточно много людей так думало и прокололось ))
Зависит от доступности интернета, на самом деле. Я-то не при каком интернете от запасных копий ценного на BD не откажусь. Но большинству это не к чему.
Плюс не далее как сегодня, по оставшейся неизвестной причине, у нас на 10 минут вырубился интернет — что мгновенно привело к коллапсу все наши современные облачные технологии.
Это еще не худшее что может случиться. Но мы ведь говорим об обычном пользователе которому компьютер нужен чтобы в интернете странички почитать, в соц. сети посидеть, в игры поиграть и т.д. Поэтому заметная часть пользователей вполне спокойно перешли к просмотру фильмов онлайн и прослушиванию музыки таким же образом.
Он будет держатся до появления какой-то новой технологии хранения данных. Современные угрозы ему не представляют.
Тут я фантазировать не хочу. Увидим.
Были бы в продаже ленточные накопители формата 5" с картриджами на 20...50 Тб, да за разумную цену — взял бы непременно.
Ну, такие большие не скоро появятся. Проблема в ленточных накопителях вовсе не в самих лентах, а в устройстве считывания. Даже предназначенные для самых старых LTO стоят очень дорого для среднего человека.
Зависит от доступности интернета, на самом деле.
Зависит от решений, принимаемых сверху. Сейчас не начало 2000х.
Но мы ведь говорим об обычном пользователе которому компьютер нужен чтобы в интернете странички почитать,
У обычных пользователей интернет может вырубиться на несколько дней. Кто сталкивался и имеет возможность — держит по два подключения к разным провайдерам.
Даже предназначенные для самых старых LTO стоят очень дорого для среднего человека.
В это слабо верится тем, кто в свое время юзал АРВИД на базе бытовых видеомагнитофонов )
Цена ленточных накопителей явно завышена.
У обычных пользователей интернет может вырубиться на несколько дней.
Рдкое и давнее явление. Ну на часов 5 максимум раз в полгода и то не факт что я это застану.
Кто сталкивался и имеет возможность — держит по два подключения к разным провайдерам.
Есть такой подход, но считаю что для обычного человека жирно.
В это слабо верится тем, кто в свое время юзал АРВИД на базе бытовых видеомагнитофонов )
Ну так до видеокассеты были. Хотя был бы спрос у обычных людей, китайцы может что-нибудь и наладили бы в пределах 500-1000 $, как знать.
Цена ленточных накопителей явно завышена.
Сами накопители очень недорогие, на Авито полным полно нераспакованных средних по старости LTO-лент. А вот считывать негде.
Рдкое и давнее явление
Это вам повезло с провайдером.
И алкаши у вас не вырубают оптику с намерением сдать ее как цветной металл.
Прошлым летом дворник бросил лопату в шкафчик с кабельной системой, повредил оптический кабель — провайдер три месяца не мог найти и устранить неисправность.
Есть такой подход, но считаю что для обычного человека жирно.
Сидеть без интернета — обходится дороже.
Сами анкопителя очень недорогие, на Авито полным полно нераспакованных средних по старости LTO-лент. А вот считывать негде.
Не совсем вас понял ) Накопитель как бы и есть «считыватель», а лента — это носитель.
И алкаши у вас не вырубают оптику с намерением сдать ее как цветной металл.
Прошлым летом дворник бросил лопату в шкафчик с кабельной системой, повредил оптический кабель — провайдер три месяца не мог найти и устранить неисправность.
Частный дом, ТКД на электрическом столбе, до нее без высокой лестницы вообще нереально добраться. Разве что птицы-вандалы попадутся, которые смогут расковырять или взломать стальной ящик.
ТКД на электрическом столбе
У нас периодически случаются небольшие бури, при которых ветром выносит стекопакеты с лоджий, а провода свиваются в косички.
(Я же говорю — вам повезло )
Собственно, я так думаю потому что повышение скорости интернета попросту избавит большинство людей от необходимости держать многотеррабайтные диски по рукой.
Агитация за зависимость от всяких левых интернет-хранилищ. Нет уж, лучше хранить нужное у себя, несмотря на все эти бесплатные приманки в интернете.
Я-же указал, для среднего пользователя. Не для продвинутого.Даже самый средний пользователь, начинает подозревать, когда 2-3 раза утекают данные с централизованных хранилищ и начинает их растраскивать обратно.
Растущий рынок NAS и появление 8-10-12 Tb HDD специально для хранения очень серьёзный показатель, как минимум на ближайшие 5-10 лет. Хотя ещё 3-5 лет назад пророчили уход в облака.
PS:
Да и самсунг сделав в S9+ 256Gb памяти наверно, что-то знает о тенденциях. А могли бы только 32 и 64 торговать.
Даже самый средний пользователь, начинает подозревать, когда 2-3 раза утекают данные с централизованных хранилищ и начинает их растраскивать обратно.
Всякие фильмы и т.п.? Пользователи Эппл подтверждают что нормально все.
Растущий рынок NAS и появление 8-10-12 Tb HDD специально для хранения очень серьёзный показатель, как минимум на ближайшие 5-10 лет.
Вот поэтому я и не тороплюсь с покупкой SSD т.к. война с HDD все еще идет и время работает на меня.
Хотя ещё 3-5 лет назад пророчили уход в облака.
Скорее вопрос кому и для чего.
Пользователи Эппл подтверждают что нормально все.Каждый лично г-ну JohnHenry89?
А то как-то не убедительно.
Вот поэтому я и не тороплюсь с покупкой SSD т.к. война с HDD все еще идет и время работает на меня.Война уже прошла. Выявила, что победителя не будет.
SSD стало уровнем между RAM и HDD.
Были раньше люди которые ждали пока RAM подешевеет и можно будет «ух какой комп на рам-диск собрать». Их мечта осуществилась, вот только 2Gb RAM теперь мало кого удивишь. Более того требования к их мечте теперь от 64Gb Ram т.к. ОС разрослась.
За то теперь их этим можно постебать… Вижу вы адепт их секты. Удачи.
Каждый лично г-ну JohnHenry89?
А то как-то не убедительно.
Более-мене. Рекомендую поспрашивать их о синхронизации Эппловской.
Выявила, что победителя не будет.
От сегмента зависит. В сегменте ПК и ноутбука однозначно SSD.
Были раньше люди которые ждали пока RAM подешевеет и можно будет «ух какой комп на рам-диск собрать».
Никогда не ждал, да и диск монтируемый в виртуальной памяти явление относительно новое. В первоначальных вариантах это была отдельная плата в которую вставлялись модули памяти. Как бы то ни было, идея без перспективна т.к. мат. платы поддерживают лишь ограниченный объем памяти.
Более того требования к их мечте теперь от 64Gb Ram т.к. ОС разрослась.
64 Гб сейчас мало однако.
Вижу вы адепт их секты.
Я умоляю.
Никогда не ждал, да и диск монтируемый в виртуальной памяти явление относительно новое. В первоначальных вариантах это была отдельная плата в которую вставлялись модули памяти. Как бы то ни было, идея без перспективна т.к. мат. платы поддерживают лишь ограниченный объем памяти.Ваши знания, слишком «новые» и поверхностные. А заявления полны безосновательных утверждений. И конечно, не без модных уловок, что б дать заднюю.
И над вами смеется драйвер RAMDRIVE.SYS и валятся в истерике драйвер COMBI.SYS от уже забытой MS-DOS.
От сегмента зависит. В сегменте ПК и ноутбука однозначно SSD.
«Однозначно SSD» — только для ноутов и планшетов.
Для ПК наиболее ходовой размер — 2Тб (экономвариант)
Рекомендуемый — 4Тб.
Желательный — 8...10 Тб.
Так недалек тот день когда по доступной цене будут продаваться 2Тб SSD
Я еще помню про то, что нынешнее поколение будет жить при коммунизме, а вы мне про недорогие 2Тб SSD рассказываете )
СССР не могло быть коммунизма даже в обозримом будущем уже согласно самого марксисткому учению.
В 1961 году марксизм как учение — в СССР не воспринимал уже никто.
Более того, простое чтение Адама Смита* приводит к ошеломительному выводу — даже в 20х социалистическую экономику строили не по Марксу, а по Адаму Смиту (идея коллективизации прямо взята от него и творчески доработана).
* Маркса все проходили еще в ВУЗе.
Имел ли Хрущев в виду скорую победу СССР в войне, или у него были другие планы — так и осталось неизвестным. Но просто так — подобное не мог пообещать даже Хрущев.
Что до SSD, то SKC300S3B7A/480G я приобрел еще в середине 2015 года и с тех пор его цена существенно не изменилась: SKC400S37/512G все еще стоит $247.
А за $130 можно взять Patriot Ignite 480GB (ху из кто?)
В 1961 году марксизм как учение — в СССР не воспринимал уже никто.
Более того, простое чтение Адама Смита* приводит к ошеломительному выводу — даже в 20х социалистическую экономику строили не по Марксу, а по Адаму Смиту (идея коллективизации прямо взята от него и творчески доработана).
Не хотелось бы отдаляться от темы SSD, однако, если Маркс глубоко донаучен, то Смит уж донаучен вдвойне если не в квадрате. Всякие невидимые руки рынка, гарантии равенства, естественный уровень цен и т.п. — это все едва ли можно было всерьез воспринимать даже в начале 19-го века. И Смит конечно-же не мог быть сторонник коллективизации т.к. был крайним приверженцем института частной собственности. Если говорить о СССР, то настоящей коллективизации там не было да и не могло быть, учитывая уровень развития который находился на границе феодальных и капиталистических отношений. Все субъекты советской экономики преспокойно владели чем-то и директор советского завода получал блага, сопоставимые с владельцем завода в США, просто в пересчете на скудное советское довольствие. И рабочие в социальных квартирах тоже были фактическими их владельцами. Главной чертой советского института частной собственности были отголоски феодального права — владельца всегда можно было лишить его имущества и передать ее другому. Брежневский кадровый застой это не застой в движении людей в административной лестнице, это ситуация полной стабилизации феодальной лестницы — вассалы верны сюзерену т.к. знают что он их благ не лишит. И сейчас отголоски феодальных отношений в России живы.
Имел ли Хрущев в виду скорую победу СССР в войне, или у него были другие планы — так и осталось неизвестным. Но просто так — подобное не мог пообещать даже Хрущев.
Тут нету загадки. После Второй мировой войны мировая экономика находилась в стадии роста и расширения. Отсюда надежды на хорошее будущее даже у обретавших независимость убогих африканских стран. СССР, естественно, испытывал на себе влияние этой фазы и благодаря этому мог позволить себе грандиозное строительство социального жилья, даже целых городов, дорогую космическую гонку и т.д. Т.к. темпы роста экономики у более передовых стран всегда меньше, чем у менее развитых, то в последних это порождает иллюзорную надежду на возможность догнать первых. Но тут не учитывается абсолютное значение экономики. Условно говоря, если США с ВВП 18.5 трлн.$ будут расти всего 1% в год, то они вырастут на 1.85 трлн.$ на следующий год. А если наша страна с ВВП 1.28 трлн.$ будет расти максимально допустимые 10% в год, то вырастит лишь на 0.128 трлн.$. Советская экономика росла быстрее американской, но тут не учитывались абсолютные значения. Относительный рост экономики плюс благоприятная экономическая фаза в мире говорили Хрущеву что такими темпами СССР и вправду сможет догнать США. Отсюда и его слова о том, что СССР похоронит США.
Что до SSD, то SKC300S3B7A/480G я приобрел еще в середине 2015 года и с тех пор его цена существенно не изменилась: SKC400S37/512G все еще стоит $247.
Вполне возможно, но у него наверняка появилась масса конкурентов с меньшей ценой за Гб.
А за $130 можно взять Patriot Ignite 480GB (ху из кто?)
А за 6.5 тыс. руб. вообще я выше давал ссылку на 512Гб. Развитие есть, не революционное, но есть.
И Смит конечно-же не мог быть сторонник коллективизации т.к. был крайним приверженцем института частной собственности.
Да, Адама Смита, как мне кажется, вы не читали )
Но оставим этот вопрос до более подходящей темы — там я смогу привести несколько цитат.
Советская экономика росла быстрее американской, но тут не учитывались абсолютные значения
Абсолютные значения тоже учитывались, причем в первую очередь. Все эти ДИП — всего лишь пропаганда, реальная советская экономика опиралась на реальные вещи. Всегда.
И расчет у Хрущева был на какие-то совершено конкретные силы и средства.
Развитие есть, не революционное, но есть
И рост цен на память это подтверждает? )
Да, Адама Смита, как мне кажется, вы не читали )
Но оставим этот вопрос до более подходящей темы — там я смогу привести несколько цитат.
Конечно, удачи в поиске цитат про преимущества коллективизации у А. Смита.
Абсолютные значения тоже учитывались, причем в первую очередь.
Они не могли быть учтены не тогда не сегодня т.к. советский рубль был неконвертируемой валютой. Пересчитать советские рубли и все что с ними связано в тогдашние доллары невозможно.
Все эти ДИП — всего лишь пропаганда, реальная советская экономика опиралась на реальные вещи.
Что такое ДИП?
Всегда.
И расчет у Хрущева был на какие-то совершено конкретные силы и средства.
Конечно, расчет на царь-бомбу которую нельзя было транспортировать дальше нескольких сотен километров своей территории.
И рост цен на память это подтверждает? )
Рублевых или долларовых? Заметного роста долларовых цен я не замечал.
удачи в поиске цитат про преимущества коллективизации у А. Смита.
Вы начинаете передергивать.
Напомню: «идея коллективизации прямо взята от него и творчески доработана».
Что такое ДИП?
Лозунг 30х...50х: «догоним и перегоним», воспринимаемый населением чисто как пропагандистский: «перегонять нельзя, голый зад будет виден»
Конечно, расчет на царь-бомбу которую нельзя было
На что там рассчитывал Хрущев — нам неизвестно.
А вот американцы вполне предполагали, что царь-бомбу советы смогут доставить в Нью-Йорк прямо в трюме грузового парохода. И не только в Нью-Йорк.
Рублевых или долларовых? Заметного роста долларовых цен я не замечал
Долларовых конечно. И рост на 50% как-то совершенно не заметен (с $62 до $114 за 8 Гб модуль)
Напомню: «идея коллективизации прямо взята от него и творчески доработана».
У человека который в основе экономики видел идею частной собственности? Или верил в невидимую руку рынка?
Модель Смита может быть применена только к маленькой деревне которая находится на острове вне остального мира.
А вот американцы вполне предполагали, что царь-бомбу советы смогут доставить в Нью-Йорк прямо в трюме грузового парохода.
В течении скольких недель после начала войны?
Долларовых конечно. И рост на 50% как-то совершенно не заметен (с $62 до $114 за 8 Гб модуль)
Это как вообще? 8Гб DDR3 стоят 3 тыс. рублей с хвостиком, много что-ли?
Даже самый средний пользователь, начинает подозревать, когда 2-3 раза утекают данные с централизованных хранилищ и начинает их растраскивать обратно.
Шифроваться надо.
Даже среднему пользователю. Даже начинающему.
Предварительно прочитав «Условия использования Google»
или «Заявление о конфиденциальности корпорации Майкрософт».
(Честно ответе — читали? :)
Честно ответе — читали?Не просто читал. А каждый раз «дифф делаю» для обнаружения юридических «подарочков».
Но кто это будет делать?
По моему опыту руководства одним саппортом, трети половины не отличают яндекс(портал) от яндекс(браузера). Если нужно отличить Браузер от ОС, армия пополнится до 50%+. Но что требовать от обычных пользователей, когда до принятия закона о ПД убедить владельца в необходимости шифрования или хеширования было не возможно.
Ну и отдельно стоит сам факт «шифроваться» в той же стандартной 10. Вспоминать лтсб не нужно, средний пользователь её себе не поставит. И вопрос большЕго доверия к ней всё ещё остается открытым.
Ну а простое «однокнопочное» шифрование предлагает только винда, которой я не доверяю.
А все альтернативы были заботливо уничтожены большим братом. Подскажете что-то на этом поприще?
Кроме миграции на никс системы, второй системой стоит роса ;)
Не просто читал. А каждый раз «дифф делаю» для обнаружения юридических «подарочков».
Так МS дает список отличий отдельным списком.
Вспоминать лтсб не нужно, средний пользователь её себе не поставит.
Ее любой адекватный пользователь не поставит :)
А все альтернативы были заботливо уничтожены большим братом. Подскажете что-то на этом поприще?
Ну раз все уничтожено, то пользуйтесь хотя бы 7zip )
Так МS дает список отличий отдельным списком.С чего бы им вдруг доверять тут, если не доверяем в остальном? Только не надо про репутацию и доверие.
Ее любой адекватный пользователь не поставит :)И тем не менее при тестировании, она обращается к своим серверам на порядок меньше.
Ну раз все уничтожено, то пользуйтесь хотя бы 7zipПользуюсь, но исключительно в целях архивации, как лучшее соотношение сжатие-скорость.
Если это намёк на встроенное шифрование, он внезапно
С чего бы им вдруг доверять тут, если не доверяем в остальном?
А кому в таком случае можно доверять? Степень недоверия тоже должна быть разумной (хакер в столовой, да)
Если это намёк на встроенное шифрование, он внезапно одобренный большим братомгражданский AES.
Да, намек. Как на самый доступный среднему пользователю вариант.
(Тайлер Джеймс Хофман явно не был в курсе возможностей 7zip )
А кому в таком случае можно доверять? Степень недоверия тоже должна быть разумнойВполне разумно, зная, что эта корпорация начала следить, до внесения сведений об этом — фактически обманула. Ожидать обмана снова то старо схеме — втереться в доверие и обмануть. в этом случае приучить доверять диффам, а после случайно забыть о чем-то упомянуть.
Тайлер Джеймс Хофман явно не был в курсе возможностей...Такие особенности уже давно есть в большинстве приличных архиваторов.
Вот только не факт, что упакованное с паролем не привлечет еще большего внимания, чем без такового.
Истину глаголете. У меня есть старый комп AMD Athlon X3 450, 8 ГБ DDR2, HD 7770 1 ГБ. Там стоит чисто под семерку SSD на 24 ГБ. У него вроде и скорости линейные невысокие (даже в SATA 2 не упираются), но за этим компом можно нормально работать. К соседу ходил переустанавливать винду на схожем ПК (такой же проц, памяти 4 или 6 ГБ DDR3, GTX 550 Ti), но с обычным терабайтовым хардом. Ну он и слоупоком мне показался, против моего. У дружбана комп на AMD FX-6200 или 6300 — тоже слоупочнее моего атлона.
Ноут у меня (ASUS K56CB — i5-3317, 6 ГБ DDR3, GT 740M) на родном HDD печалил, но вкинул туда дешевый Кингстон на 128 ГБ (вместо харда, хард ушел в лоток на место DVD) — так он прям воскрес. По субъективным ощущениям работает быстрее, чем современные бюджетные ноуты на i3 Skylake с HDD.
кроме загрузки ОС могут быть ещё и синхронизация с SVN/GIT, и билд… а «0.5Тб 6.5 тыс. руб.» — это вообще халява, можно ссылку ;)?
6466 руб. за 512Гб SSD, доставка в Россию бесплатно. А если собрать RAID0 из двух таких вообще круто будет.
Можно поставить 64Gb, разница будет заметна и совсем не в загрузке ОС. 256 быстрее (больше чипов — больше каналов), 512 — это даже многовато, имеет смысл только когда один ставить. Все теоретизирования "когда ОС забита" выдают лишь незнание темы. И здесь тоже.
Можно поставить 64Gb, разница будет заметна и совсем не в загрузке ОС
Тогда в чем вообще?
Все теоретизирования «когда ОС забита» выдают лишь незнание темы.
Ну это или ты не знаешь темы или не понимаешь о чем речь идет.
В непонимании того, что интегрированная в процессор графика — это уже вполне нормальное решение
Тут главный вопрос не «нормальное/ ненормальное» а в том, для чего оно нормальное или не нормальное. Для офисных целей, почему бы и нет. А для игр т.е. актуальных на сегодня 3d вычислений, определенно недостаточно производительности.
что SSD дают вполне ощутимый выигрыш в скорости работы.
Опять-же зависит от того работы чего и какой работы. Возвращаемся к играм — естественно, что на 3d вычисления SSD никакого влияния оказывать не может т.к. они упираются в само устройство, вычисляющее 3d графику — видеокарту. Ну а скорость загрузки ОС вообще едва ли сказывается на скорости работы, если только не постоянно перезагружать компьютер. Так что я хотел бы уточнений.
Или ещё один пример: если сотня процессов начнут дергать примерно каждую секунду данные с произвольного места винчестера скажем всего по одному кластеру, казалось бы операция вообще не напряжная по скорости а система практически станет колом(время обработки каждого запросы вырастет до 1 секунды!) т.к. винт будет загружен под завязку по IOPS. И причем эта ситуация не такая уж и фантастическая, с современной виндой-то. Применение SSD очень здорово разгружает именно эти ситуации.
Это может отразится на скорости загрузки текстур.
Дык может. А может и не отразиться. А если и отразиться то результат будет в пределах погрешности.
А на работе ОС это сказываться начинает когда много конкурирующих процессов дергают винчестер — для винчестера характерное число около 100 IOPS и чтобы к примеру получить доступ к файлу по имени надо выполнить 3 зависимых чтения в разных областях диска, когда такую элементарную операцию будет делать с десяток приложений одновременно — для каждого из них время выполнения операции очень сильно увеличится, что вызовет чувство подтормаживания на казалось бы лёгких операциях.
Вот и я об этом. Поустанавливают себе люди 100500 непонятных программ, а потом жалуются что HDD трещит и ЦП загружен под 100% в простое.
Применение SSD очень здорово разгружает именно эти ситуации.
С этим я не спорю, вопрос не в том, ускоряет ли SSD работу системы — он конечно ее ускоряет. Вопрос в оправданности в переходе на SSD сейчас. Естественно, что никакой идеологической вражды с SSD у меня нет и я непременно прикуплю себе в будущем парочку на многие терабайты. Но на данный момент, необходимость в покупке SSD я, увы, не вижу. Мелкие, дорогие, все еще развивающиеся (тем более что уменьшение техпроцесса еще и снижает их надежность) — ждать нужно.
1) Раньше при первом запуске проекта в дебаггере он минут пять строил список файлов в собственной папке (обычный FindFirstFile/FindNextFile, в рабочей копии часть текстур лежит в распакованном виде — несколько десятков тысяч файлов). Иногда, когда не хватало терпения, я убивал его и запускал вчерашнюю релизную сборку, которая делала то же самое секунд за 30. После этого следующие загрузки были уже моментальные. Видимо, винда кэширует где-то данные, а при перезагрузке они стираются (я выключаю комп на ночь).
Так вот, на SSD даже дебажная сборка, под дебаггером, сразу после загрузки системы, строит список файлов за полсекунды. А релизная — вообще за какие-то миллисекунды.
2) Чистая, свежая семёрка на ноутбуке, на HDD. Не понимаю, как у меня раньше (до SSD) хватало нервов так работать! Загрузка долгая, после входа на рабочий стол ещё минуты две ждать, пока всякие антивирусы и скайпы стартуют. Когда браузер открывается, видно, как прорисовывается его окно… Даже завершение работы растягивается на несколько минут, что здорово напрягает, когда ноутбук уже сейчас надо сунуть в сумку и уходить.
Так что нет, зря вы так о SSD. Купите один и попробуйте!
Так что нет, зря вы так о SSD. Купите один и попробуйте!/blockquote>
Куплю конечно, никуда я не денусь. Но не сейчас, сейчас еще не выгодно.
Загрузка долгая, после входа на рабочий стол ещё минуты две ждать, пока всякие антивирусы и скайпы стартуют.
Да, это большая проблема. Но антивирусами я не пользуюсь, а Скайп запускаю только по необходимости. Поэтому у меня все нормально стартует.
Видимо, винда кэширует где-то данные, а при перезагрузке они стираются (я выключаю комп на ночь).
Разумеется кэширует. Причем очень агрессивно, точный алгоритм не знаю, но под динамический кэш отдает большую часть свободной (не занятой запущенными программами) оперативной памяти.
Иногда даже излишне агрессивно — часть редкоиспользуемых данных программ выгружается в своп на диск (хотя можно было бы этого вообще не делать — свободной памяти достаточно), а память использует под все больший дисковый кэш.
Если бы речь шла о нехватке памяти для всех работающих программ, то тут ничего не поделаешь, это много лучше чем ошибки из-за ее нехватки.
А вот специально выгружать данные из памяти на диск, чтобы увеличить объем памяти используемой для кэширования операций с диском — это какая-то разновидность программного маразма.
Предназначение дискового кэша — ускорение работы и сокращение физических операций с диском. Активное же использование свопа дает прямо противоположный этому результат — увеличение количества дисковых операций и замедление работы.
Обычно это особых проблем не создает, но в некоторых сценариях с очень активными дисковыми операциями создает проблемы. И принудительное ограничение размера кэша (или отключение свопа) дает заметное ускорение работы.
К этому механизму претензий нет. Пока объем такого резерва остается на адекватном уровне.
Есть претензии к дурной логике, когда дисковый кэш (за который отвечает сама ОС, а не пользовательское приложение) иногда начинает жрать столько памяти, что ради него ОС начинает выгружать данные пользовательских программ в своп и в результате общая скорость работы существенно падает.
«Крутилки» в принципе есть, но далеко зарыты. Когда одно время сильно мешало такое дурное поведение нашел утилиты позволяющие ограничить размеры кэша и получал значительно увеличение скорости работы в некоторых сценариях:
— несколько приложений с достаточно большим объемом используемой памяти (но меньше имеющего объема, т.е. в принципе можно обойтись без свопа вообще)
— одно из приложений очень активно работает с диском (например БД)
ОС видя большой поток дисковых операций задирает размер дискового кэша из-за чего остальные приложения начинают активно свопиться на диск из-за нехватки оперативной памяти. И в результате скорость падает у ВСЕХ: и у этих приложений (собственно из-за свопа) и собственно даже у того приложения которое ОС якобы пытается ускорить увеличенным кэшем т.к. оно активно работает с диском, а активный своп если находится на том же диске естественно работу с файлами замедляет.
Игры — они разные, процессор 4 поколения назад был примерно равен GTX 630 (примерно 13й год) и вдвое быстрее R5 230 (что-то очень бюджетное, но современное), с тех пор встроенное видео улучшилось.
> скорость загрузки ОС
Какая ОС? Какая загрузка? Любое чтение с диска, особенно рандом. Если в игре куча мелких чтений при загрузке уровня — ускорение, компиляция — ускорение.
Игры — они разные, процессор 4 поколения назад был примерно равен GTX 630 (примерно 13й год) и вдвое быстрее R5 230 (что-то очень бюджетное, но современное), с тех пор встроенное видео улучшилось.
Странный какой-то расклад т.к. у AMD встроенная графика всегда на голову выше чем у Intel. Однако-же, нельзя не заметить что и игры уже другие.
Если в игре куча мелких чтений при загрузке уровня — ускорение, компиляция — ускорение.
Но ускорение не вычислений, а ускорение загрузки данных для них. Это очень большая разница.
По наблюдениям — игры интересуют людей максимум до 30 лет. Причем интерес к играм равномерно снижается с детского возраста. Т.е. топ-видеокарт не может быть продано больше чем сколько-то, и они не могут продаваться за очень дорого — все же школьники и студенты не самый платежеспособный сегмент.
Есть еще спецзадачи — типа физических расчетов на CUDA/OpenCL, но это тоже не массово. А остальным встроенной графики хватает. Т.е. в этом может быть причина, что производителям видеокарт просто некуда расти в финансовом смысле — рынок этой продукции теперь имеет очень ограниченную ёмкость.
игры интересуют людей максимум до 30 лет.
«Большая ошибка» (с)
В окружении есть только один парень (ему 29) кто иногда играет на компе. Возможно я нахожусь э… просто в локальном минимуме. )
Ну кстати можно было бы набрать статистику — возраст — купленные видеокарты.
Ну, как я имел возможность заметить — самые дорогие видеокарты покупают достаточно взрослые люди. Причем в последние 10 лет отмазка «это я сыну» уже не используется :)
А про «максимум до 30 лет» — это данные из статистики по игровым приставкам.
Взрослых больше интересуют сложные по сюжету и графике игры.
По наблюдениям — игры интересуют людей максимум до 30 лет.
Вы очень сильно ошибаетесь. Возраст игроков наоборот постоянно растёт.
Вот к примеру данные для германии:

В табличке не так просто разобраться. Надо смотреть во что они играют, покупают ли видеокарты или просто люди в 70+ открыли для себя тетрис. Это ведь тоже 50+.
Ну и сколько времени они проводят за играми. Наверное немецкий пенсионер может купить 1080, запустить демку, и дальше наконец пойти пить пиво и рассказывать друзьям, что у него есть крутая видеокарта.
Но я ни в коем разе не настаиваю — надо проводить аккуратное социологическое исследование.
В статистике учтены все, кто играет хоть в какие видеоигры.
По моим личным наблюдениям, большая часть людей, которые играли в юности, продолжают играть и сейчас (возраст за 30).
По моим личным наблюдениям, большая часть людей, которые играли в юности, продолжают играть и сейчас (возраст за 30).
С учетом того, что PC стали доступными около 1990...1993 гг. — тогдашним игрокам сейчас от 40 до 60.
(По моим личным наблюдениям — в 1993 году на ПК больше играли, чем работали )
Наверное немецкий пенсионер может купить 1080, запустить демку, и дальше наконец пойти пить пиво и рассказывать друзьям, что у него есть крутая видеокарта.
В словах «пойти и рассказывать друзьям» надо вычеркнуть слово «пойти» )
Предыдущее «старшее» поколение в свободное время смотрело телевизор, предпредыдущее — играло в домино во дворе, нынешнее предпочитает бродить по пустоши с шотганом в руке.
Вот что они играют опять же неважно. Вы просто используете индукцию — мне не интересно, мне за 30 — значит никому за 30 не интересно.
Ломайте стереотипы. Люди за n-дцать не превращаются в овощей, которые ничем не интересуются (если здоровье позволяет). Точнее, это не связано с возрастом.
Кстати, самая крупная игровая выставка проходит именно в Германии.
Ну а если говорить о возрасте вообще, то игры будут лишь набирать популярность — эскапизм неотъемлемая часть нашей культуры.
Нашей — это чьей? Российской, или в целом, людской?
Плохая зарплата это какая? Тысяч 20 рублей? 2х24=48, да, пожалуй, за пару лет можно, если структура расходов позволяет откладывать хотя бы те самые пару тысяч.
Ну а семьей другое дело — если жена будет тянуть деньги (а она будет их тянуть) то и 100 тыс. зарплаты не хватит.
2,5 на еду, тысячи 3 на к/у (и вашему знакомому повезло — у него, по всей видимости, квартира или часть ее — в собственности), интернет рублей 400 по нынешним меркам, на сотовый рублей 50 хотя б — видели, мы уже 6 насобирали расходов)
Добавим сюда мыло-мойку (бытовая химия), какую-никакую одежду (носки), уже к 7 тысячам будет бюджет подбираться.
В общем-то, я сам живу немногим лучше, но все потому что приходится много тратить денег на то, чтобы обзавестись собственным жильем (конурой, по словам небезызвестного чиновника). Плюс, лично у меня подарки составляют приличную долю расходов.
посмотрим на самое интересное — на цену
Еще интересен был бы график: Цена/Качество
где Качество = производительность, либо, лучше, произведение характеристик в весами, и с подписями видеокарт.
Кто «за»?

Тут мы видим экспоненциальный график, в целом похожий на график роста производительности. Цена растет медленно, а производительность по степенной функции.
Которую спалил сам же, когда вставлял видяху в материнку на весу. В итоге произошло замыкание.

Вспомнил свою первую видеокарту nVidia Riva TNT 16MB еще в 2003 году.
Прослезился и вспомнил свою первую — noname EGA /ISA )

Судя по всему это был обычный композитный сигнал раньше применявшийся и в ТВ.
По-моему это таки «ТВ композит»
Это разъемы для подключения светового пера (Lightpen)

А, да при этом большая статья с кучей графиков получается не в тему. Либо не в тему сравнение графических ускорителей и чисто видеокарт (без ускорителей).
Давайте посмотрим на актуальную 20 лет назад видеокарту серии S3 Trio.
Даже на момент выхода она была гуаном не особо и желанным для игроманов.
Единственный плюс — дешевая.
Но как ускоритель — так себе.
На тот момент она была почти безальтернативной, встроенных видеокарт не было, ускорители тоже только нарождались, а монитор подключать к чему-то надо было. Впрочем и игры были другие, вульфенштейн, дум и дюк нюкем не требовали 3д ускорителей, все на спрайтах
У меня был 486DX4 100Mhz, там на матери была распаяна та же самая S3.
Даже гнёзда для расширения её памяти были.
Что то типа такого было:

Было полно карт без 3D ускорителей, чтобы «монитор подключать»
Как вы правильно заметили, не каждой игре 3D был нужен.
Добавлю: а кому нужен тем не нужна была эта S3 Trio, недостаточна.
Как и все что сделала эта фирма.
Единственное что S3 полезное сделало для человечества — хранение текстур ru.wikipedia.org/wiki/S3TC
Пассивное охлаждение, при котором запуск мало-мальски требовательной игры уводит температуру за 93 градуса и сбрасывает частоты. Причём, система в принципе тянула бы множество не самых современных игр на низких настройках, а я любитель залипать в игры.
Как же так? Мощное железо, возможности которого раскрываются только на небольшой промежуток времени, причём от уважаемой компании.
Или это только на моём устройстве так?
Такая фишка (несоотв. СО и TDP процессора) может быть реализована для кратковременных пиковых нагрузок. К примеру, загружается сайт, в этот момент идет парсинг и выполнение JS — буквально пара секунд в пиковых нагрузках на максимальной частоте процессора значительно повышают отзывчивость веб-серфинга, при этом не доводя процессор до троттлинга (не успевая довести, скажем так).
По поводу лимита 250 Вт TDP. Уже давно назрела необходимость пересмотреть компоновку элементов. В современном компьютере GPU такой же мощный и важный компонент, как и CPU, так зачем же ему ютиться на отдельной маленькой плате? Будь я производителем материнских плат, предложил бы новый стандарт. GPU выпускаются в виде чипов, так же как CPU, и вставляются в специальный сокет на плате. Видеопамять так же вставляется в слоты, подобно оперативной памяти.
Ниже — пара слотов для SSD с каким-нибудь новым суперскоростным интерфейсом, или просто PCI-E. Самих PCI-E слотов теперь много не надо, ведь в типичном современном системнике 2-3 из них и так закрыты видеокартой, а для чего еще, кроме SSD, они нужны? Ладно, мне нужны для платы расширения с USB 3.0, поэтому дабы не плодить сущностей, желательно на матплате установить контроллер сразу на 12-16 портов.
Расположение слотов CPU и GPU сделано с таким расчетом, чтобы можно было поставить два башенных кулера, или, еще лучше, накрыть их водоблоками или пластинами с тепловыми трубками, передающими тепло на заднюю (правую, если смотреть на системник спереди) стенку корпуса. Во втором случае сам корпус будет радиатором. Для мощных систем можно сделать радиатор турбинного типа, с двумя-тремя 12-см кулерами, продувающими его снизу вверх. Мосфеты цепей питания CPU и GPU накрыты теми же радиаторами. Весь системник продувается в направлении спереди назад парой обычных корпусных вентиляторов, для отвода тепла от памяти и всего остального, что греется.
Для любителей экстрима можно выпускать платы с двумя сокетами под GPU. Но при наличии возможности дешевого апгрейда, это нафиг не нужно (многочиповые решения это больше маркетинг, чем что-то полезное). Апгрейд ведь возможен отдельно чипа, и отдельно видеопамяти. Кулер/водоблок сделать наконец-то стандартным, чтобы лет на 10-15 хватило. Питание, видео и прочая обвязка распаяна на плате, так что тоже не требует апгрейда.

Ну, вы это совсем радикально предложили) Мне попадались варианты менее радикальные — сделать сокеты на графических платах под кристалл… Да, меньше расширяемости (не увеличить/поменять VRAM), но зато не так радикально.
Боже, люди, почему вы не используете логарифмические графики?
Его разве что для закона Мура можно использовать, да и то на больших временных отрезков т.к. на маленьких не факт что даже в 10 раз вырастит значение.
По поводу лимита 250 Вт TDP. Уже давно назрела необходимость пересмотреть компоновку элементов.
Абсолютно согласен, форм-фактор ATX разрабатывался в совершенно другую эпоху.
Будь я производителем материнских плат, предложил бы новый стандарт. GPU выпускаются в виде чипов, так же как CPU, и вставляются в специальный сокет на плате. Видеопамять так же вставляется в слоты, подобно оперативной памяти.
Предлагаю обратить внимание на политику Intel в этой теме — новое поколение = новая мат.плата. Т.е. тенденция идет как раз в обратную сторону. Условно говоря, будть Intel монополистом, они бы наверняка давным давно перешли бы от LGA к BGA и продавали бы свои процессоры вместе с материнками.
Ну далее по рисунку. Проблема в том что тепловые трубки не гибкие, а двух тепловых трубок на 250Вт тепла мало в т.ч. даже если трубки толстые. Помимо съемной оперативки, нарисованного несложно достигнуть, используя серверную МП и водяное охлаждение — жидкий теплоноситель заменит тепловые трубки на рисунке и без проблем отведет тепло на общий радиатор.
Ну далее по рисунку. Проблема в том что тепловые трубки не гибкие, а двух тепловых трубок на 250Вт тепла мало в т.ч. даже если трубки толстые.
Ну это лишь набросок, количество тепловых трубок может быть каким угодно. Ничто не запрещает сделать их гибкими. Ещё лучше использовать водянку, замкнутую необслуживаемую, такие системы уже сейчас сравнимы по стоимости с хорошими радиаторами.
Ну а если говорить о водянке, то есть и трехсекционные, проблема у них главная не в способности охлаждать, а в наличии еще одного компонента по сравнению с воздушным охлаждением — помпы. А помпы даже в дорогих СВО норовят выйти из строя.
В итоге получается что мы по большей части навешиваем просто СВО на компоненты, и ATX все еще можно обойтись.

Если бы производители всерьёз этим занялись, думаю взлетело бы. Но можно придумать и другие варианты:
— съёмные тепловые трубки (т.е. с одной стороны пластина для CPU, с другой — для радиатора);
— поворотная конструкция всего радиатора (стенки корпуса) вместе с трубками, как выше предложили;
— крепление мат. платы таким образом, что её нужно как бы «подсовывать» под (стационарные) пластины с трубками;
— кардинальный метод — монтаж сокетов CPU и GPU на другой стороне платы. CPU и GPU сначала прикручиваются к стенке-радиатору (без всяких трубок!), потом сверху накладывается мат. плата (кажется apple что-то подобное делала в своих бочкообразных системниках).
На воздушном охлаждении сделать очень тихий компьютер как ни странно обычно проще, габариты кулеров получаются правда нескромные, но эффект достигается проще кроме совсем уж экстремальных разгонов и нагрузок.
Да илихо вы лишили остальных пользователей возможности подключения PCI-E плат расширения: звуковые карты, платы оцифровки видео, ТВ-тюнеры и т.д. отказаться от этого в угоду графическому ускорителю прямо на плате, даже если он не нужен?
На вашей плате не осталось места для чипсета.
Так вон же он, внизу. Северный мост уже почти полностью перенесён в CPU, по крайней мере на интелах.
Графическая RAM быстрее обычной, возникнет проблема с её разводкой под съемные слоты. с DDR-4 уже и так впритык, решают вскоре переходить на последовательный интерфейс из-за сложностей в разводке на разъем параллельной шины.
Думаю это будет лучше, чем городить многоэтажный бутерброд из чипов RAM на одной подложке с GPU, как AMD делает. Ужасы про отвал чипов станут в сто раз страшнее. А на одном чипе изготовить и ядро, и память вряд ли получится, хотя это было бы самое лучшее решение. Всё-таки есть технологический предел размера чипа, по чистоте материала, охлаждению, температурным деформациям.
Да илихо вы лишили остальных пользователей возможности подключения PCI-E плат расширения: звуковые карты, платы оцифровки видео, ТВ-тюнеры и т.д. отказаться от этого в угоду графическому ускорителю прямо на плате, даже если он не нужен?
Так ничто не запрещает выпускать различные линейки плат. Кому не нужен мощный GPU — покупают платы со встроенной графикой, без сокета под GPU. Кому нужно больше PCI-E — можно пожертвовать слотами под SSD (это я уже нафантазировал, почитав про то, что современным SSD уже маловато пропускной способности PCI-E). Звуковухам и ТВ-тюнерам за глаза хватит обычного USB.
А на одном чипе изготовить и ядро, и память вряд ли получится, хотя это было бы самое лучшее решение.HMB2 в свежих видеоадаптерах от амд. Достаточно компактно для 8 гб видеопамяти?

Всё же основная мысль, которую я хотел донести этой схемой — это поставить GPU в равное положение с CPU по части питания охлаждения. До сих пор производители городят костыли в виде подачи питания отдельными кабелями и массивных, компактных и шумных систем охлаждения на самой плате видеокарты. Пора бы пересмотреть компоновку.
Я только 4 и 4+4 видел. Причем 4p на относительно современных платах с поддержкой процессоров до 125 Вт. А 4+4 как раз под разгон (или с официальной поддержкой ненормальных процессоров типа AMD FX-9xxx)
EATX12V/EPS12V (eps 2.91 pdf).
На TR4 (Ryzen Threadripper) бывает 8+8 и 8+4 и только 8.
не сильно отличается от 8+8 на топовых видяхах.
https://d1rktuf34l9h2g.cloudfront.net/a/ac/1000x2000px-LL-ac82eb1d_pinout.png
Разница с питанием видеокарт есть (и не только в полярности). В 4-pin cpu — две пары проводов (8A×2 суммарно 16A, 192Вт), в 8-pin cpu питании 4 пары проводов (7A×4 = 28 ампер, 336 Вт), а в 8 pin PCIe разъеме питания (и большинстве 6 pin) лишь 3 пары проводов и заниженные токи/мощности
"6 pin PCI Express power cable is actually rated at an extremely conservative 75 watts. I have no idea why the wattage is rated so low because the specifications from Molex clearly allow substantially more power"
"new 8 pin version provides a maximum of 150 watt"
См. подсчеты токов в http://www.playtool.com/pages/psuconnectors/connectors.html
А 4+4 как раз под разгон (или с официальной поддержкой ненормальных процессоров типа AMD FX-9xxx)
Вполне нормальные ЦП, зря вы так. FX-8 и 9 до сих пор недогружены в большинстве приложений, а потому их быстродействие продолжает расти в ходе оптимизации приложений под многоядерность. Вообще это один из самых недооцененных продуктов на рынке компьютерных комплектующих.
Я конкретно про FX-9xxx серию: +10-15% производительности(относительно 8ххх) за которые приходится расплачиваться +100% потребления энергии и +50-100% к цене (сейчас на б/у и залежавшиеся остатки разница не такая большая, но когда они производились и продавались как новые была такая).
При этом реальное потребление даже под полной нагрузкой всех ядер (кроме «синтетики» оптимизированной под максимальную «прожарку») меньше этих значений, так же как и у 9й (тоже обычно не доходящей до паспортных 220 Вт).
Вот и получается 9я серия практически в 2 раза прожорливей 8й при незначительной прибавке к производительности.
всю остальную периферию вполне успешно можно повесить на USB 3.0. Я сам еще недавно фрустрировал по поводу плат расширения пока не осознал этого.
Понятно что это не так компактно как внутренняя периферия, но зато такую периферию смогут самостоятельно подключить даже домохозяйки и пенсионеры.
Так что да, вероятно в будущем форм-фактор все же изменится, все к тому идет.
Да, несколько теряется былая модульность, встроенную сетевую или звуковую в домашних условиях не заменишь, но надо признать и то что проблемы с ними бывают нечасто, да и исправить их иногда можно за счет гарантии.
Опять же дело привычки, МФУ или руль с педалями достаточно громоздкие, но нуждающиеся в них уже смирились :)
ну а с сетевой картой я тоже слышал о проблемах, когда гигабитная 200-300 Мбит/с пропускает, но тут возможно все упирается в пропускную способность поколения USB и в стоимость этой сетевой карты (дешевую производитель может слепить из устаревших медленных чипов).
опять же присутствует вопрос выбора материнской платы, при потребности в гигабите надо выбрать со встроенными гигабитными и даже с двумя гигабитными.
В крайнем случае если это не удалось спланировать заранее — можно продать старую и купить новую материнскую плату.
звуковых и сетевых. а те диджеи/продюсеры которым надо больше чем возможности встроенного железа все равно сейчас покупают внешние карты (в концертный ноут/айпад внутреннюю не поставишь) с той же громоздкостью.
Но все равно я мог бы настойчиво порекомендовать тот-же Sound Blaster Z. У меня напр. музыкального слуха вообще нет, но только когда ее установил понял, что все игры по факту пишутся под аудиокарты Creative. Если в игре бывает что диалоги тихие, а музыка громкая или наоборот, то дело не в косых разработчиках, а в аудиокарте. Ну и конечно возможность использовать высококачественную аппаратуру, напр. студийные наушники (а т.к. на них спрос невелик, на вторичном рынке они очень недорогие для своего качества). Вообще звуковая карта как покупка стоящая штука.
ну а с сетевой картой я тоже слышал о проблемах, когда гигабитная 200-300 Мбит/с пропускает, но тут возможно все упирается в пропускную способность поколения USB и в стоимость этой сетевой карты (дешевую производитель может слепить из устаревших медленных чипов).
Вполне возможно, как знать, но даже 5Мб/сек должно было бы хватить с головой, а я ведь втыкал в USB3.
просто была идея сделать нечто вроде докстанции (мелкий на каникулах с системником уезжает к бабушке-дедушке, чтоб один USB провод дергать-вставлять, а не целую пачку. шнур питания, монитор и клава-мышь не путешествуют, уже есть на местах)
Два порта передатчики для отдельного цифрового блока и беспроводной мышки, Wi-fi свисток, Две клавы(одна полноформатная с подсветкой, вторая A4 X7 G100), джойстик Saitek X52 и банковский токен.
Все одновременно работает без сбоев и доп питания от одного USB порта(т.к. где то посеял родной блок питания хаба).
Но обычно отключен USB токен(паранойя) и Wi-fi свисток(т.к. является частью дублирующего канала интернета). Чем мне этот хаб нравится, питание на каждый порт отключается отдельной кнопкой.
тащить к хабу лишний провод, занимать розетку БП — просто излишество и лишняя возня (кроме того в идеале адаптер стоило бы выдергивать каждый раз из розетки при выключении компа, чтоб не тянул электричество, чтоб не загорелся, чтоб дольше проработал и тд).
кроме того иногда хабы зависают и с внешним питанием придется дергать его из розетки, в то время как хаб без питания будет стартовать с нуля вместе с компом.
короче не всегда требуется все по-максимуму :)
Где то на этапе самодиагностики. При перезагрузке то же самое.
Помогает только полное отключения его от USB портов
А тут «что-то пошло не так» (с)
не нужен среднему пользователю RAID и что-то быстрее USB3.0 в периферии, обычный домашний/офисный комп в этом не нуждается. офисный пакет для работы + игры в домашнем — все что он обеспечивает.
если вы обрабатываете видео или еще что-то делаете, требующее ресурсов или надежности — то это уже не обычный домашний комп, соответственно его надо строить с учетом этих своих потребностей.
а если нужен RAID — то надо брать материнку соответствующую с RAID или возможностью подключения внешнего контроллера (кстати зачем он юзеру нужен, тем более дома? для скорости нужен SSD, для надежности нужен NAS)
Сейчас вообще все уходит в телефоны, уже более 50% трафика — мобильные устройства.
Меня это печалит… очень печалит. у NAS есть свои проблемы, встроенный диск не пропадёт внезапно, а связь с NAS может в любой момент прерваться потом восстановится(потому что роутер решил перезагрузится) и скорость маленькая — 1Гбит с перспективой 10Гбит(но цены!!! гав-гав). Да, и NAS-ы нынче подключаются по SMB, который напроч дырявый а других протоколов позволяющих НАДЁЖНО подключить NAS в виде папки или диска в системе я что-то не вижу. По FTP подключать… да это костыль, причем очень серьёзно снижающий скорость.
RAID не только для надёжности нужен, часто нужна скорость и огромные объёмы. Лет через 10 дисков на 8-16Тб будет не хватать продвинутому пользователю…
они как правило воообще уникальны
Если использовать встроенные в чипсеты Intel, то никакой уникальности и проблем с заменой — покупаем с таким же или более новым чипсетом, подключаем — всё работает.
Выкинуть SSD и SATA. Сделать их подключаемым модулем через NVMe интерфейс. Увеличить количество PCIe и RAM слотов.
Ближайшее будущее видеокарт