Я хз че тут понаворочено, но замечаю, что избавляемся от LEFT JOIN где только можно.
Всегда можно быстро выгребсти отсортированный список городов (а можно еще до кучи закешить города->количество_пиплов), взять первый, а потом выгрести из пиплов столько сколько нужно вторым запросом по этому городу.
Мои познания в электронике кончились на перепайке транзистора в магнитофоне Электроника 312 лет 20 назад.
Познания в реверсинжиниринге протоколов отсутствуют.
Но я люблю генерить идеи и концепции.
В чем огромный плюсик powermate — он умеет работать как jog в аудио-видео редакторах, по крайней мере в Final Cut, нажал — включилось выделение, крутишь — выделяет, нажал — закончил выделение. Ну и громкость.
Ценообразование на HP железки очень забавное, зависит от множества факторов, включая объемы поставок, клиента и т.п.
Одна наполовину укомплектованная raid полка типа вот этой 2000-й для мелкого клиента будет стоить 10-13 килобаксов.
А вот если их купить 100 штук — она может обойтись в 6-7 кило. А если заказать 200-300 пролиантов уровня DL360-380 — HP может «подарить» штук 20 таких полочек в нагрузку. А если это будет какой супер тендер для крупной корпорации с участием конкурентов (Dell например) — то цены будут совсем другие.
Надежность — это совокупная характеристика. Можно ли железку в случае проблем ожить за приемлемый срок? Нормальные (и не очень дешевые) железки надежнее как по качеству (изготовления), так и по возможности и скорости замены сдохших запчастей (сервис).
Дабы не разводить холиваров — у меня есть и самосборные железяки, собранные в середине 2000-х. Что удивительно — работают до сих пор. Даже вообще полная экзотика:
1. Promise FastTrak S150 TX4 + Promise FastTrak TX4200 = 8 SATA дисков по 250 GB, на каждом RAID 10, тотал чуть меньше терабайта. 2.4.31 Jun 23 2005
2. 3ware Inc 9500-12, 12 дисков по 250, RAID5, тотал около 2.5 TB. 2.6.20.6.4.3 Oct 4 15:14:37 2007
Обе в 12-ти дисковых промышленных кузовах Genesis Rack, внутри стандартные для того времени интел мамки под Xeon, в каждой по одному процу. Обе не выключались с момента сборки ядра. Обе в то время стоили около $4к-5к
супермайкра умеет супортить свои железки on site/nbd? Думаю нет. Просто уже сталкивались, долгое время брали «самосборы» на Intel платформах. Пока был вменямый поставщик-сборщик Intel Premier Partner проблемы можно было решить на месте. Но часто довольно долго… С HP все проблемы решаются в течение дня, даже со стандартной гарантией, не говоря уже о CarePack.
MSA2000fc G1 c 12-ю дисками 450 GB SAS 10k 3.5" стоил нам пару лет назад в районе $10к (со скидками, кхе-кхе).
По идее железка сравнимая по функционалу и значит порядок цены тоже
P.S> знаю ребят которым EVA4400 в три полностью забитых дисками полки стоила менее 10 долларов. Правда они купили серверов на милиончик, не рублей конечно
> А в чём разница между сервером + JBOD и сервер набитый дисками?
В том, что HP StorageServer (сервер набитый дисками) это убогая машинка с вычислительной точки зрения (как правило один младший проц да еще и 3ххх скоре всего).
Для ряда применений, выгоднее «нормальный» DL380 + JBOD полки к нему, чем SS с дисками. У нас к примеру на сервере, который держит MSA2000fc еще и конвертится видео в flv. Все равно контент на него падает, гонять на отдельные «рендеры» файло по NFS невыгодно. Выгоднее посчитать его прямо на «storage controller»
Вывод гавно.
Хочется дешево — нафиг писать в конфиг терабайтные SAS диски? 24 SATA терабайтника в двух корзинах в RAID-5 решают вопрос о 20 терабайтах. SAS надежнее? Хочется надежности — берите EVA, кхе-кхе.
Еще дешевле JBOD полки типа MC60-70 или как их там. Тупее SAS/SATA to SAS полок придумать сложно, P800 стоит дешевле FC-HBA (и часто уже в пролиантах есть). Кроме того, вы забыли еще и Brocade SAN Switch в конфигу добавить, парочку — для надежности.
Можно еще поизващаться на ATAoE полках. Полки дешевые (пустая полка в районе $1к), SATA диски обычные вообще копеечные. На 60 шпинделях можно получить неплохой random seek, правда все диски на собственные гигабиты придется садить и рейд софтовый делать.
P.S> мой поставщик как-то решал задачу по поставке СХД для видео-продакшена на местное телевидение. Обошлись Dot Hill 2722 Fibre Channel Storage Array + 6 JBOD. Забиты под завязку SAS 300 GB. Тома раздаются по сетке с четырех серверов (по серверу на редакцию — новости, проекты, рекламщики и т.п.)
Думаете HP & IBM чем то отличаются от Xyratex & DotHill?
А вот и ничем. HP MSA2000 = DotHill, IBM какие-то сторы = Xyratex. У меня вот MSA2000fc под боком и Xyratex 5412. Могу сравнивать. Стоят в принципе вменяемых для их качества денег, но по надежности будут сабжевый сервачок делать на раз, как и по скорости. MSA2000fc G1 с 500 гиговыми SATA дисками стоит максимум 5килобаксов, а то и дешевле. Пустой Xyratex 5412 (SAS) стоил в районе 3 кило…
Насчет RAID-5 на таком коичестве дисков. RAID-5 это капец. Если у вас больше 3-х дисков или они более 500 гиг — однозначно RAID-6 + hot spare. Была случаи когда при вылете одного диска в RAID-5 его меняли, шел ребилд и во время ребилда вылетали еще один-два диска. Поэтому нафиг-нафиг. Щас RAID-6 на всех томах и по global hot spare на каждую «полку»
Вменяемые программы для спуска полос типа Preps сделают вам как угодно, хоть тетрадками, хоть «в торец», хоть «тетрадками по 8 листов в торец». Только не спрашивайте сколько она стоит (дороже Adobe CS5 MC)
Да причем тут марка модема. У 90% модемов мак лаунчер зашит в START CD-ROM, как впрочем и драйвера и так же ка кдля Win. Упомянутый билайновский ZTE MF626, как впрочем и все модемы на qualcomm чипсете спокойно работают в Mac OS, другое дело что предыдущий лаунчер (Мобильный Офис) был написан во времена 10.5 и под 10.6 ацко грузил проц. Что не помешало снести лаунчер нафиг, перевести свисток принудительно в режим модема (он стартует в режиме CD-ROM по умолчанию) командой AT+ZCDRUN=8 (запихав ее в порт любым терминальным клинтом после установки драйверов). И все. После этого он хоть под Linux или PLAN9 заведется
Для этого существуют Cable Management Arm. Такая жесткая складывающаяся херовина, куда запихиваются кабели в сложенном виде. Обычно бывает складывающего пополам вида — не очень удобные. Цепного вида более удобны, но на моей практике подпадались один раз с интеловскими серверами. Обычно используют при монтаже в шкафы, ибо в этом случае с задней части не подобраться.
Сэр не путает, после 15 лет в полиграфии я такие вещи путать не могу.
lpi — lines per inch, линиатура печати — по сути и есть реальное разрешение при печати рациональными растрами.
pixel per inch = dpi (dot per inch) относится к экранам и изображениям в электронном виде соответственно ввиду прямоугольной формы пикселов/точек.
Не знаю насчет маньяков, знакомый сидит на двух RaptorX 74, в RAID1 в качестве системного + 4 Hitachi CinemaStar 1 TB в RAID 10 под захват на них Full-HD видео с камеры. Пока доволен. Тестил кстати до этого обычные DeskStar'ы — по сравннию с CS небо и земля. Хотя характеристики идентичны практически, уж не знаю че та Хитачи с синемастарами делает такое, но под видео самое оно.
Насчет прочности. Почитайте что такое ABS пластик. Половина окружающих вас пластиковых вещей делается из него. Да что там — вон Mugen свои обвесы из ABS льет, на прочность еще никто не жаловался.
Всегда можно быстро выгребсти отсортированный список городов (а можно еще до кучи закешить города->количество_пиплов), взять первый, а потом выгрести из пиплов столько сколько нужно вторым запросом по этому городу.
Познания в реверсинжиниринге протоколов отсутствуют.
Но я люблю генерить идеи и концепции.
В чем огромный плюсик powermate — он умеет работать как jog в аудио-видео редакторах, по крайней мере в Final Cut, нажал — включилось выделение, крутишь — выделяет, нажал — закончил выделение. Ну и громкость.
Одна наполовину укомплектованная raid полка типа вот этой 2000-й для мелкого клиента будет стоить 10-13 килобаксов.
А вот если их купить 100 штук — она может обойтись в 6-7 кило. А если заказать 200-300 пролиантов уровня DL360-380 — HP может «подарить» штук 20 таких полочек в нагрузку. А если это будет какой супер тендер для крупной корпорации с участием конкурентов (Dell например) — то цены будут совсем другие.
Дабы не разводить холиваров — у меня есть и самосборные железяки, собранные в середине 2000-х. Что удивительно — работают до сих пор. Даже вообще полная экзотика:
1. Promise FastTrak S150 TX4 + Promise FastTrak TX4200 = 8 SATA дисков по 250 GB, на каждом RAID 10, тотал чуть меньше терабайта. 2.4.31 Jun 23 2005
2. 3ware Inc 9500-12, 12 дисков по 250, RAID5, тотал около 2.5 TB. 2.6.20.6.4.3 Oct 4 15:14:37 2007
Обе в 12-ти дисковых промышленных кузовах Genesis Rack, внутри стандартные для того времени интел мамки под Xeon, в каждой по одному процу. Обе не выключались с момента сборки ядра. Обе в то время стоили около $4к-5к
По идее железка сравнимая по функционалу и значит порядок цены тоже
P.S> знаю ребят которым EVA4400 в три полностью забитых дисками полки стоила менее 10 долларов. Правда они купили серверов на милиончик, не рублей конечно
В том, что HP StorageServer (сервер набитый дисками) это убогая машинка с вычислительной точки зрения (как правило один младший проц да еще и 3ххх скоре всего).
Для ряда применений, выгоднее «нормальный» DL380 + JBOD полки к нему, чем SS с дисками. У нас к примеру на сервере, который держит MSA2000fc еще и конвертится видео в flv. Все равно контент на него падает, гонять на отдельные «рендеры» файло по NFS невыгодно. Выгоднее посчитать его прямо на «storage controller»
Хочется дешево — нафиг писать в конфиг терабайтные SAS диски? 24 SATA терабайтника в двух корзинах в RAID-5 решают вопрос о 20 терабайтах. SAS надежнее? Хочется надежности — берите EVA, кхе-кхе.
Еще дешевле JBOD полки типа MC60-70 или как их там. Тупее SAS/SATA to SAS полок придумать сложно, P800 стоит дешевле FC-HBA (и часто уже в пролиантах есть). Кроме того, вы забыли еще и Brocade SAN Switch в конфигу добавить, парочку — для надежности.
Можно еще поизващаться на ATAoE полках. Полки дешевые (пустая полка в районе $1к), SATA диски обычные вообще копеечные. На 60 шпинделях можно получить неплохой random seek, правда все диски на собственные гигабиты придется садить и рейд софтовый делать.
P.S> мой поставщик как-то решал задачу по поставке СХД для видео-продакшена на местное телевидение. Обошлись Dot Hill 2722 Fibre Channel Storage Array + 6 JBOD. Забиты под завязку SAS 300 GB. Тома раздаются по сетке с четырех серверов (по серверу на редакцию — новости, проекты, рекламщики и т.п.)
А вот и ничем. HP MSA2000 = DotHill, IBM какие-то сторы = Xyratex. У меня вот MSA2000fc под боком и Xyratex 5412. Могу сравнивать. Стоят в принципе вменяемых для их качества денег, но по надежности будут сабжевый сервачок делать на раз, как и по скорости. MSA2000fc G1 с 500 гиговыми SATA дисками стоит максимум 5килобаксов, а то и дешевле. Пустой Xyratex 5412 (SAS) стоил в районе 3 кило…
Насчет RAID-5 на таком коичестве дисков. RAID-5 это капец. Если у вас больше 3-х дисков или они более 500 гиг — однозначно RAID-6 + hot spare. Была случаи когда при вылете одного диска в RAID-5 его меняли, шел ребилд и во время ребилда вылетали еще один-два диска. Поэтому нафиг-нафиг. Щас RAID-6 на всех томах и по global hot spare на каждую «полку»
lpi — lines per inch, линиатура печати — по сути и есть реальное разрешение при печати рациональными растрами.
pixel per inch = dpi (dot per inch) относится к экранам и изображениям в электронном виде соответственно ввиду прямоугольной формы пикселов/точек.
Но он есть же!
обычно их печтают с линиатурой 175-200 lpi. Вы видите без лупы растровую розетку? А это всего 175 ppi.