Comments 13
Интересно, ноутбуки\ультрабуки на Haswell уже будут иметь на борту этот интерфейс или же придется ждать Broadwell?
Как SAS/SATA контроллер может давать 6мс задержку, если avg. latency при работе с ssd меньше 1ms? В чём профит делать глубину очереди в 64 тысячи? Если забить эту очередь, то при io time в 1мкс, мы получим latency > 30 мс.
это ограничение большинства контроллеров.
P.S. хотя Я лично такой проблемы не замечал при использование on-board RAM cache
P.S. хотя Я лично такой проблемы не замечал при использование on-board RAM cache
Ограничение на что? На latency в 6 ms? Не порите чушь, ей больно.
Не говорим даже про быстрые сервера, вот данные с моего ноутбука (iodepth=16):
slat (usec): min=2, max=1844, avg=10.77, stdev= 8.00
clat (usec): min=91, max=4134, avg=504.90, stdev=143.99
lat (usec): min=102, max=4138, avg=516.34, stdev=143.06
Где вы тут 6 мс видите? Я вот вижу 516 мкс.
А если глубину очереди прижать, то будет ещё лучше:
slat (usec): min=4, max=115, avg=16.21, stdev= 5.23
clat (usec): min=29, max=2171, avg=194.34, stdev=32.51
lat (usec): min=65, max=2185, avg=211.37, stdev=34.02
clat — 194мкс, и сколько из них сама ssd, а сколько контроллер — это ещё померять надо.
Не говорим даже про быстрые сервера, вот данные с моего ноутбука (iodepth=16):
slat (usec): min=2, max=1844, avg=10.77, stdev= 8.00
clat (usec): min=91, max=4134, avg=504.90, stdev=143.99
lat (usec): min=102, max=4138, avg=516.34, stdev=143.06
Где вы тут 6 мс видите? Я вот вижу 516 мкс.
А если глубину очереди прижать, то будет ещё лучше:
slat (usec): min=4, max=115, avg=16.21, stdev= 5.23
clat (usec): min=29, max=2171, avg=194.34, stdev=32.51
lat (usec): min=65, max=2185, avg=211.37, stdev=34.02
clat — 194мкс, и сколько из них сама ssd, а сколько контроллер — это ещё померять надо.
при большой очереди Я имел ввиду и прокомментировал слова ТС.
Я таких проблем с 6ms лично не наблюдал, часто использую SAS 15k rpm — все отлично.
www.fusionio.com/products/iodrive-octal/ 30µs
www.fusionio.com/products/iocache/
Также согласен с BarsMonster — действительно очень мало — сейчас даже 6Gbps, а тут 4Gbps представляют как будущее.
Я таких проблем с 6ms лично не наблюдал, часто использую SAS 15k rpm — все отлично.
www.fusionio.com/products/iodrive-octal/ 30µs
www.fusionio.com/products/iocache/
Также согласен с BarsMonster — действительно очень мало — сейчас даже 6Gbps, а тут 4Gbps представляют как будущее.
до 4 Гбит/с в случае с Socket 3
4 Гбит/с — это меньше сегодняшних топовых SATA SSD.
Если это будет стандартом будущего — то это печально.
Клёва: ) Наконец-то Intel нашла источник бесперебойного финансирования. SSD имеют ограниченный срок жизни (вроде же до сих пор не решена проблема?). У юзеров будут планочки изнашиваться, они будут покупать новые. Вечное счастье: )
Я буду очень негодовать, если моя планочка с ОС и кучей важных данных неожиданно «износится»!
P.S. Давно на SSD, никаких проблем с износом ни у меня, ни у моих знакомых, имхо.
P.S. Давно на SSD, никаких проблем с износом ни у меня, ни у моих знакомых, имхо.
Так SSD же очень «правильно» изнашиваются. Они говорят: всё, я не могу уже больше записывать, перехожу в режим readonly. Недавно у меня такое с флэшкой случилось, которой активно пользовался. Не знаю, насколько технологии продвинулись, сейчас. Но, если SSD будет выполнен именно в формате такой вот платы, которая сама сможет с «износившихся» планочек перекачивать данные на свежие, то проблема износа (мифическая или реальная) лично меня будет волновать очень слабо. А сейчас я использую всякое хитрозадое кэширование, чтобы на SSD писалось пореже, чтобы проблемы с заменой диска и ручным переносом данных отложить на более далёкую перспективу.
Интересно как будет выглядеть hot-swap такой планки…
Sign up to leave a comment.
SSD + PCIe = ???