Да, изнутри виртуалки он естественно ничего не знает о сторедже, и знать не может.
Однако, еще раз говорю, что на физической машине SQL открывает файлы данных используя FILE_FLAG_NO_BUFFERING == true.
И система уважает его мужественное решение. Конкретно наша полка (а я так думаю, что любая нормальная тоже) отдает логический диск в виде LUN по iSCSI, и система видит эти настройки кеширования — для нее это обычный диск. И может их менять.По крайней мере в винде, не знаю как в этих вашх линуксах.
И если приложение говорит не кешировать — она не кеширует.
А у Fusion-IO уже очень давно есть Octal www.fusionio.com/products/iodrive-octal/ который не сильно проигрывает еще не вышедшему R5. Вопрос финансов, не технологий.
Я не совсем понял что ты за систему строишь, но у нас например резервирование на уровне приложения — то есть два одинаковых сервера, в каждом по одной плате. Смысла втыкать вторую плату не вижу, если резервирован сервер целиком.
Возможно, я изучал только второе поколение, там красными буквами написано про доп.питание.
Сравнить со вторым можно по характеристикам на сайте.
Дрова очень важно, да, плюс прошивку нужно обязательно последнюю использовать. Софт рейд официально поддерживается (в винде или линуксе, не важно) — но вот Brent Ozar писал, что у него были проблемы в такой конфигурации — поищите в гугле.
Экономия места и скорость — да, согласен. Но вопрос надежности меня смущает. Я жутко переживал когда мы начали SSD под систему испоьзовать — но уже больше года полет нормальный, начинаю успокаиваться понемногу.
Насколько мне известно, служебные цели в SSD — это не для ремапинга, а для того, чтобы TRIM успевал отрабатывать. То есть они спасают от падения производительности записи при сильно заполненном диске, но если ячейка сдохнет и откажется себя перезаписывать — контроллер просто вернет ошибку.
Ну как бы вопрос цены на самом деле не такой страшный, нужно просто расставить приоритеты. Я вот планирую в ближайшее время собрать сервер под виртуалки на рейде из 520 интелов, и хорошенько нагрузить его тяжелыми приложениями типа билд сервера и тестового сиквел сервера — то что нежалко потерять в случае чего. После 6-12 месяцев тестовой эксплуатации будет ясно, готовы ли обычные SSD на MLC в продакшен или нет.
Duo требуют дополнительного питания и видятся в системе как два накопителя. Плюс, первое поколение очень тормозное по сравнению со вторым — его обычные SSD уже догнали наверное.
Z-Drive — просто пара вертексов, распаянная на рейд-контроллере. Вертексы хороши в десктопах, в продакшен я бы пихать не стал, если честно. У нас вертексы под систему в продакшене используются, ну там записи практически нету.
Ну, во первых, один из минусов этой штуки — с нее нельзя грузиться. А во вторых, это сервер — там POST и инициализация контроллера занимают в 10 раз больше времени, чем загрузка ОС.
Для сиквела такое решение кардинально не подходит — там важна целостность записываемых данных. SQL сервер даже кешами не пользуется (контроллера и операционки), пишет сразу на диск.
RAM актуально для кеша — ценные данные никто в здравом уме хранить там не будет. В нашем же случае там будут лежать базы сиквел сервера, и постоянная запись файлов данных и логов транзакций.
Внутри платы есть несколько запасных ячеек, и специальная фирмварь следит, чтобы запись проходила успешно. В случае ошибки контрольной суммы сектора «ремапятся». Статус этого всего отслеживают дрова и софт, чтобы в случае чего предупредить заранее, что ресурс подходит к концу.
Собственно исчерпывание ресурса перезаписей — это единственная проблема SSD.
4-8 дисков требуют места, контроллера, и регулярной замены — у них нет такого хитрого механизма.
Также есть самописный скрипт на павершеле, который отправляет результат на почту.
Снимаю шляпу.
Я уже сказал, что я не знаю каким образом оно работает — но оно работает. У меня в задачах есть запись, что надо его поковырять, но времени пока нету.
Однако, еще раз говорю, что на физической машине SQL открывает файлы данных используя FILE_FLAG_NO_BUFFERING == true.
И система уважает его мужественное решение. Конкретно наша полка (а я так думаю, что любая нормальная тоже) отдает логический диск в виде LUN по iSCSI, и система видит эти настройки кеширования — для нее это обычный диск. И может их менять.По крайней мере в винде, не знаю как в этих вашх линуксах.
И если приложение говорит не кешировать — она не кеширует.
Вот записал видео, как это выглядит:
screencast.com/t/EyXrlVewT
Вот например iSCSI диск — если снять эту галочку screencast.com/t/zkoCbk7ydoH то по факту кеширование отключится у логического диска на полке screencast.com/t/qyGFa7nJmlpS
Как это реализовано, я, честно говоря, не знаю.
Сравнить со вторым можно по характеристикам на сайте.
Дрова очень важно, да, плюс прошивку нужно обязательно последнюю использовать. Софт рейд официально поддерживается (в винде или линуксе, не важно) — но вот Brent Ozar писал, что у него были проблемы в такой конфигурации — поищите в гугле.
Экономия места и скорость — да, согласен. Но вопрос надежности меня смущает. Я жутко переживал когда мы начали SSD под систему испоьзовать — но уже больше года полет нормальный, начинаю успокаиваться понемногу.
Лучше перебздеть, чем недобздеть, как говориться.
Ну как бы вопрос цены на самом деле не такой страшный, нужно просто расставить приоритеты. Я вот планирую в ближайшее время собрать сервер под виртуалки на рейде из 520 интелов, и хорошенько нагрузить его тяжелыми приложениями типа билд сервера и тестового сиквел сервера — то что нежалко потерять в случае чего. После 6-12 месяцев тестовой эксплуатации будет ясно, готовы ли обычные SSD на MLC в продакшен или нет.
Z-Drive — просто пара вертексов, распаянная на рейд-контроллере. Вертексы хороши в десктопах, в продакшен я бы пихать не стал, если честно. У нас вертексы под систему в продакшене используются, ну там записи практически нету.
Собственно исчерпывание ресурса перезаписей — это единственная проблема SSD.
4-8 дисков требуют места, контроллера, и регулярной замены — у них нет такого хитрого механизма.