All streams
Search
Write a publication
Pull to refresh
20
0
Peter Chayanov @ULP

User

Send message
Там порядка 100 iops в один поток, на это и надо рассчитывають. Думаю больше 4 потоков даже теоретически не получится
Когда возьмете машину в хетзнере, напишите тут модель ssd и hdd которые там обнаружите и их wear-out. Используя 4 ssd вместо одного промышленного решения вероятность отказа возрастет в 4 раза. Затраты на лицензии ОС и администрирование второго сервера возрастут ровно в 2 раза.
И еще раз, топик про новинку Lsi, а не про софтовый кэш и хетзнер. Хотите — берите в хетзнере и делайте софтовый кэш, думаю все в курсе что это тоже вариант.
А у меня storage pools на hyper-v c штатной ntsf показывает на запись хорошо за 20000 iops на 8 дисках. Это только говорит о эффективном кэшировании записи через память системы, ни о чем больше. Если все таки посмотрите на графики, то указанный контроллер начинает раздавать на чтение наиболее популярные блоки из кэша огромной емкости. Именно про это топик, а не про волшебные экспирементальные файловые системы.
Будет самое интересное когда он в сборе вылетит на тот свет без предупреждения и без шансов на восстановление даже в самом крутом даталабе. Так же можете ознакомиться сколько стоит Zeus на 1тб и как это относится к нашему топику и нашему бюджету про конкретную новинку от ЛСИ. Мне тут уже посоветовали violin memory прикупить ;)
А бытовые pcie карточки думаю только для кэша и годны — 3-6-12 месяцев и в помойку, так можно делать конечно — но мы не это обсуждаем. Мы обсуждаем бюджетное решение корпоративного уровня от лидера отрасли LSI, которая занимается вопросом лет 20 наверно. Я его потестил и делюсь с народом наблюдениями, автор коммента может сделать то же самое в отдельном топике
Ростислав, благодарю за предложение, но мы не тестовая лаба с сайтом — у нас совсем другой бизнес.
Энерпрайз не арендует машины под Оракл. За 5 лет работы я ни разу не видел запроса ни про Оракл, ни про его производные ни от кого.
Это параллельная вселенная, я знаю что она есть — но мы никак не пересекаемся.
я же говорю — в регарде. забейте парт-номер в прайс.ру и все узнаете сразу где купить.
как ВПС нода все получится, будет работать — только памяти надо не 64, а 140 примерно ставить на такие камни и диски.
под хостинг такая машина избыточна.
там сервер совсем не про это.
Думаю это психологически важная отметка в 500 баксов или расчет денег с клиента за ВПС с учетом достижимой их плотности на ноде. Как раз доступные технологии и сдели это возможным, пару лет назад для этого бы потребовалось 2-3 сервера и куча дисков. А сейчас всего 500 баксов и 3 дня.
Клиент сам разберется что ему важно, а что нет. Там можно включить и зеркало и страйп, можно включить write-back, а можно и не включать. Каждый по своим задачам смотрит как ему надо.
Судя по йопсам читает она с 2 дисков, а не с 4. Именно по этому так тут и написано.
Думаю вероятность внезапного выхода из строя интегрированного ssd примерно та же что и выход из строя контроллера в сборе. Посмотрим практику эксплуатации, но в документации сказано что если флэш начинает кончаться — система его первая отключает.
Так же никто не мешает отключить кэширование записи, эти настройки есть. А так, она раз в 5 секунд сбрасывает на диск кэш. На мой взгляд — надежность достаточная, повышать надо на уровне приложения, а не блочного устройства.
Регард, элко, много где. Мы на полмиллиона в месяц закупаемся — знаем все места.
В сервер? Там один слот подходящий и он занят. Серверная SSD в PCIe стоит не как бытовая, это невыгодно и опасно.
Не пробовал, попробуем при случае. Скорее всего заведется.
Речь именно про чтение и конкретную задачу, попугаи никому не нужны. Кстати при задачах длинного последовательного чтения/записи последнее что играет роль это Iops. Система свои 200-250Мб в секунду пишет без проблем, при этом первые 100гб хорошо кэшируются.
Ваши предложения по конфигурации сервера с закупкой в 150000р, запрос клиента обозначен выше?
На мой взгляд под задачи клиента решение идеально, основное попадет в кэш и все будет летать.
У клиента проблема не вообще, а VDI с крупными по диску виртуалками, которые содержат на себе базы. Немного полагать на секунду-другую не проблема — не те задачи.
Я жду Ваше предложение по решению задачи.
Некуда ставить ssd и решение должно быть универсальное, под все операционки и промышленным.
не знаю уж как в Германии, а в старом добром МИРЭА в конце девяностых были «базовые кафедры» при почтовых ящиках и производных, типа Информзащиты. все студенты инженерных специальностей распределялись по ним и участвовали в обычной работе. Где-то это было профанацией, а где-то ребята занимались делом и потом быстро росли. Из параллельной группы несколько ребят как раз трудились и очень даже успешно. При этом как помню утром на лекциях, после 12 — в конторе и один-два дня полностью в конторе.
А дальше уже каждый для себя сам решал, сникерсом торговать или инженером учиться.
в школе это мимо, даже кухню рисовать не учили =)
в общем я считаю что самая главная беда нашего «инженерного» образования это отсутствие реальной практики. сделал чертеж — изготовь деталь по нему, сам. нарисовал схему — спаяй.

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Works in
Date of birth
Registered
Activity