Pull to refresh
14
0
Владимир @Pinkkoff

Заместитель директора по инфраструктуре

Send message

А можете рассказать кто эти "почти все кого знаю"? У меня вот какая-то обратная картина, что из ТОП-100 компаний почти никто не уехал большими базами с MS. А уж 5 лет назад я вообще не слышал чтобы хоть кто-то запускал 1С не на винде.
Расскажите кто переехал 10+ ТБ базы 1С на Postgre, я б с удовольствием пообщался

Спешу вас расстроить) Найти человека, который хорошо разбирается во внедрении и поддержке Enterprise-like PostgreSQL очень сложно. Прям очень. Тут надо знать и сам PostgreSQL, и какой-нибудь Patroni, etcd, haproxy, уметь интегрировать базу с СРК, ставить ее на правильный мониторинг, а еще очень желательно это все делать в инфраструктурном ландшафте самой компании, а не в вакууме. Таких специалистов на рынке - чуть

У Homo sapiens свободноживущие самцы обычно тоже меньше по размеру, чем «прикрепленные».

Это прям очень смешно=))))

Да все не любят, это совершенно понятно. Я тоже не люблю. Просто бесполезно вытягивать цены из руководителя направления виртуализации, он этим не занимается, вот и все. Более того под каждый проект интегратор запрашивает цены у вендоров, каждый раз заново. Такой вот рынок(

Кстати про цену 2,5млн. Navion указал ее под Cloud Foundation, а это:
  • SDDC manager
  • vSphere
  • vSAN
  • NSX
  • Network Insight
  • vRealize (облачная платформа)
  • Tanzu (собственно кубер)

А еще CF бывает 4х разных редакций:)
Но вывод в конце вы сделали правильный, если вся инфраструктура стоит 2Млн рублей — то ни о каком Tanzu можно даже не думать. Если 1-2м долларов — другой разговор)

Дело не ноготочницах. Из-за таких комментариев и минусов после них тяжело писать статьи на хабр об Enterprise железе или софте.
По соглашениям партнеров с VMware (и практически любыми другими вендорами) можно демонстрировать только прайс-лист. Он вас гарантировано неприятно удивит. А еще он не имеет ничего общего с реальной ценой, по которой покупают этот софт.
Размер скидки очень и очень сильно гуляет от кучи параметров:
— Размера кластера
— Состава лицензий
— Конкуренции со стороны других вендоров
— Набирается ли объем на EULA
— Настойчивости и умения партнера с заказчиком выбивать эти скидки
— Глубиной проработки
— даже конец ли это квартала/фин года у вендора.
Причем тут тупость? Это просто удобно. Как пользоваться менеджерами паролей, доставкой пиццы и оплатой с apple pay.
Как раз 4 ТБ диски чаще делают с SMR, а обычный на 10 ТБ будет быстрее из-за большей плотности записи на пластину.

Не сильно следил за этим последнее время, но мне кажется, что SMR в 4ТБ дисках — явление консьюмерское, на железо типа DataDomain такие диски не идут. Не так?
Ну и количество шпинделей и объем диска всегда влияют на скорость ребилда, независимо от архитектуры. Хоть и distributed RAID в этом плане лучше.
Про лайки с котиками не знаю, такие компании к нам не обращаются. Как я писал, зависит от «базы, ее размера, критичности и стоимости данных».
Автор поста писал про «суровый энтерпрайз», не думаю, что это не про котиков.

У меня на практике рушились рейды, выходили из строя оба контроллера СХД сразу, люди портили словарь базы, заливали СХД, перегревали ЦОДы, ломались процессоры, системные платы, память. И это происходит достаточно часто, если мы говорим про большие компании.
Это очень поверхностный подход. А нужен комплексный.
В зависимости от базы, ее размера, критичности и стоимости данных выбирается свой инструмент. В том числе есть решения класса Continuos Data Protection, которые позволяют синхронно реплицироваться и откатываться на нужный момент времени. Например, Oracle Standby с FlashBack логами.
Для очень критичных баз обычно делается так: Кластер высокой доступности в одном ЦОД, Standby в другом ЦОД, там отстающий Standby с логами (можно FlashBack).
Статья про трудности РК
Статья очень крутая, Сергей, спасибо!
Как я понимаю, у IBM это умеет только SVC и продукты на её (или его) основе. Их новомодные флеши A9000 и A9000R умеют какой-то hyper-swap, но то ли это?
я там, безусловно, буду, но вряд ли меня отдельно заявляли=)
Скорее всего вы перепутали меня с Владимиром Елисеевым, нашим генеральным директором=) У него на этом мероприятии вступительное слово.
amarao nokogerracharypopper
Коллеги, аудитория Хабра очень разная. Кому-то нравится копаться в конфигах vdbench, кому-то смотреть на unboxing интересной коробки с дисками.
Сейчас система тестируется, следующая статья будет с цифрами, графиками, интерфейсом и прочим. Все сделаем.
Вы правы, зашифрованные и уже сжатые данные не учитываются, иначе так бы все покупали маленькую железку и бесплатно её расширяли=)
Супер, с удовольствием послушаю про опыт!
Меня можно будет найти рядом с этой системой, мы предоставляем её на мероприятие=)
Да, прошу прощения, в статье была ошибка. Это первая и пока единственная демо-система в России, одному из заказчиков (видимо, вам) система пришла чуть раньше.
В статье исправили.
Я вообще предлагал все фотки Гали выложить вместо Pure Storage=)
за что получил по голове панелью=)
средний коэффициент эффективности на всей базе массивов Pure около 5:1. Посмотреть его можно здесь.
Насчет гарантий происходит следующим образом: на этапе предложения заказчик говорит, какие данные будет хранить на массиве (например, VMware 30ТБ, Oracle 15ТБ). Затем Pure высчитывает коэффициент (например, для VMware 5:1, для Oracle 3:1, общий 4:1). В этом случае Pure Storage обещает юридически его гарантировать. Никаких снепшотов и бэкапов с нас не требовал.
Но на нашей тестовой системе мы ничего определенного не храним, поэтому к нам гарантии не применимы) Пробовали на vdbench лить данные с коэффициентом дупликации 6:1 и сжатия 2:1, массив корректно все пожал до 12:1.
Скоро будем пробовать на реальных данных.
Статья вызвала очень много ностальгии вызвала. Понятно, что все вместить нельзя, но такие вещи, как Wither 3 пропускать никак нельзя.
Ну и хотелось бы побольше слов о самой революции в графике, что использовали, что поменялось.

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Registered
Activity