MooseFS хранит копии данных, в то время как в статье идет речь о технологиях на основе кодов избыточночти, что гарантирует более эффективное потребление пространства и меньшую себестоимость хранения. Доступ к MooseFS осуществляется через FUSE, что с одной стороны дает простую интеграцию, а с другой — наследует узкие места FUSE. Один момент, который меня насторожил в архитектуре MuuseFS — это единственный сервер метаданных в сочетании с бэкап-серверами. Показалось узким местом в плане надежности и бесперебойной работы.
Наши инженеры экспериментировали с CEPH и Swift, в том числе меряли производительность, сравнивали удобство установки и управления. Детали можно попросить у них в индивидуальном порядке. В статью эти материалы не попали, потому что сначала хотелось сделать вводный материал, а на технические детали делать акцент в следующих публикациях. Мне кажется, что Swift и CEPH не совсем конкуренты enterprise решениям, потому что требуют значительно больших усилий по системной интеграции. Скорее, это альтернатива для наиболее крупных сервис провайдеров, у кого есть значительныве инженерные ресурсы и достаточная финансовая мотивация, чтобы вложить свои усилия в do-it-yourself проект на open source. Для небольших провайдеров и среднего бизнеса определенно нужны решения out of the box.
Изначально система проектировалась так, чтобы показывать максимальную стабильность на наихудшем железе и сети и не требовать оперативного вмешательства руками, поскольку все наши датацентры расположены на значительном удалении (даже в других часовых поясах) от команды разработки и поддержки стораджа. Выпадающие диски и сервера заменяют местные специалисты даатцентра в обычном режиме по нашим заявкам.
После открытия третьего датацентра мы заметили, что наиболее стабильно ведет себя самый первый датацентр, в котором количество серверов перевалило за несколько десятков. Даже на совсем старых, маломощных серверах, где на один сервер для экономии навешивали несколько ролей, сеть была 1GB система работала стабильнее, чем на новой конфигурации с 9 выделенными и мощными серверами под каждую роль и сетью 2GB. По мере увеличения числа серверов новйы датацентр также быстро стабилизировался.
В первом датацентре многие сервера были разными как по числу дисков, так и по их емкости. Система нормально работает в такой конфигурации благодаря алгоритму балансировки стораджа.
Приемлемая скорость определяется бизнес-задачами у нас есть результаты сравнения произмодительности с типовым брендовым стораджем. Если интересно — пишите в сайп olegmikhalskiy
Спасибо автору за статью. Полезный материал и способствовует развитию хорошей дискусии. Как определить критерии успешности проекта и найти виноватого в провале? Я думаю, это вопрос по которому должно быть с самого начала четкое взаимопонимание инвесторов и менеджеров проекта, в идеале подкрепленное опытом менеджера и его команды и компетентностью инвестора в вопросе. Должны быть выработаны целевые показатели (количественные и качественные), и менеджер должен за них отвечать своей шкурой. Но это в идеале. В реальности квалифицированных и ответственных менеджеров не так много, и не все инвесторы до конца "в теме", чтобы адекватно сформулировать чего они хотят. Но что делать - рынок-то еще молодой. Благодаря таким статьям и дискуссиям опыт и накопим. Было бы время, написал бы про свой стартап..
Очередной респект PR-щикам из Google. Интересно было наблюдать как выросли акции за последние несколько дней. Но и Facebook хорошо подсуетился, согласе с оратором keeruline.
Интересно, еще будут заслуживающие внимания стартапы в области социальных сетей или только проекты, которые хотя коммерциализировать возможности, предоставленные платформами google и facebook?
Если только второе, искренне жаль!
После открытия третьего датацентра мы заметили, что наиболее стабильно ведет себя самый первый датацентр, в котором количество серверов перевалило за несколько десятков. Даже на совсем старых, маломощных серверах, где на один сервер для экономии навешивали несколько ролей, сеть была 1GB система работала стабильнее, чем на новой конфигурации с 9 выделенными и мощными серверами под каждую роль и сетью 2GB. По мере увеличения числа серверов новйы датацентр также быстро стабилизировался.
В первом датацентре многие сервера были разными как по числу дисков, так и по их емкости. Система нормально работает в такой конфигурации благодаря алгоритму балансировки стораджа.
Приемлемая скорость определяется бизнес-задачами у нас есть результаты сравнения произмодительности с типовым брендовым стораджем. Если интересно — пишите в сайп olegmikhalskiy
Интересно, еще будут заслуживающие внимания стартапы в области социальных сетей или только проекты, которые хотя коммерциализировать возможности, предоставленные платформами google и facebook?
Если только второе, искренне жаль!