не путайте сисадминс .su и .ru.
.su — это раскольники, который в своё время ушли строить свой сисадминс, с блекджеком и шлюхами. сначала назвали sysfaq.ru, потом sysadmins.su. рушник стоит.
ну… у сис.админов вообще завышенное ЧСВ — нормальное явление, а уж что бывает, когда их много вместе… имхо нормальное общение идет зачастую лишь в кругу друзей
Иногда просто не могу найти более емких выражений, чем луркояз, чтобы выразить мысль. Лурчанка, если она в тему — немного помогает выразить мысль, точно так же как ИТ-шный и любой другой жаргон и даже обычный русский мат. Я это гарантирую.
При всем богатстве русского языка — тот же мат и лурк позволяет выразить мысль а) более емко и б) более компактно, обходясь одним словом вместо нескольких.
Как в том анекдоте — «Теперь вместо того, чтобы крикнуть „Михалыч, дай вон ту х-ню!“ приходится вспоминать, как она называется.
1) Законодательно, вроде бы, не запрещено
2) Отнюдь нет, ведь только разговаривая на чистом русском языке мы сможем дать спокойно умереть со скуки снобствующим борцунам за «честату виликаго»
При количестве носков одного типа, стремящимся к бесконечности, вероятность оставить носок без пары стремится к нулю.
Но тут есть проблема — бесконечное множество носков хорошо смотрится на бумаге, на практике же, в шкафу, бесконечная масса будет уплотнятся, пока не схлопнется в чёрную дыру.
Я для себя несколько лет назад решил эту проблему FIFO-буфером и бесконечным циклом. Оно и на бумаге хорошо, и в шкафу. Носки, кстати, покупаю только в цвет к чёрной дыре.
какие бы умные рейды не были, случается ситуации когда логика отрабатывает не корректно, и после слета одного из диска рушится весь рейд, бывает когда рушится один диск, и из-за увеличенной нагрузки рушится второй… вообще подобные случае случаются гораздо чаще чем хотелось бы :)
Если посчитать процент вылета самих RAID-контроллеров и сравнить с процентом вылетов обычных дисков, то получится что последние не так уж безнадежны.
RAID-контроллеры горят очень часто забирая вместе с собой, в большинстве случаев, и диски.
я в жизни не поверю, что у этого форума бек составляет 3тб даже с учетом пикчей и остального говна. При этом стоит заметить, что реально, для форма, критична потеря только базы, всякие пикчи, аватарки и прочий пользовательский контент можно пережить. А системные файлы редко меняются. База там хорошо если в 100метров жира, да и то вряд ли.
У них может быть все и занимает 200 Мб, но кроме них есть куча проектов, где в сутки пишется 100 Гб данных, которые должны храниться минимум полгода. Тут уже бэкап сделать невозможно.
Если есть 3ТБ реально нужных данных — пора уже уйти от детсадовской логики «сожму винраром и нарежу на ДВД», а смотреть в сторону распределенных систем, отказоустойчивых кластеров, облачных хранилищ и прочих радостей современной жизни. :)
Я все же отправлю читать про архитектуру Google\GMail\YouTube :)
Там «хранение» и «обработка» данных не разделяются и занимается и тем, и другим распределенная система (кластер). Выделенной SAN с каким-то специальным железом, шлюзами к серверам приложений или чему-то подобному там нет.
1. Полный комплект ПО для запуска этого якобы «кластера»
2. Потом берем HP StorageWorks или что-нибудь подобное(не знаю что там есть у emc, dell итд), считаем сколько будет стоить со свичами, дисками и самим SAN'ом оборудование и потом считаем сколько понадобится серверов для их замены(с такими же дисками по характеристикам). После этого еще добавляем аренду стоек(питание, охлаждение, туда же добавляем расходы на 10 Gb Ethernet) и что в итоге мы имеем с этого «кластера»?
Вы мне-то это зачем рассказываете? Вы Google расскажите, вдруг там не знают. :)
Что с этого поимеете вы я не знаю, а Google строит свою инфраструктуру с нуля (ничего не арендует, никому не платит, сам пишет софт и собирает сервера) и имеет неиллюзорный профит.
Я вам GFS ставить не предлагал, если что. Да и разговор про «кластеризация не нужна» и «маркетинговый трюк» не я начал.
> Что с этого поимеете вы я не знаю, а Google строит свою инфраструктуру с нуля (ничего не арендует, никому не платит, сам пишет софт и собирает сервера) и имеет неиллюзорный профит.
Ну я там не работаю, не знаю.
> Я вам GFS ставить не предлагал, если что. Да и разговор про «кластеризация не нужна» и «маркетинговый трюк» не я начал.
У меня есть рабочий пример того, что масштабирование добавлением серверов — экстенсивный путь развития. Гугл может использовать в силу архитектурных особенностей изначальной разработки, так же как и Mail.ru, т.к. это им удобно. Вы рекомендуете решение, которое сами никогда не использовали, а ссылаетесь на контору, которая может купить себе атомную станцию для датацентра.
«Облака» это всего лишь расплывчатое название кучи, очень большой кучи разных технологий. Использовать ее без каких либо конкретных пояснений даже не просто глупо.
А поконкретнее можно? Просто интересно, как это реализовано, на примере. И почему они отказались от использования SAN? Как я считаю, это более удобно при такой задаче — то есть обработке и хранении большого объёма данных.
А почему — потому, что они вообще отказались от специального дорогого и сложного железа (NAS, FC и т.п.) и строят свои системы на дешевых стандартных комплектующих. Зато в количествах превышающих все мыслимые пределы. :)
А последнее время «Маркетинг» просто убивает технику:
Раньше делалось на века! Винт мог проработать на порядок дольше чем предполагал производитель…
А с того времени, как я десять лет назад заметил, что импортные лампочки работают точно отведенное им время 5000h и с точностью до недели + — и перегорают — точно по такому же принципу начали делать новые винты… отработали 3 года и пошли массово сыпаться!
Вот так вот и RAID Валятся в один момент!
Бэкапы для трусов!