С инетом проблемы. Через пару часов дособеру образ и потестю на n900, вообще flasher -lkb(вроде такие параметры) не затирает ничего, просто грузит MeeGo, а дальше идет загрузка с microsd
> Что с этого поимеете вы я не знаю, а Google строит свою инфраструктуру с нуля (ничего не арендует, никому не платит, сам пишет софт и собирает сервера) и имеет неиллюзорный профит.
Ну я там не работаю, не знаю.
> Я вам GFS ставить не предлагал, если что. Да и разговор про «кластеризация не нужна» и «маркетинговый трюк» не я начал.
У меня есть рабочий пример того, что масштабирование добавлением серверов — экстенсивный путь развития. Гугл может использовать в силу архитектурных особенностей изначальной разработки, так же как и Mail.ru, т.к. это им удобно. Вы рекомендуете решение, которое сами никогда не использовали, а ссылаетесь на контору, которая может купить себе атомную станцию для датацентра.
«Облака» это всего лишь расплывчатое название кучи, очень большой кучи разных технологий. Использовать ее без каких либо конкретных пояснений даже не просто глупо.
1. Полный комплект ПО для запуска этого якобы «кластера»
2. Потом берем HP StorageWorks или что-нибудь подобное(не знаю что там есть у emc, dell итд), считаем сколько будет стоить со свичами, дисками и самим SAN'ом оборудование и потом считаем сколько понадобится серверов для их замены(с такими же дисками по характеристикам). После этого еще добавляем аренду стоек(питание, охлаждение, туда же добавляем расходы на 10 Gb Ethernet) и что в итоге мы имеем с этого «кластера»?
У них может быть все и занимает 200 Мб, но кроме них есть куча проектов, где в сутки пишется 100 Гб данных, которые должны храниться минимум полгода. Тут уже бэкап сделать невозможно.
15-20к — 3ware 9690 какой-нибудь или постарше модельки, они до 6 Гбит/с, несколько экспандеров ченбро по 10к и получается нормальное хранилище, а не 64 харда c кучей соплей. Правда я не видел полок на 64 харда 3,5", но то, что сделано из досок — не эффективно, т.к. поток воздуха хз вообще куда дует, вибрации, нет хотсвапа.
> Прежде LSE прилагало все усилия, чтобы снизить время обработки в TradElect хотя бы ниже 2000 мкс, что все равно очень медленно по сравнению с конкурентами LSB, например, компанией Chi-X, которая использует основанную на Linux систему MarketPrizm с временем обработки 400 мкс.
Ну не верю я в 91%, не может быть такого роста. Может быть, конечно, iPad так хорошо разбирается или другие услуги или что-то еще, но провальный iphone 4 не мог разойтись таким количеством. При таком росте RIM, HTC, Motorola, Nokia должны были сложить лапки и улечься в гробики.
www.youtube.com/watch?v=zspP_HUXW9o
Ну я там не работаю, не знаю.
> Я вам GFS ставить не предлагал, если что. Да и разговор про «кластеризация не нужна» и «маркетинговый трюк» не я начал.
У меня есть рабочий пример того, что масштабирование добавлением серверов — экстенсивный путь развития. Гугл может использовать в силу архитектурных особенностей изначальной разработки, так же как и Mail.ru, т.к. это им удобно. Вы рекомендуете решение, которое сами никогда не использовали, а ссылаетесь на контору, которая может купить себе атомную станцию для датацентра.
«Облака» это всего лишь расплывчатое название кучи, очень большой кучи разных технологий. Использовать ее без каких либо конкретных пояснений даже не просто глупо.
2. Потом берем HP StorageWorks или что-нибудь подобное(не знаю что там есть у emc, dell итд), считаем сколько будет стоить со свичами, дисками и самим SAN'ом оборудование и потом считаем сколько понадобится серверов для их замены(с такими же дисками по характеристикам). После этого еще добавляем аренду стоек(питание, охлаждение, туда же добавляем расходы на 10 Gb Ethernet) и что в итоге мы имеем с этого «кластера»?
www.linux.org.ru/news/linux-general/5440913
www.computerworlduk.com/news/it-business/3243905/london-stock-exchange-completes-first-live-linux-test/
было 2 миллисекунды, стало 400 микросекунд.