Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!
мягко говоря не совсем сервак, а обычный комп с корпусом 1U :)
Тут надо просто провести тонкую грань между понятием, что такое сервер и с чем его едят.
На мой взгляд на важные задачи, я бы не стал так замарачиватся, а использовал бы мощную машину с VmWare, где выделил бы себе нужные мощности (Если у вас есть куда ставить машину, думаю есть еще сервера ?)
Если вы о том, что бы разместить это чудо как COLOCATION, то это немного странно! Так как дешевле купить виртуальную машину (если она все же нужна)
Это и мощнее и в итоге дешевле.
Так же надо четко понимать категорию, для которых это все создается. как вараинт начальный SOHO до корпаративана enterprise решения.
На тему VmWare все просто. К примеру два сервера для отказоустойчивасти объединены в кластер. Вы используете OS в Vmware для разных целей. Две копии рабочии копии в кластере, еще одну машину для всяких тестирований обнавлений ОС. еще для настройки и тестирование изменений, что бы потом внести исправления в работаюзию систему, еще можно держать для нездаровых эксперементов. Ну и + разнести разные сервесы по разным ОС если надо :), а иногда НАДО! Забыл ну и пару машин для себя в личных целях.
В общем вот такие вот яйца :D и такие вот корзины!
однако это не означает, что с точки зрения оборудования она будет таковым являться.
Ну значит вы их просот не искали. Я да же могу сказать что есть и с винтами :) в Качестве ФП.
в вашем варианте надо еще поставить ось, еще ее настроить, следить за ней и bla bla bla! Собсвтенно на чем экономим то?
Если есть вминаемые штатные специалисты, а не стденты со двора, то фирма думаю может позволить нормальный серве или нормальное SOHO. Не занимайтесь самообманом.
Не представляю себе платы, в записи цены которой содержится 4000-4500 разрядов!Интересно, такую интерпретацию выражения вы сейчас сам и придумали?
Вот как раз софтовый на вашем то камне поднимать и не стоит.
RAID-массив уровней 0, 5 и 10 и ICH9.
С рейдом на уровне ICH9 компьютер загрузится, при выходе первого винта из строя, а если рейд софтовый, то — нет.
Со второго диска загрузится только в том случае, если это RAID1 и первый диск умер окончательно, т. е. с него даже нет попыток загрузки, а это бывает не так часто. Например на первом диске могут просто появится битые сектора в области, где хранится ядро.
1. если RAID1 — просто подключаете один из дисков к любому ПК и получаете доступ ко всем данным, даже можно с него загрузится и работать.
находите мать с аналогичным контроллером
Ну а что при этом RAID контроллер ICH9 отработает точно правильно? Это гарантируется производителем?
Насколько помню там свой формат, а не просто зеркало. Поддержка формата появилась в альфе mdadm для linux.
Это как раз время, так что не всегда удобно.
Могу только сказать, что у меня отработал корректно, система загрузилась и работала, второй диск был в статусе failed, на нем появилось слишком много плохих секторов.
А про гарантии производителем, разве они есть у софтового рейда?
Там обычное побайтное зеркало, проверенно на собственном опыте
Когда умирает материнка, это всегда не удобно, она может с тем же успехом умереть и на софт-рейде, и придется также искать свободное железо или покупать новое.
У него есть гарантии, что я его без проблем запущу на другой машине.Да, но на этой машине должна стоять аналогичная ОС, лучше еще и близкой версии
Тогда я слабо представляю как оно определяет целостность данных.Не задавался этим вопросом, может быть, что-то типа версионности, провел запись на первый диск, увеличил его версию, провел запись на второй, увеличил версию второго, у кого версия больше, тот и правильный.
В случае софтрейда не требуется иметь материнку на таком же чипсете.Не на таком же, а на практически любом из современных ICHxR
оно даже 100 (не говоря уж о 200) мегобитный нат не прожует, уже не говоря о каких бы то нибыло ухищрениях с пбр, портмаппингом и чем-то там ищщо. сдохнет не успев родиться на озвученых нагрузках.
. единственное что переварит, так это статик роутинг (динамика хуйс, поскольку про память написано 512мегобайт). кому нужен статикроутинг на самоскрученом сервере?
а в случае с проксей будет тормозом интернета, т. к. кэш прокси должен лежать на нескольких винчах в страйпе для того чтобы обеспечить хорошую отдачу из кэша, а если не пользовать кэш зачем вообще может быть нужен прокси?
ну войп не обязательно принимать по E1. в этом случае карта не нужна, а если еще обойтись без транскодинга и юзать сип, то вполне прожует эти 30 соединений, может даже больше.
зачем епией занимать место в стойках, которое кстате не бесплатное? да и этим недосервером тоже.
при определенных условяих все выше и ниже написаное умещается в один однопроцессорные четерехголовый ксеон при помощи виртуализации (правда конечно вопрос проброса pci-устройств в domU остается открыт).
если только совсем небольшая нагрузка, иначе по процу и памяти упрецо в полку. а если на почтаре есть какой-нибудь спамфильтр, то и подавна каюк :)
и все вышенаписаное на один такой сервер не повешать. а значит придется городить герлянду такого сифилиса при обслуживании которого огребешься и повешаешься…
ну да ладно, чего люди только не делают, лиж бы не покупать собственные сервера :)
оно даже 100 (не говоря уж о 200) мегобитный нат не прожует, уже не говоря о каких бы то нибыло ухищрениях с пбр
А где бы взять еще _десктопную_ сетевуху с TOE для такого десктопного железа?
На трафике 100-150 мегабит — первый же шейпер такой проц положит.
броадкомы, которые в них суют толи не поддерживают пулинг, то ли криво как-то.
А шейперы — стандартные CBQ debian. У меня их было штук 5 (всмысле «труб»), на разные скорости. Только вот правил для них очень много. Ибо firewall не для внутреней сети, а прикрывает блок серверов снаружи.
зачем поллинг если есть нормальные сетевухи? зачем нормальные сетевухи если используется поллинг? поллинг не средство обеспечения производительности, поллинг — средство спасти процессор. при этом поллинг не бесплатен и за него надо платить задержками, что впрочем не существенно, однако ж. попробуйте на своем коресоло-горероутире отключить поллинг. готов поспорить что процессор сразу захлебнеца.
кстати, на статикроутинги поток в фулдуплексе на стомегобит оно так же не прожует, просто помрет от обработки прерываний.
к тому же, вы привели в примел коре соло, но в данном случае речь о бюджетном целероне. и говорил я про него.
по поводу прокси, достаточно офиса из 50 рабочих мест, чтобы кальмар с кэшем стал тормозом интернета.
транскодинг это корыто не потянет.
SOHO system (small office/home office— 5 to 10 1 GHz x86, 512 MB RAM
less than three lines and five sets)
Small business system Up to 25 3 GHz x86, 1 GB RAM
с правильными серверами проблем меньше как минимум с менеджментом и обслуживанием.
кстати, действительно нормальные сетевухи с собственным асиком на борту стоят как два таких сервера. на таких да, оно и 100Мб и 1Гб легко прожует, и даже с натом, и еще как угодно.
госпаде ж. вы хотя бы прочитайте про то что такое поллинг, прежде чем с пеной у рта тут что-то говорить.
в данном случае без разницы. про динамику я говорил в контексте количества оперативной памяти.
вот уж охуенное отличие. с каких пор SMP вообще роляет на роутинге/нате и т. п.? вы хотя бы читали документацию по драйверам сетевых карт которые используете? вы читали про реализации nat'а, файерволов и пакетных фильтров? какие из них вообще умеют смп?
может все дело в том что он отдает данные мима кэша ввиду неправильной настройки последнего или может каждый из них ходит каждый раз на новый сайт? процент отданного из кэша контента в студию. или может быть ваши 50 клиентов вовсе не так уж и постоянно висят как вам кажется.
это тут об чом речь, о системных требованиях к сохо?
где тут сказано что это системные требования для транскодинга.
вы знаете что такое «транскодинг»?
кстати, вот второй вариант немного похож на правду, памяти бы по больше и может быть сотню одновременных звонков прожует, сильно зависит оттого на каком ядре будут эти гигагерцы.
ценник на нормальный сервер начинается где-то от 9-10килобаксов.
1-2 килобакса за сервер — это не ценник, даже в моей провинциальной деревне, а уж в москве и подавна. за два килобакса из китайской комплектухе такого супирбизона собрать можно, что уписаться, при этом иметь рейд, тучу памяти, кучу многоголовых ксеонов… и вовсе не стеснятся забить на поллинг и в сисктле подкрутить гайки ем драйвера.
кстате, чтоб вы знали, броадкомы вставляемые в сервера HP и IBM превосходно отрабатывают и без всяких поллингов, равно как и другие серверные сетевые карты из лоу-энда, главное не жадить лишние пару сотен баксов на нормальный процессор.
откройте википедию, там очень просто и доступно написано для чего существует асик. или вы считаете что аппартные маршутизаторы (речь не про сохошные коробки с мипслинупсом) тоже на процессоре свичуют и форвардят? :)
тут описано как собрать сервер за пицот баксов и он будет справляться со всем чем угодно.
что именно эта конфигурация как комбайн для предложеного функционала не сгодиться,
что именно эта конфигурация для некоторых одиночных задач может и хватит при условии небольших нагрузок и требований, а для большинства в его текущим виде будет недостаточно. на все это
а для большинства в его текущим виде будет недостаточно.
на все это, вы, товарищ norguhtar, предлагаете либо заменить процессор, либо добавить памяти, либо купить крутые сетевухи, но любое изменение конфигурации вверх уже поднимает планку ценника. а значит как сервер именно эта конфигурация есть весьма ограниченое решение. а значит как сервер именно эта конфигурация есть весьма ограниченое решение. я бы даже сказал никакое и глупое. для тех кому не жалко выбросить деньги на ветер.
я не могу взять в толк, какой смысл офису который зарабатывает деньги экономить копейки на решениях которые позволяет ему работать?
речь сейчас не про мегафирменные сервера на тысячи и десятки тысяч долларов. зачем доводить до абсурда эту экономию, при этом зная что она аукнется?
да, для узкоспециализированной и лимитированной задачи оно пойдет, но с ней справится сможет любая, иногда даже условно бесплатная, альтернатива на вроде виртуализации или сбора сервера из старого барахла собраного по сусекам офиса.
что мешает купить интелевые шасси и забить его как вам заблагорасудицо (кстати оптимальный вариант когда на HP/IBM/SUN не хватает, а собирать китайское гавно не хочется)?
что мешает взять нормальные комплектующие не особо экономя и не особо загоняясь собрать какой-то среднинький вполне сервер, пускай и немного опережающий требования, но небольшой вырост всегда пригодится.
что мешает купить два нормальных сервера, раскрутить там виртуализацию или просто повешать сервисы, и по мере сообщения утилит мониторинга менять винты, время от времени менять кулера и выдувать из них пыль. обслуживать меньшее количество оборудования всегда проще.
а предоставлением именно готовых программно-аппаратных решений под какие-то задачи.
там уже все изобрели за вас, обдумали за вас, протестировали за вас. от вас требуются соответствующие денежные вливания (совсем не большие кстати, даже переводя на совсем малые задачи) и чтение документации. к тому же есть тексаппорт который ответит на ваши вопросы, есть сервисные инженеры которые в случае неразрешимых проблем решат их для вас…
собирая на коленке вы итак экономите, зачем
доводить экономию до абсурда?
вы никогда не думали о том что если товарищи использующие бренд-онли сервера вам говорят об их преимуществах, то они явно это не выдумали.
единственный минус бренда это зависимость от его жизненых циклов. т. е. купив железку и дождавшись ее EOL бренд перестает ее поддерживать и совсем скоро она окажется без комплектухи. впрочем это железо как правило весьма надежно, да и комплектуху найти можно. :)
ну вообще настенные шкафы никак не для серверов, имхо. патчпанели, свичи и прочая коммутация.
касательно шасси дело не только в корпусе, в котором у интела винты кстате с хотплагом и на морде, но и материнской плате, которая не гавногигабит, а нормальная серверная мать от intel.
я бы сказал кто их проэктирует, но это определение не имеет ничего общего с определением инженера. спасибо, наебался с корпусами вдоволь
абсурдность экономии в том чтобы брать уже морально устаревшее железо и надеятся что его хватит. если вам начальство ниразу не говорило «мы хотим вот это и сразу и вообще еще вчера… какой новый сервер? полгода назад вам купили новый сервер за двести долларов, учитесь работать на том что есть»
лично был свидетель десятка вот таких вот лоу-енд серверов, которые по очереди ломались и с которыми приходилось цацкаться, а вот будь вместо них два «нормальных» сервера, геморроя было бы гораздо меньше. впрочем это издержки, конечно, отстутствия какого-то планирования ресурсов.
вобщем к чему я, даже покупая топовый сервер, через пару-тройку лет он станет вполне себе мидл-ендом, покупая лоу-энд, оно через полгода-год, станет хламом. грубоговоря железо на один раз. не практично.
а я считаю оправданым и выгодным глобально конторе определится с политикой относительно серверной платформы и покупать для нее техподдержку и возможно держать даже свой собственный зип, что при единой платформе не вызовет проблем. держать кучу различной рассыпухи на все случае жизни просто невозможно.
нищие купят бушную циску и будут счастливы. писюк на роутинге есть жепь.
писюк на роутинге есть жепь. если конечно речь не про роутир доступа в мелком офисе.
иптаблес и иптулз еще дороже. по неволе пришлось оценить всю «прелесть» федорероутинга. с тех пор «нененене»… если дело касается писиковых роутиров то бсд-онли (опенок или фря), никаких тазиков торвальца с их пионерией.
использовать циско-роутер для ната это все равно что микроскопом гвозди забивать.
ну не поверю я про три тысячи впн-клиентов на сервере с двумя гигабайтами памяти. но если только он занимался исключительно терминированием.
1U сервер за 500 баксов