Pull to refresh
21
0
Send message
Гравитация могла «слегка поправить траекторию», а разделение на фрагменты могло произойди в результате столкновения с сопоставимым по массе объектом в том же поясе Койпера
нет, вы вероятно не будете делать меньше, но вы будете меньше приносить прибыли. Будете ходить к коллегам и отвлекать их своими «а почему это так, а вон то этак», будете сидеть и разбираться в проекте и соседних библиотеках вместо того, что бы писать код и будете «пилить меньше тикетов» просто потому что еще не разобрались в проекте. По моему это нормально: сначала вам меньше платят денег и больше вас обучают, а потом вам платят больше денег, но вы в ответ на это учите новых сотрудников.
Обзор интересный, но перевод ужасный.
RAID-контроллеры делятся на:

Программные.
...


Программный рейд — ок, программный рейд-контроллер — ну я прям даже не знаю.

А почему слово «сервер» 12 раз в тексте оформлено не гиперссылкой, а 3 раза гиперссылкой?
а какая провайдеру зарница будет ли канал забит 24/7 торрентами или трафиком «моих клиентов»?
Если не против, у меня несколько смежных вопросов:
1) Когда закончиться поддержка OpenVZ6\Сколько времени есть на миграцию?
2) Будет ли поддержка установки поверх «чистой Centos» или только готовый образ?
3) Какие нить улучшение в плане бэкапа будут или как и раньше ручками делать снапшот, ручками бэкапить и удалять его?
https://habrahabr.ru/post/137723/
Вероятнее всего вы видели супермирку, брендированную как депо.
Если мы про линукс и например openvz, то берем 2 сервера(требование по железу расчитайте сами исходя из ваших задач, они тут совсем не принципиальны). 10Гб под корень, остальное отдаем в DRBD, drbd монтируем в /vz, /etc/vz делаем симлинком внуть /vz, /etc/sysconfig/vz аналогично. Ставим heartbeat,
файл /etc/ha.d/haresources приводим к виду(предварительно почитывая руководство):
hv1 drbddisk::r0 Filesystem::/dev/drbd/by-res/r0::/vz::ext4

И готово. В случае физического умирания одного сервера у нас все контейнеры автоматически поднимутся на второй ноде.
За пару лет пару было пару переключений из-за БП и дохлой памяти, ниодного нарекания, за исключением того, что мои 60 контейнеров в момент старта нагружают raid10sas из 4 дисков так, что требуется минут 5-7 на поднятие всех машин.

PS подробнее https://openvz.org/HA_cluster_with_DRBD_and_Heartbeat
PSS на данный момент начинать новый проект в таком стиле некоторый олдскул.
google://github zapret-info
Большинству людей не нужна железка, а нужно решение проблемы. С красивой презентацией, девушкой, ответившей «Ваш звонок очень важен, перевожу вас на специалиста», бухгалтерскими документами и NBD-заменой проблемного оборудования.
он один раз считался с диска при запуске и бесконечно долго работает в цикле.
Он каждый раз запускается заново, а останется ли он в файловом кэше на момент очередного запуска — вопрос
а про самый красивый, консольный, так и не написали
От кучи вариантов начиная от того, сколько и каких каналов, как ходит трафик и в каких отношениях сетевой инженер состоит с сетевым инженером аплинка.
Иногда можно совершенно безболезненно пустить часть трафика в обход проблемного участка своими силами, иногда можно попросить сделать это аплинка просто написав знакомому в скайп «у нас вон там фигня, перекинь пожалуйста трафик», а иногда упираешься в корп. систему заявок и ответы типа «не имеем технической возможности» которые следует читать как «нам не выгодно гонять этот трафик по другому маршруту».
формат tcp-заголовка (как и udp) позволяет идентифицировать порт 16 битами. Поменять число на текст — значит существенно раздуть формат заголовка без какого либо профита и выкинуть на свалку все имеющееся сетевое оборудование.
смотрите документацию к вашим свичам на тему DHCP snooping и 82 опции.
Супермикры обслуживать надо — а раз так, то нужен как минимум сотрудник, занимающийся этим делом. Даже если мы ему дадим 50 тыщ в месяц чистыми — социалки капнет ещё прмерно столько же, и вот уже миллион в год.

Не очень понимаю о каком обслуживании идет речь. Я хоть иногда и бываю в зале по 10 раз в день, но это либо переконфигурирование серверов, либо перекомутирование, либо установка новых\демонтаж старых.
То, что иногда встречаются "бракованные" платформу я отрицать конечно же не буду, но их сразу нужно менять целиком, на те, которые лежат в зипе.
Не могу сравнивать процент брака с другими вендорами, по причине отсутствия опыта работы с другими вендорами, но сомневаюсь что процент брака\выхода из строя разных вендоров сильно разный, думаю он плюс минус одинаковый в целом по больнице.
Если у Вас 20 стоек — Вы хостер, наверное.

Да, угадали, но большинство этих серверов сдается в аренду именно как сервер
Ибо крупный клиент на таких объемах супермикру никогда не выберет, а мелким столько не надо. У хостинга нет задачи «сделать надежно», там чаще всего стоит задача «сделать дешево».

У хостера нет задачи "сделать дешево", а есть задача "предложить клиенту услуги по той цене, по которой клиент готов их покупать" и остаться не убыточным. То есть выбор супермикры — это не мой выбор, а выбор клиентов. Если вы как клиент готовы платить за тот же hp, то мы его под вас закупим.
Кстати я как то работал в одной компании, которая занималась рекламой. Там было 2 ДЦ по ~10 стоек и пара стоек в офисе. И не поверите — все железо свое и все супермикра
Чтобы хаять винду — большого ума не надо
я «хаял» не винду, которой на данный момент нет адекватной замены в озвученных вами рамках, а подход, который пропагандирует винда. Всегда можно пересобрать установочный образ, можно засетапиться по сети, можно принести дрова еще кучей способов. Выбирать платформу по «можно ли замонтировать папку как флешку через IPMI» как по мне — не совсем корректно.
Я разрабатываю end-user ПО уже лет шесть, наверное. И у меня есть привычка — делать всё хорошо. Странно, конечно, требовать этого от других — но можете считать это профдеформацией.

Мы сейчас про веббиос и мегасли? Я полносью согласен что решение не самые удобные и у меня порой уходит по 15 минут что бы наTab'ать какой-нить рейд 60 из 18 дисков, но это 1 раз при сетапе сервера. Потом же оно работает, работает хорошо и нареканий не вызывает.
Кстати, зачем вы, программист, лезете в эксплуатацию?
Супермикра №1 (2010) — периодически теряет все жесткие диски при рестарте. Холодный ребут, полный рестарт — не помогает. Помогает достать молекс из бэкплейна и вставить его обратно. Меняли и материнку (контроллер встроенный), и бекплейн, и харды, и кабели, и шлейфы, и блок питания — всё безрезультатно. Забили и отдали играться как сторидж для всякой ненужной фигни.

Имею порядка 20 стоек супермикры ± таких же лет, ни разу подобного не видел.

Дальше вообще плач виндузятника: мышка не работает, cli сложная, ява странная.

Ява грузиться только на "главной странице IPMI", потому что пытается "превью" экрана показать и непосредственно при открытии удаленного экрана. Отсутствие возможности замонитровать директорию как флэшку — мне почему то кажется, что проблема в винде, которая не может встать на железо, на которое любой линукс ставиться с пол пинка.

Я что сказать хотел: вам с вашей большой тройкой наверное сложно обслуживать одну супермирку, а мне, имея их почти вагон это не доставляет существенных хлопот. Все просто, понятно и в нужных местах легко автоматизируется. Глобальных проблем ни с чем нет, а локальные возникают редко и фиксятся быстро.
rpm -Uvh dl.fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-5.noarch.rpm

Уже давно можно сказать yum install epel-release

5) Устанавливаем MariaDB
Добавляем репозиторий.

https://www.linux.org.ru/news/redhat/9262805

Я устанавливаю из исходников, что и вам советую.

Так возьмите генту или арч, или соберите пакет, а ерунду советовать не нужно.

service/chkconfig

Вы уж если про centos7 рассказываете, то и пишите systemctl [start/stop/restart/enable/disable], а не устаревшие варианты.
Добро пожаловать в современный интернет. Уже достаточно давно говоря "баннер" можно смело представлять js-код на 10-100Кб

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Registered
Activity