Как стать автором
Обновить
18
0
Лупонос Дмитрий @Bessome

Пользователь

Отправить сообщение
Вот тут у Лиссяры написано как патчить mpd5. Про pptpd во freebsd 9 вычитал на том же ресурсе, что лучше не надо. Попробовал раз взлететь, не вышло. Поэтому оставил эту тему. Но там еще вопрос безопасности сыграл свою роль. Со шлюза больше шар доступно, бекапы (которые вне локальной подсети). Поэтому не стал к шлюзу давать доступ из — вне.
Согласен с вышеприведенным.
и я бы вообще весь впн вынес в отдельную таблицу роутинга(а лучше вообще неймспейс).

Не стал делать ибо работает так, а задачи разбираться с iproute2 и прочим не стоит (не заплатят, не оценят)
однако проблемы, с которыми я столкнулся при настройке роутинга в следующем — если я задаю правила при старте системы, а входящие интерфейсы еще не подняты, то правила роутинга не работают (привязываются к eth0).
голос бегает по rtp, который представляет собой пакетики udp. у правила же match-условие — tcp, так что оно на голос никак не влияет.

видимо влияет mtu blackhole все-таки на траффик, а не невозможность прогона через систему именно rtp. Поэтому закомментил себе эту строчку именно так.
1. было дано задание собрать из наличия
2. планирую уходить, кадр на замену будет менее квалифицированный
3. openvpn обслуживает мой офис в части конфиденциальной информации-хранилища ту и чертежей, так что хотел разобраться именно с pptpd
сомневаюсь, что те шары и голосовой траффик, которые стали доступны при таком решении, составляют критическую ценность. собственно Vpn применен для удобства и простоты настройки, администрирования, а так же в связи с тем, что другие решения на dir300+ddwrt практически реализовать невозможно, с моей точки зрения
Тогда решение выглядит более универсальным в принципе, для других целей использования VPN.
Я себе слабо представляю обрушение виртуалки из-за отсутствия swap-диска.
Кстати, да, решение может быть в следующем: CentOS (как и прочие nix) поддерживает swap-диски и swap-файлы. Можно организовать дополнительно одновременно со swap-диском на ssd swap-файл на основном диске, который позволит системе не рухнуть.
Ради интереса решил посмотреть использование swap на сервере: 1% на apache, на остальных не используется. Uptime 14 дней.
По Вашему мнению (как человека, который разбирается в предмете) в чем вред статьи?
Если вы этого не сделали, я бы рекомендовал вам уведомить заказчика о том, что вы снимаете с себя ответственность за сохранность данных и системы в целом в таких условиях.

Сделано заранее.
«data=writeback,commit=15» рекомендую убрать

Это не в ProxMox, а внутри виртуальной машины, которая с апачем и файлами сайтов. Все равно убрать?
У клиента два сервера терминальных внутри ProxMox на Windows 2003 Serv для 1С крутится. Один на vmdk, другой на qcow2. Вот разницы в производительности по IO не заметил совершенно. Собственный опыт.
Не буду возражать, что возможно родной формат лучше, есть некоторые плюшки.
Для каких целей вы используете формат vmdk (а не vmbr, как статье)? Почему не родные qcow2 или raw? Тип жесткого диска вы тоже не указали, но подозреваю, что используется ide?

Использую SCSI. Формат выбран для совместимости с другими машинами виртуализации. VMVare взял за стандарт де-факто.
Т.е. когда SSD сдохнет, вы получите автоматом проблемы с загрузкой системы, равно как и с её восстановлением.

Просьбу заказчика требуется выполнять. SSD позволит взлететь систему даже когда сдохнет.
Так сколько у вас дисков, 1 или 2? Если один, то, опять же, взашей гнать всех, кто участвовал в разработке конфигурации, закупке, а затем согласился ставить систему на заведомо рискованную конфигурацию. Если два, то где второй? Почему не используется raid, если у вас 100 сайтов?

Вверху привел конфигурацию сервера: два харда — SSD и WD. Работаю с чем дали.
А raid и нет. Один диск WD 1000 Gb. Банально не хватит места.
По сути необходимо было быстро организовать мониторинг логов в целом, чтобы видеть пики и события, которые их вызвали. По сути, принятие решение производится на основании веб интерфейса, а настройка на данный момент пока производится руками.
Ускорили решение проблем, связанных с переездом сайтов со старого сервера на новый. Например найти и подредактировать правило, на основании которого баннился перепост материала на ВК заняло 5 минут.
Больших требований на данный момент заказчик не предъявляет — его волнует работа сайтов, а не хостинга. Но уже задумывается над оптимизацией медленных запросов, которые увидели через mysql_monitor.
P.S. в любом графическом отображении удобно видеть рост нагрузки на сервисы, которые показывают возникшие проблемы, Имхо собственно для этого нам и нужен Splunk.
Для трафика, который заведен в SQUID
Не силен. Еще раз пробую выложить, что получилось
Ага, я такой )
В связи с прошлым опытом пришел к такому извращению, в связи с тем, что не силен в защите и мониторинге рабочей машины. А так проблем нет, а на заводе 250 Ватт в пике на 1 комп никто не замечает.
Уберите в статье листинг весь под теги, ну пожалуйста, читать вырвиглазно

тег «code» — ? он там стоит.
Не силен. Держите, что получилось:
А как же классическое: пока работает не трогай?
Честно, меня не тянет что-то обновлять, а то начнется веселье в виде слетевшего подсчета трафика, пробросы для клиент-банков и тендеров по-новой делать и т.п. ерунду. Вот на новом объекте будем экспериментировать, благо в этом году осенью сдача.
На PF для моего понимания ALTQ оказались проще. Сейчас канал широкий, даже потребность рубить торренты отпала.
Демократия в офисе обеспечивает печеньки админу.
Приведу старый конфиг-файл для pf с приоритетами трафика. По-моему что-то там было не настроено, нашел в папке «разобрать». По аналогии можно сделать полосы пропускания для чего угодно, назначив портам приоритеты:

cat pf.conf.altq

int_if=«re1»
ext_if=«re0»
int_net=«10.1.1.0/24»
freeBSD=«10.1.1.30»
icmp_types="{ echoreq, unreach}"
http=«80»
https=«443»
ssh=«22»

gw1=«192.168.63.25»

set block-policy drop
set skip on lo
scrub in all

#Канал был 4Мб, полосу сделал 3Мб, а 1Мб оставлял под почту, которая крутилась на шлюзе на exim + fetchmail.
altq on $ext_if cbq bandwidth 3Mb queue { qssh, qhttp, qdns, qack, qftp }
queue qhttp bandwidth 88% priority 6 cbq (default borrow)
queue qssh bandwidth 3% priority 5 cbq (borrow)
queue qdns bandwidth 3% priority 5 cbq (borrow)
queue qack bandwidth 3% priority 6 cbq (borrow)
queue qftp bandwidth 3% priority 2 cbq (red)

nat on $ext_if inet from any to any -> ($ext_if)
pass in on $int_if route-to ($ext_if $gw1) from $int_net to any no state

block all

pass out on $int_if from $int_if to any keep state
pass out on $int_if from $int_net to any keep state

pass out on $ext_if from $ext_if to any keep state

pass out on $int_if from $int_if to any keep state

pass in log on $ext_if proto { tcp, udp } from any to $freeBSD port $http keep state
pass in log on $ext_if proto { tcp, udp } from any to $freeBSD port $https keep state
pass in log on $ext_if proto { tcp, udp } from any to $freeBSD port $ssh keep state

#IN ALTQ
pass in on $ext_if inet proto { tcp,udp } from any to $ext_if port 2222 queue ( qssh, qack )
pass in on $ext_if inet proto { tcp,udp } from any to $ext_if port 80 queue qhttp
pass in on $ext_if inet proto { tcp,udp } from any to $ext_if port 53 queue qdns
pass in on $ext_if inet proto { tcp,udp } from any to $ext_if port { 21 30000:35000 } queue qftp

#OUT ALTQ
pass out on $ext_if inet proto { tcp,udp } from $ext_if to $ext_if port 2222 queue ( qssh, qack )
pass out on $ext_if inet proto { tcp,udp } from $ext_if to $ext_if port 80 queue qhttp
pass out on $ext_if inet proto { tcp,udp } from $ext_if to $ext_if port 53 queue qdns

Информация

В рейтинге
Не участвует
Откуда
Россия
Дата рождения
Зарегистрирован
Активность