All streams
Search
Write a publication
Pull to refresh
35
0
Алексей @Lelik13a

Админских дел мастер.

Send message
Вот подрастут карапузы, достану я игр всяких разных и будем играться :).
А где вариант "Да, наверняка где-то такие есть"?
Текстом бы. Не люблю видео и презентации.
А счётчик неверно введённых кодов случаем не сбрасывается ;)?
А вот после некорректно введённых pin-кодов данные стираются как?
Не сработает ли вариант со сбросом таким образом pin-кода и восстановлением данных с флешки, как в случае обычной битой файловой системы?
Вот увидел вашу статью и полез смотреть, а вдруг как появился релиз для CentOS 6. Гляжу в репозиторий, и в прям появился. На радостях пытаюсь обновится — не лезет. Ладно, думаю, и не такое ставили. Бекаплю конфиги да сношу версию 2,4,7. Пытаюсь ставить в том же составе — опять не лезет. Достаю бубен, да давай поштучно пакеты из конкретного репозитория ставить (а в оси грошовой это несколько геморойнонеудобно). Глядь, а сервера то и нет :(.
Пришлось всё возвращать как было. Да и чай остыть успел. Грусть, печаль.

В общем, жду релиза под CentOS 6.
Читаю каждый день, когда еду на работу или с работы в общественном транспорте. За годы, развилась способность без проблем читать в любое свободное время хоть страницу-две. Запоминаешь что читал, на чём остановился, контекст и тп.
Ответил 16-20, потому как половина книг на английском, а там скорость чтения оставляет желать лучшего, зато интересно не только содержание, но и сам процесс.
Спасибо за ответ.
При случае, соберу информацию и буду много думать.
Надеюсь на продолжение статей по теме.
Спасибо за статьи, очень познавательно.
В первом описанном случае, можно ли отключить отбрасывание ARP-запросов и обойтись без статической привязки ARP?

Интересен вопрос работы Cisco ASA с ARP в сетях с VLAN-ами. На практике, наблюдал ситуацию с проблемами ARP:
Cisco ASA выступает в роли маршрутизатора, разделяет/соединяет несколько сетей /24 в разных VLAN-ах. В сеть включают сервер виртуализации. Управляющий интерфейс сервера в одной сети (и VLAN-е), контейнера в других и сетях и VLAN-ах, через виртуальные сетевые интерфесы. Симптомы такие-же, как и в первом вашем случае и статические записи APR в контейнерах для адресов шлюзов каждой сети проблему решали, но это очень не хороший вариант. К сожалению, у меня тогда не было возможности собрать информацию подробнее. Может подобные случаи были и в вашей практике?

Ещё интересен вопрос особенности работы APR в случае статически агрегированных каналов. Опять же наблюдал схожие проблемы, но тут конкретной информации ещё меньше.
VNC позволяет сделать свой ретранслятор.
www.uvnc.com/products/uvnc-repeater.html
Очень хотелось бы CentOS 6. Заббикс используется в контейнерах, и переходить на CentOS 7 там смысла нет.
  1. Я использую заббикс для мониторинга OpenVZ контейнеров (https://github.com/Lelik13a/Zabbix-OpenVZ). Автообноружение находит все контейнера для ноды и создаёт хосты, применяя к ним шаблон мониторинга. Часть пограничных значений для триггеров задаётся через макросы в шаблоне, но для каждого контейнера значения адекватны свои. А задать их можно только определив соответствующий макрос на родительской ноде и для всех контейнеров одно, что очень не удобно.

  2. Для наглядности, удобно вынести значения, по которым сработал триггер, в название триггера и тело сообщения. Но для каких-либо функций это не работает. Например, сравнение средней величины за период с последним значением этой величины:
    key.last() > key.avg(3600)*1.3
    В этом случае, обе {ITEM.VALUE1} и {ITEM.VALUE2} == key.last().
    А хотелось бы видеть значения левой и правой части выражения, по аналогии: {TRIGGER.EXPRESSION1} и {TRIGGER.EXPRESSION2}. И почтовым сообщениям от заббикса это так же добавит информативности. А то порой не ясно, это небольшой выход за границы дозволенного или уже можно бегать в панике кругами.
Здорово, давно ждал. Спасибо за работу.
Вопросы:
Есть ли теперь возможность настраивать макросы на автоматически обнаруженных хостах?
Можно ли в названиях триггеров указывать динамические значения, полученные в теле триггера, а не только {ITEM.VALUE}?
1. Само наличие промежуточный файлов — уже не хороший вариант, особенно если есть возможность собирать на прямую из источника событий. И файлы не редко пишутся с опозданием от самого события.
Для этих целей у logstash-а есть приёмник типа syslog, или вообще любой tcp/udp поток на входе слушать, а там разбирать.
Как метод собрать данные из всего универсально файлы не плохи, но если есть другие варианты, то лучше их, но тут нужно настраивать каждый источник.

2. По графикам в кибане конкретнее сказать не смогу, давно смотрел. Но сейчас опять развернул тестовую связку logstash-а, буду разбираться, проверять.
Не корректный опрос по содержанию статьи. Ассоциацию вызывает, но рекламу «недобросовестной» я не считаю :).
Хотя, на сайте ФАС вопрос сводится к этому же..., как быть?
> Именно filebeats этим и занимается.
Нет, он делает это «со вторых рук» и к тому же, в файл логов попадает не вся информация (severity, например) и не сразу. А в случае проблем с файлами (место кончилось, файл ротейтнулся) — данные пропадут. Да и к чему лишние операции чтения?.. А в случае больших объёмов, данные локально лучше вообще не писать.

> Графики можно строить в визуалайзере Kibana4.
Когда я смотрел, там можно было только отображать статистику по данным, без какого-либо расширенного анализа содержимого.
Например, можно ли построить сводный график статистики по кодам ответа http (4хх, 5хх) в секунду в зависимости от вирутального хоста с возможностью группировки по физическому серверу? Или банальный объём трафика отданного веб-сервером?
А совпадения аватарок были?
А среди всех остальных?
Спасибо за статью, интересно. Года полтора назад я собирал сервер логирования logstash+elasticsearch данные отправлял из rsyslog-а на прямую, а так же из apach-а перенаправлением вывода в nc. Logstash+elasticsearch работали не очень стабильно с течением времени и объёма логов. Так же строил различные счётчики и визуализировал с помощью graphite. Теперь судя по всему, проект сильно развился с тех пор, нужно будет взглянуть ещё раз. А теперь вопросы :)

Почему не собираете данные напрямую из систем логирования *syslog или journald? Чтение уже записанных файлов не оптимально, да и теряется часть информации.

Строите ли какие-нибудь сводные графики и чем?

Есть ли какая нибудь обратная связь и по каким критериям? Я использовал поиск ключевых слов в логах, но это было не удобно, конфигурация получалась громоздкая и запутанная (если нужно настраивать связи событий). И по событиям отправлял сообщения в nagios.
Спасибо, очень интересно. Жду продолжения.
Интересны принципы и методики настройки параметров postgresql, для управления механизмами оценки запросов.

Information

Rating
Does not participate
Location
Красноярск, Красноярский край, Россия
Date of birth
Registered
Activity