Pull to refresh
31
0
Иван Тужилкин @1it

Systems Engineer, DevOps/SRE Advocate

Send message
# Log files
sudo touch /var/log/nginx/grafana.access.log
sudo chmod 666 /var/log/nginx/grafana.access.log
sudo touch /var/log/nginx/grafana.error.log
sudo chmod 666 /var/log/nginx/grafana.error.log

Я прошу прощения, но зачем это? Nginx сам создает логи (если может писать в директорию), а chmod 666 (спасибо что не 777) зачем? Это просто 5 бесполезных строк.
И зачем делать touch /etc/nginx/conf.d/grafana.conf, если можно просто сказать vim /etc/nginx/conf.d/grafana.conf и вставить содержание конфига.

Вместо стороннего модуля nginx echo, можно использовать встроенный модуль rewrite с директивой return:
  location = /robots.txt {
     default_type text/html;
     return 200 "User-agent: *\nDisallow: /\n";
  }

Хотя, как по мне, проще файлик подложить в нужное место, чем потом вспонимать откуда этот robots.txt взялся и где его править.
Нас в первую очередь интересовала приватность (безопасность переписки), а потом уже какие-то плюшки и интересности.
В целом достаточно удобно. В плане коммуникаций менее продвинутый чем скайп и ряд других месенджеров — звонки только один на один, нельзя удалять сообщения, редактировать отправленные сообщения можно, но не так удобно (не всем удобно, кому как). В плане интеграций с внешними сервисами всё хорошо, удобный API. Мы настроили уведомления в коммандный чат о новых деплоях и о сбоях сервисов от заббикса и кое что еще. По администрированию вообще вопросов нет, все удобно кроме миграции. Но это думаю больше не понадобится. :)
Основная мысль которую должны понимать современные компаний занимающиеся разроботкой ПО/Web-приложений/и пр. должна быть следующей:
процесс разработки тестирования и эксплуатации ПО неразрывен. Программисты, админы и тестировщики всегда должны быть одной командой. Не нужно никаких модных слов. Нужна хорошая командная работа и грамотный менеджмент без матоков и размахивания пренадлежностями, и тогда и только тогда на выходе будет получаться хороший программный продукт. Без должного отношения друг к другу и нормального отношения к задачам не будет хорошего результата. В общем разработка это сложный процесс который требует слаженности и ответственности и не более.
Т.е. получается что таки каждую минуту может происходить nginx -s reload?
Мне кажется можно делегировать половину действий самому nginx и обойтись без частых reload.
Это именно отмена, а не отключение файла лога. Лог будет писаться в файл off. Что бы действительно отключить запись лога в файл нужно писать access_log /dev/null

Бред.

The special value off cancels all access_log directives on the current level.
http://nginx.org/en/docs/http/ngx_http_log_module.html

access_log off; это директива отключающая лог (в конкретном блоке server или location), про "файл off" в документации нет ни слова (и на практике такой файл не возникает).
В  macports тоже есть обновление:
$ port search openssh
openssh @7.1p2 (net)
    OpenSSH secure login server

port install openssh
Да, я декомпозирую роль инклудами и помечаю инклуды тегами, чтобы например не выполнять какой-нибудь кусок роли в определенных случаях.

Можно конечно использовать переменные, но мне кажется удобней настраивать логику выполнения тегами (субъективно).
ansible 1.9.4

Не работает:
cat roles/role_name/meta/main.yml
---
dependencies:
  - { role: role_one, repo: var_name }
  - { role: role_two, tags: ['single', 'common'] }

С плейбуками пробовал как в документации указано:
You may also apply tags to roles:
roles:
— { role: webserver, port: 5000, tags: [ 'web', 'foo' ] }
Так тоже не работало.

Ваш пример выше на какой версии работает?
Все верно, если указывать тег в консоли, то работает. Не работает есть прописывать в плейбуке и в зависимостях роли как я писал выше.
Ну вот например, такая конструкция в контексте плейбука или роли:
— roles: {role: foo, tags: [«one», «two»]}
не работает.
Было много обсуждений, но авторы вроде как ссылались, что исправление будет в версии 2.0.
А с тегами там уже все хорошо, не знаете?
www.openshift.com/products/pricing/plan-comparison
STORAGE 1GB per gear

Едва ли этого хватит на полноценный мониторинг. Разве что один хост мониторить и хранить не более месяца истории.
Согласен, у вас хороший подход. Но, честно говоря не заметил того бага про который вы сказали.
В tengine эта фича где-то полгода назад появилась.
Это все конечно хорошо. Но хотелось бы понимать чем мотивированы ваши цены?
В сравнении с вашим старым облаком цена выше чуть ли не в три раза. Я не пытаюсь сравнивать услуги, в новом частном облаке конечно больше плюшек, но все же.
А зачем согласовывать (или синхронизировать) кеш? Как это влияет на работу кластера и целостность данных?
Возможен ведь вариант при котором с одной ноды будут читаться данные из одной таблицы, а на другой ноде будет чтение из других таблиц или например будет вестись только запись без чтения или чтения будет гораздо меньше.
И все же, зачем query_cache если бд в innodb?
Ну и для примера, допустим размер бд > 50 Гб, при этом активные данные составляют порядка 10%, при этом:
600 r/s — selects,
50 r/s — updates,
20 r/s — inserts,
20 r/s — delete.
Как здесь быть с query_cache и как лучше в этом случае кешировать активные данные?
А разве query_cache не рекомендуют отключать по той причине, что данные и так кешируются в буферном пуле innodb?
Тоже верно. Надо было бы, еще упомянуть терминалы (Guake, Terminator и т.п.)…
Желательно почитать об архитектуре Linux/Unix в целом и о системных вызовах в частности (Таненбаума например). Можно и погуглить немного:
www.opennet.ru/base/dev/intercept_lnx.txt.html
rflinux.blogspot.ru/2008/03/linux-syscalls-linux.html
Верно, не заметил. Наверное потому, что минуты тут и не нужны.

Information

Rating
Does not participate
Location
Ирландия
Registered
Activity