Как-то пользовался circle.ci, у них есть официальная утилита для локального прогона pipeline. Не исключено, что для github тоже есть неофициальная или появится позже.
Код выполняется асинхронно, не вмешиваясь в основной цикл событий Nginx
Это значит, что новый поток создается на каждый запрос?
Как понимаю, автотесты для такого кода не напишешь? Только отдельными утилитами, поднимая nginx в докере и кидая в него запросы.
Главное скажите, «2−3 раза в неделю (будни вечером + один выходной день)» по факту это сколько часов в неделю, если есть опыт коммерческой разработки на других языках? Сколько теория занимает, сколько практика (в идеальных условиях)?
Можете добавить видео с примером работы? В темное и светлое время суток, насколько хорошо все видно.
На каком расстоянии от изображения комфортно сидеть?
Уже много лет использую арч, ни разу после обновления ничего не разваливалось. Главное: следовать инструкциям по обновлению, которые выкладывают на archlinux.org, когда необходимо ручное вмешательство в процесс обновления. Не исключаю, что это ошибка выжившего.
И все же как технически происходит сканирование? DLP подключается к MS Exchange/Postfix/Exim и вытягивает оттуда письма? Хотелось бы подробнее про саму интеграцию узнать.
А в реальных системах часто ли делают бэкапы? Везде где приходилось сталкиваться с elastic, его использовали для загрузки данных из других баз с целью как раз искать по этим данным. Насчет бэкапирования не в курсе, делали ли.
А что насчет бэкапов?
В мире ES в принципе есть для этого инструменты?
Или в подавляющем большинстве случаев (99.999%) elasticsearch используется для выгрузки данных из более привычных баз (postgres/mysql/mongodb) и если на датацентр, где располагается весь кластер, упадет метеорит и уничтожит все сервера вместе со всеми репликами, то всегда можно будет заново загрузить данные для поиска из оригинальных баз? Пусть это и может занять дни или недели, если базы громадные.
Известны точные дата/время трансляции?
Это значит, что новый поток создается на каждый запрос?
Как понимаю, автотесты для такого кода не напишешь? Только отдельными утилитами, поднимая nginx в докере и кидая в него запросы.
Не называя имен и не раскрывая подробностей расскажете? Просто на $ кинули?
На каком расстоянии от изображения комфортно сидеть?
В мире ES в принципе есть для этого инструменты?
Или в подавляющем большинстве случаев (99.999%) elasticsearch используется для выгрузки данных из более привычных баз (postgres/mysql/mongodb) и если на датацентр, где располагается весь кластер, упадет метеорит и уничтожит все сервера вместе со всеми репликами, то всегда можно будет заново загрузить данные для поиска из оригинальных баз? Пусть это и может занять дни или недели, если базы громадные.