Processing можно делать как на FileBeat, так и на Ingest Node Pipeline. У LogStash наверное больше фишек для processing, но я думаю 90% всего нужного есть и в Pipeline processing.
Получается от LogStash одни затыки? Или у LogStash есть какая-то нужная функция в этой схеме?
А про то, что если «установить ограничение на количество попыток ввода пароля», то злоумышленник, зная username пользователя может легко заблокировать (DOS — Denial Of Service) его (чужую) учётку.
У Старлинка фишка в том, что они — низко-орбитальные. Поэтому и задержка намного меньше.
Низкая орбита позволяет иметь низкую задержку, потому что спутники ближе к земле. Но из-за этого они «видят» намного меньшую площадь земли, поэтому их нужно в разы больше.
И ещё низко-орбитальные спутники живут меньше времени.
Сам я Старлинк не испытывал, но информация такая, что 40мс — это учитывается время и до спутника, и через ретранслятор, и по земле. То общая задержка 40-50мс.
1. Да, каждый контейнер некоторый набор, например
— Nginx + php-fpm
— Apache + mod_php
— или просто уже готовые наборы, например «phpmyadmin/phpmyadmin»
Кто-то скажет, что это не докер-вэй — пихать в один контейнер несколько сервисов, и Nginx должен быть в отдельном контейнере, а php-fpm — в другом и т.д. Может и так, но я делаю так, как мне удобней.
2, 3, 4. Это всё делается через Traefik.
Traefik торчит наружу портами 80, 443
Traefik управляем ssl (автоматически)
nginx-proxy не нужен, потому что всё делает Traefik. Раньше я пользовался nginx-proxy — тоже неплохое решение, но Traefik показался мне удобней.
У всех других контейнеров порты не пробрасываются. Traefik цепляется к ним по докеровской сети.
Есть у меня несколько персональных проектов, небольшие заказы сайтов, пару форумов и т.д. Всего штук 20 сайтов. Некоторые PHP, некоторые Python.
Вот все эти сайты у меня и работают — каждый в своём контейнере.
В каждом контейнере можно ставить нужную версию PHP, набор модулей и т.д.
Load Balancer для всего этого — Traefik.
Логи собираю FileBeat и отсылаю на Elastic.
База данных — mysql, одна на всех, установленная на хосте через apt install. Мне показалось, что базу надёжней будет поставить так, а не в докере, и по ресурсам лучше одну на всех. DB умеет нормально изолировать пользователей друг от друга.
Из минусов только то, что обновлять всё это хозяйство тяжелей.
Раньше было apt update; apt upgrade.
А теперь надо смотреть за контейнерами, некоторые из которых своей сборки.
переводить письма клиентов, накладные, справки и прочие внутренние документы через бесплатные онлайн-сервисы может быть небезопасно, так как такие компании собирают ваши данные, чтобы потом продать их рекламодателям
Нередко слышу вот такое от маркетологов. Ну подскажите ли к кому в Гугле можно обратиться, чтобы они мне слили данные моих конкурентов?
Да, пользуюсь около года. Есть некоторые баги, но в общем — доволен.
Да, всё основана на файловой системе, хотя к следующему релизу вроде планируют добавить timeline.
Панорамы показываются простой картинкой.
Из интересного — есть интеграция с ffmpeg, когда любые видики могут перекодироваться для показа в браузере. Но я этим не пользуюсь.
Заявляют легковесность, что работать может даже на raspberry.
Я для домашнего фотоархива использую piGallery
https://github.com/bpatrik/pigallery2/
ИИ там нету, работает быстро, хорошо работает с вложенными папками, с лёту подхватывает файлы с диска.
Хорошая статья, но от ваших скриншотов ломаются глаза...
Наверное лучше было бы сделать их простым текстом.
Я не эксперт в экосистеме ELK, но в вышеприведённой схеме LogStash выглядит лишним. Разве не было бы более эффективным слать логи FileBeat -> Elastic?
Ingestion у Elastic можно масштабировать добавлением Ingest Nodes:
https://www.elastic.co/guide/en/elasticsearch/reference/current/modules-node.html#node-ingest-node
Processing можно делать как на FileBeat, так и на Ingest Node Pipeline. У LogStash наверное больше фишек для processing, но я думаю 90% всего нужного есть и в Pipeline processing.
Получается от LogStash одни затыки? Или у LogStash есть какая-то нужная функция в этой схеме?
Ссылка на Python script - хорошо, вот только я не знаю, что с ним делать...
Было бы неплохо, если бы автор выложил примеры звучания. Хотя бы просто mp3, или может на Ютуб залить...
А про то, что если «установить ограничение на количество попыток ввода пароля», то злоумышленник, зная username пользователя может легко заблокировать (DOS — Denial Of Service) его (чужую) учётку.
Пользую несколько лет, снижает количество попыток на порядок.
Я писал про свой опыт тут:
habr.com/ru/post/487056
Ага, это прям удобный способ DOS-ить ваших пользователей. Любого пользователя можно заблокировать и путь ищет админа…
Хм, интересно.
Если я тоже вложу $700 — меня в равноценные партнёры возьмут?
Низкая орбита позволяет иметь низкую задержку, потому что спутники ближе к земле. Но из-за этого они «видят» намного меньшую площадь земли, поэтому их нужно в разы больше.
И ещё низко-орбитальные спутники живут меньше времени.
Сам я Старлинк не испытывал, но информация такая, что 40мс — это учитывается время и до спутника, и через ретранслятор, и по земле. То общая задержка 40-50мс.
У спутниковой связи, кстати, задержки на любом расстоянии больше 430 мс.
У спутникового Старлинка задержка - 40-50мс
— Nginx + php-fpm
— Apache + mod_php
— или просто уже готовые наборы, например «phpmyadmin/phpmyadmin»
Кто-то скажет, что это не докер-вэй — пихать в один контейнер несколько сервисов, и Nginx должен быть в отдельном контейнере, а php-fpm — в другом и т.д. Может и так, но я делаю так, как мне удобней.
2, 3, 4. Это всё делается через Traefik.
Traefik торчит наружу портами 80, 443
Traefik управляем ssl (автоматически)
nginx-proxy не нужен, потому что всё делает Traefik. Раньше я пользовался nginx-proxy — тоже неплохое решение, но Traefik показался мне удобней.
У всех других контейнеров порты не пробрасываются. Traefik цепляется к ним по докеровской сети.
Есть у меня несколько персональных проектов, небольшие заказы сайтов, пару форумов и т.д. Всего штук 20 сайтов. Некоторые PHP, некоторые Python.
Вот все эти сайты у меня и работают — каждый в своём контейнере.
В каждом контейнере можно ставить нужную версию PHP, набор модулей и т.д.
Load Balancer для всего этого — Traefik.
Логи собираю FileBeat и отсылаю на Elastic.
База данных — mysql, одна на всех, установленная на хосте через apt install. Мне показалось, что базу надёжней будет поставить так, а не в докере, и по ресурсам лучше одну на всех. DB умеет нормально изолировать пользователей друг от друга.
Из минусов только то, что обновлять всё это хозяйство тяжелей.
Раньше было apt update; apt upgrade.
А теперь надо смотреть за контейнерами, некоторые из которых своей сборки.
А почему не avif?
Нередко слышу вот такое от маркетологов. Ну подскажите ли к кому в Гугле можно обратиться, чтобы они мне слили данные моих конкурентов?
И поэтому задержка на несколько дней.
Но думаю, что стоит отметить, что сегодня вышел Elastic Search 8.0
Да, всё основана на файловой системе, хотя к следующему релизу вроде планируют добавить timeline.
Панорамы показываются простой картинкой.
Из интересного — есть интеграция с ffmpeg, когда любые видики могут перекодироваться для показа в браузере. Но я этим не пользуюсь.
Заявляют легковесность, что работать может даже на raspberry.
В порядке эксперимента, вот пример моей папки 2021 года:
pix.slavikf.com/share/872da85a
Заодно и проверим, не ляжет ли под хаброэффектом — это запущено под докером на моей Synology ds1621xs+.
Я недавно искал как раз вот это. Не совсем такой набор фич, но довольно близко:
github.com/bpatrik/pigallery2
И стэк такой же: NodeJS + JS