Задачи администрирования проектов и пользователей у вас никто не заберет, а админить сам gitlab - я поставил его в Docker Swarm и перезапускаю, как выходит предупреждение в админке...
У них был период реструктуризации внутри, меняли версию фреймворка, меняли подход к разработке. Было много багов, сейчас прям очень хорошо стало в целом. Использую Appimage версию, правда, а не репозиторную.
Оптимизация PNG — очень обширная тема, рекомендую поинтересоваться, чем поможет pngquant. Можете очень удивиться результатам (зависит от исходного материала, конечно).
Рискну спросить: у кого есть положительный «долгоиграющий» опыт использования fabric и чего-то типа fabtools?
А то для простых задач поднимать что-то очень большое как-то не рационально выглядит.
Аналогично: Саратов, 10 утра — за окном снег просто валит, домов не видно, а на сайте (у нас, правда, город в «серой» зоне) — абсолютная ясность чуть не сутки вокруг текущего времени. Геолокация нормально вроде сработала.
Ради справедливости отмечу, что снег через пару часов прекратился и иногда всё же было видно солнце.
Как минимум у всех (даже бесплатных) стартапов плюсики — пользовательская база.
Я уверен, что сервис летсэнкрипт в базе никогда не будет платным, он отличный и полезный.
Но одно другому не мешает. «Just business» всегда имеет место быть.
Голова: Letsencrypt (основной спонсор — Мозила) начали притеснять провайдеров бесплатных сертификатов? Тролль внутри: Да не, Мозила — герои в белом, не может быть, фигня какая-то.
На мою настройку RRDNS четыре восьмерки пока показывают разные последовательности IP при последовательных запросах. Возможно это как-то различается по разным частям гугло-инфраструктуры, так что оригинальный алярм статьи я пока не подтверждаю.
Ну им-то пофиг, что RR народ использовал для простого и дешевого решения проблемы распределения нагрузки. По сути они теперь вынуждают больше тратить на инфраструктуру.
Подтверждаю аналогичную проблему со связкой nginx — uwsgi. До некоторых пор все ок, а потом начинается свистопляска (у нас не прокатило более 500 запросов в сек, если память не изменяет...)
Собираем данные с десятка серверов, не огромное число, конечно, но данных и графиков много, тем не менее сам мунин висит совсем отдельно от боевых серверов и никому не мешает.
Для нагруженного сайта давным давно я делал генерацию картинок раз в час, а сбор также — раз в 5 минут, вообще хорошо было.
А где описание «как надо было сделать»?
В том смысле, что в принципе даже промежуточные данные — это тоже данные от клиента и их тоже можно подделать в соответствии с логикой приложения, просто сложнее и дольше, но тут всё от цены за победу зависит.
Задачи администрирования проектов и пользователей у вас никто не заберет, а админить сам gitlab - я поставил его в Docker Swarm и перезапускаю, как выходит предупреждение в админке...
А что не так? Можете пояснить, пожалуйста?
Как-то GitLab-ом от этого веет, хотя вроде и не совсем похоже, но, блин, похоже.
У них был период реструктуризации внутри, меняли версию фреймворка, меняли подход к разработке. Было много багов, сейчас прям очень хорошо стало в целом. Использую Appimage версию, правда, а не репозиторную.
Папка /media/ для загружаемых файлов приложения входит в чат и все становится еще веселее :)
Мой кейс: болезнь на год практически и 1 группа инвалидности в итоге. Сбер закрыл 4/5 ипотеки сам себе по страховке. Я, жена и дети не на улице.
Но в целом ну его нафиг такой кейс. Здоровья всем!
Зашел, чтобы написать примерно такой же комментарий :)
(считаю fabric инструментом лентяев — вместо кнопок автоматизировать нехитрые операции)
А то для простых задач поднимать что-то очень большое как-то не рационально выглядит.
Ради справедливости отмечу, что снег через пару часов прекратился и иногда всё же было видно солнце.
Я уверен, что сервис летсэнкрипт в базе никогда не будет платным, он отличный и полезный.
Но одно другому не мешает. «Just business» всегда имеет место быть.
Тролль внутри: Да не, Мозила — герои в белом, не может быть, фигня какая-то.
Для нагруженного сайта давным давно я делал генерацию картинок раз в час, а сбор также — раз в 5 минут, вообще хорошо было.
В том смысле, что в принципе даже промежуточные данные — это тоже данные от клиента и их тоже можно подделать в соответствии с логикой приложения, просто сложнее и дольше, но тут всё от цены за победу зависит.