Comments 5
Наверное вы молодец, но, честно говоря, статья выглядит просто как "я сделяль", без каких-либо подробностей: "Я ускорил что-то на 2 часа, вот ссылки на мои Github, Telegram, Linkedin".
Это хабр, сэр. Давайте технические детали. При чём тут Swarm? Как кто-то другой может что-то подобное сделать?
Интересно написано, живо и по делу. Проблема реально знакомая - когда вроде всё вылизано, а сборки всё равно полдня тянутся. Хорошо, что автор не пошёл по пути “накидаем железа и успокоимся”, а копнул в архитектуру пайплайна.
Но, если честно, не совсем ясно, насколько стабильно это всё работает в реальной нагрузке. Параллелка - штука капризная, особенно с кешем и зависимостями. Не ловили ли вы ситуации, когда один сервис пересобрался не с тем артефактом или старым образом?
В целом, статья хорошая, но хочется чуть больше реальных цифр и подводных камней, а не только общий итог “стало быстрее”. Вот тогда бы разговор получился ещё интереснее.
Вообще не понятно - при чём тут Docker Swarm? Что именно распаралеливается? Под распаралеливанием обычно понимается одновременное выполнение нескольуих процессов в рамках одной задачи, с их последующем объедиением, Swarm же просто масштабирует один и тот же сервис, в экземплярах которого одноременно может выполняться разные задания. Вы просто избавились от очереди что ли?
После внедрения параллельной сборки время этапа docker build сократилось с полутора часов до 40 минут.
40 минут на сборку? Я бы помер со скуки(
4 часа? Серьезно? Вы как это вообще могли терпеть хоть сколько нибудь времени
Как мы ускорили CI в 2 раза с помощью Docker Swarm и немного здравого смысла