Ох, какая статья даже подгорает. Конечно вам не нужен докер, вы же даже не можете почитать документацию.
Сейчас вполне есть возможность прокидывать безопасно любые секреты, которые не будут в конечном образе, а будут использоваться только при сборке. Так же есть кеширование и не нужно каждый раз при изменении кода и даже пакетов выкачивать все полностью.
Почти вся статься показывает, что 3 года знакомства с докером это docker ps и docker run.
Если уж деплоить приложение без докера, то лучше тогда уж использовать какой-нибудь ansible проект, который разворачивает проекты. Секреты хранить с помощью ansible vault, например. Если используется gitlab и местный CI, то так же загружать можно в настройки CI секреты. Я последнее время использую три окружения для проектов: dev, staging, prod. И уже в зависимости от этой переменной окружения строится окончательный settings.py. То есть мне не нужно заходить на сервер и править там конфиги вручную. Если проект небольшой, то просто docker-compose и на сервере .env файл со всеми переменными.
Да, активно слежу за этой веткой. Сижу на докер бета и периодически в обновлениях пишут что-то типа fix mounted volumes CPU, но к сожалению как тормозило безбожно так и продолжает. Надеюсь разработчики не забили на эту проблему. Пробовал разные сторонние решения типа d4m nfs, но с ним другие проблемы возникают, ибо костыль
А как правильно разделить, если пуш не в мастер, то собирать контейнер в конфигурации для разработки, ну и соответсвенно, если в мастер, то для продакта?
Разве есть уже драйвера для фискальных регистраторов, например ШТРИХ, для печати из веба? Просто тоже думали отказаться от терминальных серверов в пользу веб
Да как удобнее в принципе. Docker сейчас это стильно, модно, молодежно) Он даёт некоторые преимущества, например можно легко поднять тестовое окружение идентичное продакшену. Но я к сожалению не так долго использую докер, и тем более под большими нагрузками, чтобы давать советы по поводу нужно ли вам его использовать на продакшене. Может кто использует такую связку в продакшене, нам напишет.
Да, база так же в докере, используется data контейнер, так что данные не пропадают после того, как контейнер перезапускается.
Проблемы в принципе могут быть разные, в зависимости от конфигурации да и то, от того что невнимательно читал документацию чаще всего. Пока для меня данная конфигурация даёт больше удобств, чем каких-то проблем.
Не совсем понял вопроса. После того как запускаю PostgreSQL и Redis через docker-compose они стартуют вместе с docker-machine. А разработка вся ведется в PyCharm с использованием удалённого интерпретатора, то есть работаю так же как и с локальным. Контейнер сам подхватывает изменения и рестартует при необходимости. Для production я так же использую докер, но уже нативный на linux, и всё запускаю через docker-compose.
Ох, какая статья даже подгорает. Конечно вам не нужен докер, вы же даже не можете почитать документацию.
Сейчас вполне есть возможность прокидывать безопасно любые секреты, которые не будут в конечном образе, а будут использоваться только при сборке. Так же есть кеширование и не нужно каждый раз при изменении кода и даже пакетов выкачивать все полностью.
Почти вся статься показывает, что 3 года знакомства с докером это docker ps и docker run.
Да, активно слежу за этой веткой. Сижу на докер бета и периодически в обновлениях пишут что-то типа fix mounted volumes CPU, но к сожалению как тормозило безбожно так и продолжает. Надеюсь разработчики не забили на эту проблему. Пробовал разные сторонние решения типа d4m nfs, но с ним другие проблемы возникают, ибо костыль
Пример из docker-compose:
Проблемы в принципе могут быть разные, в зависимости от конфигурации да и то, от того что невнимательно читал документацию чаще всего. Пока для меня данная конфигурация даёт больше удобств, чем каких-то проблем.