• Kubernetes tips & tricks: персонализированные страницы ошибок в NGINX Ingress
    0
    вопрос не совсем по теме, но по теме балансировки.
    на baremetal все отлично.
    а был ли у кого опыт в Digital Ocean с их балансировщиками для кластера из коробки?

    погуглив их ишью, обнаружил что решение — это только не использовать балансировщики из коробки (которые не умеют custom-error от слова совсем), а втыкать отдельный дроплет и поднимать баланс руками.
  • Kubernetes tips & tricks: персонализированные страницы ошибок в NGINX Ingress
    0
    какие-то странные у вас вопросы. ну ок.

    1) у меня больше 10 доменов там. делаю один — решаю, по вашему, 10% проблемы?
    2) вопрос не в красивой странице, а в реакции на 404 и направленном поведении. у меня на красивой странице стоит редирект на другой сайт-заглушку, который не срабатывает по озвученной причине.
  • Kubernetes tips & tricks: персонализированные страницы ошибок в NGINX Ingress
    0
    и усложнение сразу: кластер конечно-же обслуживает несколько доменов.
    перехожу например на https://sadsdasdas.kube-cloud2.my/
    то есть тут подменой дефолтного сертификата для бекенда не обойтись…
  • Kubernetes tips & tricks: персонализированные страницы ошибок в NGINX Ingress
    0
    вот это работает отлично
    curl -i -XGET http://sadsdasdas.kube-cloud.my/
    а как быть вот с этим?
    curl -i -XGET https://sadsdasdas.kube-cloud.my/

    даже если у меня там красивая 404 — не дает показывать, т.к. нет валидного сертификата для этого (отсутствующего) ингреса
  • Как мы автоматизировали весь жизненный цикл серверов
    0
    кстати, делюсь своим docker-compose (1 и 2), может кому надо…
    там +1 контейнер для настройки ДНС записи на сервере с ISPManager Pro
  • Как мы автоматизировали весь жизненный цикл серверов
    0
    не смотрел. теперь посмотрел, спасибо.
    но и то и другое — скорее системы мониторинга и нотификации. а у нас для этого забикс.
    нужна была именно система учета — БД, в которую удобно вносить, удобно искать и в целом сразу видеть где сколько ипов занято (и зачем).
    а вот ее (phpIPAM) апи возможно даст некую автоматизации между ней и тем же заббиксом, к примеру.
    еще не копал в эту сторону, но в планах.
  • Логирование в Kubernetes: EFK против PLG
    +2
    как раз искал что-то легкое и пушистое. ELK — это перебор для наших задач.
    натыкался на loghouse-поделку от Яндекса — очень сыро и через несколько дней падает по разным причинам (а может я просто не умею ее готовить).
    поставил Loki — первое впечатление прям положительное: легко, быстро и привычная графана (которую опять же не заставляют ставить, если она — графана уже есть в кластере).
    дашбоард простой, но понятный, ровно то, что нужно разрабам — смотреть stdout своих поделок.
    буду тестировать однозначно дальше.
  • Как мы автоматизировали весь жизненный цикл серверов
    0
    вот прям отдельное спасибо за phpIPAM. не знал про него. с ходу написали docker-compose, подняли под traefik и полетели на него переводить тонну экселевских файликов по объектам. дико удобно. и апи не может не радовать. думаю как заведем базу, начнем тыкать в апи палкой.
  • Чего ожидать от бета-версии Proxmox Backup Server
    0
    пока клиентом, да.
  • Чего ожидать от бета-версии Proxmox Backup Server
    +2

    Я уже успел прощупать сие творенье.
    Пока в морде можно только по большей части смотреть, а все действия делаешь через cli. Но задатки у ребят хорошие, и тема в pxar тоже.
    Буду и дальше следить за ними.
    Если запилят синхронизацию с s3-совместимыми, точно можно будет юзать.

  • Выбор VPS. Битва хостингов
    0
    все вышеописанное про шадер — и плюс и минус одновременно.
    основной момент — это конечно плотность рассадки на каждый физ. сервер.
    но с другой стороны, вы как админ вряд ли каждый день смотрите и главное — пересаживаете особо шумных граждан на другие серверы. от сюда, ваш плюс про «вам доступны все ядра процессора и они полноценные» — превращается в минус.
    но утверждение про администрирование и «дали рута, а дальше сами» более чем весомое.

    кстати, недавно был опыт у одних ребят, они долго крутили шадеры, потом ушли на vps, а потом вообще в KVM-виртуализацию и lxc-контейнеры для подзадач — и результат показал себя более чем мощно.
  • Выбор VPS. Битва хостингов
    0
    а как быть с каналами? они же их жутко режут вдоль и поперек для внешки. думаю даже RDP-превратилось бы в слайды. как там было со скоростью?
    и + каждое утро смотреть новости и ждать: Россия с Китаем решили не сотрудничать в плане общего интернета и торжественно провели обряд двухстороннего обрезания :)
  • Выбор VPS. Битва хостингов
    0
    ну я бы не сказал, что в плане производительности можно сравнивать шаред и vps.
    далеко не у всех хостеров (почти ни у кого) не стоят на шадере CloudLinux-модули и прочее, а значит что шадер совсем уж для одностраничников — раз.
    гибкая настройка модулей php, доступ по ssh — в целом (в шареде надо заплатить как на vps — что бы получить ssh — хотя он там толку мало даст) — два.
    поэтому, vps — это как вторая ступень после шадера, когда у тебя уже не одна страничка с About, а две ))
    но, с другой стороны, от части согласен, по тарифам последнее время хожу и все чаще ловлю себя на мысли, что проще уже взять выделенный сервер и распилить его на пару задач, чем брать почти за те же деньги vps и страдать в часы Ч с другими страдальцами-экономистами.
  • Сравниваем лучшее программное обеспечение для виртуализации в 2020 году: Hyper-V, KVM, vSphere и XenServer
    0

    Proxmox — тупо надстройка над kvm

  • Введение в Traefik 2.0
    +1
    ну все верно. и в документации так же. и работает.
    а сначала я не делал так. заворачивал каждый сервис (в том числе и file-провайдера) в свой middleware и давал обе entryPoints. и не работало.
  • Выбор VPS. Битва хостингов
    0
    а как же ФЗ про хранение у себя в РФ?
    тут мы идем к «не колхозным» РФ провайдерам типа селектела (и етц) и получаем еще более внушительный счет, даже больше чем в AWS и у прочих ребят.
    пару месяцев айтишники кайфуют, финансисты плачут.
    ну и вы помните, чем кончается такая очередная история — да, победой финансистов.
    и уже на следующий месяц ежики снова плачут, но жрут *-vds-*.ru ))
  • Введение в Traefik 2.0
    0
    сам вот только крутил эту штуку. нашел простое решение: написать единую точку входа на http, а на сервисах — только https. работает.
    тоже самое с file-провайдером. там можно отдельный файлик положить, прописав что-то типа

    http:
    routers:
    redirs:
    rule: hostregexp(`{host:.+}`)
    entrypoints:
    - http
    middlewares:
    - redirect-to-https
    service: noop
    middlewares:
    redirect-to-https:
    redirectScheme:
    scheme: https
    permanent: false
    services:
    noop:
    loadBalancer:
    servers:
    - url: "http://127.0.0.1"


    а, на сервисах уходить только в:


    entryPoints:
    - https
  • Выбор VPS. Битва хостингов
    0

    У нас был куб кластер там почти год. Месяца два назад начались стабильные проблемы с сетью. В виртуалки примонтированы диски, которые разъезжаются стабильно раз в неделю. Терпели долго, но в итоге уехали в DO. Там хоть и дороже, но и плюшек больше и стабильно. Но надо отдать должное, Хецнер по цене/качеству делает всех в РФ, имхо.

  • Введение в Traefik 2.0
    0

    вопрос с LE только в пробросе файла acme.json — который можно бросать на каждую такую вашу ноду сотнями вариантов.
    и, да, не платить за EE версию ))

  • Введение в Traefik 2.0
    +1

    и тоже самое в итоговом docker-compose.yml


    • "traefik.http.routers.traefik-secure.middlewares=traefik-auth" — не пойдет.
      нужно
    • "traefik.http.routers.traefik.middlewares=traefik-auth"
      роут неверный.
  • Введение в Traefik 2.0
    +1

    кстати, в файле data/custom/host.yml ошибка. отступ в строке services: — он должен быть на ровне с роутерами и миделварями.

  • Введение в Traefik 2.0
    0

    Все это время пользовался связкой webproxy для докеров, но у нее есть бага, когда при перезапуске хоста не всегда корректно исправляется файл конфигурации, а айпи адреса у контейнеров меняются. В итоге получаем 503 и приходилось идти и дергать все руками. На траефик смотрел искоса, но с этой статьей однозначно пойду пробовать. Спасибо!

  • Капля в море: Запуск Drupal в Kubernetes
    0

    Rook всем хорош. И дружили они с minio и я уже было собрался им пользоваться. И тут решили ребята, что минька ни кому не нужна и свернули поддержку этого модуля, а жаль.
    Пришлось уходить на более тяжелый Цеф. А хотелось S3..

  • Лучшие 10 хитростей и советов по Kubernetes
    0
    судя по репе, ей всего 10 месяцев, а я пользуюсь кубом куда больше.
    прикольно, что сокращения почти те же ))
  • Jitsi Meet: опенсорсная альтернатива «шпионскому» видеоприложению Zoom
    0
    хм, help.univention.com/t/ucs-jitsi-docker-ldap/14615
    из сложно там подобрать нужный фильтр (и на стороне АД если это мелкософт юзера сделать админом по умолчанию)
  • Jitsi Meet: опенсорсная альтернатива «шпионскому» видеоприложению Zoom
    0

    Хватает: и авторизация и модераторы (права на отдельных юзеров по их логинам- почтам) и даже ldap конторы на 300 человек прикрутил. И все это в докере закрутил. В целом вещь годная. Разве что на Сафари не заводится, но это уже мелочи.

  • Лучшие 10 хитростей и советов по Kubernetes
    0
    кстати kube-ps1 — просто бомбическая штука.
    в консоли сразу видишь в каком кластере ты сейчас «наведешь порядок»
  • Анатомия моего домашнего кластера Kubernetes
    +2
    сказать что я подохренел — ничего не сказать ))
    всякое видел, но что бы вычислительный кластер в стеклянной коробченке… — вещь!
    дорого, бесполезно, медленно.
    но блин, снимаю шляпу, перед автором.
    присоединяюсь к остальным — цена все же интересна. так для общего понимания…
    ну и теперь я понял, зачем rancher сделал k3s. вот ровно за этим :)
  • Лучшие 10 хитростей и советов по Kubernetes
    +1
    делюсь своим маразмом. может кому пригодиться.
    оболочка zsh

    #kube
    export KUBECONFIG=$(find /Users/vasyansk/Documents/Configs/.kube -maxdepth 1 -type f -name '*' | tr "\n" ":") // выбирает все файлики с конфигами из папки где я их храню
    
    alias kex="export KUBECONFIG=$(find /Users/vasyansk/Documents/Configs/.kube -maxdepth 1 -type f -name '*' | tr '\n' ':')" //обновляет список контекстов, если добавился новый файл, что бы не перезапускать оболочку
    
    source <(kubectl completion zsh) // автозаполнение, недавно для себя открыл
    
    // основной - kube приятнее чем просто к или полное kubectl
    alias kube="kubectl"
    
    //куча алиасов. так привык, что за чужим компом курю бамбук, и тут поможет автозаполнение :)
    
    alias kaf="kubectl apply -f"
    alias kud="kubectl delete"
    alias kgd="kubectl get deployment"
    alias kgp="kubectl get pods"
    alias kgn="kubectl get nodes"
    alias kgi="kubectl get ingress"
    alias kgs="kubectl get service"
    alias kgj="kubectl get jobs"
    alias kgcj="kubectl get cronjobs"
    alias kgpv="kubectl get persistentvolume"
    alias kls="kubectl logs"
    alias kec="kubectl exec -ti"
    alias kd="kubectl describe"
    alias kgc="kubectl config get-contexts"
    
    // два последних как раз и переключают контекст кластеров между собой
    
    alias kcuamega="kubectl config use-context k8s-amega"
    alias kcumlm="kubectl config use-context k8s-mlm"
  • Proxmox 4. День второй. Thin-LVM
    0
    решение на самом деле простое: если есть сильное желание использовать LVM-Thin — изначально не занимайте +100%FREE места. оставляйте процентов 5-10 свободных. ну и на сам Metasize выдавайте 5-8 гигов. хотя я спустя время все таки ушел: на старых серверах и простых задачах в обычный и предсказуемый LVM, на новых и быстрых — на ZFS
  • Proxmox 4. День второй. Thin-LVM
    0
    рад что не зря :) да, пришлось подрасти из «тыкающего» в прокс, в «сильно тыкающего» в прокс ))
  • Переход с bash на zsh
    0
    хм, chsh — полностью решило проблему. спасибо!
  • Переход с bash на zsh
    0
    вот чудеса — на двух маках стоит zsh и mc, как файл менеджер.
    на одном mc запускается правильно, на втором запускает внутри себя bash
    конфиги zsh и mc между компами синхронятся.
    не могу понять, куда копать.
  • Найдена уязвимость в Mac OS High Sierra, позволяющая войти суперпользователем в незащищенный компьютер
    0
    на втором ноуте, сначала обновился до Бета 10.13.2 (17C83a), потом проверяю — и опять ключик открылся без проблем.
    ждем updates…
  • Найдена уязвимость в Mac OS High Sierra, позволяющая войти суперпользователем в незащищенный компьютер
    0
    блин, да что-ж такое?..
    проверил у себя, так же со второго клика — ключ с настроек снимается.
    через sudo passwd -u root — проблема решилась.
    но как же так?..
    версия: Бета 10.13.2 (17C79a)
  • 3CX PBX Express: бесплатная АТС в облаке Google на 1 год
    0
    только сегодня ушли от 3CX и вернулись в железной myPBX после месяца мучений.
    1) бесконечное залипание транков.
    2) некоректное поведение с оператором (звонок проходит, но в логе станции Forbidden)
    3) если транков несколько нельзя производить донабор на внутренние (т.к. DDI привязываемый к внутреннему номеру и к транку)
    4) тех. поддержка в основном — «это мы не делаем, это мы не настраиваем»

    из плюсов разве что: запись разговоров (на myPBX Standard не предусмотрено) и приложение с тунеллированием.
    НО когда тебе не могут дозвониться — не до приложений.
  • Proxmox 4. День второй. Thin-LVM
    0
    у меня в3.5 zabbix отлично импортировался. удобно, спасибо!
  • Proxmox 4. День второй. Thin-LVM
    0
    а про второй пункт можно подробнее?
  • Proxmox 4. День второй. Thin-LVM
    0
    интересно. поделитесь.
    попробую все это собрать на тестовой машине и погонять под нагрузкой.
  • Proxmox 4. День второй. Thin-LVM
    0
    все верно. только есть несколько НО.

    1) удалить диски виртуалок не получится. потому как, даже процедура удаления требует изменения меты, у которой нет места.
    2) забекапить надо куда то. выше ребята в комментах подсказали отличную идею с цеплянием по сети репозитория и переноса дисков туда. идея отличная (в моем случае репы не было и пришлось бы все равно нести в ДЦ USB-диск большой).