• Как мы открывали офисы разработки



      Наша площадка для электронных торгов начиналась с пяти PHP-разработчиков 10 лет назад. Правда, сильных. Мы среди прочего обновляли основную ветку PHP в отношении криптографических алгоритмов работы с ЭП. За это время из-за многочисленных интеграций с банками, системами заказчиков и просто из-за интенсивного роста компании и развития новых сервисов департамент разработки вырос больше чем в 20 раз, и, естественно, нам понадобились отдельные офисы разработки в разных городах.

      Поскольку PHP сейчас чуть ли не в школе преподают, хороших специалистов по стране много. Вот мы и начали делать удалённые офисы. Где-то сидят команды разработчиков и аналитиков (без ПМов), а в Чебоксарах — целый отдел тестировщиков.

      Принципы просты и одинаковы по всем регионам:

      • Московская зарплата.
      • Agile-манифест в части «лучше сделать работу, чем написать бумажки» — в действии.
      • Дресс-код к разработке не относится (мы работаем с госзаказчиками, поэтому это важный пункт для тех же сейлзов).
      • Собеседование по Скайпу одновременно с эйчаром и будущим руководителем. Задач про люки нет.
      Читать дальше →
    • Митап по Open Source разработке в Москве

        Привет, Хабр!


        image


        Приглашаем инженеров и архитекторов на митап, посвященный процессам совместной Open Source разработки. В центре внимания проекты наших друзей, относящиеся к экосистеме Apache Software Foundation.

        Читать дальше →
      • Конференция BLACK HAT. Уроки выживания при DDOS-атаке 300 Гбит / с. Часть 2

        • Перевод
        Конференция BLACK HAT. Уроки выживания при DDOS-атаке 300 Гбит / с. Часть 1

        Интересным в этой атаке было то, что нас не решились атаковать прямо, а пошли по цепочке наших провайдеров. Они принялись атаковать upstream-провайдеров, расположенных выше CloudFlare, и источник атаки действительно находился в Лондоне. Сначала я не был в этом уверен, но поскольку Spamhaus тоже находился в Лондоне, возможно, хакер тем самым хотел поставить их в постыдное положение. Как я говорил, техническим вдохновителем атаки вроде бы был подросток из Лондона, возможно, таким образом он мог более эффективно отследить эффект своей атаки. На этом слайде показан маршрут BGP трафика, который включал в себя максимум 30 транзитных узлов next-hop.



        Я скрыл расширения адресов лондонского провайдера широкополосной связи, последний hop – это один из IP-адресов Spamhaus, их было несколько в нашей сети. Вы видите, как маршрутизировался трафик, по приведенным данным сложно определить точный путь, однако он был направлен к нашему оборудованию в Лондоне, куда попал спустя 17 миллисекунд после прохождения пограничного IP-адреса нашей сети, которая работала в Лондоне.
        Читать дальше →
        • +18
        • 2,8k
        • 2
      • Критическая уязвимость в антивирусных продуктах компании Zemana и не только

          Ни для кого не является секретом, что установка антивирусного продукта может открыть дополнительные векторы атаки, однако меня очень удивил тот факт, что поиск и эксплуатация подобных уязвимостей в некоторых продуктах даже в 2018 году не является проблемой.


          Уупс
          Читать дальше →
        • Как просто наблюдать за состоянием сайта

          Чтобы дистанционно следить за работоспособностью серверов, профессионалы используют специальные программные комплексы, вроде Zabbix или Icinga. Но, если вы начинающий владелец или администратор одного-двух веб-сайтов с небольшой нагрузкой, то нет нужды в больших системах мониторинга. Главный параметр — быстро ли сайт обслуживает пользователей. Поэтому следить за работой сайта можно с помощью простой программы, с любого компьютера, подключённого к интернету.

          Фото Михаила Васильева, Unsplash.Com

          Давайте сейчас напишем такой скрипт — простейшего мониторинга доступности и скорости работы сайта. Эту программу можно запустить на домашнем компьютере, смартфоне и так далее. Программа имеет всего две функции:

          • показывает на экране время, за которое ваш сайт выдаёт пользователям страницы,
          • при медленных ответах сайта или ошибках программа записывает данные в файл («журнал», или лог-файл). Эти данные стоит время от времени проверять, чтобы исправлять проблемы, когда они только начинаются. Поэтому мы позаботимся о том, чтобы записывать эти логи в наглядной, удобной для быстрого просмотра форме.

          Я буду описывать каждый шаг довольно подробно, чтобы даже новичок, лишь немного знакомый с написанием командных файлов (bat и cmd в системах DOS и Windows, sh в системах типа UNIX-а), разобрался без особых проблем и смог приспособить скрипт ко своим нуждам. Но прошу не использовать этот скрипт бездумно, ибо при неверном применении он может не давать должных результатов и, вдобавок, сожрать много трафика.

          Опишу скрипт для операционной системы типа «Линукс» и его использование на домашнем компьютере. По тем же принципам, такое можно сделать и на других платформах. А тем, кто лишь присматривается к возможностям Линукса, может быть интересен ещё один пример, каким простым и мощным средством являются его скрипты.
          Читать дальше →
        • Prometheus + Grafana + Node Exporter + Docker в Azure c уведомлениями в Telegram

          Для начала подготовим виртуальную машину, для этого напишем небольшой скрипт, который разворачивает и автоматизирует некоторые рутинные операции, скрипт использует Azure Cli:


          project.sh
          #!/bin/bash
          echo "AZURE VM Create"
          echo "Azure Account:"
          echo "Azure name:"
          read AZ_NAME
          read -sp "Azure password: " AZ_PASS && echo && az login -u $AZ_NAME -p $AZ_PASS
          echo "Name Group  VM"
          read GROUP_NAME
          az group create --name $GROUP_NAME --location eastus
          echo "VM name"
          read VM
          echo "Admin user name"
          read ADMIN
          az vm create --resource-group $GROUP_NAME --name $VM --image UbuntuLTS --admin-username $ADMIN --generate-ssh-keys --custom-data cloud-init.txt
          az vm open-port --resource-group $GROUP_NAME --name $VM --port 8080 --priority 1001
          az vm open-port --resource-group $GROUP_NAME --name $VM --port 8081 --priority 1002
          az vm open-port --resource-group $GROUP_NAME --name $VM --port 9090 --priority 1003
          az vm open-port --resource-group $GROUP_NAME --name $VM --port 9093 --priority 1004
          az vm open-port --resource-group $GROUP_NAME --name $VM --port 9100 --priority 1005
          az vm open-port --resource-group $GROUP_NAME --name $VM --port 3000 --priority 1006
          RESULT=$(az vm show --resource-group $GROUP_NAME --name $VM -d --query [publicIps] --o tsv)
          echo $RESULT
          echo "Whait 5 min"
          sleep 300
          ssh $ADMIN@$RESULT -y << EOF
          sudo usermod -aG docker $ADMIN
          EOF
          sleep 10
          echo "Connect to Azure..."

          В скрипте мы используем файл cloud-init.txt который автоматически установит Docker и Docker-Compose на виртуальную машину.


          cloud-init.txt
          #cloud-config
          package_upgrade: true
          write_files:
            - path: /etc/systemd/system/docker.service.d/docker.conf
              content: |
                [Service]
                  ExecStart=
                  ExecStart=/usr/bin/dockerd
            - path: /etc/docker/daemon.json
              content: |
                {
                  "hosts": ["fd://","tcp://127.0.0.1:2375"]
                }
          runcmd:
          - apt-get update && apt-get install mc -y
          - curl -sSL https://get.docker.com/ | sh
          - curl -L "https://github.com/docker/compose/releases/download/1.23.2/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose
          - chmod +x /usr/local/bin/docker-compose
          Читать дальше →
        • Отключение аналога. Что будет с телевидением?

            image

            В 2019 году Россия должна перейти на цифровое эфирное вещание и отказаться от аналогового телевидения. Это значит, что поймать сигнал домовой антенной уже не получится и многим придется приобретать дополнительные устройства для того, чтобы продолжать смотреть эфирные телеканалы.

            Возможно вы воскликните «Come on! Кто смотрит этот ящик в 2019 году?», но окажетесь не правы. Телевидение на сегодняшний день имеет многомиллионную аудиторию и информации с эфирных каналов доверяет подавляющее большинство жителей страны.
            Хотя в определенном смысле вы правы – с отключением аналога для многих ничего не изменится, в крупных городах проникновение цифры достигает 90%. У кого-то вообще нет дома телевизора, многие перешли на просмотр эфира через интернет или смартфон.

            Отказ России от аналогового телевещания в пользу более современного цифрового формата был предусмотрен федеральной целевой программой «Развитие телерадиовещания на 2009-2018 годы», принятой еще в 2008 году. Первопроходцами уже стали жители Твери и области – 3 декабря 2018 года стартовал пилотный проект по отключению аналога. Первый этап отключения аналога начался сегодня, 11 февраля.

            По графику, опубликованному на сайте Министерства цифрового развития, связи и массовых коммуникаций Российской Федерации, вся страна должна перейти на цифру летом этого года. Последний этап запланирован на 3 июня 2019 года. К этому времени россиянам желательно успеть приобрести цифровые приставки или новые телевизионные приемники, поддерживающие стандарт цифрового эфирного вещания DVB-T2 и формат видео MPEG-4.

            И если большинство пользователей Хабра скорее всего уже обзавелись современным оборудованием, то теперь вам, хабражители, придётся объяснить своим бабушкам и дедушкам, почему им всё-таки придётся выкинуть свой «Горизонт» на свалку.
            Читать дальше →
          • Доменные имена с валидным SSL для локальных Docker-контейнеров

              preview


              Использование Docker в процессе разработки стало уже стандартом де-факто. Запускать приложение со всеми его зависимостями, используя всего одну команду — становится всё более и более привычным действием. Если приложение предоставляет доступ используя web-интерфейс или какое-либо HTTP API — скорее всего "фронтовой" контейнер пробрасывает свой, уникальный (среди остальных приложений, разработкой которых вы занимаетесь параллельно) порт в хост, постучавшись на который мы можем взаимодействовать с приложением в контейнере.


              И это отлично работает, пока у вас не появляется целый зоопарк приложений, переключение между которыми начинает вызывать некоторые неудобства, так как надо помнить и схему, и порт, и где-то фиксировать какие порты для какого приложения вы когда-то выделили, дабы не возникло коллизии со временем.


              А потом ещё тебе хочется проверить работу по https — и приходится либо использовать свой корневой сертификат, либо всегда использовать curl --insecure ..., а когда над приложениями работают различные команды — количество запар начинает возрастать в геометрической прогрессии.


              Столкнувшись с такой проблемой в очередной раз — в голове промелькнула мысль "Хватит это терпеть!", и результатом работы на паре выходных стал сервис, который решает эту проблему на корню, о чем будет рассказано ниже. Для нетерпеливых, традиционно — ссылочка.

              Читать дальше →
            • Самые большие телескопы. От записной книжки и глаза до 340 мегапиксельной камеры и дата-центров. Часть 1

                Прошло почти 11 лет после того, как я окончил КНУ им. Т. Шевченко по специальности физик-астроном. Это были интереснейшие годы в развитии науки и астрономии в частности, которые мною были упущены, так как разум был поглощён проектом, сгенерировавшим трафика больше, чем вся Беларусь. Однако сейчас, обладая знаниями и опытом в сфере обработки и хранения данных, мне захотелось вернуться к хорошо забытому старому и посмотреть, чем же современные серверы и дата-центры могут быть полезны науке. Подумать только, ещё всего лишь 50 лет назад носителем астрономических данных были фотопластинки и журналы, первая CCD-матрица была применена в астрономии в 1973 году и имела размеры 100х100 пикселей, с её помощью и с помощью телескопа с диаметром объектива 20 см, был получен первый цифровой снимок Луны.


                Первый снимок Луны с прибора с зарядовой связью, из-за малого количества пикселей заметна матричная структура приёмника излучения

                А 40 лет назад, в 1979 году, пзс-матрицы нашли своё применение и в профессиональной астрономии, в обсерватории Kitt Peak на телескопе с диаметром объектива 1 метр была установлена цифровая камера размером 320x512 пикселей, которая показала значительные преимущества в сравнении с фотопластинкой. Стоит также отметить, что размер пикселя имеет значение и тут он был значительно больше, нежели пиксели в камерах современных мобильных телефонов, куда многие из производителей, с целью маркетинга, помещали миллионы всё более мелких пикселей, уменьшая их размер, так как площадь матрицы с ростоим их количества они не увеличивали, что не только не улучшало качество получаемого изображения, а наоборот ухудшало его. Именно потому, снимок с матрицы даже с 0.01 Мп выглядит очень даже прилично, так как первые пзс-матрицы, при малом количестве пикселей, имели довольно большие размеры, cегодня же разрабатываются матрицы, чувствительные к определённому диапазону светового спектра, к примеру к ультрафиолетовому.
                Читать дальше →
              • Обзор обновления Veeam Backup & Replication 9.5 Update 4

                • Tutorial
                В конце января вышло обновление Update 4 для Veeam Availability Suite 9.5, насыщенное фичами как иной полноправный major release. Сегодня я вкратце расскажу об основных новинках, реализованных в Veeam Backup & Replication, а про Veeam ONE обещаю написать в ближайшем будущем. В этом обзоре рассмотрим:

                • версии систем и приложений, которые теперь поддерживает решение
                • работу с облачными инфраструктурами
                • улучшения в резервном копировании
                • улучшения в восстановлении
                • новое в поддержке vSphere и Hyper-V

                А также узнаем об улучшениях в работе с виртуальными машинами под управлением Linux, о новых плагинах и других фичах.



                Итак, добро пожаловать под кат.
                Читать дальше →
              • Bonsai: фамильный вики-движок

                  Лирическое вступление


                  Как-то вечером, наводя порядок в стенном шкафу, я наткнулся на большую картонную коробку. Она пережила два переезда и не открывалась уже столько лет, что я напрочь забыл, что именно в ней хранилось. Оказалось, там лежали фотографии — в альбомах, в конвертах из фотоателье, а часть просто так.

                  Многие фотографии были сделаны более семидесяти лет назад. На одной был дедушка — в студенческие годы, еще молодой и статный, в абсолютно ломовейших очках. «Надо же, мой дед носил хипстерские шмотки еще до того, как это стало мейнстримом», подумал я, и невольно улыбнулся. Его я узнал сразу, но дальше пошли фотографии людей, о которых я ничего не помню. В чертах лица можно смутно угадать родство — и все.



                  Когда мне было пятнадцать, бабушка неоднократно показывала эти карточки и рассказывала о тех, кто на них изображен. К сожалению, ценность подобных историй понимаешь только тогда, когда рассказывать их становится некому. На тот момент мне было абсолютно неинтересно по десятому разу слушать какие-то замшелые байки про довоенные годы, я отмахивался от них и пропускал мимо ушей. Теперь же, внезапно в полной мере осознав, что часть семейной истории безвозвратно утеряна, я загорелся идеей систематизировать и сохранить то, что осталось.

                  Идеальным решением для хранения семейных данных мне представлялся гибрид вики-движка и фотоальбома. Готовых подходящих решений не оказалось, поэтому пришлось написать собственный. Он называется Bonsai и доступен с открытым кодом по лицензии MIT. Дальше будет история о том, как он устроен и как им пользоваться, а также история его разработки и немного ДРАМЫ.
                  Читать дальше →
                • Lock-in: правда или вымысел?

                  • Перевод

                  Я много лет обсуждал с клиентами технологии и их поставщиков, и многие употребляют термин "lock-in", означающий барьер для смены поставщика или привязку к поставщику. Вопросы звучали так: "Не станем ли зависимы от поставщика из-за этого продукта?" или "Решение X для нас предпочтительнее, потому что не поставит нас в зависимость от поставщика". Я много думал над этим вопросом и делился своими мыслями с клиентами, но на написание этого поста меня спровоцировало обсуждение поста @nigelpoulton под названием VSAN and HW arrays, где упоминался lock-in.


                  Я заявил, что этой параноидальной страшилки IT-индустрии никогда не было и быть не могло.

                  Читать дальше →
                • Fortnite — это будущее, но по довольно неожиданным причинам

                  • Перевод
                  image

                  Уже многое сказано о Fortnite, о её доходах, пользователях, бизнес-модели, истоках и многоплатформенности. Но вокруг всех этих историй слишком много ажиотажа. Самое главное то, как все эти достижения, дополненные остальной частью Epic Games, навечно сохранятся в индустрии развлечений.

                  В 2018 году можно было многое прочитать про Fortnite, и ещё большему у неё научиться. «Эта игра» и в самом деле является будущим индустрии развлечений (а также самой серьёзной угрозой для современных медиагигантов). Но, вероятно, не совсем в том смысле, в котором вы думаете. Реальные возможности Fortnite намного шире и значительней, чем тот эффект, который игра имеет сегодня. На самом деле, большинство рассказов об успехе Fortnite излишне броски, даже если в них критически воспринимается её долговременная эволюция.

                  Нам предстоит многое разобрать, поэтому для начала я проанализирую этот ажиотаж, а потом перейду к тому, во что превратится Fortnite и расскажу о том, почему Epic Games имеет уникальную возможность реализации этого потенциала.
                  Читать дальше →
                • Сравнение производительности виртуальных машин 6 облачных платформ: Selectel, MCS, Я.Облако, Google Cloud, AWS и Azure

                    Давеча на глаза мне тут попалось аж две статьи из одного корпоративного блога, касающиеся облаков — одна про Kubernetes, а во второй была попытка замера производительности по методике, которая мне показалась сомнительной (спойлер — и не зря).

                    Про K8s мне тоже есть что сказать, но поговорим про производительность.

                    Недоверие к результатам было вызвано многими факторами, но основными из них для меня стали следующие: параметров запуска тестов не было, количество итераций не озвучено, как выбирались машины не озвучено, подробной конфигурации тоже не было. Сомнительно, в общем.
                    В целом, я пользуюсь в основном Google Cloud и AWS (в сумме уже с десяток лет опыта по ним набежало) и с отечественными облачными провайдерам особо не работаю, но, по стечению обстоятельств, у меня есть активные аккаунты в Selectel, MCS, Я.Облаке и, после этого теста, еще и в Azure.

                    К счастью, все эти платформы публичные и что бы я не намерил, каждый при желании может пойти, повторить и проверить.

                    Итогом всего этого стала мысль — почему бы не потратить пару сотен рублей, все выходные и действительно вдумчиво не померить все шесть платформ и выяснить, какая из них дает лучшую производительность относительно стоимости и в абсолютных цифрах при одинаковых конфигурациях, а заодно и сравнить глобальных поставщиков с российскими.
                    А так же, как выяснилось, прояснить некоторые «особенности» в выделении ресурсов и напомнить себе и окружающим, что далеко не всегда и не на всех платформах за одни и те же деньги можно получить предсказуемую производительность.

                    Результаты получились не сказать чтобы феноменальными, но на мой взгляд крайне любопытными.

                    Интересующихся прошу под кат.
                    Читать дальше →
                  • Разворачиваем Kubernetes на десктопе за несколько минут с MicroK8s

                    • Tutorial
                    Начать работать с Kubernetes не всегда бывает просто. Не у всех есть необходимая для разворачивания полноценного кластера Kubernetes инфраструктура. Для локальной работы Kubernetes предлагет утилиту Minikube. Minikube — достаточно простое и удобное средство, и есть несколько обучающих курсов по работете с Minikube. Но, все же, о Minikube нельзя сказать, что с помощью этой утилиты можно за несколько минут развернуть среду Kubernetes.

                    Сегодня я хочу рассказать о пакете MicroK8s, который без преувеличения позволяет развернуть Kubernetes локально за несколько минут, и начать разработку. Не требуется даже предустановленных Docker и Kubernetes, т.к. все включено. В предлагаемом Вам уроке будет рассмотрен деплой приложения Django в локальной среде Kubernetes.

                    В качестве источника я шел вслед за серией статей Mark Gituma, в которых описана аналогичная работа, но только с Minikube, а не с MicroK8s.

                    Все же есть одно требование, которое необходимо удовлетворить до начала работы. У Вас должен быть установлен Snap, что в свою очередь означает, что у Вас должен быть установлен Linux.
                    Читать дальше →
                  • Buildbot: сказ с примерами еще об одной системе непрерывной интеграции

                    • Tutorial

                    (картинка с официального сайта)

                    Buildbot, как несложно догадаться из названия, является инструментом для непрерывной интеграции (continuous integration system, ci). Про него уже было несколько статей на хабре, но, с моей точки зрения, из них не очень понятны преимущества сего инструмента. Кроме того, в них почти нет примеров, из-за чего трудно увидеть всю мощь программы. В своей статье я постараюсь восполнить эти недостатки, расскажу про внутренне устройство Buildbot'a и приведу примеры нескольких нестандартных сценариев.
                    Читать дальше →
                  • Конференция BLACK HAT. Уроки выживания при DDOS-атаке 300 Гбит / с. Часть 1

                    • Перевод
                    Меня зовут Мэттью Принс, я один из соучредителей и генеральный директор сервиса CloudFlare. Не думайте, что я буду настолько же интересен, как директор АНБ, но я хотя бы постараюсь быть менее противоречивым. На самом деле я частный профессор права, так что я читал Конституцию и могу завязать на эту тему длинную дискуссию. Когда-нибудь мы обсудим это очень подробно, надеюсь, что смогу рассказать вам историю судебных исков, которые мы в настоящее время ведём против правительства Соединенных Штатов, чтобы оспорить некоторые происходящие вещи, поскольку это совершенная чушь.



                    Я расскажу вам менее интересную, но зато драматическую историю, которая происходила с 18 по 25 марта, когда один из наших клиентов подвергся сильнейшей DDoS-атаке. Не буду много говорить о CloudFlare, если вы хотите узнать о нашем сервисе, просто зайдите на сайт. Но когда наш клиент подвергся атаке, это стало событием из рода тех, о которых любят писать журналисты, и эта атака в течение 4-х дней подряд освещалась газетой New York Times. Это была действительно мощная атака, поэтому я хочу о ней рассказать.
                    Читать дальше →
                    • +25
                    • 7,2k
                    • 7
                  • IPSec VPN-соединение между MikroTik и Kerio Control



                    Начальные параметры:

                    1. Головной офис предприятия с двумя пограничными прокси Kerio Control v.9.2.9 build 3171 (за Kerio расположен свич Cisco 3550, определяющий конфигурацию локальной сети офиса).
                    2. На каждом Kerio организовано по два канала с балансировкой нагрузки до ISP (на схеме — ISP #1 и ISP #2) со статичными белыми IP.
                    3. Со стороны удалённого офиса установлен MikroTik 951G-2HnD (OS v.6.43.11).
                    4. На MikroTik приходят два ISP (на схеме — ISP #3 и ISP #4).

                    На момент написания статьи и в головном и в удалённом офисе соединение с провайдерами было по витой паре.

                    Список задач:


                    1. Организовать IPSec VPN-соединение между MikroTik и Kerio Control, где инициатором будет выступать MikroTik.
                    2. Обеспечить отказоустойчивость VPN-соединения, т.е. кроме того, что MikroTik должен отслеживать работоспособность своих ISP(статья здесь), он также должен мониторить доступность каждого сервера Kerio и определять, доступ по какому каналу (через какого ISP со стороны Kerio) будет производиться подключение.
                    3. Обеспечить возможность изменения адреса сети, с которым MikroTik подключается к Kerio. Это обусловлено тем, что в головном офисе «на границе» стоят Kerio, а не маршрутизатор.
                    Читать дальше →
                  • Настройка резервного копирования и восстановления Zimbra OSE целиком и отдельными ящиками, не используя Zextras

                    • Tutorial

                    1. С чего начать


                    С чего начинается резервное копирование? Планирование. При резервировании любой системы, необходимо составить план резервного копирования: что именно, как часто, как долго хранить, хватит ли свободного пространства? Из ответов на эти вопросы вытекает ответ на главный вопрос – чем бэкапить?

                    Если свободного пространства много – можно хранить целиком виртуальную машину. Делать бэкапы тем же Veeam по расписанию, и не думать о сложностях. Но как по мне, так это расточительство, я привык делать все максимально сжато и, по возможности, экономично. Veeam у меня, конечно же, развернут, но им я делаю резервные копии лишь тех систем, которые либо невозможно, либо проблематично и очень долго разворачивать из резервных копий.

                    Про скрипты средств управления виртуальной средой просто многозначительно промолчу.

                    У Zimbra есть инструмент zmmailbox. И, при ближайшем рассмотрении его функционала, я понял, что его мне будет более, чем достаточно. Он умеет резервировать и восстанавливать ящики даже на живой системе. И мне понравилась возможность делать бэкапы критичных почтовых ящиков отдельно от бэкапа всей системы. Таким образом пространство, занимаемое резервными копиями, будет ограничено размером заархивированных почтовых ящиков, помноженным на количество дней «глубины бэкапа», а не объемом всей системы, помноженной на то же количество дней. К тому же с бэкапа всей системы, в случае с Zimbra, крайне сложно восстановиться. Гораздо проще скопировать виртуальную машину с помощью Veeam или средств управления виртуальной средой (Hyper-V, ESXI, вписать нужное) сразу после настройки системы, и положить «на полочку», чтобы в критичный момент можно было быстро развернуть почти ничего не весящую ВМ и залить в нее бэкапы ящиков. По-моему, это наименее затратный во всех отношениях сценарий.
                    Читать дальше →
                    • +11
                    • 1,2k
                    • 4
                  • Новые GSM шлюзы от OpenVox


                      Asterisk — потрясающий конструктор. Хотите построить небольшую АТС для бизнеса? Берем Raspberry PI, накатываем готовый образ на флешку, 10 минут, и вы уже вбиваете логин с паролем на ваш SIP телефон и делаете первый звонок.


                      Хотите нечто большее? Ставим бесплатный и навороченный FreePBX Distro, заводим пользователей, добавляем нужные модули, и получается тоже вполне себе рабочий вариант.


                      А если у вашей компании есть деньги, вы можете выбрать для себя одну из многих платных коммерческих разработок на Asterisk: Welltime, Switchvox, Askozia или аппаратную АТС компаний Grandstream, Yeastar, Zycoo и так далее.


                      Вы идеальная компания, если можете использовать только SIP протокол как для внешних линий, так и для внутренних подключений. На практике не всегда удается полностью отказаться от аналоговых линий, E1 потока или сим-карт.


                      Программное обеспечение с открытым исходным кодом позволяет создавать недорогие и функциональные решения. И сегодня я хотел бы рассказать вам о новых шлюзах китайской компании OpenVox

                      Читать дальше →

                    Самое читаемое