• Как мы обслуживали дизель-динамический источник бесперебойного питания


      Это такой здоровенный волчок-ротор, стоящий в разрыве электрической цепи на входе в дата-центр. Он постоянно крутится. Если отключают питание, то он по инерции обеспечивает беспрерывность питания до запуска дизеля. Питание без переключения снова восстанавливается. У нас там выработались подшипники, и мы решили их немного поменять.

      Современная практика такова, что здания строятся с учётом того, что там будет резерв в части энергоснабжения, в нашем случае это ДДИБП. Здание подземного дата-центра у нас уже было, и поэтому замена проходила очень увлекательно.

      Вот, например, задача на знание физики.



      Здесь на вал посажена соединительная муфта. Она прилегает к валу настолько плотно, что снять его нет никакой возможности.

      Мы позвали специального мужика с чёрным поясом по сварке, задача которого была ОЧЕНЬ БЫСТРО разогреть эту муфту. Было важно, чтобы муфта нагрелась как можно сильнее, при этом вал оставался холодным, и поэтому для лучшего контроля мы наблюдали за этим процессом через тепловизор. Параллельно тепловым работам между валом и муфтой прикладывалось усилие гидравлическим 10-тонным прессом, и в какой-то момент у нас получилось «сдернуть» и впоследствии снять эту муфту. Обратно ставить муфту было гораздо проще. Мы постепенно её разогрели до 200 °С и надели на вал.

      В общем, лучше я расскажу сначала про работу людей, обслуживающих эти ваши хрупкие процессоры в дата-центрах.
      Читать дальше →
    • Разработка КРОК изнутри: люди, утки и много работы

        Привет, Хабр!

        Разработка в интеграторе обычно довольно сильно отличается от работы в стартапе или студии разработки программного обеспечения. Из плюсов – куда более глобальные задачи, над решением некоторых из них работают сотни специалистов одновременно, так что заскучать не получится. А еще — возможность оперативно прокачать собственные навыки и вырасти внутри команды.

        Из минусов – такая работа не всегда видна конечному пользователю, ну и из-за некоторых NDA размером с тостер не обо всем можно рассказывать.


        Когда хотел рассказать про занятный проект, но там опять NDA

        Меня зовут Иван, я технический менеджер (Java) в КРОКе. И сегодня я постараюсь немного приоткрыть завесу тайны и рассказать о том, как у нас в целом работается разработчикам, которых около 350 человек, а также о текущих вакансиях (Java, PHP и фронтенд). Подробности – под катом.
        Читать дальше →
      • Система мониторинга на добыче полезных ископаемых

          Одна крупная добывающая компания пришла с интересной задачей: есть множество площадок с ИТ-системами. Они расположены как в городах, так и на месторождениях. Это несколько десятков региональных офисов плюс добывающие предприятия. На 500 километров в тайге без дороги — легко! На каждом объекте есть оборудование, которое нужно «сложить» в общую инфраструктуру и определить, что и в каком состоянии работает.

          Здесь нужна была не просто техническая инвентаризация всех устройств в сети (серийники, версии ПО и пр.), а полноценная система мониторинга. Зачем? Для того чтобы выявлять корневые причины аварий и оперативно об этом предупреждать, строить карты сети, отрисовывать связи между оборудованием, мониторить состояние железа и каналов связи, делать предупреждения по сходу с поддержки или включению нового неучтённого оборудования и т. п. Помимо этого, потребовалась интеграция с CMDB (учётом конфигурационных единиц), чтобы всё железо, которое «нашла» система мониторинга, сравнивалось с тем, что стоит на учёте в конкретном филиале, т. е. по факту находится в сети.
          Читать дальше →
          • +15
          • 3,6k
          • 9
        • Виртуальный зал Эрмитажа — первый шаг к будущему по Пелевину



            Мы застряли с оцифровкой зала Эрмитажа примерно на месяц. Изначально мы думали, что имеющиеся решения для переноса объектов в 3D (типа лазерных сканеров) будут отлично работать и вопрос исключительно технический. На деле оказалось, что эта область не очень-то проработана и подводных камней там море.

            За проект попали на конференцию FMX по иммерсионным технологиям и графике. Российские разработчики попадают на эту конференцию с докладом впервые. Мы выступаем вместе с Пиксаром и ребятами, которые делали «Игру престолов». Не то чтобы мы такие крутые, как Пиксар, просто агрегировали всё лучшее, что было на рынке, лучшие практики по фотограмметрии и опытным путём всё это применяли. Оказалось, так ещё никто не делал.

            Но давайте начнём с того, что может быть сложного в оцифровке зала со статуей. Делов-то на пару дней, правда?
            Читать дальше →
          • Беспроводная сеть на особо охраняемом и особо экранированном фармзаводе кое-где в России



              Началось всё с того, что нас обыскали и переодели. Потом, на выходе из обследуемого помещения, раздели и помыли. Потому что мы могли обсыпаться одним из веществ, которые использует завод, а потом вынести его на коже. Или слизать друг с друга, я не знаю.

              Вторым сюрпризом было то, что это же помещение и ещё ряд критичных «чистых зон» были обшиты шикарной плитой PARTECO. Это специальная плита со взрывозащитными и химзащитными свойствами. 4,5 сантиметра композитных материалов, из которых 20 (!) миллиметров — отлично экранирующий алюминий. Для сравнения: бронежилеты для защиты от пулемётов и снайперских винтовок начинаются с пластин толщиной 8 мм.

              Через такую плиту из излучений может пробиться аэропортовский радар, но не Wi-Fi-сеть. Дверь такая же. Окон нет. Швов нет — предполагаются перепады давления.

              В этих условиях мы были уже, кажется, шестыми, кто приходил на радиообследование. Предыдущие пять контрагентов (в том числе производители Wi-Fi-оборудования) клали свою самую мощную излучающую антенну на плиту, врубали максимум, делали замер в комнате, пожимали плечами и уходили.

              Но мы очень упорные. И весьма коварные.
              Читать дальше →
            • ЦНС, наркотики и рок-н-ролл: история про прибор, который заставил нас пить, не спать и не моргать

                Одно из самых забавных применений алгоритмов машинного зрения – это возможность определять скорость реакции нервной системы человека по реакции зрачка на свет.

                Это может использоваться для оценки адекватности человека, его готовности к сложной, опасной и ответственной работе (пилот самолета, оператор АЭС, диспетчер метро и т.п.).

                Раньше «пинг» делался простой реакцией зрачка на свет фонарика. Например, так делает фельдшер скорой. Но можно оценивать ещё и скорость реакции, что даёт куда больше информации. Мы нашли способ автоматизировать это, определяя зрачки на камере со съёмкой 40 fps. Вычислительная сложность невысокая, 3-5 тысяч сравнений на кадр — полный реалтайм:


                Данные пупиллометрии здорового человека

                По скорости реакции зрачка на свет (сужение и восстановление диаметра зрачка после вспышки) можно оценить скорость прохождения нервного импульса, а также скорость его последующей обработки в нервной системе.

                То есть да, это – своеобразный пинг вашей ЦНС. Выглядит эта штука как 3D-очки.
                Читать дальше →
              • Подводные камни выбора светодиодного экрана для переговорки или конференц-зала вместо проектора


                  Пару лет назад почти везде в переговорках и конференц-залах использовали проекторы. Они относительно дешёвые, дают большую картинку без швов, удобны в обращении (относительно). Но при этом они требуют темноты и штор, шумят (недорогие), греют помещение.

                  Сейчас светодиодные экраны сопоставимы по цене с хорошими проекторами — и при этом лишены перечисленных недостатков. Технология развивается, конкуренция растёт, цена падает, китайцы богатеют. Поэтому наши заказчики всё чаще берут их в переговорки. Казалось бы, делов-то — как телевизор выбираем, так и светодиодный экран выберем. Но нет.

                  Они просто не поставляются готовыми — это всегда конструктор типа лего, из которого предлагается собрать свой экран.
                  Читать дальше →
                • Как мы тестировали VMware vSAN™: для чего это подходит на практике

                    Год назад я собрал дата-центр из стопки Intel NUC. Там была программная система хранения данных, которую не смогла порушить уборщица, пару раз развалившая кластер.

                    И вот теперь мы решили погонять vSAN на нескольких серверах в очень хорошей конфигурации, чтобы всецело оценить производительность и отказоустойчивость решения. Конечно, у нас был ряд успешных внедрений в продакшен у наших заказчиков, где vSAN успешно решает поставленные задачи, но провести всеобъемлющее тестирование не доводилось. Собственно, результатами тестов я и хочу сегодня поделиться.

                    Будем мучить хранилище нагрузкой, ронять его и всячески тестировать отказоустойчивость. За подробностями всех приглашаю под кат.
                    Читать дальше →
                  • Энергоэффективность: подходы, которые мы тестируем в России



                      Привет! Я расскажу про геоохлаждение и геообогрев базовых станций сотовой сети, ветрогенерацию, практику солнечной энергетики (в частности, для обсерватории), генерацию тепла и энергии из биологических отходов, охлаждение дата-центра от реки, оптимизацию классических систем и немного про управляющий всем этим софт.

                      Начнём с реки в Сибири:


                      Проектировали ЦОД рядом с ТЭЦ. А ТЭЦ питается водой от реки. Собственно, температура воды в реке от 0 до +15, а ТЭЦ надо +25. Мы подумали: как это замечательно, что кому-то нужна тёплая вода! И сели с теплообменником на эту подпитку. В итоге подогреваем воду в среднем на один градус (зависит от вычислительной нагрузки и времени года) и передаём чуть более тёплую в контур ТЭЦ. От ТЭЦ не убудет, а для нас получается очень эффективно. PUE ЦОДа — 1,15 круглый год.
                      Читать дальше →
                      • +56
                      • 12,6k
                      • 7
                    • Зачем мониторить системы хранения данных?


                        Кто-то скоро упадёт

                        Потому что СХД хранит святая святых — данные. Если данные стали недоступны, очень скоро запахнет жареным. Или если вдруг место закончилось — тоже неприятный сюрприз. Поэтому мониторинг должен быть обязательно, и он должен покрывать СХД.

                        Есть два основных подхода к мониторингу хранилок. Либо использовать универсальную систему мониторинга наподобие Nagios, Icinga, которая будет собирать инфу по протоколу SNMP, либо купить узкоспециализированный софт от производителей самих СХД. Само собой, второй вариант обеспечивает более глубокий анализ состояния железа, показывает специфические вещи наподобие состояния кэша, iops, hit rate, загрузку контроллеров и т. д. Именно такой вариант и выбирали чаще всего наши заказчики, у которых в строю стоят крупные и дорогостоящие массивы.

                        Но к слову сказать, не всё так гладко с коммерческим ПО для мониторинга. В подробностях я расскажу дальше. Это будет, так сказать, опыт из первых рук. В своё время я почти 2 года допиливал одну такую систему за много тысяч зелёных бумажек от именитого вендора. И расковырял её так, что даже поддержка вендора со мной стала советоваться. Но одни проблемы софта сменялись другими, равно как одни индусы из поддержки сменялись новыми индусами — и тогда-то мне и пришла мысль, а не поступить ли вообще радикально… В общем, с этого всё и началось.
                        Читать дальше →
                      Самое читаемое