• 33 двухюнитовых сервера на 13 ТБ оперативки и 0,6 ПТ распределённого хранилища — почему это минимум для проактивного UBA

      Скриншот собираемых данных:



      Современные системы безопасности ОЧЕНЬ прожорливы до ресурсов. Почему? Потому что они считают больше, чем многие продакшн-сервера и системы бизнес-аналитики.

      Что они считают? Сейчас объясню. Начнём с простого: условно первое поколение защитных устройств было очень простым — на уровне «пускать» и «не пускать». Например, файерволл пускал трафик по определённым правилам и не пускал трафик по другим. Естественно, для этого особая вычислительная мощность не нужна.

      Следующее поколение обзавелось более сложными правилами. Так, появились репутационные системы, которые в зависимости от странных действий пользователей и изменений в бизнес-процессах присваивали им рейтинг надёжности по заранее заданным шаблонам и выставленным вручную порогам срабатывания.

      Сейчас системы UBA (User Behavior Analytics) анализируют поведение пользователей, сравнивая их с другими сотрудниками компании, и оценивают логичность и правильность каждого действия сотрудника. Делается это за счёт Data Lake-методов и довольно ресурсоемкой, но автоматизированной обработки алгоритмами машинного обучения — в первую очередь потому, что прописывать все возможные сценарии руками занимает несколько тысяч человеко-дней.
      Читать дальше →
    • Телекоммуникации стадиона «Екатеринбург Арена»: 20 километров толстенного кабеля



        Для того чтобы показать футбол в прямом эфире, нужно профессиональное оборудование. Увы, в телевизионной сфере оно по большей части аналоговое. Это значит, что связистов на каждом стадионе ждёт настоящий рай. При условии, конечно, что вы любите таскать тяжёлую каблу и гнуть толстый коаксиал.

        В случае Центрального стадиона в Екатеринбурге коаксиала было много. Очень много.

        По всему объекту стоят ТВ-боксы. Приходят телевизионщики, открывают бокс, а там оптические соединения и триаксиал — они втыкаются и передают свой контент на передвижную станцию. Передвижная станция — это машина с дуплексной спутниковой связью где-то за пределами чаши стадиона. Приезжает, на периметре раскрывается, оттуда выходят парни, например, с «Матч ТВ», подключаются к ТВ-боксу, и футбол летит по воздуху ко всем телевизорам страны. Есть аппаратная, которая может перенаправлять это в конференц-зал, пресс-центр. Жилы по всему стадиону, там просто бешеное количество кабельной массы.
        Читать дальше →
      • Безопасность «Екатеринбург Арены»: как мы подготовили стадион к ЧМ-2018



          С каждым годом департаменту интеллектуальных зданий достаются всё более интересные объекты. Начинали мы довольно банально — с СКС в офисах более 20 лет назад. Потом пошли умные здания, энергоцентры, ЦОД, автономные установки далеко за пределами городов, промышленные объекты — и вот теперь несколько стадионов.

          В общей сложности на стадионе «Екатеринбург Арена» мы реализовали 22 инженерные подсистемы от безопасности с системой выявления диверсионно-террористических средств до вай-фая высокой плотности, системы телерадиотрансляции и мультимедийных экранов.

          Сегодня я расскажу про безопасность, а чуть позже в другом посте мой коллега из департамента телекоммуникаций расскажет про адов кабель и аудиовизуальные системы.
          Читать дальше →
        • Ветер, саранча и дедлайн: как мы строили электроподстанцию



            Коллеги попросили меня рассказать про то, как мы строили подстанцию на автомобильном заводе в южном регионе. Ниже будут все ужасы нашего городка, включая отечественный автопром и взаимодействие с китайскими и корейскими подрядчиками.

            Почему это всё интересно? Потому что подходы в строительстве совсем не такие, как при разработке ИТ-продукта. Было много совещаний: приезжаешь в 6 утра, отчитываешься, что было сделано за ночь, потому что прошлое совещание было в 21:00 вчера. Слушает тебя 8-9 человек. Главный энергетик, главный инженер и там еще много-много всяких…исполнительный директор, технический директор. Бывает, не успеваешь пробежать по всей территории, даже снять всю информацию, а тебе уже надо на новое совещание идти.

            Был момент, когда работали в стужу и ветрище, который сносил машины с трассы. Мы монтировали, а там задул ветер, перевернул «Матиз» и уронил несколько рекламных щитов на трассе в Элисту. Идёшь — тебя вообще продувает вовсю. Зимние спецовки не спасали. Даже «газель» в конце легла набок.
            Читать дальше →
          • Как мы обслуживали дизель-динамический источник бесперебойного питания


              Это такой здоровенный волчок-ротор, стоящий в разрыве электрической цепи на входе в дата-центр. Он постоянно крутится. Если отключают питание, то он по инерции обеспечивает беспрерывность питания до запуска дизеля. Питание без переключения снова восстанавливается. У нас там выработались подшипники, и мы решили их немного поменять.

              Современная практика такова, что здания строятся с учётом того, что там будет резерв в части энергоснабжения, в нашем случае это ДДИБП. Здание подземного дата-центра у нас уже было, и поэтому замена проходила очень увлекательно.

              Вот, например, задача на знание физики.



              Здесь на вал посажена соединительная муфта. Она прилегает к валу настолько плотно, что снять его нет никакой возможности.

              Мы позвали специального мужика с чёрным поясом по сварке, задача которого была ОЧЕНЬ БЫСТРО разогреть эту муфту. Было важно, чтобы муфта нагрелась как можно сильнее, при этом вал оставался холодным, и поэтому для лучшего контроля мы наблюдали за этим процессом через тепловизор. Параллельно тепловым работам между валом и муфтой прикладывалось усилие гидравлическим 10-тонным прессом, и в какой-то момент у нас получилось «сдернуть» и впоследствии снять эту муфту. Обратно ставить муфту было гораздо проще. Мы постепенно её разогрели до 200 °С и надели на вал.

              В общем, лучше я расскажу сначала про работу людей, обслуживающих эти ваши хрупкие процессоры в дата-центрах.
              Читать дальше →
            • Разработка КРОК изнутри: люди, утки и много работы

                Привет, Хабр!

                Разработка в интеграторе обычно довольно сильно отличается от работы в стартапе или студии разработки программного обеспечения. Из плюсов – куда более глобальные задачи, над решением некоторых из них работают сотни специалистов одновременно, так что заскучать не получится. А еще — возможность оперативно прокачать собственные навыки и вырасти внутри команды.

                Из минусов – такая работа не всегда видна конечному пользователю, ну и из-за некоторых NDA размером с тостер не обо всем можно рассказывать.


                Когда хотел рассказать про занятный проект, но там опять NDA

                Меня зовут Иван, я технический менеджер (Java) в КРОКе. И сегодня я постараюсь немного приоткрыть завесу тайны и рассказать о том, как у нас в целом работается разработчикам, которых около 350 человек, а также о текущих вакансиях (Java, PHP и фронтенд). Подробности – под катом.
                Читать дальше →
              • Система мониторинга на добыче полезных ископаемых

                  Одна крупная добывающая компания пришла с интересной задачей: есть множество площадок с ИТ-системами. Они расположены как в городах, так и на месторождениях. Это несколько десятков региональных офисов плюс добывающие предприятия. На 500 километров в тайге без дороги — легко! На каждом объекте есть оборудование, которое нужно «сложить» в общую инфраструктуру и определить, что и в каком состоянии работает.

                  Здесь нужна была не просто техническая инвентаризация всех устройств в сети (серийники, версии ПО и пр.), а полноценная система мониторинга. Зачем? Для того чтобы выявлять корневые причины аварий и оперативно об этом предупреждать, строить карты сети, отрисовывать связи между оборудованием, мониторить состояние железа и каналов связи, делать предупреждения по сходу с поддержки или включению нового неучтённого оборудования и т. п. Помимо этого, потребовалась интеграция с CMDB (учётом конфигурационных единиц), чтобы всё железо, которое «нашла» система мониторинга, сравнивалось с тем, что стоит на учёте в конкретном филиале, т. е. по факту находится в сети.
                  Читать дальше →
                  • +15
                  • 4,6k
                  • 9
                • Виртуальный зал Эрмитажа — первый шаг к будущему по Пелевину



                    Мы застряли с оцифровкой зала Эрмитажа примерно на месяц. Изначально мы думали, что имеющиеся решения для переноса объектов в 3D (типа лазерных сканеров) будут отлично работать и вопрос исключительно технический. На деле оказалось, что эта область не очень-то проработана и подводных камней там море.

                    За проект попали на конференцию FMX по иммерсионным технологиям и графике. Российские разработчики попадают на эту конференцию с докладом впервые. Мы выступаем вместе с Пиксаром и ребятами, которые делали «Игру престолов». Не то чтобы мы такие крутые, как Пиксар, просто агрегировали всё лучшее, что было на рынке, лучшие практики по фотограмметрии и опытным путём всё это применяли. Оказалось, так ещё никто не делал.

                    Но давайте начнём с того, что может быть сложного в оцифровке зала со статуей. Делов-то на пару дней, правда?
                    Читать дальше →
                  • Беспроводная сеть на особо охраняемом и особо экранированном фармзаводе кое-где в России



                      Началось всё с того, что нас обыскали и переодели. Потом, на выходе из обследуемого помещения, раздели и помыли. Потому что мы могли обсыпаться одним из веществ, которые использует завод, а потом вынести его на коже. Или слизать друг с друга, я не знаю.

                      Вторым сюрпризом было то, что это же помещение и ещё ряд критичных «чистых зон» были обшиты шикарной плитой PARTECO. Это специальная плита со взрывозащитными и химзащитными свойствами. 4,5 сантиметра композитных материалов, из которых 20 (!) миллиметров — отлично экранирующий алюминий. Для сравнения: бронежилеты для защиты от пулемётов и снайперских винтовок начинаются с пластин толщиной 8 мм.

                      Через такую плиту из излучений может пробиться аэропортовский радар, но не Wi-Fi-сеть. Дверь такая же. Окон нет. Швов нет — предполагаются перепады давления.

                      В этих условиях мы были уже, кажется, шестыми, кто приходил на радиообследование. Предыдущие пять контрагентов (в том числе производители Wi-Fi-оборудования) клали свою самую мощную излучающую антенну на плиту, врубали максимум, делали замер в комнате, пожимали плечами и уходили.

                      Но мы очень упорные. И весьма коварные.
                      Читать дальше →
                    • ЦНС, наркотики и рок-н-ролл: история про прибор, который заставил нас пить, не спать и не моргать

                        Одно из самых забавных применений алгоритмов машинного зрения – это возможность определять скорость реакции нервной системы человека по реакции зрачка на свет.

                        Это может использоваться для оценки адекватности человека, его готовности к сложной, опасной и ответственной работе (пилот самолета, оператор АЭС, диспетчер метро и т.п.).

                        Раньше «пинг» делался простой реакцией зрачка на свет фонарика. Например, так делает фельдшер скорой. Но можно оценивать ещё и скорость реакции, что даёт куда больше информации. Мы нашли способ автоматизировать это, определяя зрачки на камере со съёмкой 40 fps. Вычислительная сложность невысокая, 3-5 тысяч сравнений на кадр — полный реалтайм:


                        Данные пупиллометрии здорового человека

                        По скорости реакции зрачка на свет (сужение и восстановление диаметра зрачка после вспышки) можно оценить скорость прохождения нервного импульса, а также скорость его последующей обработки в нервной системе.

                        То есть да, это – своеобразный пинг вашей ЦНС. Выглядит эта штука как 3D-очки.
                        Читать дальше →
                      • Подводные камни выбора светодиодного экрана для переговорки или конференц-зала вместо проектора


                          Пару лет назад почти везде в переговорках и конференц-залах использовали проекторы. Они относительно дешёвые, дают большую картинку без швов, удобны в обращении (относительно). Но при этом они требуют темноты и штор, шумят (недорогие), греют помещение.

                          Сейчас светодиодные экраны сопоставимы по цене с хорошими проекторами — и при этом лишены перечисленных недостатков. Технология развивается, конкуренция растёт, цена падает, китайцы богатеют. Поэтому наши заказчики всё чаще берут их в переговорки. Казалось бы, делов-то — как телевизор выбираем, так и светодиодный экран выберем. Но нет.

                          Они просто не поставляются готовыми — это всегда конструктор типа лего, из которого предлагается собрать свой экран.
                          Читать дальше →
                        • Как мы тестировали VMware vSAN™: для чего это подходит на практике

                            Год назад я собрал дата-центр из стопки Intel NUC. Там была программная система хранения данных, которую не смогла порушить уборщица, пару раз развалившая кластер.

                            И вот теперь мы решили погонять vSAN на нескольких серверах в очень хорошей конфигурации, чтобы всецело оценить производительность и отказоустойчивость решения. Конечно, у нас был ряд успешных внедрений в продакшен у наших заказчиков, где vSAN успешно решает поставленные задачи, но провести всеобъемлющее тестирование не доводилось. Собственно, результатами тестов я и хочу сегодня поделиться.

                            Будем мучить хранилище нагрузкой, ронять его и всячески тестировать отказоустойчивость. За подробностями всех приглашаю под кат.
                            Читать дальше →
                          • Энергоэффективность: подходы, которые мы тестируем в России



                              Привет! Я расскажу про геоохлаждение и геообогрев базовых станций сотовой сети, ветрогенерацию, практику солнечной энергетики (в частности, для обсерватории), генерацию тепла и энергии из биологических отходов, охлаждение дата-центра от реки, оптимизацию классических систем и немного про управляющий всем этим софт.

                              Начнём с реки в Сибири:


                              Проектировали ЦОД рядом с ТЭЦ. А ТЭЦ питается водой от реки. Собственно, температура воды в реке от 0 до +15, а ТЭЦ надо +25. Мы подумали: как это замечательно, что кому-то нужна тёплая вода! И сели с теплообменником на эту подпитку. В итоге подогреваем воду в среднем на один градус (зависит от вычислительной нагрузки и времени года) и передаём чуть более тёплую в контур ТЭЦ. От ТЭЦ не убудет, а для нас получается очень эффективно. PUE ЦОДа — 1,15 круглый год.
                              Читать дальше →
                              • +56
                              • 13,6k
                              • 7
                            • Зачем мониторить системы хранения данных?


                                Кто-то скоро упадёт

                                Потому что СХД хранит святая святых — данные. Если данные стали недоступны, очень скоро запахнет жареным. Или если вдруг место закончилось — тоже неприятный сюрприз. Поэтому мониторинг должен быть обязательно, и он должен покрывать СХД.

                                Есть два основных подхода к мониторингу хранилок. Либо использовать универсальную систему мониторинга наподобие Nagios, Icinga, которая будет собирать инфу по протоколу SNMP, либо купить узкоспециализированный софт от производителей самих СХД. Само собой, второй вариант обеспечивает более глубокий анализ состояния железа, показывает специфические вещи наподобие состояния кэша, iops, hit rate, загрузку контроллеров и т. д. Именно такой вариант и выбирали чаще всего наши заказчики, у которых в строю стоят крупные и дорогостоящие массивы.

                                Но к слову сказать, не всё так гладко с коммерческим ПО для мониторинга. В подробностях я расскажу дальше. Это будет, так сказать, опыт из первых рук. В своё время я почти 2 года допиливал одну такую систему за много тысяч зелёных бумажек от именитого вендора. И расковырял её так, что даже поддержка вендора со мной стала советоваться. Но одни проблемы софта сменялись другими, равно как одни индусы из поддержки сменялись новыми индусами — и тогда-то мне и пришла мысль, а не поступить ли вообще радикально… В общем, с этого всё и началось.
                                Читать дальше →
                              • Выявление преступных группировок, ворующих из магазинов – Data Mining



                                  Группа из 3–4 лиц по предварительному сговору способна вынести из большого магазина типа «Ашана» или «Перекрёстка» товара до 400 тысяч рублей в месяц. Если обычные шоплифтеры просто мирно воруют колбасу, протаскивая её под одеждой или ещё где, то эти парни оказываются в разы наглее и деструктивнее.

                                  Разница вот в чём. Во-первых, они имеют возможность запутать всю систему наблюдения, выстроенную для поиска одиночных воров. Самая простая связка — один берёт товар, передаёт незаметно другому, тот относит в слепую зону камер, там его берёт третий.

                                  Во-вторых, они воруют не на предел административки в 1000 рублей, а сразу по максимуму для перепродажи.

                                  В-третьих, при попытке их остановить и вызвать полицию они применяют силовые меры к охраннику и уходят. Силовые меры — это от банального оттеснения охранников от подозреваемого до угроз оружием.

                                  К нам обратилось ЧОП, которое попросило сделать видеоаналитику по тем, кого они уже знают. Чтобы при входе в магазин такого товарища сразу вызывалась полиция и их брали уже тёпленькими.
                                  Читать дальше →
                                • Как сегодня строится центр оперативного управления информационной безопасностью (SOC-центр)

                                    В крупных компаниях есть люди, которые занимаются только тем, что контролируют состояние ИБ и ждут, когда начнутся проблемы. Речь идёт не про охранников перед мониторами, а про выделенных людей (как минимум одного в смене) в отделе информационной безопасности.



                                    Большую часть времени оператор SOC-центра работает с SIEMами. SIEM-системы собирают данные с различных источников по всей сети и совместно с другими решениями сопоставляют события и оценивают угрозу — как индивидуально для каждого пользователя и сервиса, так и в целом для групп пользователей и узлов сети. Как только кто-то начинает себя вести слишком подозрительно, оператору SOC-центра поступает уведомление. Если уровень подозрительности зашкаливает, сначала изолируется подозрительный процесс или рабочее место, а уже потом приходит уведомление. Дальше начинается расследование инцидента.


                                    Очень упрощая, за каждое подозрительное действие пользователь получает штрафные очки. Если действие характерно для него или его коллег — очков мало. Если действие нетипичное — очков много.

                                    Для UBA-систем (User Behaviour Analytics) последовательность действий также имеет значение. По отдельности резкий скачок объёма трафика, подключение к новому IP или копирование данных с файлового сервера случается время от времени. А вот если сначала юзер открыл письмо, потом у него было обращение к только что зарегистрированному домену, а затем он начал шариться по соседним машинам и отправлять странный зашифрованный трафик в Интернет — это уже подозрение в атаке.
                                    Читать дальше →
                                    • +22
                                    • 11,2k
                                    • 2
                                  • Хитачи: как японцы докатились от бензопилы до современных СХД

                                      Когда я слышу Хитачи, то сразу думаю про что-то такое:



                                      Или про холодильник. Или про электровоз. Но никак не про СХД. Но нет, японцы делают большие серьёзные системы хранения данных:



                                      Мы недавно открыли учебный центр Hitachi Vantara, где как раз рассказываем про то, что с этими СХД и как делать. Укомплектовали пока только первый месяц занятий, поэтому сейчас про учебный центр рассказывать не буду — поделюсь инфой потом. Лишь добавлю, что работает он на базе КРОК ОК, где делаем онлайн-курсы по IT и не только. Гораздо больше меня заинтересовало, зачем японцы вообще пошли в эту сферу.

                                      Начать надо с 1910 года. Именно тогда на шахте в городе Хитати объявился парень по имени Одаира. Примерно за 10 лет он из молодого инженера стал главой технического отдела шахты.
                                      Читать дальше →
                                      • +22
                                      • 9,2k
                                      • 6
                                    • Мы нашли крупную компанию, которая 5 лет не занималась информационной безопасностью, и она ещё жива


                                        Примерно 5-6 лет назад там был реально крутой админ, который настроил сеть как часы и оснастил современным на тот момент оборудованием экономсегмента. Недостаток бюджета админ компенсировал хорошими конфигами и правильной архитектурой. В общем, видно, что было сделано много работы.

                                        Потом компания разделилась на две, расширилась, в ней всё поменялось пару раз — и за всё это время сеть поддерживали на костылях. Поскольку ИТ не профильный бизнес нашего заказчика, ситуация в целом понятна. Она такая много где, но чтобы большая сеть (территориально распределённая компания, десятки филиалов) продержалась в таком виде 5 лет — я такого ещё не видел.

                                        Собственно, и не продержалась. Нас позвали провести аудит сетевой инфраструктуры после зафиксированного случая взлома, когда их базы данных со всей представляющей коммерческую тайну информацией оказались просто скачаны. Точнее, всплыли не у тех людей.
                                        Читать дальше →
                                      • Как мы теряли и находили машины на 9-этажной парковке



                                          У нас в офисе 9 этажей парковки, каждый этаж 40 на 60 метров. Частая проблема — сотрудники забывают этаж со своей машиной и как зомби ходят с ключами, пытаясь «пикнуть» сигнализацией. Именно там мы решили обкатать indoor-навигацию на базе Bluetooth.

                                          В целом тема горячая. Активный интерес есть у больших магазинов (устройства для тележек в продуктовом с пуш-уведомлениями про акции и интересные товары рядом), стадионов, аэропортов и госкомпаний для разного рода indoor-навигации. Опыт для музеев был, но понадобились дотесты ряда вещей. А ещё решения актуальны для промышленности (мониторинг персонала, груза, транспорта; обеспечение промышленной безопасности и охрана труда).

                                          Про сами датчики уже сотни раз писали. Я хочу рассказать про практику их применения в реальном мире. Например, одним из сюрпризов во время тестов стало то, что они падают на головы людям.
                                          Читать дальше →
                                        • Тестируем массив OceanStor Dorado V3: настолько обычный, что прямо вообще


                                            OceanStor Dorado5000 V3

                                            В общем, это массив как массив. На нём новые NVMe-диски. Получаешь хорошую производительность «за те же деньги». Но есть два нюанса. Нюансы такие: он хорош в соотношении «стоимость за ГБ + производительность» и он не американский, то есть подходит тем, кто под санкциями.

                                            Мы его спокойно себе тестировали, когда вдруг на горизонте показался очень взволнованный заказчик. У него была гибридная СХД с кончившейся поддержкой, где вылетел контроллер. СХД не самая новая и дисков за сотню. Без контроллера производительность очень упала. Ждать новый шесть недель. Коллеги бились в панике, попутно умоляя нас, каким-то неведомым образом сократить сроки поставки нового контроллера. КРОК может все. Иногда даже больше.

                                            У нас на тестах была новая железка Дорадо. Толком обкатать не успели, но вроде нормальная. Объяснили, переглянулись — и дали погонять как раз на то время, пока будет плыть новый контроллер. За сутки все смигрировали, но оставили старую систему в качестве резерва.
                                            Читать дальше →
                                          Самое читаемое