Как стать автором
Поиск
Написать публикацию
Обновить

Администрирование

Сначала показывать
Порог рейтинга

Команда нейросети для разработчиков Claude выпустила видеокурс по программированию — бесплатно и для всех желающих. На видео показано, как правильно писать промты под разные задачи, как подключить ИИ к сторонним сервисам и создавать дизайны в Figma парой предложений, есть готовые юзеркейсы с интеграцией нейросетей в работу, гайды по созданию своих ИИ-агентов для рутин.

Теги:
0
Комментарии0

Доменное имя – не место для чужого товарного знака?

Иногда приходится выбирать: или оставить в прошлом свое доменное имя, или работать в ожидании письма от  правообладателя товарного знака.

Доменное имя - это набор символов, с помощью которого пользователь находит сайт в сети "Интернет". Например, мой сайт доступен по имени "ip-advokat.ru".

Потенциальные клиенты все чаще ищут продукты в сети "Интернет". И я не удивлюсь, если вы подсуетились и заняли доменное имя, облегчающее путь покупателя к вашей компании.

Например, продаете настольные игры и подобрали доменное имя "nastolki.ru". Или ремонтируете автомобили и выложили сайт на "remont-avto.com".

(В этом примере совпадения доменных имен подобраны случайным образом.)

Но заветное доменное имя - только часть дела. Важно успеть связать имя со средством индивидуализации. Например, с товарным знаком.

В противном случае вам придется отвечать на вопрос -

Вправе ли ваша компания использовать в доменном имени своего сайта чужой товарный знак без разрешения его владельца?

Ответ на этот вопрос зависит от конкретных обстоятельств. И все-таки в большинстве случаев разгадка будет не в вашу пользу, на то есть четыре аргумента:

1. Товарный знак может законно использоваться только правообладателем или с его согласия.

Товарный знак есть средство индивидуализации продуктов компании-владельца. Благодаря товарному знаку в сознании потребителя укрепляются ассоциации между продуктом и этой компанией. Такая связь подталкивает клиента к выбору продуктов именно компании-владельца.

Компании-владельцу принадлежит исключительное право на товарный знак. Такое право дает только своему обладателю возможность использовать товарный знак: самостоятельно или передав право по соглашению.

2. Включение товарного знака в доменное имя - один из способов использования такого знака.

В законе прописаны способы использования товарного знака, причем список открыт. Вы используете этот знак на этикетке или упаковке продуктов, на фирменной документации и в иных ситуациях.

Отдельный способ - использование товарного знака в сети "Интернет", в том числе в доменном имени и при других способах адресации.

3. В доменном имени нельзя использовать слова, сходные до степени смешения с чужим товарным знаком.

Элементы и товарного знака, и доменного имени могут выражаться в словесной форме.

Если товарный знак и доменное имя состоят из одних и тех же слов, то это признаки нарушения закона. Такие же признаки присутствуют, если совпадает звучание товарного знака и доменного имени.

4. Товарный знак имеет приоритет перед доменным именем.

Товарный знак - средство индивидуализации, интеллектуальные права на которое охраняет закон.

Доменное имя - это не средство индивидуализации, поэтому в сегменте интеллектуальной собственности имя априори проигрывает знаку.

(По моим наблюдениям, подавляющее число исков поступает исключительно в этом сегменте отношений.)

Поговорите со своим адвокатом. Он назовет условия, при которых можно защитить доменное имя от недобросовестного владельца товарного знака. Например, задействуя модель недобросовестной конкуренции.

Интересно, когда вы в последний раз сравнивали доменное имя своего сайта и товарные знаки, зарегистрированные в вашей рыночной нише?

Теги:
-1
Комментарии22

Data Warehouse: сравниваем подходы к хранению данных

На примере Data Warehouse рассказываем о подходах к хранению корпоративных данных и сравниваем альтернативные решения. Data Warehouse (DWH) — это централизованное корпоративное хранилище данных, в котором собирается, обрабатывается и хранится информация из разных источников. Его цель — предоставить единую и структурированную базу данных для анализа и принятия решений. В основе DWH лежит концепция предметно-ориентированной базы данных.

Чем Data Warehouse отличается от баз данных, Data Lake и Data Mart:

  • базы данных хорошо справляются с транзакциями, заточены под быстрые действия и работают с текущими, постоянно изменяющимися данными;

  • Data Lake — это хранилище, куда можно складывать данные «как есть»: структурированные, полуструктурированные и неструктурированные. Например, логи, изображения, JSON-файлы и многое другое;

  • Data Warehouse (DWH) — это усиленный уровень, предназначенный для аналитики. Данные сюда попадают после подготовки: проходят через процессы очистки, нормализации, трансформации и объединения;

  • Data Mart — «мини-DWH» для конкретной задачи. Этот инструмент обычно проще и меньше по объему, но может обновляться чаще и работать с более узкой, оперативной аналитикой.

На старте проектирования архитектуры важно разобраться в разнице между разными типами хранилищ — у каждого своя специфика и уровень зрелости. Подробнее о Data Warehouse и подходах к построению DWH читайте в базе знаний Облака Рег.ру.

Теги:
+1
Комментарии0

Представлен бесплатный аналог Spotify без рекламы, без платных доступов и без подписок под названием SimpMusic, где треки можно слушать фоном, есть гигантская библиотека, персонализированные подборки, чарты и топы и полностью открытый код.

Теги:
0
Комментарии3

Представлен бесплатный сервис FilePursuit для поиска любых файлов в сети. Его система проверяет наличие доступных файлов по интернету, включая документы, APK-файлы, ZIP, книги, файлы, картинки и видео, а также PDF.

Теги:
+3
Комментарии0

От вибростендов до полевых испытаний: тесты Hardware QA в реальных условиях

Как понять, выдержит ли стойка или сервер поездку через всю страну в контейнере или грузовике? Чтобы проверить, готово ли оборудование к реальной транспортировке, команда HW QA использует целый комплекс инструментов и методов:

  • Вибростолы воспроизводят типичные транспортные нагрузки — от тряски в грузовике до промышленных вибраций. Оборудование фиксируется на платформе, и на него подаются колебания заданной частоты, амплитуды и направления. Вибротесты стоек показывают, как сервера реагируют на тряску: анализ ускорения и спектр вибраций (частоты до 10–40 Гц).

  • Датчики ускорений фиксируют рывки и удары, чтобы оценить реальные перегрузки компонентов.

  • Полевые испытания: перевозят стойки по России, ставят датчики и собирают реальные профили нагрузок в зависимости от типа грузовика и подвески.

Вибротест стойки: проверяем, как сервера выдерживают тряску при перевозке
Вибротест стойки: проверяем, как сервера выдерживают тряску при перевозке

Почему это важно? Даже один отвалившийся кабель в пути может сделать стойку непригодной к использованию.

Это лишь часть арсенала Hardware QA в YADRO. В статье директор департамента верификации и контроля качества Игорь Попов рассказал, как команда проверяет стойки и серверы на прочность, какие инструменты используют и как команда инженеров моделирует реальные условия работы оборудования.

Теги:
+6
Комментарии0

Вывели S3 из беты и выпустили объекты в Облаке Рег.ру

В облачной платформе Рег.ру важный апдейт — объектное хранилище S3 вывели из бета-тестирования, и теперь облачный сервис готов к полноценному использованию. С момента запуска S3 в декабре 2024 года мы значительно расширили функциональность и увеличили объем хранения. За это время услугой уже воспользовалось более 1100 пользователей и разместили 130 ТБ данных.

Вот что удалось нам сделать за это время — краткий обзор ключевых релизов и фич с момента запуска:

  • добавили управление ключами доступа для создания различных профилей доступа к бакетам; 

  • подключили управление политиками, чтобы настраивать различные уровни прав доступа по ключам;

  • внедрили объекты в личном кабинете, и теперь появилась возможность просматривать содержимое бакета в веб-интерфейсе;

  • расширили пул задач для улучшения жизненного цикла услуги; 

  • масштабировали и увеличили объем хранилища на +33%.

Подробнее о том, как мы пронесли S3 от запуска до выхода из беты, читайте в статье

Напомним, что объектное хранилище S3 в Облаке Рег.ру использует стандартный тип хранения с репликацией по технологии Erasure Coding (кодирование с восстановлением). Тарификация производится только за фактически используемый объем данных, без дополнительных затрат за входящий/исходящий трафик и количество запросов. Подключить S3 можно в личном кабинете на сайте Рег.ру.

Теги:
+2
Комментарии0

Интеграция PVS-Studio c AppSecHub

Компания PVS-Studio и платформа AppSec.Hub заключили технологическое партнёрство для обеспечения интеграции статического анализатора кода PVS-Studio в экосистему DevSecOps.

AppSec.Hub — это платформа для автоматизации процессов Application Security, которая позволяет объединять различные инструменты анализа, тестирования и мониторинга безопасности приложений.

Отчёт анализатора PVS-Studio теперь можно загрузить для просмотра в платформу AppSecHub вручную с помощью пользовательского интерфейса инструмента либо с помощью специальной утилиты командной строки.

Подробнее о работе PVS-Studio в AppSec.Hub можно прочитать в посвящённом этому разделе документации.

Также мы провели вебинар с коллегами из AppSec Solutions, чтобы на практике показать, как инструменты работают вместе, а также поделиться полезным опытом в интеграции статического анализа в DevSecOps.

Теги:
+2
Комментарии0

Представлена бесплатная платформа Pagy, которая позволяет создавать лендинги и небольшие веб-проекты за секунды. Работает в браузере и собирает сайты или визитки без привлечения дизайнера, верстальщика. Не требует никакой установки ПО. Все просто: выбираете шаблон и сразу его редактируете, пишите текст, вставляете ссылки и пикчи. Ни одной строчки кода писать не нужно, хостинг не требуется. Есть аналитика метрик сайта и сотни уже готовых дизайнов от разрабов и коммьюнити.

Теги:
+3
Комментарии1

Как ИИ повышает эффективность email-маркетинга: цифры и аналитика

Искусственный интеллект трансформирует email-маркетинг, делая письма точнее и эффективнее. ИИ анализирует данные о поведении клиентов - от истории покупок до времени открытия писем - и создаёт персонализированные предложения. Например, система может предложить клиенту товар, который он искал, или отправить письмо в момент, когда он наиболее активен.

Результаты говорят сами за себя: исследования показывают, что персонализация с ИИ повышает открываемость писем до 47%, кликабельность (CTR) - до 27%, а повторные покупки - на 31%. Аналитика ИИ выявляет, какие заголовки работают лучше, и оптимизирует кампании в реальном времени, сокращая затраты на тесты.

Как ИИ мог бы усилить ваши email-кампании? Поделитесь мыслями в комментариях!

Теги:
0
Комментарии4

Измеряйте качество интернет-соединения с помощью сервиса Selectel Speedtest

Selectel уже более семи лет поддерживает собственный инструмент для измерения качества интернет-соединения — Selectel Speedtest

С помощью сервиса вы можете отслеживать скорость скачивания и загрузки, а также пинг и задержки при передаче данных (джиттер). Ежемесячно Selectel Speedtest помогает более 20 000 пользователей. 

На странице Selectel Speedtest представлены тестовые файлы разного объема, с помощью которых можно легко проверить качество интернет-соединения. При этом сервис не сохраняет данные о результатах.

Измерить качество интернет-соединения →

Теги:
+12
Комментарии8

Выпущена новая версия СУБД Picodata — Picodata 25.3 

Компания Picodata (входит в Группу Arenadata) выпустила новую версию СУБД Picodata — Picodata 25.3. Обновление включает расширенные возможности SQL, механизм автоматического обновления схемы данных, а также повышение стабильности кластера.

Улучшение обратной совместимости

В Picodata 25.3 реализовано автоматическое обновление схемы данных при переходе инстансов на новый релиз Picodata. Этот механизм учитывает сделанные изменения в системных таблицах и сохраняет обратную совместимость при обновлении на следующий релиз СУБД: при переводе кластера на новую версию Picodata необходимые DDL/DML-команды выполнятся без вмешательства администратора, а требуемые в новой схеме внутренние функции также будут созданы автоматически.

Новые возможности SQL

В релиз добавлены новые возможности языка SQL в Picodata, в частности:

  • поддержка NULLS FIRST/LAST при сортировке результатов запроса (ORDER BY);

  • обработка конфликтов при вставке данных в глобальные таблицы (INSERT INTOON CONFLICT DO FAIL/REPLACE/NOTHING);

  • новая встроенная оконная функция LAST_VALUE();

  • оператор % для определения остатка деления по модулю для целых чисел;

  • возможность определения лидера raft-группы через функции pico_raft_leader_id() и pico_raft_leader_uuid();

  • возможность определения версии текущего инстанса с помощью функции version();

  • изменение, связанное с совместимостью: вместо скалярной функции instance_uuid (которая теперь объявлена устаревшей), рекомендуется использовать новую функцию pico_instance_uuid.

Улучшенная совместимость с PostgreSQL

Picodata теперь поддерживает безопасное соединение при обращении к внешнему LDAP-серверу. При подключении через протокол PostgreSQL (например, с помощью клиента psql) с методом аутентификации LDAP можно задействовать TLS-шифрование (при условии, что оно включено на LDAP-сервере). На стороне Picodata для этого потребуется установить значения у трёх переменных окружения. Например:

export TT_LDAP_URL="ldap://127.0.0.1:1389"
export TT_LDAP_DN_FMT='cn=$USER,ou=users,dc=example,dc=org'
export TT_LDAP_ENABLE_TLS=true

Изменение в конфигурации

Добавлен новый параметр instance.pg.advertise — публичный адрес сервера для подключения по протоколу PostgreSQL. По умолчанию, его значение соответствует значению instance.pg.listen. Этот параметр пригодится в ситуации, когда снаружи инстанс доступен по адресу, отличающемуся от адреса во внутренней сети.

Улучшенный веб-интерфейс

Команда Picodata продолжает развивать компонент webui для Picodata. В версии Picodata 25.3 веб-интерфейс не просто выглядит лучше, он также стал удобнее и информативнее:

  • на панели Cluster ID отображается больше полезной информации, включая список включённых плагинов;

  • в области просмотра сведений об инстансе теперь присутствует адрес подключения по протоколу PostgreSQL.

Механизм плагинов

При подключении плагина к кластеру Picodata теперь допускается расхождение минорных версий плагина и инстанса (например, плагин, собранный для версии 25.3.1, будет работать в Picodata 25.3.2).

Полный список нововведений и список исправленных ошибок доступны в документе CHANGELOG.

Роль Picodata для Ansible

Выпущена новая версия роли Picodata для Ansible, которая совместима с Picodata 25.3. Изменения в роли:

  • при сборке информации при сбое (тег crash_dump) можно исключить сборку snap- и xlog-файлов;

  • добавлена возможность выполнять lua-команды на инстансах кластера (тег command);

  • исправлена работа с несколькими плагинами в инвентаризационном файле и ряд прочих ошибок.

Для установки Picodata 25.3 следуйте инструкциям на сайте. Готовые пакеты доступны для следующих дистрибутивов Linux:

  • Astra 1.8

  • Debian 12 (bookworm)

  • RHEL/Rocky 9

  • Fedora 41–42

Инструкции и руководства по установке, использованию и администрированию Picodata размещены на портале документации Picodata.

Теги:
0
Комментарии0

Недавно столкнулся с интересным запросом от журналиста относительно нехватки отечественных аналогов зарубежных программных решений. Казалось бы, формулировка вопроса подразумевает недостаток количества (или адаптаций под отрасли) существующих программ, однако настоящий интерес заключался именно в тех решениях, которые вовсе отсутствуют на отечественном рынке на сегодняшний день.

Вот решил задать вопрос общего характера специалистам: существуют ли зарубежные программы (любой отрасли), которым пока действительно не найдено равноценных заменителей или хотя бы приближенных аналогов среди российских разработок? Буду признателен за ваши мнения.

PS. Пост делаю впервые, поэтому сори, если не туда его отправил.

Теги:
+1
Комментарии21

Ближайшие события

Windows 10 — 10 лет

Ровно 10 лет назад, 29 июля 2015 года, Microsoft официально выпустила Windows 10. Не планировал писать об этом отдельно, но, не увидев ни одной публикации на Хабре, решил опубликовать этот короткий пост.

Хотя сам я почти не пользовался Windows 10 — уже более 15 лет на Linux, — она всё же стояла в дуалбуте на моём старом ноутбуке и иногда использовалась, чтобы что-то скомпилировать под Windows. Как ни крути, это всё равно важная веха в истории компьютерного мира.

Казалось бы, совсем недавно все решали, стоит ли обновляться с Windows 7 до "десятки". Некоторые уже успели попробовать "плиточную" Windows 8 и ломали голову, что ещё "инновационного" придумает Microsoft. Однако, вопреки опасениям, в Windows 10 вернулся более классический интерфейс.

Издания наперебой писали, почему Windows 10 стала быстрее, безопаснее и почему обязательно нужно обновиться. На форумах шли горячие споры: кто-то держался за Windows 7, а кто-то уверял, что человечество ничего лучше XP ещё не придумало.

Затем случился неожиданный поворот: Microsoft внезапно развернулась в сторону Open Source, стала нанимать известных разработчиков из Linux-сообщества, появилась WSL.

А вот Microsoft уже похоронила Skype...

Казалось, всё это было совсем недавно.

Windows 10 уже исполнилось 10 лет.

Теги:
+1
Комментарии6

Gran KMS: как AI-ассистент революционизирует управление знаниями

Привет, Хабр! Сегодня хотим поделиться крутыми новостями о том, как развивается система Gran KMS и какие возможности открывает интеграция AI-технологий в управление корпоративными знаниями.

Что нового?

AI-ассистент стал настоящим прорывом в функционале системы. Теперь мы можем обрабатывать огромные массивы текстовых данных практически мгновенно. Представьте: многомиллионная библиотека знаний, тысячи документов — и всё это анализируется за считанные секунды!

Решаем реальные проблемы

Каждый, кто работал с корпоративными знаниями, сталкивался с типичными проблемами:

  • Разрозненность информации — данные разбросаны по разным системам и форматам

  • Сложность редактирования — обновление контента превращается в квест

  • Медленный доступ — поиск нужной информации занимает слишком много времени

Новая версия Gran KMS решает эти проблемы на уровне архитектуры системы. AI-ассистент не просто ищет информацию — он анализирует контекст, объединяет данные из разных источников и выдаёт релевантные ответы.

Как это работает?

Интеллектуальная обработка позволяет:

  • Мгновенно анализировать тексты любой сложности

  • Находить ответы даже в самых запутанных документах

  • Консолидировать информацию из разнородных источников

  • Предоставлять структурированные ответы

Если вы занимаетесь управлением знаниями в компании — обязательно обратите внимание на эти обновления. AI-ассистент Gran KMS может стать настоящим помощником в вашей работе!

А как вы решаете проблемы с управлением корпоративными знаниями? Делитесь опытом в комментариях!

Теги:
0
Комментарии0

Как устроен livepatch-модуль для ядра Linux

С точки зрения пользователя (в данном случае человека, отвечающего за обновления данной Linux-системы) лайвпатч — это просто модуль ядра Linux, в котором содержится как минимум следующее: 

  • исправленный код одной или более функций из vmlinux и/или из модулей ядра,

  • метаданные, указывающие, как применить эти исправления к соответствующим компонентам ядра Linux. 

Чтобы применить лайвпатч-обновление, нужно загрузить этот модуль ядра, например, с помощью insmod или modprobe, а затем активировать его, как правило, через sysfs. 

При этом старый код ядра Linux (тот, который хотим обновить) и новый (тот, что в лайвпатч-модуле) сосуществуют в памяти системы. Это дает возможность при необходимости отменить лайвпатч-обновление в runtime: деактивировать его через sysfs, а затем выгрузить лайвпатч-модуль.

Важный момент: если используются средства для работы с лайвпатчами из mainline-ядра, то при активации и деактивации лайвпатч-обновлений работающие процессы не нужно завершать или даже останавливать на сколько-нибудь существенное время.

Примечания:

  • У TuxCare / KernelCare лайвпатчи поставляются в другом, проприетарном, формате, но мы его рассматривать не будем.

  • Для некоторых архитектур, например RISC-V, при активации и деактивации патча вызывается stop_machine(), то есть работающие процессы при этом все-таки останавливаются на некоторое время. Начиная с версии 6.16 ядра Linux, для RISC-V stop_machine() уже, вероятно, не будет использоваться в таких ситуациях.

Все, что нужно знать о лайвпатингче для ядра Linux, вы найдете в цикле статей: от подготовки лайвпатча до работы на x86, ARM и RISC-V.

Читать первую часть →

Читать вторую часть →

Теги:
+2
Комментарии0

Шардирование в базах данных: зачем это нужно

Собрали обзор для тех, кто только начинает работать с базами данных — рассказываем, что такое шардирование и как этот способ решает задачи перераспределения нагрузки в БД.

Шардирование (или шардинг) представляет собой метод распределения данных между несколькими отдельными частями — шардами. Такой подход позволяет эффективно распределять нагрузку на систему, быстро масштабироваться и повышать отказоустойчивость системы.

Как это работает: каждый шард располагается на отдельном сервере или группе серверов, что позволяет выполнять запросы параллельно. Для гарантии отказоустойчивости шардирование обычно комбинируется с репликацией — созданием копий шардов. Без репликации отказ одного из серверов может привести к потере данных или недоступности части системы. При этом шардирование БД не заменяет процессы репликации и партицирования. Основная задача шардинга — разделить общую базу данных на части по определенным критериям.

Читайте подробный гайд по методам распределения данных в базе знаний Облака Рег.ру.

Теги:
+1
Комментарии0

Запускаем регистрацию на GoCloud Tech 2025 — IT-конференцию про AI, облака и работу с данными ☁️ + 🤖 + 💿

Всем привет! Приглашаем на нашу уже вторую технологическую конференцию о создании решений на базе AI и облаков. 

Что вас ждет:

  • 4 трека про облака, технологии, искусственный интеллект, изнанку наших сервисов и возможности облачной платформы собственной разработки;

  • демо и интерактивные зоны новых AI-сервисов и сервисов платформы Cloud․ru Evolution;

  • технические воркшопы;

  • нетворкинг, кастомный мерч и afterparty.

Основные темы конференции:

  • реальные кейсы внедрения AI- и ML-решений,

  • тренды в создании облачной инфраструктуры,

  • актуальные практики для работы с данными в облаке,

  • инструменты, ускоряющие разработку.

Зарегистрироваться 👈

📆 Когда: 3 сентября

📍 Где: в Лофт-пространстве Goelro в Москве и онлайн в VK и на Twitch

---

Скоро мы поделимся программой и начнем анонсировать доклады — не переключайтесь! А как прошли предыдущие конференции Cloud.ru можно почитать в статьях:

Теги:
+2
Комментарии0

Ловко управляем мультипарт-сессиями в S3 🏇

Как следить за всеми мультипарт-сессиями в вашем бакете и контролировать их для любых загрузок?

Добавили функции, с которыми это будет проще:

  • Показ всех активных мультипарт-сессий прямо в интерфейсе

  • Для каждой детальная метаинформация: когда началась загрузка, сколько частей уже загружено, какой объект создается

  • Возможность вручную завершить любую сессию с очисткой загруженных частей, если аплоад завис или отменился

Загрузить свой S3 до предела →

Теги:
+8
Комментарии0

В процессе подготовки статьи "Как я зарегистрировал CVE и разозлил вендора" я искал статьи с практическими результатами по подмене локального времени жертвы (при синхронизации через NTP). Это оказалось нелегко: чаще всего статьи были теоретическими. Но, я нашёл и довольно интересную статью от 07.11.2024: Quantitative Risk Analysis of Network Time Protocol (NTP) Spoofing Attacks. Часть вопросов, которые изучаются в статье:

  • рассмотрены атаки на ntpd, NTPSec, chrony, и OpenNTPD;

  • оценивается возможность максимального смещения времени атакой (в условиях защитных механизмов атакуемых утилит);

  • рассматриваются сложности атак.

Сравнение реализаций протокола NTP в различных утилитах. Взято из статьи
Сравнение реализаций протокола NTP в различных утилитах. Взято из статьи

Указывается, что остаются вопросы для дальнейшего изучения. Например, в части встроенных в различные ОС механизмов синхронизации времени.

Помимо этих вопросов - вот вопросы, которые у меня остались.

  • Когда именно происходит синхронизация времени через утилиты или в ОС в обычной жизни? И как часто? Т.е. сколько времени нужно ждать атакующему для возможности совершить атаку? Принудительный перезапуск утилиты не рассматриваем.

  • DHCP предусматривает периодическое обновление данных - не только IP-адрес, шлюз по-умолчанию и DNS. А и NTP (пример настройки NTP для DHCP в маршрутизаторе MikroTik). И тут 2 варианта атаки: либо получен доступ к DHCP серверу, либо подмена DHCP-пакетов (при атаке "человек посередине"). Как эти варианты атаки скажутся на системное время различных ОС, сконфигурированных по-разному (в т.ч. если даже в ОС используется более безопасный вариант вроде NTPSec и др.)? Тем более, что подмена NTP-сервера через DHCP во многом лишена тех сложностей, что описываются в статье.

  • UPD: другой вариант - отравить кэш локального DNS-сервера (если в качестве сервера времени прописано доменное имя). Допустим, клиенты получают время от 0.ru.pool.ntp.org. И в качестве DNS сервера у них прописан роутер MikroTik, подверженный CVE-2019-3978.

Было бы любопытно ознакомиться с существующими best practices синхронизации времени, учитывающими все вышеуказанные риски (либо хотя бы пытающиеся их учитывать).

Другие статьи на эту же тему:

Теги:
+3
Комментарии6
1
23 ...