В юридические тонкости этого дела меня не посвящали.Но практика показывает: Роскомнадзор не всегда требует наличия нарушения — порой достаточно подозрения. Даже ссылка в JS, даже шрифт с Google, даже пустое поле в конструкторе — всё это может стать поводом для претензий и требованием устранить "нарушения".
Это чисто лично моё мнение из сложившейся ситуации и имеющейся у меня информации.
✅ На всякий случай, хочу повториться, я и реализовал поиск по паттернам о всех упоминаниях запрещённых ссылок. Вероятно, нужно реализовать степень риска найденных строк кода и ссылок.
✔️ Да, сканер ещё в бета-режиме, и да, он не всесильный — но на это бросаются все силы, чтобы он был полезным. Это бесплатный инструмент, не обязывающий никого ни к чему. Все комментарии были учтены и ряд улучшений уже сделаны. Если и у вас имеются по делу какие-то предложения, я с удовольствием выслушаю. В любом случае, благодарю за ваше мнение.
Один из моих клиентов столкнулся с такой же ситуацией — и, хоть в итоге выиграл суд, цена победы оказалась высокой.
⚠️ На сайте были YouTube(просто ссылка в js для вставки) Google Fonts в коде и что-то еще, не помню. Тем не менее, Роскомнадзор потребовал устранить «нарушения». Пришлось 3 месяца доказывать свою правоту, привлекать юристов, делать аудит. В итоге суд признал — это не нарушение. Но клиент уже потратил деньги и уйму времени.
Обратился ко мне, я начал выискивать вручную и понял, что необходимо написать скрипт для автоматизации поиска.
Повторюсь, я не юрист, но есть что есть. Рекомендую вам обратиться к юристу по этому вопросу.
✅ Потому сканер ищет все упоминания на сайте по паттернам.
P.s. Никогда никому не рекомендовал связываться с Tilda и вот ещё одна причина...
✔️ Действительно, это выглядит странно. Но я хочу, чтобы Вы понимали, что это обычный приём расположения аудитории к себе. В продолжительном обсуждении позволяю себе перейти на ты.
Если подумать, то почему бы РКН не делать это анонимно и через подконтрольные им популярные сервисы. У них, ну, точно больше для этого возможностей.
✔️ Да, согласен с Вами, что крупные компании уже подготовились или юридически себя обезопасили, а может другим и всё равно.
Но что, если будет полезно тем, кто ни там "наверху", а среди обычных людей - будет круто, считаю.
Но за мнение, спасибо, интересно было.
P.S. Надеюсь не слишком переборщил со смайликами в ответе.
Могу смело предположить, потому что сканер не смог пробиться через запрет на эти сайты, а твич всё ещё доступен. Запросы моего сканера производятся с серверов РФ.
Такие случаи действительно нельзя считать "редкими" или "сложными" — они повсеместны.
Когда подключаешь, например, Яндекс.Карты или Google Maps, ты не просто добавляешь один скрипт — ты запускаешь целую экосистему:
Метрика,
Аналитика,
Виджеты,
Динамические загрузки через fetch, eval, import() —всё это может происходить асинхронно и условно, в зависимости от UA, геолокации, поведения пользователя и т.д.
И да, онлайн-сканер в браузере сегодня не видит всё это на 100% — особенно если URL вторичных скриптов генерируется динамически и не присутствует в DOM напрямую. В скором будущем это будет реализовано, на данный момент такая возможность тестируется и есть проблемы со скоростью сканирования и точностью определения. Пока точно не знаю, получится ли сделать это в рамках онлайн сканера (скорее да, чем нет) или будет фичей только локальной версии...
✅ Спасибо за внимательность, действительно, такая проблема имеется.
⚠️ Причина проблемы: Сканер может не обнаруживать эти элементы по нескольким причинам:
Динамическая загрузка контента: Если уведомление о cookies или политика конфиденциальности генерируются динамически через JavaScript, сканер может не успевать их обработать, особенно если он работает в ограниченном режиме (например, без полного выполнения JS-кода). 2. Ошибки в логике сканирования: Cканер использует некорректные паттерны или условия для поиска этих элементов. Например, он может искать только статические ссылки или текстовые упоминания, а не интерактивные компоненты. 3. Проблемы с детектированием модальных окон: Модальные окна, такие как уведомление о cookies, могут быть сложнее обнаружить автоматически, особенно если они используют современные библиотеки (например, React, Vue.js) или CSS-стили, которые скрыты до взаимодействия пользователя.
В планах обновление алгоритма сканирования: добавление поддержки более глубокого анализа динамических элементов, включая модальные окна и JavaScript-генерированные компоненты.
Спасибо за внимательность и отличный пример! Вы абсолютно правы — это настоящая проблема, и она связана с тем, как сканер обрабатывает HTTP/HTTPS-редиректы.
Что сейчас происходит: Когда вы вводите http://, а сайт редиректит на https://, наш сканер пока не всегда корректно следует за редиректом и может начать анализ по первоначальному HTTP-адресу. В результате:
Он не видит HTTPS-версию. Считает, что SSL отсутствует. Выдаёт ложное предупреждение. Почему так происходит: Сканер работает в браузере, и при прямом запросе к HTTP-адресу он не всегда "видит" финальный URL после редиректа, особенно если перенаправление происходит на уровне сервера (301/302).
Что касается вашего конкретного сценария — когда JS-файл подгружается только при определённых условиях (например, по мобильному User-Agent) и внутри него есть запрещённая ссылка, которая, в свою очередь, вызывается другим JS:
✅ Если ссылка на этот JS-файл есть в исходном коде сайта — сканер этот файл проанализирует его содержимое и обнаружит запрещённую ссылку, даже если она скрыта глубоко в коде. ⚠️ Если же файл подгружается полностью динамически, например, через fetch() или eval() только после выполнения определённого действия пользователя (например, клика или проверки UA), и при этом его URL не виден в первоначальной разметке или в явных скриптах — то он может быть пропущен при онлайн-сканировании, так как браузер не выполнит этот код автоматически. Это связано с тем, что онлайн-сканер работает в условиях ограниченного выполнения кода — сложно полностью эмулировать все возможные пользовательские сценарии в браузере на стороне клиента.
Но есть решение: Для таких сложных случаев дорабатывается локальный режим сканера, который позволяет более глубоко анализировать поведение сайта, включая динамически подгружаемые ресурсы.
О, мультфильм "Когда дует ветер" — как глоток прохладной воды посреди административного зноя. Эти двое англичан, которые до последнего момента проверяют:
Спасибо за внимательность, действительно, такая проблема была.
✅ Исправлено.
Хороший вопрос.
В юридические тонкости этого дела меня не посвящали.Но практика показывает: Роскомнадзор не всегда требует наличия нарушения — порой достаточно подозрения. Даже ссылка в JS, даже шрифт с Google, даже пустое поле в конструкторе — всё это может стать поводом для претензий и требованием устранить "нарушения".
Это чисто лично моё мнение из сложившейся ситуации и имеющейся у меня информации.
✅ На всякий случай, хочу повториться, я и реализовал поиск по паттернам о всех упоминаниях запрещённых ссылок. Вероятно, нужно реализовать степень риска найденных строк кода и ссылок.
✔️ Да, сканер ещё в бета-режиме, и да, он не всесильный — но на это бросаются все силы, чтобы он был полезным. Это бесплатный инструмент, не обязывающий никого ни к чему.
Все комментарии были учтены и ряд улучшений уже сделаны. Если и у вас имеются по делу какие-то предложения, я с удовольствием выслушаю. В любом случае, благодарю за ваше мнение.
Если вы читаете статью на сайте, где встроен YouTube-ролик, Google fonts и т.д. — это проблема для владельца сайта, а не для вас.
Один из моих клиентов столкнулся с такой же ситуацией — и, хоть в итоге выиграл суд, цена победы оказалась высокой.
⚠️ На сайте были YouTube(просто ссылка в js для вставки) Google Fonts в коде и что-то еще, не помню. Тем не менее, Роскомнадзор потребовал устранить «нарушения». Пришлось 3 месяца доказывать свою правоту, привлекать юристов, делать аудит. В итоге суд признал — это не нарушение. Но клиент уже потратил деньги и уйму времени.
Обратился ко мне, я начал выискивать вручную и понял, что необходимо написать скрипт для автоматизации поиска.
Повторюсь, я не юрист, но есть что есть. Рекомендую вам обратиться к юристу по этому вопросу.
✅ Потому сканер ищет все упоминания на сайте по паттернам.
P.s. Никогда никому не рекомендовал связываться с Tilda и вот ещё одна причина...
✔️ Действительно, это выглядит странно. Но я хочу, чтобы Вы понимали, что это обычный приём расположения аудитории к себе. В продолжительном обсуждении позволяю себе перейти на ты.
Если подумать, то почему бы РКН не делать это анонимно и через подконтрольные им популярные сервисы. У них, ну, точно больше для этого возможностей.
✔️ Да, согласен с Вами, что крупные компании уже подготовились или юридически себя обезопасили, а может другим и всё равно.
Но что, если будет полезно тем, кто ни там "наверху", а среди обычных людей - будет круто, считаю.
Но за мнение, спасибо, интересно было.
P.S. Надеюсь не слишком переборщил со смайликами в ответе.
✅ Исправлено. На данном этапе только спасибо, но никто не будет забыт, обязательно вспомню 😉
Могу смело предположить, потому что сканер не смог пробиться через запрет на эти сайты, а твич всё ещё доступен. Запросы моего сканера производятся с серверов РФ.
✅ Исправлено, спасибо 🙂
Такие случаи действительно нельзя считать "редкими" или "сложными" — они повсеместны.
Когда подключаешь, например, Яндекс.Карты или Google Maps, ты не просто добавляешь один скрипт — ты запускаешь целую экосистему:
Метрика,
Аналитика,
Виджеты,
Динамические загрузки через
fetch
,eval
,import()
—всё это может происходить асинхронно и условно, в зависимости от UA, геолокации, поведения пользователя и т.д.И да, онлайн-сканер в браузере сегодня не видит всё это на 100% — особенно если URL вторичных скриптов генерируется динамически и не присутствует в DOM напрямую. В скором будущем это будет реализовано, на данный момент такая возможность тестируется и есть проблемы со скоростью сканирования и точностью определения. Пока точно не знаю, получится ли сделать это в рамках онлайн сканера (скорее да, чем нет) или будет фичей только локальной версии...
✅ Спасибо за внимательность, действительно, такая проблема имеется.
⚠️ Причина проблемы:
Сканер может не обнаруживать эти элементы по нескольким причинам:
Динамическая загрузка контента:
Если уведомление о cookies или политика конфиденциальности генерируются динамически через JavaScript, сканер может не успевать их обработать, особенно если он работает в ограниченном режиме (например, без полного выполнения JS-кода).
2. Ошибки в логике сканирования:
Cканер использует некорректные паттерны или условия для поиска этих элементов. Например, он может искать только статические ссылки или текстовые упоминания, а не интерактивные компоненты.
3. Проблемы с детектированием модальных окон:
Модальные окна, такие как уведомление о cookies, могут быть сложнее обнаружить автоматически, особенно если они используют современные библиотеки (например, React, Vue.js) или CSS-стили, которые скрыты до взаимодействия пользователя.
В планах обновление алгоритма сканирования: добавление поддержки более глубокого анализа динамических элементов, включая модальные окна и JavaScript-генерированные компоненты.
Спасибо за внимательность и отличный пример! Вы абсолютно правы — это настоящая проблема, и она связана с тем, как сканер обрабатывает HTTP/HTTPS-редиректы.
Что сейчас происходит:
Когда вы вводите http://, а сайт редиректит на https://, наш сканер пока не всегда корректно следует за редиректом и может начать анализ по первоначальному HTTP-адресу. В результате:
Он не видит HTTPS-версию.
Считает, что SSL отсутствует.
Выдаёт ложное предупреждение.
Почему так происходит:
Сканер работает в браузере, и при прямом запросе к HTTP-адресу он не всегда "видит" финальный URL после редиректа, особенно если перенаправление происходит на уровне сервера (301/302).
Что касается вашего конкретного сценария — когда JS-файл подгружается только при определённых условиях (например, по мобильному User-Agent) и внутри него есть запрещённая ссылка, которая, в свою очередь, вызывается другим JS:
✅ Если ссылка на этот JS-файл есть в исходном коде сайта — сканер этот файл проанализирует его содержимое и обнаружит запрещённую ссылку, даже если она скрыта глубоко в коде.
⚠️ Если же файл подгружается полностью динамически, например, через fetch() или eval() только после выполнения определённого действия пользователя (например, клика или проверки UA), и при этом его URL не виден в первоначальной разметке или в явных скриптах — то он может быть пропущен при онлайн-сканировании, так как браузер не выполнит этот код автоматически.
Это связано с тем, что онлайн-сканер работает в условиях ограниченного выполнения кода — сложно полностью эмулировать все возможные пользовательские сценарии в браузере на стороне клиента.
Но есть решение:
Для таких сложных случаев дорабатывается локальный режим сканера, который позволяет более глубоко анализировать поведение сайта, включая динамически подгружаемые ресурсы.
О, мультфильм "Когда дует ветер" — как глоток прохладной воды посреди административного зноя. Эти двое англичан, которые до последнего момента проверяют:
Закрыта ли дверь в убежище? ✅
Подключён ли фильтр воздуха? ✅
Есть ли запас туалетной бумаги? ✅
А радио работает? ❌ (о, нет, опять
fonts.googleapis.com
в@import
)