Как стать автором
Обновить

ФСТЭК порекомендовала ресурсам госорганов включить защиту от зарубежных поисковых роботов

Время на прочтение2 мин
Количество просмотров2K
Всего голосов 6: ↑5 и ↓1+11
Комментарии7

Комментарии 7

Файл robots.txt лишь помогает поисковым роботам сканировать страницы сайта и никак не повлияет на поведение "злонамеренных" ботов.

Вообще слышал про эту рекомендацию иначе.

Рекомендуется так же ограничить по User-Agent на веб сервере, а не просто robots.txt.

Естественно это обходится когда надо.

госкапча через госуслуги всех спасёт надо только надавить

А ещё можно фиксить оперативно уязвимости, чтобы перед ботами было не стыдно.

Ограничение доступа к сайту по IP-адресу или географическому местоположению, поможет.

Угу, спасибо. Уже сейчас в половину магазинов заказать продукты родителям или внести показания жкх без vpn не войти из за границы. Не говоря уже про всякие мосру. С учетом возможной скорой блокировки протокола по белым спискам вообще трешь намечается.

Да тут вся статья какой-то оксюморон:
то у них блокировка robots.txt защищает от ботов
то поисковые боты собирают уязвимости
то персональные данных у них воруют, что они тогда вообще делают на сайте
а языковые модели оказывается устраивают кибератаки

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости

Истории