Комментарии 7
Файл robots.txt лишь помогает поисковым роботам сканировать страницы сайта и никак не повлияет на поведение "злонамеренных" ботов.
госкапча через госуслуги всех спасёт надо только надавить
А ещё можно фиксить оперативно уязвимости, чтобы перед ботами было не стыдно.
Ограничение доступа к сайту по IP-адресу или географическому местоположению, поможет.
Да тут вся статья какой-то оксюморон:
то у них блокировка robots.txt защищает от ботов
то поисковые боты собирают уязвимости
то персональные данных у них воруют, что они тогда вообще делают на сайте
а языковые модели оказывается устраивают кибератаки
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
ФСТЭК порекомендовала ресурсам госорганов включить защиту от зарубежных поисковых роботов