Comments 23
Это ваша курсовая работа?
А как же поисковые роботы и пользователи которые сидят за NAT?
От такого решения больше вреда чем пользы.
От такого решения больше вреда чем пользы.
Прошу не судить строго. Это моя первая публикация.
Имею большой опыт работы с очень крупными проектами. Нигде не сталкивался с подобным — я имею ввиду т.н. защиту от интенсивных запросов. Чтобы сайт не валился от парсинга страниц необходимо использовать методы кэширования. В целом же выдача по адресу какого-то сгенеренного текста вместо реального содержимого страницы может привести к санкциям от SE и вообще к непоняткам в работе ресурса и напряжение службы поддержки.
Это плохой метод решения проблемы, которая к тому же не доставляет таких неудобств, а проблем можно отгрести намного больше, чем экономии ресурсов сервера.
Это плохой метод решения проблемы, которая к тому же не доставляет таких неудобств, а проблем можно отгрести намного больше, чем экономии ресурсов сервера.
Это полезно, когда прилетают какие-нить 1+ миллиона паразитных запросов в секунду на машину. Из них легитимных единицы процентов. Но не на php скриптике и файлах в ФС такое обрабатывать, конечно.
А я вот сталкивался) Пишу/исправляю при необходимости тут на досуге для знакомого парсер deviantart.com. Я пока еще нигде не встречал такой изощренной защиты от парсинга — максимум ндцать запросов за опеределенный промежуток времени с одного аккаунта/ip, проверка на возможность доступа к странице с указанного referer, постоянная запись в куки какой-то информации без которой последующие страницы не будут доступны, скачать файлы можно только в течение нескольких минут с момента получения токена и еще куча всякого. Жуть в общем, но тут за счет тематики сайта такая защита действительно оправданна.
Все уже сказали, но я еще раз допишу.
Казенный язык и жуткий шрифт в серых прямоугольниках обдает таким совком, как буд-то у сайта проходную поставили с вахтером. Впрочем это нивелируется тем что это курсовая работа, хотя становится немножко грустно.
Плюс все вышеперечисленные пробемы — считать таким образом ссылки и хиты, гарантированно приведет к проблемам с доступом к сайту у легитимных пользователей и очень быстро. Даже если у сайта будет 100 посетителей в день — человек 5 будут жаловаться что что-то не грузится и не открывается. Это как из теории, так и из практики, я тоже был молодой. Плюс конечно весь набор любого уважающего себя сайта — индексация поисковыми машинами, любые SEO, всякие распределения нагрузки — все это сразу сворачивается к праотцам.
Если выкручивать у такого скрипта параметры к миллионам (реально проблемным атакам) и ставить его на сравнимые нагрузки — сразу окажется что 80% времени сервер занят исполнением этого скрипта.
Казенный язык и жуткий шрифт в серых прямоугольниках обдает таким совком, как буд-то у сайта проходную поставили с вахтером. Впрочем это нивелируется тем что это курсовая работа, хотя становится немножко грустно.
Плюс все вышеперечисленные пробемы — считать таким образом ссылки и хиты, гарантированно приведет к проблемам с доступом к сайту у легитимных пользователей и очень быстро. Даже если у сайта будет 100 посетителей в день — человек 5 будут жаловаться что что-то не грузится и не открывается. Это как из теории, так и из практики, я тоже был молодой. Плюс конечно весь набор любого уважающего себя сайта — индексация поисковыми машинами, любые SEO, всякие распределения нагрузки — все это сразу сворачивается к праотцам.
Если выкручивать у такого скрипта параметры к миллионам (реально проблемным атакам) и ставить его на сравнимые нагрузки — сразу окажется что 80% времени сервер занят исполнением этого скрипта.
А можно адресок сайта на котором стоит этот скрипт, хочу посмотреть что будет если отправить ему миллион запросов с подделанными разными «X-Forwarded-For: »? =D И все из диапазона 255-999.255-999.255-999.255-999. Если я не разучился читать пхп он создаст миллион файлов с такими именами которые никогда не будут стерты.
Видели когда-нибудь как работает линукс с миллионом файлов в директории?
Видели когда-нибудь как работает линукс с миллионом файлов в директории?
Да уж в каком то роде инновационное решение в публикации. Так, от DDos и взломов еще никто не защищался…
Уже в который раз читаю на хабре статью, в которой предлагается способ защиты от ддос, который на самом деле облагчает задачу ддосеру. Помню статью, где обсуждалась защита от перебора пароля в форме аутентификации и предлагалось банить от попыток входа на какое-то время пользователя, в которого пытались зайти. Разумеется, ддосеру достаточно постоянно пытаться влогиниться под всеми пользователями, чтобы никто не мог войти. И подобных примеров видел немало. Вывод: для ИБ требуется опыт.
Данный скрипт не рассчитан на миллионные запросы. А так он спокойно удаляет файлы по истечению времени.
Эффективнее использовать модуль nginx ngx_http_limit_conn_module. Думаю, для апач что-то похожее тоже есть.
А не limit_req?
Как курсовая работа, конечно прекрасно, но, на практике, рекомендую не изобретать велосипед, а использовать, как уже говорили выше, штатные средства nginx (у вас же nginx наружу смотрит, не так ли?) во взаимодействии с fail2ban — отличная программа, которая анализирует логи и управляет правилами файрволла. Настройка и поддержка такого решения очень проста, мануалов в сети куча, да и кроме HTTP DDOS позволит защититься например от брута других протоколов и т.д.
Nemesida WAF — это межсетевой экран прикладного уровня (Web Application Firewall), позволяющий обеспечить защиту сайта от хакерских атак даже в случае наличия на сайте уязвимости «нулевого дня».
Sign up to leave a comment.
Защита сайта от сканирования и хаотичных интенсивных запросов