Описанная в топике проблема — это полная потеря параметров + смена типа запроса.
А вообще, разница между GET и POST есть. Обычно страница работает в двух режимах по GET-запросу что-то выводится, и есть кнопка, чтобы что-то изменить и послать POST-запрос.
В коде страницы обычно проверяется тип запроса и в зависимости от этого либо читаются, либо записываются данные. Вы же предлагаете проверять наличие конкретных переменных в общем массиве GET+POST и в зависимости от наличия или отсутствия каких-то из них выбирать режим. Так?
Это не очень хорошо т.к. увеличивает связанность кода. И заставляет держать в уме какие из переменных являются ключевыми при внесения изменений во все части сайта, где формируются ссылки на эту страницу, а также при изменении полей формы самой этой страницы.
Схема такая
1. Мы посылаем POST на mysite/mydir
2. Сервер отвечает нам 301 на mysite/mydir/ (почему это правильно, описано в документации к Апачу см. ссылку выше в посте Nikita)
3. Браузер делает GET без параметров на mysite/mydir/ (так и надо делать, это описано в RFC 2616)
На высоком уровне, как правило, можно так и делать, но это не решает описанную проблему, POST-запрос посланный на URL папки без слеша, превратится в пустой GET-запрос без параметров
Нет, это стандартный механизм перенаправления на адрес со слешем в конце. А при перенаправлении Вообще, все это логично, но все равно несколько неожиданно.
Непонятно, почему такой вывод? И зачем сайт-дублятор будет обновлять контент?
Вот по дате первой индексации, у кого раньше этот текст появился, того и считать автором, так наверно можно. Но все равно, будут ошибки.
Вы идеалист, это хорошо.
Для посещаемого сайта это тоже будет работать, главное чтобы контента было достаточно много, чтобы можно было установить достаточно большой лимит запросов с одного IP.
Блокировать все адреса на которых открыт 80 порт?
Очень легко обходится.
Вор сразу поймет, как его блокируют, ведь из дома сайт виден, с сервера — нет, и будет просто качать из дома.
Кроме того, часто на NAT-шлюзе стоит веб-сервер, много честных людей отсеется.
Это отображается при входе в CMS-панель управления сайтом, этот текст обращен к админу сайта. Мне понравился подход, не можешь исправить ошибку (возможность удаления главной страницы) — назначь наказание тому, кто ее вызовет. Все гениальное просто!
Да нет, ни одного «нормального» запроса с этих адресов не было, только такие одинаковые с периодичностью в несколько часов. На моем сайте стоит защита от скачивания контента и я заблокировал эти адреса т.к. это явно не человек, но недавно упал поток посетителей с Рамблера и я решил снова открыть их на всякий случай.
А вообще, разница между GET и POST есть. Обычно страница работает в двух режимах по GET-запросу что-то выводится, и есть кнопка, чтобы что-то изменить и послать POST-запрос.
В коде страницы обычно проверяется тип запроса и в зависимости от этого либо читаются, либо записываются данные. Вы же предлагаете проверять наличие конкретных переменных в общем массиве GET+POST и в зависимости от наличия или отсутствия каких-то из них выбирать режим. Так?
Это не очень хорошо т.к. увеличивает связанность кода. И заставляет держать в уме какие из переменных являются ключевыми при внесения изменений во все части сайта, где формируются ссылки на эту страницу, а также при изменении полей формы самой этой страницы.
1. Мы посылаем POST на mysite/mydir
2. Сервер отвечает нам 301 на mysite/mydir/ (почему это правильно, описано в документации к Апачу см. ссылку выше в посте Nikita)
3. Браузер делает GET без параметров на mysite/mydir/ (так и надо делать, это описано в RFC 2616)
В итоге мы теряем запрос.
Вот по дате первой индексации, у кого раньше этот текст появился, того и считать автором, так наверно можно. Но все равно, будут ошибки.
Для посещаемого сайта это тоже будет работать, главное чтобы контента было достаточно много, чтобы можно было установить достаточно большой лимит запросов с одного IP.
2. Маскировка раскрывается после просмотра WHOIS-информации.
Очень легко обходится.
Вор сразу поймет, как его блокируют, ведь из дома сайт виден, с сервера — нет, и будет просто качать из дома.
Кроме того, часто на NAT-шлюзе стоит веб-сервер, много честных людей отсеется.
Интересное явление, буду изучать дальше.