Pull to refresh
47
0
Oleg Botvenko @bo2

Chief Technology Organism

Send message
А почему ничего не написано о выводе средств?
Описанная в топике проблема — это полная потеря параметров + смена типа запроса.

А вообще, разница между GET и POST есть. Обычно страница работает в двух режимах по GET-запросу что-то выводится, и есть кнопка, чтобы что-то изменить и послать POST-запрос.

В коде страницы обычно проверяется тип запроса и в зависимости от этого либо читаются, либо записываются данные. Вы же предлагаете проверять наличие конкретных переменных в общем массиве GET+POST и в зависимости от наличия или отсутствия каких-то из них выбирать режим. Так?

Это не очень хорошо т.к. увеличивает связанность кода. И заставляет держать в уме какие из переменных являются ключевыми при внесения изменений во все части сайта, где формируются ссылки на эту страницу, а также при изменении полей формы самой этой страницы.
Как это одновременно?
Схема такая
1. Мы посылаем POST на mysite/mydir
2. Сервер отвечает нам 301 на mysite/mydir/ (почему это правильно, описано в документации к Апачу см. ссылку выше в посте Nikita)
3. Браузер делает GET без параметров на mysite/mydir/ (так и надо делать, это описано в RFC 2616)

В итоге мы теряем запрос.
На высоком уровне, как правило, можно так и делать, но это не решает описанную проблему, POST-запрос посланный на URL папки без слеша, превратится в пустой GET-запрос без параметров
Искал параметры в $_POST и не находил их там.
Нет, это стандартный механизм перенаправления на адрес со слешем в конце. А при перенаправлении Вообще, все это логично, но все равно несколько неожиданно.
Подскажите, в чем ошибка?
А для английской версии домен sellkidney.com оторвали как-то
Да искал вроде по ссылке на сайт, видимо по ссылкам не ищет
Непонятно, почему такой вывод? И зачем сайт-дублятор будет обновлять контент?
Вот по дате первой индексации, у кого раньше этот текст появился, того и считать автором, так наверно можно. Но все равно, будут ошибки.
В общем, да
Вы идеалист, это хорошо.
Для посещаемого сайта это тоже будет работать, главное чтобы контента было достаточно много, чтобы можно было установить достаточно большой лимит запросов с одного IP.
1. Я имею в виду скачивание всей базы сайта.

2. Маскировка раскрывается после просмотра WHOIS-информации.
Блокировать все адреса на которых открыт 80 порт?
Очень легко обходится.
Вор сразу поймет, как его блокируют, ведь из дома сайт виден, с сервера — нет, и будет просто качать из дома.
Кроме того, часто на NAT-шлюзе стоит веб-сервер, много честных людей отсеется.
Скучный какой-то проект, в чем соль-то?
Я давно это делал, еще на 1.х может исправили.
Это отображается при входе в CMS-панель управления сайтом, этот текст обращен к админу сайта. Мне понравился подход, не можешь исправить ошибку (возможность удаления главной страницы) — назначь наказание тому, кто ее вызовет. Все гениальное просто!
Да нет, ни одного «нормального» запроса с этих адресов не было, только такие одинаковые с периодичностью в несколько часов. На моем сайте стоит защита от скачивания контента и я заблокировал эти адреса т.к. это явно не человек, но недавно упал поток посетителей с Рамблера и я решил снова открыть их на всякий случай.

Интересное явление, буду изучать дальше.

Information

Rating
Does not participate
Location
Киев, Киевская обл., Украина
Date of birth
Registered
Activity