Search
Write a publication
Pull to refresh
47
0
Oleg Botvenko @bo2

Chief Technology Organism

Send message
А почему ничего не написано о выводе средств?
Описанная в топике проблема — это полная потеря параметров + смена типа запроса.

А вообще, разница между GET и POST есть. Обычно страница работает в двух режимах по GET-запросу что-то выводится, и есть кнопка, чтобы что-то изменить и послать POST-запрос.

В коде страницы обычно проверяется тип запроса и в зависимости от этого либо читаются, либо записываются данные. Вы же предлагаете проверять наличие конкретных переменных в общем массиве GET+POST и в зависимости от наличия или отсутствия каких-то из них выбирать режим. Так?

Это не очень хорошо т.к. увеличивает связанность кода. И заставляет держать в уме какие из переменных являются ключевыми при внесения изменений во все части сайта, где формируются ссылки на эту страницу, а также при изменении полей формы самой этой страницы.
Как это одновременно?
Схема такая
1. Мы посылаем POST на mysite/mydir
2. Сервер отвечает нам 301 на mysite/mydir/ (почему это правильно, описано в документации к Апачу см. ссылку выше в посте Nikita)
3. Браузер делает GET без параметров на mysite/mydir/ (так и надо делать, это описано в RFC 2616)

В итоге мы теряем запрос.
На высоком уровне, как правило, можно так и делать, но это не решает описанную проблему, POST-запрос посланный на URL папки без слеша, превратится в пустой GET-запрос без параметров
Искал параметры в $_POST и не находил их там.
Нет, это стандартный механизм перенаправления на адрес со слешем в конце. А при перенаправлении Вообще, все это логично, но все равно несколько неожиданно.
Подскажите, в чем ошибка?
А для английской версии домен sellkidney.com оторвали как-то
Да искал вроде по ссылке на сайт, видимо по ссылкам не ищет
Непонятно, почему такой вывод? И зачем сайт-дублятор будет обновлять контент?
Вот по дате первой индексации, у кого раньше этот текст появился, того и считать автором, так наверно можно. Но все равно, будут ошибки.
Вы идеалист, это хорошо.
Для посещаемого сайта это тоже будет работать, главное чтобы контента было достаточно много, чтобы можно было установить достаточно большой лимит запросов с одного IP.
1. Я имею в виду скачивание всей базы сайта.

2. Маскировка раскрывается после просмотра WHOIS-информации.
Блокировать все адреса на которых открыт 80 порт?
Очень легко обходится.
Вор сразу поймет, как его блокируют, ведь из дома сайт виден, с сервера — нет, и будет просто качать из дома.
Кроме того, часто на NAT-шлюзе стоит веб-сервер, много честных людей отсеется.
Скучный какой-то проект, в чем соль-то?
Я давно это делал, еще на 1.х может исправили.
Это отображается при входе в CMS-панель управления сайтом, этот текст обращен к админу сайта. Мне понравился подход, не можешь исправить ошибку (возможность удаления главной страницы) — назначь наказание тому, кто ее вызовет. Все гениальное просто!
Да нет, ни одного «нормального» запроса с этих адресов не было, только такие одинаковые с периодичностью в несколько часов. На моем сайте стоит защита от скачивания контента и я заблокировал эти адреса т.к. это явно не человек, но недавно упал поток посетителей с Рамблера и я решил снова открыть их на всякий случай.

Интересное явление, буду изучать дальше.

Information

Rating
Does not participate
Location
Киев, Киевская обл., Украина
Date of birth
Registered
Activity