Search
Write a publication
Pull to refresh

Comments 60

Человеческое выживание зависит от нашей боевой готовности к возрастающей угозе нападения роботов %)
неконтролируемый наплыв не уменьшиться-то, а просто станет прослеживаемым
UFO landed and left these words here
Ммм...а как насчет расширить функциональность API?
Ответ на такой вопрос, кажется, уже любой здесь может угадать
UFO landed and left these words here
Вы просто не видели наших журналов
Авторы этой фразы вовсе не разработчики Фаерфокса :)
(А на самом деле "три закона робототехники" Айзека Азимова)
UFO landed and left these words here
>1.1 Общие правила:
>
>Допускается запрос одного и того же документа (адрес документа определяется URI вида
>http://[username.]habrahabr.ru/[document]) не чаще одного раза в минуту.

а как же тогда флеймить добропорядочным пользователям? =/
Обратите внимание на заголовок документа
Присоединяюсь. Очень не хочется вылетать на автомате даже из-за простого обновления страницы… :(
Вы читаете Хабр ботом? С юзерагентом, отличным от мозилловского, оперного или майкрософтовского?
Похоже, это сам бот пишет
Другими словами, боты против
ага, им флудить теперь запретят))
Читаю хабр (думаю что не один такой) с помощью Google Reader-а. Получается, что если гугл не позаботился о кэшировании rss, то и его "забанить" могут? (;
Гугл ведёт себя предельно корректно
Вопрос был с подтекстом. Если куча народа будет осуществлять доступ к хабру через какой-либо популярный ресурс, и этот ресурс превысит "пределы нагрузки", то будет ли он автоматически забанен? Или "неприкасаемые" все же есть?
В самом деле, всё зависит от ресурса. Если кого-то и придётся банить, то, конечно, в индивидуальном или полуавтоматическом порядке. Всё на усмотрение администрации.

Единственное исключение: думаю, особое суровое отношение будет к тем, кто обращается к сайту с пустым заголовком User-Agent.
Мы тоже пользуемся Google Reader, так что не волнуйтесь.
"Мы" звучит очень интригующе и внушительно, конечно... Но речь не о моем волнении, а о взешенности решения о принятии правил для ботов.
UPD: Сначала написал, а потом полез профайл rossomachin смотреть... Ну раз одмин, то ладно, одминам завсегда виднее*. о_0
* произносится с нотками сарказма
Временами мне кажется, что Джукс — робот, ибо кто как не робот может лучше всех понимать роботов.
UFO landed and left these words here
UFO landed and left these words here
Чтобы меня было проще понять, приведу один из реальных примеров народной самодеятельности (имена героев намеренно изменены).

В то время, когда есть http://habrahabr.ru/rss/job/, некоторые, особо одаренные «несуны», находят себя в следующем:

1.2.3.4 - - [02/Jul/2008:03:57:00 +0400] "GET /job/ HTTP/1.0" 200 20127 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:00 +0400] "GET /job/page1/ HTTP/1.0" 200 18665 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:00 +0400] "GET /job/page2/ HTTP/1.0" 200 20201 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:00 +0400] "GET /job/page3/ HTTP/1.0" 200 20344 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:00 +0400] "GET /job/page4/ HTTP/1.0" 200 20232 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:00 +0400] "GET /job/page5/ HTTP/1.0" 200 20248 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:00 +0400] "GET /job/page6/ HTTP/1.0" 200 20180 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:00 +0400] "GET /job/page7/ HTTP/1.0" 200 20186 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:00 +0400] "GET /job/page8/ HTTP/1.0" 200 20207 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:00 +0400] "GET /job/page9/ HTTP/1.0" 200 20093 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:01 +0400] "GET /job/page10/ HTTP/1.0" 200 20140 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:01 +0400] "GET /job/page11/ HTTP/1.0" 200 20236 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:01 +0400] "GET /job/page12/ HTTP/1.0" 200 20171 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:01 +0400] "GET /job/page13/ HTTP/1.0" 200 20364 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:01 +0400] "GET /job/page14/ HTTP/1.0" 200 20375 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:01 +0400] "GET /job/page15/ HTTP/1.0" 200 20076 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:01 +0400] "GET /job/page16/ HTTP/1.0" 200 20204 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:01 +0400] "GET /job/page17/ HTTP/1.0" 200 20189 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:01 +0400] "GET /job/page18/ HTTP/1.0" 200 20127 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:01 +0400] "GET /job/page19/ HTTP/1.0" 200 20127 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:01 +0400] "GET /job/page20/ HTTP/1.0" 200 20127 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:01 +0400] "GET /job/page21/ HTTP/1.0" 200 20127 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:01 +0400] "GET /job/page22/ HTTP/1.0" 200 20127 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:01 +0400] "GET /job/page23/ HTTP/1.0" 200 20127 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:02 +0400] "GET /job/page24/ HTTP/1.0" 200 20127 "-" "xxxxxx"
1.2.3.4 - - [02/Jul/2008:03:57:02 +0400] "GET /job/page25/ HTTP/1.0" 200 20127 "-" "xxxxxx"
скажу Вам по секрету - могли драть полностью весь архив - в rss-то его не найдешь :)

no eto ne ja (:
*от имени всех роботов*: вы ущимляете наши права!
слишиш, хабр, мелач есть, а?
слишиш, хабр, API есть, а?
почитать есть чо? а если попарсить?
васа, пацикав щимят шоделать шоделать...
*DEAD* robots: admin dobav eshe botov za CT plz!!!!11
UFO landed and left these words here
*роботовато-зомбоватым голосом* : ЕЩЁ-Ё ИНФОРМАЦИИИ-И-И, ЕЩЁ-Ё-Ё-Ё!!!!
Прошу прощения, чёрт, как же я мог забыть. Ещё раз извиняюсь.
А вот за это и будем Beat твою Ass !!! =)
"Я открою свой Лунапарк, с блек-джеком и шлюхами!" (Бендер, Футурама)
офф: сплошные плюсы в топике, ни единого мисуа :))
UFO landed and left these words here
UFO landed and left these words here
Если я ничего не путаю, то кармаграф попадает под статью, так как не передаёт User-Agent. Никто никому ничего не запрещал
UFO landed and left these words here
Sign up to leave a comment.

Articles