Pull to refresh
0
Никита@petrouv

User

1
Subscribers
Send message
>> б) позволяет отсечь мусорный трафик который невозможно отсечь минус-словами.
Поясните, пожалуйста, не смог понять.
Я правильно понимаю, что в случае изменения какого-либо файла в папке latest, он изменится также во всех копиях (в папках названных датами)? То есть папка latest будет отличаться от копий только наличием новых файлов или отсутствием старых?
Соглашусь. Почему гугл использует тогда свою жуткую, а не нижние варианты? У гугловой выше стойкость?
С обычной капчей еще какая проблема. Если ты не забыл пароль и подбираешь его, то параллельно ты еще подбираешь капчу, что увеличивает время на логин геометрически. Если бы у меня была возможность тратить секунду на текст, но при этом быть уверенным, что слово которое я введу точно верное, я бы предпочел такую капчу.
Возможно, такой вариант капчи уместнее тогда, когда предстоит большое количество попыток какого-то действия (подбор пароля, подбор незанятого логина, подбор свободного домена). То есть когда время на осмысление текста меньше, чем время повторной попытки.
Я тут забыл пароль от гмейла. Замучался подбирать их капчу. Прочесть одно предложение и осмыслить его — просто. Если ты понял, какое слово имелось ввиду — это ~100% вероятность попадания. В отличие от всех других капч (ну кроме тех, которые предлагают складывать числа, чем лично мне импонируют более всего)
Мне кажется проще распознать словарное слово, чем разбираться в слипшихся буквах. Ну и потом, это так, просто идея, приснилось.
Я не планирую идти с этим клянчить хулиарды инвестиций.
Круто. На мой взгляд выводы британских ученых подтверждаются. Весь вопрос в том, как организовать все это так, чтобы боты не пробились:
— вывод картинкой
— искомое слово можно трансформировать в другое словарное слово перестановкой букв
— выделять искомое слово в тексте неочевидным для ботом образом (я не знаю, насколько сложно отличать наклонный текст от обычного, например)
Ну разгадывать какую-нибудь рекапчу то еще удовольствие тоже.
Да тексты то найти не проблема, lib.ru. Запустил паука по классическим произведениям.
Ну вот ребята говорят, по словарю быстро можно все проверять.
Кроме того, я бы делал иначе. Составил бы список слов, переставив буквы в которых можно получить другое слово и потом просто искал отрывки с вхождениями таких слов.
Я так быстро программировать не умею. Голова еще болит, простите.
Написал комментарий, обновил страницу и он пропал. Еще пять раз обновил — не было его! Что это за обман?
Во! Бот не сможет распознать. Сможет распознать человек, исходя из контекста. Вы видимо не обратили внимание, что показывается кусок осмысленного текста, а не одно слово.
Во! Бот не сможет распознать. Сможет распознать человек исходя из контекста.
Для повышения устойчивости, можно выделять те слова, переставляя буквы в которых, можно получить разные словарные слова.
Это просто известная в узких кругах картинка-баян.
Насколько сложно ли распознать какое слово было выделено жирным, если текст представлен в виде картинки?
И насколько легко можно распознать слово, если буквы переставлять в длинном слове (например, яндекс, не предлагает исправить слово «пряокде»?
Жирный минус — привязка к языку.
Но самое главное − Правительство получало право определять обязательные требования по защите только для государственных и муниципальных учреждений. То, как защищают информацию все остальные организации − оставалось целиком на их совести.

Я не смог разобраться. Вышеуказанное было в измененный варианте статьи, который «просто выбросили из законопроекта» или это то, что теперь описывает закон?
Подскажите, пожалуйста, где задать request.meta['proxy'] при использовании CrawlSpider?
А где ее найти в iOS 3.1.3?

Information

Rating
Does not participate
Location
Россия
Date of birth
Registered
Activity