Search
Write a publication
Pull to refresh

Comments 11

Ой да ладно, "для безопасности"...

Мы, говорят, вам ещё больше дыр добавим, ещё тяжелее сделаем, лишь бы наши ЫЫ-ыновации впихнуть

Достали уже "безопасностью" прикрывать всё, что угодно пытаться

Всё правильно написали, не к чему придраться. Никаких скрытых смыслов, что написано, то и есть. Сейчас ИИ пишет практически проходит тест тюрирга, разгадывает любые капчи, переигрывает человека почти в любые игры. Выявить ботов становится почти неразрешимой задачей. Единственное решение для гугла - собирать максимальный отпечаток пользователя. Когда данных много, их уже не подделать. А для трекинга некоторых событий нужен яваскрипт. Собственно, это и написано в первых двух предложениях в статье. Это не безопасность какого-то приложения, это безопасность компании, что она может выявить роботов.

Любопытное наблюдение: у меня вечная проблема с проходом гуглкапчи. На хабр войти - это раз 5 минимум надо тыкать квадратики. В среднем раз 10, а так бывало и по 30 раз приходилось (не шутка). А тут недавно обратил внимание на то, что часто ввод заканчивается когда я затупливаю ненадолго над какой-то картинкой. Такое впечатление, что быстрый проход с последовательным вводом он уже считает ботом.

PS: статистики пока мало, но я ещё буду эксеперементировать.

А я и не знал, что Поиск Google работает без JS. Жаль, что я раньше об этом не знал...

Так он там и не нужен, статичная страница да поле ввода с кнопкой. Даже раскрывающиеся списки и меню можно сделать без js

Как думаете, зачем тогда им нужен js?

Для сбора цифрового отпечатка пользователя и повышения тем самым безопасности (безопасность компании, не пользователя) - написано же.

Вообще, роботы Google умеют обрабатывать JavaScript и индексировать контент, который загружается с его помощью, но делают это не всегда хорошо. Если страница сильно завязана на JS, бот может не дождаться загрузки контента или неправильно его интерпретировать. В итоге он может увидеть страницу как "пустую" или неполную, что негативно сказывается на ранжировании. Поэтому важно оптимизировать сайты для поисковых ботов, даже если они умеют работать с JS.

Если поставить UserAgent старого браузера, примерно 7..8 летней давности или экзотику типо Lynx, то выдача все ещё будет отдаваться без js

В целом можно и без JS пройти, если разобраться, как устроен challenge.

И пока-что (на момент написания коммента) отпечаток пользователя они не собирают

Sign up to leave a comment.

Other news