Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!
регистрация без подтверждения тоже интересна, по-моему это мало приятно, когда на ваш email зарегистрируют аккаунт и заполнят вам профиль противоречивой информацией.
ссылки в письмах могут быть одноразовымиНе решит проблему, если сам пользователь ни разу не воспользовался этой ссылкой, а после она попала в открытый доступ. Ограничить срок действия? А какой именно срок? День, два? А если я в отпуске был, а спустя месяц почту разгребаю?
убрать все ссылки из индекса GoogleНикто ничего не может убрать из индекса Google. Их робот сам решит убрать или нет, и если да, то когда именно это сделать. Можно лишь убрать страницы на своем сайте, на которые ведут эти ссылки, и когда-нибудь, когда Гугл решит, что они удалены достаточно давно, то может и удалит из индекса.
регистрация без подтвержденияА это вообще свинство какое-то
Представляется, что день-дваА вот и нет. Если ссылки каким-то образом уходят в публичный доступ, то почему это не может произойти за считанные минуты/часы? А Гугл индексирует многие сайты также в считанные минуты. Вуаля — через часок после отправки письма мы можем найти в Гугле нужные нам ссылки. Когда я спрашивал "А какой именно срок?", я далее пытался сказать, что нет ответа на этот вопрос. Если ссылки были в личной почте пользователя, то ответственность за их конфиденциальность лежит лично на самом пользователе, и никакие ограничения по количеству использований и срокам ничего не дадут.
P.S. Однако остаются не понятными легкомысленные действия администрации ресурса.
Однако, несколько недель назад мы предприняли меры по автоматической инвалидации авторизационных ссылок, найденных популярными поисковыми системами.
http://www.comedyclub.ru/robots.txt
Правила:
User-agent: *
Disallow: /
<meta name="robots" content="noindex, nofollow" /> или X-Robots-Tag HTTP headerесли гуглу надо он это возьметНа указаном скриншоте русским по белому написано: «Описание веб-страницы недоступно из-за ограничений в файле robots.txt».
Хотя Google не сканирует и не индексирует содержание страниц, заблокированных в файле robots.txt, URL, обнаруженные на других страницах в Интернете, по-прежнему могут добавляться в индекс. В результате URL страницы, а также другие общедоступные сведения, например текст ссылок на сайт или заголовок из каталога Open Directory Project (www.dmoz.org), могут появиться в результатах поиска Google.
Поэтому лучше использовать стандартныеЧем лучше? Они делают какую-то особую магию, а не просто рекомендательные, как robots.txt? Или лучше напрячь сервер Гуглом, впустую скачивающим все страницы ради meta-robots или X-Robots-Tag, вместо того чтобы даже не соваться на них после прочтения robots.txt?
продвинутые вебмастера, которые в теме особенностей индексации сайтов и поведения роботов, используют метатег robots.
И снова небольшая выдержка из руководства от Google:
Чтобы полностью исключить вероятность появления контента страницы в индексе Google, даже если на нее ссылаются другие сайты, используйте метатег noindex. Если робот Googlebot начнет сканировать страницу, то обнаружит метатег noindex и не станет отображать ее в индексе.
Внушает оптимизм, не правда ли? И еще:
Обратите внимание: чтобы увидеть тег noindex, мы должны просканировать вашу страницу, поэтому существует небольшая вероятность, что поисковый робот Googlebot не увидит метатег noindex и не отреагирует на него. Кроме того, если вы заблокировали эту страницу с помощью файла robots.txt, мы также не сможем увидеть этот тег.
Следовательно, все страницы, которые мы хотим запретить к индексации, а так же исключить их из индекса, если они уже проиндексированы (насколько я понял, это касается и доп. индекса Гугла), необходимо на всех таких страницах поместить метатег . Что еще более важно, эти самые страницы не должны быть закрыты через robots.txt
Короче говоря, чтобы полностью запретить индексацию ненужных страниц и появление их в поиске необходимо на всех этих страницах разместить метатег<meta name="robots" content="noindex,nofollow">.
Чтобы полностью исключить вероятность появления контента страницы в индексе Google, даже если на нее ссылаются другие сайты, используйте метатег noindex.М-да… Случаются факапы в документации :)
если вы заблокировали эту страницу с помощью файла robots.txt, мы также не сможем увидеть этот тег.не кажется странным? Страницу видит, а тег в ней нет?
<meta name="robots" content="noindex,nofollow"> или X-Robots-Tag HTTP header, то буквально за несколько апдейтов вылетели «лишние» страницы.если указаны правила через robots.txt (то месяцами страницы в индексе)Возможно, но ведь это не то же самое, что
если гуглу надо он это возьмет
https://eu1.badoo.com/access.phtml?UID=... кроме того, что эти ссылки существуют, ибо robots.txt. Нахождение их именно таким способом — лишь мелкая неприятность, а сокрытие — лишь заметание проблем под ковёр. По незащищенным каналам (коим и является нешифрованная почта) вообще нельзя отсылать ссылки, пропускающие без аутентификации. Если хочется облегчить пользователям жизнь, то хотя бы долгоживущие куки надо вешать — всё лучше, чем пускать всех без разбору, а уж набрать пароль раз в месяц — думаю никто не развалится.А при чем тут роботс?
Мы не контролируем такие действия пользователей и не можем их остановить.
Это не уязвимость, это ошибка и мы ее обязательно пофиксим.
и спросила можно ли написать статью на ХабрахабрА зачем спрашивать? Это же не уязвимость! :)
При помощи ошибки злоумышленник не может получить доступ к личным данным других пользователей. Все, что он может сделать – использовать чужой или несуществующий email в регистрации. Худшее, что может произойти — пользователь, который не регистрировался на нашем сайте, начнет получать от нас письма.


На Badoo конфиденциальность информации имеет огромное значение. Так как мы отвечаем за ваши данные, мы разработали политику, гарантирующую их полную защиту во время использования сайта Badoo.
О себе: я есть
Подписан на: Badoo
Работаю: Badoo
Подписан на: Badoo
Работаю: Badoo
так вообще не делается с секьюрити багами
Дальше, мы признали свои косяки.
(минусует корректные ответы, гадит в карму сотрудникам и тд)
Ищите ошибки с помощью Google или «взлом» аккаунтов на badoo.com