мне больше всего понравилось предложение «Количество видеосодержимого будет расти, так как мы начинаем зарабатывать деньги на YouTube»,
т.е. больше будет видео, т.к. они решили больше зарабатывать (а что они тогда делали до сих пор), а не наоборот, т.к. их заработки увеличатся, т.к. увеличится количество видеоконтента)))
robots.txt — тут у гугла вообще свое мнение, а информация из robots.txt — это рекомендация, а не указание к действию. Очень часто страницы, закрытые в robots.txt, находятся в индексе
javascript — гугл тоже очень часто понимает, а из-за его желания индексировать ajax-сайты есть мнение, что он эмулирует работу JS. Так что это тоже не выход.
яндекс повторяет функционал гугла с некоторой задержкой, так что для него тоже многое верно
насчет печенек — мысль хорошая, только сайт-ловушку нужно делать на отдельном домене, иначе возможны проблемы с индексацией сайта. Хотя тот же самый плохой бот может не пойти по ссылке на другой домен. Так что этот метод под вопросом.
защита с формой — мысль тоже хорошая, но тут защита только от спама в комменты, от граббинга контента она не защищает.
а у вас есть какой-нибудь нормальный мануал как сделать php extension и под винду, и под линукс?
смотрел на сайте zend'a — слишком много подробностей, можно утонуть((
в общем, накидайте, пожалуйста, ссылок для изучения, давно есть потребность написать расширение для php
может быть вы знаете решение, как убрать там запятую из урла?
я пытался как-то исправить данный недочет, но моих знаний не хватает — слишком много изменений нужно вносить в сам движок
PS: нужны ссылки вида /uri/page/2, ну или хотя бы ?page=2, а то запятая только все портит
посмотрим на него через пару лет))
т.е. больше будет видео, т.к. они решили больше зарабатывать (а что они тогда делали до сих пор), а не наоборот, т.к. их заработки увеличатся, т.к. увеличится количество видеоконтента)))
перепутали причину со следствием))
robots.txt — тут у гугла вообще свое мнение, а информация из robots.txt — это рекомендация, а не указание к действию. Очень часто страницы, закрытые в robots.txt, находятся в индексе
javascript — гугл тоже очень часто понимает, а из-за его желания индексировать ajax-сайты есть мнение, что он эмулирует работу JS. Так что это тоже не выход.
яндекс повторяет функционал гугла с некоторой задержкой, так что для него тоже многое верно
насчет печенек — мысль хорошая, только сайт-ловушку нужно делать на отдельном домене, иначе возможны проблемы с индексацией сайта. Хотя тот же самый плохой бот может не пойти по ссылке на другой домен. Так что этот метод под вопросом.
защита с формой — мысль тоже хорошая, но тут защита только от спама в комменты, от граббинга контента она не защищает.
спасибо!
смотрел на сайте zend'a — слишком много подробностей, можно утонуть((
в общем, накидайте, пожалуйста, ссылок для изучения, давно есть потребность написать расширение для php
У вас там коментрариум?)))
на практике таким, конечно же, не занимаются, а меняют i-- на i++, но тут уже будет 2 символа)))
буду дальше думать