Обновить

Комментарии 24

а не проще ли заблокировать возможность скачки контента?
Как?
Спасибо конешно за минусы, я непротив )).
Помойму есть же программное решение, которое блокирует копирование картинок и текстов в общедоступном смысле слова. (или я ошибаюсь и это недейственно?)
100% гарантии от копирования конешно нет — в любом случаи перенабор текста или скрин картинки будут допустимы, но и легкого копирования не будет.
Это невозможно.
Что мне помешает выделить текст с картинками и скопировать его?
Вставить в ОпенОфис и сохранить страничку.
я не программист конечно, но не раз натыкался на сайты с которых текст просто так не скопируешь и картинку тоже — поэтому подумал, что это должно решаться на программном уровне.
Даже если и так, то — у браузеров существует такая штука — кэш называется (во всяком случае — у большинства...) :-)
>я не программист конечно
если вы не компетентны зачем тогда даете советы?
А что, боты научились пользоваться браузерами?
Видимо, имеется в виду что-то похожее на защиту текстов книг на не-помню-каком сайте: текст грузился скриптом, запрещалось выделение текста (точнее, снималось периодически), в слова вставлялись лишние буквы, которые скрипт же делал невидимыми (но в dom-е они грязи наводили). Кажется, так дело было (а, может, и сейчас есть).

Владельцам оперы приходилось делать аж 2 лишних движения перед сохранением такой странички: нажимать ф12 и выключать скрипты. И перед загрузкой следующей включать обратно. Приверженцы других браузеров наверняка тоже могли добиться чтения текста на не подключенном к интернету устройстве, но способы мне неведомы.
А всё таки зачем, философский вопрос…
Создавайте контент и вам за это не только спасибо скажут, за качество и актуальность контента, но если философия вашей деятельности укладывается, например в пять слов «зарабатывать на трафике с поисковиков», то выхлоп соответствует.
Приведенный вами метод подходит для очень маленького и не посещаемого ресурса и соответственно ценность подобного подхода если это он весь очень мала, да и зачем.
Да, расскажите зачем? Если уже сейчас поисковики анализируют информацию и ищут первоисточники, например…
НЛО прилетело и опубликовало эту надпись здесь
Вы идеалист, это хорошо.
Для посещаемого сайта это тоже будет работать, главное чтобы контента было достаточно много, чтобы можно было установить достаточно большой лимит запросов с одного IP.
просто парсинги бывают разные

1.парсинг нужного контента занимает не более часа, ночью, часто с разных ип, и все на этот сайт я прийду в лучшем случае через полгода когда накопиться контент.

2.против систематических ботов такое может и сработает, но они берт часто но мало так что врят ли вы обнаружите этого бота, тем более они маскируются под гуглебота или яндекс бота
1. Я имею в виду скачивание всей базы сайта.

2. Маскировка раскрывается после просмотра WHOIS-информации.
Блокировать все адреса на которых открыт 80 порт?
Очень легко обходится.
Вор сразу поймет, как его блокируют, ведь из дома сайт виден, с сервера — нет, и будет просто качать из дома.
Кроме того, часто на NAT-шлюзе стоит веб-сервер, много честных людей отсеется.
«коварный прием» заключается в подмене контента?
В общем, да
не нарваться бы на пенальти со стороны того же поисковика за такой финт…
имхо ето забота поисковиков, пусть записываются в базу сайты где одинаковый контент, после обновления одноги из сайтов посковый бот идет на все сайты и проверят нет ли там такого же обновления контента, если нет — значи ето сайт-дублятор и автоматически он понижается в видаче.
*в выдаче относительно первоисточника. если сайт будет копировать с 10 источников, то он автоматически «опустится» относительно 10 сайтов.
Непонятно, почему такой вывод? И зачем сайт-дублятор будет обновлять контент?
Вот по дате первой индексации, у кого раньше этот текст появился, того и считать автором, так наверно можно. Но все равно, будут ошибки.
первый проиндексированый не всегда первый написаный.
особенно ето заметно когда копирует контент популярный ресурс, где поисковый бот практически не уходит с него.
Если у вас Линукс — достаточно лишь добавить одно(точнее два) правила в iptables, исползуя модуль recent.
Можете ограничить количество подключений с одного адреса за определенный промежуток времени.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации