Pull to refresh

Comments 24

а не проще ли заблокировать возможность скачки контента?
Спасибо конешно за минусы, я непротив )).
Помойму есть же программное решение, которое блокирует копирование картинок и текстов в общедоступном смысле слова. (или я ошибаюсь и это недейственно?)
100% гарантии от копирования конешно нет — в любом случаи перенабор текста или скрин картинки будут допустимы, но и легкого копирования не будет.
Это невозможно.
Что мне помешает выделить текст с картинками и скопировать его?
Вставить в ОпенОфис и сохранить страничку.
я не программист конечно, но не раз натыкался на сайты с которых текст просто так не скопируешь и картинку тоже — поэтому подумал, что это должно решаться на программном уровне.
Даже если и так, то — у браузеров существует такая штука — кэш называется (во всяком случае — у большинства...) :-)
>я не программист конечно
если вы не компетентны зачем тогда даете советы?
А что, боты научились пользоваться браузерами?
Видимо, имеется в виду что-то похожее на защиту текстов книг на не-помню-каком сайте: текст грузился скриптом, запрещалось выделение текста (точнее, снималось периодически), в слова вставлялись лишние буквы, которые скрипт же делал невидимыми (но в dom-е они грязи наводили). Кажется, так дело было (а, может, и сейчас есть).

Владельцам оперы приходилось делать аж 2 лишних движения перед сохранением такой странички: нажимать ф12 и выключать скрипты. И перед загрузкой следующей включать обратно. Приверженцы других браузеров наверняка тоже могли добиться чтения текста на не подключенном к интернету устройстве, но способы мне неведомы.
А всё таки зачем, философский вопрос…
Создавайте контент и вам за это не только спасибо скажут, за качество и актуальность контента, но если философия вашей деятельности укладывается, например в пять слов «зарабатывать на трафике с поисковиков», то выхлоп соответствует.
Приведенный вами метод подходит для очень маленького и не посещаемого ресурса и соответственно ценность подобного подхода если это он весь очень мала, да и зачем.
Да, расскажите зачем? Если уже сейчас поисковики анализируют информацию и ищут первоисточники, например…
UFO just landed and posted this here
Вы идеалист, это хорошо.
Для посещаемого сайта это тоже будет работать, главное чтобы контента было достаточно много, чтобы можно было установить достаточно большой лимит запросов с одного IP.
просто парсинги бывают разные

1.парсинг нужного контента занимает не более часа, ночью, часто с разных ип, и все на этот сайт я прийду в лучшем случае через полгода когда накопиться контент.

2.против систематических ботов такое может и сработает, но они берт часто но мало так что врят ли вы обнаружите этого бота, тем более они маскируются под гуглебота или яндекс бота
1. Я имею в виду скачивание всей базы сайта.

2. Маскировка раскрывается после просмотра WHOIS-информации.
Блокировать все адреса на которых открыт 80 порт?
Очень легко обходится.
Вор сразу поймет, как его блокируют, ведь из дома сайт виден, с сервера — нет, и будет просто качать из дома.
Кроме того, часто на NAT-шлюзе стоит веб-сервер, много честных людей отсеется.
«коварный прием» заключается в подмене контента?
В общем, да
не нарваться бы на пенальти со стороны того же поисковика за такой финт…
имхо ето забота поисковиков, пусть записываются в базу сайты где одинаковый контент, после обновления одноги из сайтов посковый бот идет на все сайты и проверят нет ли там такого же обновления контента, если нет — значи ето сайт-дублятор и автоматически он понижается в видаче.
*в выдаче относительно первоисточника. если сайт будет копировать с 10 источников, то он автоматически «опустится» относительно 10 сайтов.
Непонятно, почему такой вывод? И зачем сайт-дублятор будет обновлять контент?
Вот по дате первой индексации, у кого раньше этот текст появился, того и считать автором, так наверно можно. Но все равно, будут ошибки.
первый проиндексированый не всегда первый написаный.
особенно ето заметно когда копирует контент популярный ресурс, где поисковый бот практически не уходит с него.
Если у вас Линукс — достаточно лишь добавить одно(точнее два) правила в iptables, исползуя модуль recent.
Можете ограничить количество подключений с одного адреса за определенный промежуток времени.
Sign up to leave a comment.

Articles