Как стать автором
Обновить

Комментарии 50

Мне кажется ты реально идиот. Без обид.
Нельзя ПОЛОГАТЬСЯ НА ДОВЕРИЕ, если Васе не понравится сайт А, а Петю взломают. Твоя система автоматом заблокирует все что можно. А Сайт В, который вообще не при делах, подаст на тебя в суд, за клевету, порчу репутации. Understand? Или альтруизм тебе глаза закрыл окончательно или бесповоротно?!
Еще один тролль, к тому же, малограмотный.

Какая «клевета», какая «порча репутации»? Дисклеймер читайте, который в файле со списками. Наличие домена в черном списке не означает его связи со спамерами. Рассматривайте это как «список доменов, комментарии с которыми я отправляю на премодерацию». С юристами я консультировался ;-)

И система не заблокирует автоматом «все, что можно». Она отправит на премодерацию комментарии с доменами, которые доверенные люди посчитали спамом.
Меня, моя грамотность, вполне устраивает. Твой сайт вызывает усмешку, that's all. Складывается впечатление, что тебя очень долго мучили спаммеры, полсе чего у тебя случался припадок и истерия. Понтов столько же, как у лебедева, вопрос только в том, что ты из себя представляешь, мое мнение — ничего интересного. Твоя система полный бред. Все что ты делаешь, не развиваешься, а кидаешь понты, про свои связи в яндексе, гугле, твоих консультациях с юристами, и амбициозными прожектами. Твое право, каждый развлекается в меру своих «амбиций».
Какой забавный экземпляр. Спасибо Вам за то, что Вы есть, без таких истеричек жить было бы очень скучно :)
лол, ты смешной :) Забавно как ты обижаешся на мои слова :)
Слишком предсказуемый ответ, даже скучно :(
Гы, а я этого типа помню по прошлой публикации и как он бесился там :-)
Похоже затронули его интересы :-)
Кстати после прошлого нашего обсуждения они попытались задосить и заспамить один из наших серверов причём абсолютно безуспешно :-)
И посему готов нанести им ответный удар только скажите как :-)

Если учесть, что он состоит в «PHP», «Я пиарюсь», «SEO & SMO», а также тренируется в антипиаре антиспаммеров, скорее всего он действительно блог-спаммер.
В первую очередь он мудак. Извините, вырвалось.
Не извиняйтесь, я Вас понимаю. Сам еле сдержался :)
Извините, но складывается впечатление, что автор комментария как минимум пьян, а как максимум — действительно неадекватен. Еще раз простите, если ошибаюсь.
Сорри — автору чуть выше конечно )
Ничего страшного, я тоже неадекватен :-)
> Меня, моя грамотность, вполне устраивает

Вы так обратились к Новикову, «моя грамотность»? :-)
«Нашааа преееллессть, горлм».
Если в самом деле зачем ты тут жопу рвёшь?
Зачем пишешь комменты гневные?
Зачем на всё это время тратишь?
Да ты же упоротый.
Такая социальность требует проверки пользователем, потому что слепо доверять чужому БЛ — это неправильно. Взлом, резко отношения ухудшатся, или просто будет «шутка», о которой позже забудут, ровно как и удалить домен из БЛ.

Больше импонирует такая система:
Есть сайт, на котором раз в сутки обновляются домены, выводится ссылки на них, и зарегистрированные пользователи могут оценить ссылку — больше числа N — уходит на проверку модератором, и при подтверждении, в БЛ.

Вот что-то в таком ключе :)
Такие варианты тоже рассматриваются ;)
Вообще, определенная децентрализованность системы вставит палки в колеса паразитам. Так как центральный сервер можно положить/взломать/еще-что-нибудь.
Блоггеры, которых спамят :-)
Алексей, спасибо огромное. А если сделаете систему, которая сможет интегрироваться еще и в основные CMS, то будет вообще великолепно!
НЛО прилетело и опубликовало эту надпись здесь
Ну строить оборону на движке я думаю не совсем правильно, ведь те же средства могут быть использованы по разному. Один на этом движке уг-сайт сделает, другой домашнюю страничку. Я поддерживаю комментарий относительно народного голосования. Как тут на хабре, проголосовали больше -5, закрываем… хочешь открыть — кликай.
Зачем же лишать человека свобод? В реальном мире человек может уехать в другую страну или город, и попытаться исправиться, начать новую жизнь. А тут вы его обрубаете от всего интернета, закрывая доступ в сетевую жизнь. Мне кажется, это вызовет массу недовольств. И потом, не все люди бывают 100% времни адекватными. А тут вы их за малейшую провинность прикроете ( анаализировать то, за что дургие критикуют юзера никто не будет, это с большой долей вероятности так). Как вы думаете, на хабре ставят адекватные оценки? Я думаю, что нет. Если система будет работать по такому же принцципу, то она будет работать плохо.
В интернете можно зарегистрировать новый домен и не заниматься не нём спамом.
А можно нажить себе врага, который будет упорно находить ваши домены и проспамливать их.
Мне кажется стоит анализировать все индивидуальные банлисты и если какойто домен слишком часто повторяется (ну например в 66% случаев, это две трети, это очень много) то заносить его в глобальный бан лист без модерации. Если же домен повторяется в 33% случаев то с с модерацие в первую очередь, если же ниже 33% то с модерацией, но уже во вторую очередь. Я это так вижу.

И небольшое пожелание немного не в тему. Сейчас чтобы записать домен в личный банлист приходится руками его вписывать. Тоесть, например, наспамили мне, я копирую адрес в бан лист, обновляю банлист, потому удаляю сам комментарий. Может быть доработать плагин так чтобы все происходило одной кнопкой?
Может стоит тогда сделать систему на подобии PGP ключей, чтобы включались списки друзей друзей, вплоть до 5 (например) поколения?
НЛО прилетело и опубликовало эту надпись здесь
Не, электронную почту завалят раньше :) С этим должны разбираться хостеры и провайдеры магистральные, я так считаю.
А что мелочится, сделать свой DNS и регистрация по приглашениям. И будет свой интеренет с ..., ну вы знаете с чем
даешь зашиту обычным сайтам!
еще стоит почитать
softwaremaniacs.org/blog/2008/04/28/antispam-and-social-whitelisting/
По белым спискам я у вас в блоге отписал, а по функциональности, можно в плагине сделать ссылку на страницу, куда будут выводится адреса белых списков тех блоггеров, которые захотят их вести. На странице есть ссылка на блоггера и ссылка на список. И я уже сам смотрю кто какие списки ведет, и выбираю.
А можно в настройках плагина выводить ленту самых популярных списков, которые ведут блоггеры, как сейчас выводится инфа в дашборде вордпресса.
Почему бы не использовать идею robots.txt и Sitemap.xml?

Выбираем название для пары файлов с белым и черным списком и договариваемся, что эти файлы будут лежать в корне сайта. Например:
example.com/friendly_domains.txt (список доменов, которые домен example.com считает «хорошими» ;)
example.com/suspected_domains.txt (список доменов, которые домен example.com считает подозрительными)

В этих файлах просто перечисляем по белые/черные домены по одному в строчку. И всё. Ну почти ;)

Дальнейшие действия — а именно использование этих самых списков — каждый желающий определяет для себя сам. Можно например написать примитивного бота, который стартуя с одного сайта обходит все сайты из его белых списков, все посещенные списки компонует в один белый и один черный список (отсортированные и без дубликатов). И уже эти скомпонованные списки используются для фильтрации.

Небольшие пояснения.
С одной стороны, в такой системе каждый сайт формирует свой собственный список доверия/недоверия по отношению к другим сайтам (необязательно, чтобы сайт сам нуждался в защите от спама).
С другой стороны, сайт, нуждающийся в защите от спама, может формировать свои составные списки на основе списков других сайтов по любым желаемым алгоритмам либо же использует готовый кем-то собранную итоговую пару списков.

Плюсы:
1. Децентрализация. При такой схеме DDoS по отдельным сайтам практически не имеет смысла. Будет всего лишь потеряно «мнение» этого конкретного сайта. Если же будет выполняться DDoS сайтов, которые публикуют свои сборки «итоговых» списков собранных по какому-то алгоритму, то будет совершенно не проблема запустить сколь угодно зеркал либо собрать список самому (в данном случае предполагается публичность алгоритмов).
2. Гибкость. Каждый может по-разному отвечать на вопросы вида «Доверяю ли я своему другу? А другу своего друга? А друг друга моего друга? <… и т. д.… >». С данной же схемой каждый сможет сможет реализовать и использовать алгоритмы и принципы составления списков на свой вкус. При желании можно учитывать самые различные характеристики: удаленность от некоторых начальных доверенных доменов, частота появления в списках, максимальная глубина обхода и т. д.
3.Автоматизация. Такая схема очень легко автоматизируется. Написать бота, который выполняет обход сайтов — совсем не сложно.

Что нужно для этой схемы? Для начала достаточно договориться насчет имен файлов :)
Основная фишка здесь — если захотят ддосить «корневые» сайты (публикующие скомпонованные списки), то можно обойтись вообще без них.

Кстати, возможно есть смысл сразу договориться насчет имен для скомпанованных списков тоже. Например:
example.com/merged_friendly_domains.txt (список доменов, которые домен example.com и его окружение считают «хорошими» на основании алгоритма, который использует сайт example.com)
example.com/merged_suspected_domains.txt (список доменов, которые домен example.com и его окружение считают «хорошими» на основании алгоритма, который использует сайт example.com)
Эту фишку я и прорабатываю :-) Great minds think alike ;-)
Тогда ждем ваших предложений :)
Как-то один американский заказчик сказал мне эту фразу, на что я озвучил ему русскую версию поговорки «У дураков мысли сходятся». Ему понравилось, стал периодически подкалывать, что мол, да-да, я помню, как у вас там по-русски это звучит, но лучше не надо :)))
Практически ни дня без новости о «Parasite Eliminator».
Да, он очень популярен :-)
Избавился в блоге от спама вовсе :) При этом не используя капчу и обязательную регистрацию — нормальным людям так значительно удобнее :)
Ничего, сейчас перезарядят :)
На всех доменов не хватит © :)))
А как насчет того, чтобы добавить в плагин опцию, позволяющую публиковать списки? Я вот к чему: если таки централизованные серверы так или иначе список не отдают, пользователи плагина (по возможности/трафику/прочему) становятся раздающими последней имеющейся у них версии списка.

Таким образом, центральный сервер должен отдавать, по возможности, список «зеркал», на каждом из которых в данный момент доступно обновление. Кроме того, такой список должен быть и на каждом «зеркале».

В идеале, доверяющие друг другу «зеркала» могут, по идее, автономно-распределенно формировать новые версии списков, синхронизируя их друг с другом вне зависимости от доступности центральных серверов в данный момент.
Ссылка в тему! Срочно в номер!

Пра четверг 13 числа, ну тот который хотели сделать «черным» от спама:
www.kaspersky.ru/news?id=207732839

Видимо не сладко им сейчас… :)
Да, ими занимается черный властелин.
1. Мысль держать списки на фрихосте Гугла уже приходила?
2. Bad Behavior пробовали в дополнение? (он опознает ряд ботов по поведению)
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории