Pull to refresh

Автоматический сабмитер

Идея сделать что то подобное впервые появилась где-то полтора года назад. Когда впервые увидел автоматический сабмитер статей. Как правило сабмитеры работают нескольким сценариям, я знаю 3:

  • использование движка сайта (таким образом делается авто сабмит на много тысяч или сотен web directory
  • парсинг каждого сайта отдельно.
  • использование API (не думаю что много сайтов предоставляют свое API).

Варианты 1 и 3 разбирать сдесь не буду, т.к. первый точно уже очень много кем используется и слышал что поисковики уже не так хорошо относятся к директориям сайтов.

Мой парсер использует вариант 2 — когда каждый сайт парсится индивидуально — понятное дело что таким методом распарсить в одиночку тысячу или хотябы несколько сотен сайтов дело очень трудоемкое и не благодарное. Потому для парсинга берутся только трастовые и топовые русурсы (например ezinearticles.com, digg.com)

Программа десктопная, написанная на C#.

Главный плюс программы это возможность добавлять новые алгоритмы для сабмита — обычному пользователю, который понимает что такое регистрация на сайте.

image

Алгоритм — набор html контролов для построения цепочки действий. Пользователь создает эти контролы, набрасывая их из браузера.

image

Основные модули программы:
  • Статьи (сделано)
    1. создание, редактирование, хранение
    2. синонимизация, автосинонимизация,
    3. проверка уникальности статьи
    4. подбор статьи по ключевому слову
    5. подбор титулки по ключевому слову
    6. создание свое базы синонимов
    7. поддержка нескольких словарей

  • Почта (сделано)
    1. авто регистрация новых почтовых ящиков (gmail)
    2. авто проверка почты (пользователь никогда не должен сам создавать почтовый ящик)

  • Типы алгоритмов (сделано частично)
    1. директории статей (пример: ezine articles) — сделано
    2. социальные закладки (пример: digg) — в ближайшем будущем
    3. блоги
    4. парсер данных (задается структура парсинга). Результат или хранить или отсылать в интернет — в ближайшем будущем
    5. в принципе любой сайт можно распарсить.

  • Алгоритмы (сделано)
    1. создание, редактирование, хранение
    2. создание своего алгоритма (полностью эмулируется работа человека через веб браузер) визуально.
    3. настройки алгоритма (Captcha — ручное/авто распознавание, PopUp blocking и т.д.)
    4. авто регистрация на всех сайтах (где поддерживается регистрация через почту/капчу/слайдер)
    5. авто регистрация новых аккаунтов (когда предыдущий будет забанен …)

  • Сайты (сделано)
    1. создание, редактирование, хранение
    2. отображение PageRank, Alexa (в будущем сделать статистику по ключевым словам и т.д.)
    3. экспорт в CSV


Есть также много задумок и фич — но нет времени. Цель проекта сделать раскрутку сайта максимально простой и удобной, добавление ссылок на трастовые ресурсы в минимальное количество кликов.

Я работаю соответственно времени на проект очень мало, так что бы взяться и уволиться тоже не могу, есть семья — есть нужды в постоянных и стабильных деньгах.
Было бы неплохо найти партнера. Требования к партнеру:
  • умение и желание программировать для web (желательно на python with django можно на php возможно на чем то другом, только не ASP.NET)
  • умение работать в команде
  • желание создать качественный продукт
  • частично финансировать продвижение/рекламу (теоритически могу взять на себя)

Tags:
Hubs:
You can’t comment this publication because its author is not yet a full member of the community. You will be able to contact the author only after he or she has been invited by someone in the community. Until then, author’s username will be hidden by an alias.