Pull to refresh

Comments 48

Спасибо, опробовал на десятке используемых мной ресурсов, результат впечатляет.
Было бы здорово иметь возможность писать свои правила для парсинга конкретного сайта, как в плагине AutoPager (FireFox), например.
Вы прямо в точку :) Возможность задавать свои правила запланирована на самое ближайшее будущее. Можно будет «вручную» задать правило для прохода по страницам сайта (потому как автоматическое распознавание ссылок пагинации не всегда отрабатывает корректно) указав шаблон URL.
я пользуюсь плагином iMacros. Мощная штука.
[2] file_put_contents(urlcache/e091fc13b3d02867c3ecc40a34bec5bf): failed to open stream: No such file or directory in file /var/www/sites/parseit/gg/components/ParseItSourceManager.class.php at line 102

Осторожнее с выводом ошибок на клиент.

file_put_contents без задания контекстов не очень хорошо использовать. Тайматов нет, может «залипнуть». Это замечания возникшие с ходу с точки зрения бэкэнд разработчика. Но вообще очень круто.

Не знал, что можно загрузить JS через закладки )
Это старинный метод, в народе называется «закладурки»
Странно, что настройками безопасности эту возможность по дефолту не зарезали. Ведь как я вижу такой JS через XHR начинает тягать данные данные со стороннего, относительно загруженного адреса, ресурса. Получается, что если юзер поставить себе такую закладку, то его браузер может стать частью бота. Или я где-то ошибся или что-то по незнанию не учел?
Да, но скрипт каждый раз нужно запускать вручную.
Ну тут методы социальной инженерии творят чудеса )
Странно немного работает. Попробовал на одном ресурсе-каталога, информацию вывело в попап, но при попытке перейти на вторую страницу результатов в попапе, распарсились какие-то левые данные, а при попытке отправить коммент и вообще в ифрейме перекинуло на сайт плагина.
Сыровато.
Как я понимаю браузер через JS лезет на сервер через XHR, а тут уже тянет инфу с нужного сайта инфу сам? По сути — прокси. Нет ли опасений за сервер? Я конечно понимаю, что альфа и на этой стадии об этом думается не очень активно, но тем неменее есть ли соображение по защите своего сервера.
Вы затронули один из краеугольных вопросов :) C одной стороны, использование канала сервера для загрузки страниц создает лишнюю нагрузку, но зато позволяет пользователям парсить большие объемы данных — например, можно запустить загрузку 100 страниц, спокойно закрыть браузер, и потом в личном кабинете скачать результат парсинга. С другой стороны, загрузка через клиент, а не сервер тоже обладает рядом преимуществ — снимается нагрузка с сервера, автоматически решается проблема со страницами, требующими авторизации (не нужно синхронизировать куки между клиентом и сервером) или страницами, где хтмл формируется посредством JavaScript.

Пока используется комбинированное решение — если от парсера не требуется проход по страницам, то плагин передает на сервер html код текущей страницы, и серверу нет необходимости заново ее загружать. А в случае парсинга многих страниц, их загрузка происходит на стороне сервера.

В будущем планируем реализовать оба метода и дать конечному пользователю право выбора :)
В safari не работает. В закладки не переносится.
скажите, пожалуйста, url на котором не работает экспорт — будем фиксить ;)
Аналогично, при экспорте кидает на вашу главную страницу, на которой не могу зарегистрироваться/авторизоваться
Экспорт не работает если выбираю более одной страницы
Здесь
market.yandex.ru/guru.xml?CMD=-RR=0,0,0,0-PF=1801946~EQ~sel~1870751-VIS=70-CAT_ID=116338-EXC=1-PG=10&hid=90589
Да и еще на паре других случайных сайтов. Сообщает «Export failed :(»
Задумка хорошая, для примера пошел на амазон — кривенько отработал:( Попробуйте сами на списке результатов поиска. Работа плагина может осуществляться оффлайн или завязана на ваш сайт?
С амазоном пока не справляется, верстка слишком хитрая для плагина. Научим в будущем и ее обрабатывать. Работа плагина возможна только через наш сервер, но в этом и есть реализация некоторой «оффлайновости» — можете запустить задание для парсинга в личном кабинете, и не держать открытой вкладку с целевым сайтом, а скачать уже готовый файл экспорта когда вам будет удобно
frameset внутри frameset'a внутри frameset — да, к сожалению, такой вариант мы не предполагали :) Спасибо за интересный кейс, добавим в баглист
Да, там та же самая проблема с framest'ами. Плагин не умеет работать внутри фреймов
Область применения очень ограничена. Тысячи и десятки тысяч страниц (типичный проект) такой штукой вряд ли отработаешь.
Каким инструментом в видео можно вставлять такие подсказки, как в ролике?
Было бы круто оформить в виде расширений для браузеров. Например, у меня в браузере (Chrome) нет панели закладок (отключена, считаю ее моветоном), и ради одной кнопки (пусть даже такой классной) не хочется ее включать, а вот панель с кнопками расширений находится справа от адресной строки и активно используется.
:-0
Я только что вытащил около 7000 страниц полезного контента со своего сайта в три клика! Боюсь, конкуренты будут безмерно счастливы обладать таким плагином, теперь они смогут уволить весь штат гастарбайтеров…
спасибо за пример, очень интересно будет разобраться в причине, так как обычно именно таблицы парсер обрабатывает лучше всего.
Часто работаю с китайскими ресурсами, там много приколов бывает :)
Напишите сразу как против этого бороться.
У меня регулярно воруют контент вручную скриптами теперь вот еще способ.
Делайте все на флэше. =)
Пользователи спасибо не скажут.
Попробовал ваш плагин
В целом штука полезная

Но экпорт данных не удался
ок в этом окошке просто открывает главную страницу сайта и запускает видео

Как только не пробовал — экпорт данных для меня остался за кадром
Вместо «Не хотите оставить комментарий для этого результата?» лучше использовать надпись «Хотите оставить комментарий для этого результата?». Отрицания лишний раз маркетологи обычно рекомендуют не использовать )
А по существу — плагин интересный…
Стало любопытно, правильно ли я понимаю, что все базируется на частоте упоминания какого либо класса в определенных тега (к примеру, а)? Были ли попытки использовать для анализа нейронные сети?
Алгоритм определения элементов для парсинга гораздо сложнее, чем частота упоминания какого-либо класса. Алгоритм ищет похожие структуры, основываясь на большом количестве разнообразных параметров: тегах верстки, классах элементов, содержимом, местоположению в DOM дереве и многим другим. Каждому параметру присвоен некий «вес», и, в целом, принятие решения довольно похоже на нейронную сеть, но, пока, только однослойную :)

К более плотному использованию, нейронных сетей, скорее всего, придем чуть попозже. А пока больше нечеткой логики :)
kiddi.com.ua как то странно парсит. Выделяет зеленным меню сайта, а сами товары одним красным блоком выделяет (при щелчке на красный блок все таки товары распарсивает (или распаршивает, как правильно писать надо??).
Еще один детский магазин shpuntik.com.ua меню не выделяет зеленым (хотя меню списком сделано), а товары выделяет красными блоками и парсит.
Выделение красным — нормально, даже хорошо. Сейчас правда вообще обновили плагин и цвета, как и весь дизайн, совершенно другой :)
«Эффект лесенки», никак не можем его победить. Спасибо за хороший пример, исправим ;)
Only those users with full accounts are able to leave comments. Log in, please.