All streams
Search
Write a publication
Pull to refresh
127
0
Лабинский Николай @Labinskiy

User

Send message
Старый файл перед этим удалили? Возможно из-за этого wget не стал его перезагружать.
А если лень заморачиваться, то, к примеру, для FireFox есть специальный плагин который экспортирует cookies в файл, который можно сразу же передать wget'у.
А если лень заморачиваться, то, к примеру, для FireFox есть специальный плагин которые экспортирует cookies в файл, который можно сразу же передать wget'у.
Логин и пароль задаются не в явном виде. Откройте в своем браузере просмотр cookies и скопируйте от туда значения ;)
Скорее всего у вас ошибка в cookies.txt
Добавил оба предложения в топик
Логин и пароль передаются не в явном виде. Откройте в своем браузере просмотр cookies и перепишите от туда значения uid и pass.
Спасибо за комментарий, идея с проверкой существования файлов хороша!

з.ы. а символ точки вот тут lfshows="(Star.Wars|Heroes|Seeker)" воспримется именно как точка или как «любой символ»?
Настройка rTorrent + wtorrent это тема отдельной статьи, там не все так прозрачно на первый взгляд. Хотя пользовался, знаю. Но, лично мне, для rTorrent'a куда больше нравится веб интерфейс rutorrent
Пожалуйста, к тому же самому было очень интересно разобраться в этом вопросе.
Спасибо за ссылку, раньше не находил.
А если по теме, то хотелось сделать все самому и по пути набраться опыта знаний. В результате не только сам понял и разобрался, но и рассказал другим «как» ;)
Вопрос парсинга таких лент вылился в новый пост:
labinskiy.habrahabr.ru/blog/87166/
спрашивайте, критикуйте… :)
Я тут на досуге набросал команду для кинозала по описанному выше алгоритму, вот что получилось:

for i in `curl -s http://kinozal.tv/rss.xml | grep -iA 2 'MP3' | grep -ioe 'http.*[0-9]'`; do curl -sb "uid=***; pass=***; countrys=ua" $i | grep -ioe 'download.*\.torrent' | head -1; done

на выходе получается список относительных ссылок на загрузку торрент файлов с кинозала. После этого их лишь остается удобно передать на вход wget задав параметр --base=URL", где вместо URL задается любой нужный домен/префикс.

Из особенностей хочется отметить опцию "-A 2" у grep'a. Дело в том что только по адресу ссылки из RSS ленты узнать название раздачи невозможно, поэтому поиск идет по описанию, а на выход передаются еще и следующие две строки за описанием, где и расположена сама ссылка. Ну а следующим по конвейеру grep'ом из потока отфильтровываются только нужные нам ссылки. И еще один момент, в теме что описывает раздачу на кинозале ссылка на торрент файл встречается два раза, с помощью "head -1" мы оставляем только первую из них

Почему curl? А не знаю, наверно потому, что просто захотелось разобраться и в нем :)
Только что зарегистрировался на кинозале и посмотрел на их RSS ленту. Действительно интересный случай. Если в общих чертах, то я вижу решение в виде шелл скрипта с таким алгоритмом:

1) из RSS ленты grep'ом фильтруем интересующие нас ссылки. они будут иметь такой вид:
http://kinozal.tv/details.php?id=546387

2) после этого циклом проходим по всем отобранным ссылкам и загружаем их wget'ом тут же передая по конвейеру на grep

3) в grep на переданной страничке выбираем ссылку на торрент флай. ссылка имеет вид
http://kinozal.tv/download.php/546387/Badfinger-Collection.1969-2001.FLAC.CUE.Lossless.torrent

как видно по ссылке, он содержит тот же айди что и в RSS ленте что заметно облегчает поиск

4) закачиваем torrent файл

5) переход к следующей отобранной строке из rss ленты

Information

Rating
Does not participate
Location
Донецк, Донецкая обл., Украина
Date of birth
Registered
Activity