По моему опыту закачка в несколько потоков увеличивает скорость, только если сервер принудительно ограничивает скорость для одного потока. Но такое, слава Богу, встречается крайне редко. Поэтому для меня wget - отличный менеджер загрузок.
Не только. В случае с широким каналом и большим пингом скорость в 1 поток будет скорее всего намного меньше чем в несколько. Широкий канал и большой пинг может быть как у юзера, так и в ДЦ где стоит сервер, так и где-то между.
При скачивании из Укр. ДЦ из России (через Германию) такое наблюдается почти всегда (думаю это далеко не единственный случай подобной ситуации)
Скорость скачивания больше зависит от ширины канала и технических особенностей функционирования сети по обе стороны, нежели количества потоков. Если всё как надо, то и со 100 мбит линком в один поток качается на пределе возможностей.
Многопоточное скачивание для достижения повышенных скоростей - это, имхо, больше маркетинговый ход. Выше головы всё равно не прыгнуть.
Так может это ограничение на сервере установлено не просто так? Ты что - хочешь обмануть сервер?
Из-за таких многопоточных качальщиков приходится ограничивать число коннектов с одного ИП.
проблема в том что если уж мне что то и надо скачать, то это как правило редкое или элитарное кино или малопопулярный у масс сериал и т.п., набрать на таком рейтинг нереально. А все популярное есть в локальном пиринге так что нужды брать с торрентов нет.
Я обхожусь просто популярным кино :) тоже хорошо расходится :) А на том же дистрибутиве MAC OS весом в семь гигов я набрал ратио почти 10 не напрягаясь :) пути есть, с другой стороны - кому что :)
Ошибся я, сейчас выносят, в июле, видимо, завершат переезд. Как я понял, текущий рейтинг будет скопирован, а дальше подсчет будет вестись раздельно. Просто сначала речь шла о переезде в течение недели, видимо все оказалось сложнее.
Так и поднимал =) только не порнухой, вытащил из пиринга популярную какуюто киношку, просто по пирам посмотрел =) и воткнул себе. на 3Mb канале рейтинг в космос улетел.
у меня так взлетел рейтиинг один раз когда у меня на раздаче были все сезоны симпсонов и кторрент находил личеров в 100 мбит локалке :) вот это было круто, правда не долго проработало, видимо был один личер, который качнул и ушел :)
ну боюсь быть заминусованным,но все же, у меня были такие же проблемы и проблемы с исходящим каналом, если немного порыться в гугле то существуют сотни програм для поднятия рейтинга
мда, я лично не пользуюсь рапидой вообще, все что мне надо я могу найти не только на торрентс.ру, нафиг мне тратить на это 50 евро, есть кстати масса трекеров и диси хабов, на которых не нужно набирать рейтинг
это называется разговор ни о чем :) а на пиратбэе выложено процентов 80 всех доступных в интернете ресурсов, поэтому я и сказал, что там есть всё и от своих слов не отказываюсь, потому что 80% это практически все что можно себе представить ;)
Это называется, считать себя самым осведомленным, основываясь на своем узком кругозоре.
Еще раз перечитайте мой прошлый пост. Если вам полностью хватает перечисленных вами ресурсов, рад за вас. Не очень понимаю, о чем вы хотите говорить, если и так всё знаете.
да нет это вы считаете себя умнее остальных и пытаетесь отстоять свою точку зрения во что бы то ни стало, а мой кругозор шире вашего ;) так что успокойтесь :) я отдаю себе отчет в том что занимаюсь тролингом, а вот вы нет ;) если вы не смогли чего-то найти на пиратбэи или других бесплатных трекерах это ваши личные проблемы, можете покупать премиум аккаунты на рапиде, а ещё лучше покупайте контент в специализированных официальных источниках, там точно есть всё, что можно найти, начиная от ультра-раритетов, заканчивая дебильными американскими фильмами, только стоить это вам будет не 50 евро, платить деньги за скачку с файлообенников я считаю глупым занятием, потому что есть бесплатные варианты, сразу прошу прощения, но ваш ответ я читать не буду поэтому можете ничего не отвечать :)
Тролля обидели и он сбежал? А мне ведь несложно ответить :)
Я вам объяснил, зачем люди используют рапиду, ничего более. А ваши рассуждения про дебильные фильмы и ультра-раритеты только подтверждают мое предположение о вашем кругозоре. И вы считаете, что меня интересуют ваши советы на тему того, где брать контент ? Спасибо не надо, это мои личные проблемы :)
А смысл генерить кучу ссылок java скриптом ? Если уж работаем в консоли, то может стоит быть последовательным до конца ? :)
for i in {0..100} ; wget супер_файл_часть_$i ; done
Премиум гораздо проще оплачивается с помощью различных интернет валют, в автоматическом режиме и в течении 5 минут, список официальных ресейлеров в России http://www.rapidshare.com/resellers.html
только вот чтоб купить интернет валюты надо вылзать на улицу, искать автомат или банк или карточки по грабительскому курсу... короче предпочитаю платить с visa там где это возможно.
как купить webmoney с карточки? Несколько раз искал такую возможность но ничего не нашел кроме каких то мутных вариантов через несколько валют или с грабителькими тарифами.
Можно вместо wget использовать aria2. Понимает вызов вида aria2c -P http://server.tld/file[0-10].rar для закачки списка файлов. Среди преимуществ закача в несколько потоков, торренты, cookie и что самое "вкусное" это режим работы демоном. Чтобы совсем все было в командной строке можно с помощю awk вырезать ссылки из предварительно скачанного файла. Например как то вот так: awk '/href/ {for (i=1; i<=NF; i++) {if ($i ~ /^href/) {print $i}}}' file.html
Да, самый правильный метод
Хотя и под первый можно написать простой bash-скрипт, который будет проверять наличие кук, логаться и допустим качать определенный диапазон файлов
wget штука хорошая, но многопоточную загрузку не поддерживает. Это БОЛЬШОЙ минус, когда качаешь с медленных серверов. Есть в нём и другая (не такая большая, но всё же) трабла: не поддерживает большие файлы. Когда я попытался скачать какой-то SDK с майкрософта, wget определил размер файла как отрицательный и отказался качать (реальный размер был чуть больше одного гигабайта).
Если пользоваться Windows религия не запрещает, FlashGet forever, а для рапиды и иже с ними RapGet.
Есть shell скрипт реализующий многопоточность для wget.
В wget есть опция --ignore-length, добаленная специально для веб серверов отдающих некорректный Content-Length.
Верно, проблема в самом wget'e, который хранит длину файла в переменной слишком короткого размера.
А shell-script и прочее здорово, но во FlashGet все встроено, что удобно. Wget хорош для закачки через удаленную консоль, тут действительно ничего лучше нет.
Все это класно но для чего такие сложности. Все значительно проще. Пишем wget -b --http-user=Ваш логин --http-passwd=Ваш пароль --input-file=файл с списком файлов которые закачиваются и все закачка пойдет в бакграунде да еще можна указать папку куда класть файлы --directory-prefix=/home/roman/download следить за закачкой можна коммандой tail -f wget.log
Линукс и коммандная строка рулит :-))
Следующим шагом будет поставить под firefox плагин flashgot и добавить под него правило
wget -c -S [--directory-prefix=FOLDER] [--referer=REFERER] [--post-data=POST]
[--load-cookies=CFILE] [--header=Cookie:COOKIE] [--input-file=UFILE]
100%[==================================================================================================================>] 4,922,004 892.51K/s ETA 00:00
1. Нет необходимости принимать и сохранять cookies
2. Если уж использовать специальный скрипт, то такой, который бы только ссылки на rapidshare отфильтровывал (Опера умеет, кстати, то же самое по Ctrl-J)
3. На случай, если что-то нужно закачать на rapidshare я использую официальный перловый скрипт rsapi.pl
Как качать с Rapidshare.com premium используя wget