Обновить

Комментарии 11

А почему Вы не воспользовались

wget -c --limit-rate=<speed> url

для этой цели ?

в ситуации обрыва соединения будет стартовать с последней сохраненной позиции

Тоже можно. Способов много. curl кстати тоже продолжать умеет.

А вы по статье на каждый параметр curl будете публиковать?

Полное описание curl до меня уже ни раз написали. Как-то раз я гуглил запрос как название этой статьи и не нашёл ответ. Вот и написал на случай если кто-то тоже будет искать.

 C:\Windows\System32\  я бы его не клал, конечно.
Достаточно положить и в винду, вообще, такое удобно класть в корень С и путь к бинарю указывать в PATH

C:\Windows\System32\  я бы его не клал, конечно.

Он там уже лежит :)

Я предложил самое простое. Кто шарит, тот и сам выберет куда ему что класть.

Пригодиться, спасибо

привет легенда

И здесь найдётся тот кто меня узнает. Возможно когда-нибудь мне придётся сменить имя.

ну это уже даже не смешно..

1) справка по одному флагу одной утилиты не тянет на статью
2) эта тема в целом не заслуживает отдельной статьи так как каждая утилита для скачивания имеет свой man
3) если уж так хочется написать статью на эту тему то можно было бы добавить информации про другие утилиты (хотя бы wget и aria2 как самые известные) и описать чем принципиально отличается ограничения скорости скачивания в этих утилитах

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации