Как стать автором
Обновить

Комментарии 30

Беру на заметку.
Автору спасибо!
Благодарю. Про Siege не слышал ранее.
Для нагрузочного все же лучше что-нить по функциональней. Jmeter к примеру (кстати имеет способность работать из консоли).
ещё умеет организовывать распределенное нагрузочное тестирование, нагрузочное тестирование Jmeter'ом с 1-го рабочего компа обычно приводило к его падению )) сервер помощнее будет )
Ну если листнеров графических навешать то сдохнет беспорно. Достаточно даже одного нехорошего листнера при интенсивной нагрузке. С одного ноута гоняли на одном из проектов и жил не напрягаясь.
Спасибо за ngrep, недавно как раз искал что-то подобное)
еще полезная опция для ngrep — -d. Позволяет указать сетевое устройство. Например, -d wlan0
топик про не виндовые штуки от ализара? о_0
хабр уже не тот
Ализар автор перевода
Вижу комментарий с таким содержанием и ответом к нему в каждом переводе от Ализара. Странно. Привыкайте.
Автор молодца! Вот только возник вопрос, а не лучше пользоваться сниффером? Видим то, что со 100% вероятностью возвращается в браузер. Эти тулзы не будут работать, если на другом конце обрабатываются хеадеры от клиента.
НЛО прилетело и опубликовало эту надпись здесь
Wireshark
а как же GET, rsync, scp, ab,…?
Это не для веб-разработчика, а для сисадмина.
Вот блин, так живёшь-живёшь, никого не трогаешь, и вдруг становишься сисадмином за использование rsync и scp D=
Спасибо, пригодится!
Большое спасибо автору. Я ранее всегда пользовался веб-утилитой loadimpact.com.
за siege спасибо, раньше использовал ab
Про ngrep не слышал, позор на мою седую голову.
Спасибо за информацию :)
curl вообще полезнейший инструмент. man curl — и вперед!

Например:

curl -v --trace-time -o /dev/null www.site.ru

Покажет, где у вас могут быть «тормоза» — соединение, ответ сервера, передача данных.
Статья в духе Unix.
Кортко. Ясно. Полезно.
Спасибо.
Уж очень странно слышать такое:
cURL — программа для копирования файлов по различным протоколам, похожая на wget.

Тем более в оригинале про копирование файлов нет ни слова. Да и по самой приведённой ссылке написано совсем другое предназначение тулзы, не нужно вводить народ в заблуждение такими переводами.
curl ifconfig.me — осторожней с этим, в консоли может быть задан http_proxy а в браузере прокси не указан, или другой. Если тестируете сайт через браузер, то внешний ip тоже лучше узнавать через браузер, чтобы потом часами не искать, багу которой нет.
Можете обяснить 'cut -d ' ' -f7 /var/log/apache2/access.log > urls.txt'?
Выдергивает адрес посещенной странички вашего сайта из стандартного лога апача и записывает в файл urls.txt.
$ tail -1 /var/www/logs/site.su.access.log
62.231.141.195 - - [19/Aug/2011:14:25:37 +0400] "GET /robots.txt HTTP/1.0" 403 399 "-" "Mozilla/5.0 (compatible; MJ12bot/v1.4.0; www.majestic12.co.uk/bot.php?+)"

$ cut -d ' ' -f7 /var/www/logs/site.su.access.log | tail -1
/robots.txt
уже разобрался, почитав маны, спасибо.
-d, --delimiter=DELIM — понятно, -d ' ' уставлевает разделитель в виде пробела;
-f, --fields=LIST — «вытаскивает» седьмое поле
В этой группе не хватает netcat.
Открыл для себя Siege и Ngrep, спасибо!
Есть версия собранная под Windows?
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории