Я бы добил в пост не только о стартапах, но и об обзорах.
Часто пользователи вставляют картинки со своего блога, что создает просто бешеную нагрузку.
Тут лучше использовать (рекламная пауза) мой любимый хостинг для картинок или любой другой, яндекс, пикаса и куча других (только не те, где по траффику считают). И бложек не загнеться и картинки будут видны всем.
В тему: если сервер не справляется с наплывом посетителей, то есть масса способов его оптимизации, об этом написано множество статей, в том числе и на Хабре. А вот если все способы перепробованы, но сервер все равно не выдерживает нагрузку — можно попробовать разместить статический контент на CDN (см. ru.wikipedia.org/wiki/Content_Delivery_Network).
Не думаю что уменьшится, если поддомен будет на том же сервере. Этот шаг помогает лишь ускорить загрузку статики, т.к. браузер имеет ограничение на количество коннектов к одному домену, и, например, не может грузить больше 3х ресурсов с одного домена одновременно.
Полезно конечно, но у нас админ есть толковый, так что за ним как за каменной стеной, свой хабраэффект пережили. Но мне хотелось бы описание по поводу этой штуки получить:
>Зачем это нужно? Фактически, это экспресс-проверка на Хабра-эффект. Здесь можно использовать сервис loadimpact.com, с помощью которого получить примерно следующую картину (сервис эмулирует нахождение нескольких пользователей у вас на сайте):
Каким образом оно это эмулирует? У них есть собственный ботнет для тестирования? Или там какие то хитрые математические алгоритмы?
если я правильно представляю логи их запросов на сайт, то сайт «просматривается» вглубь на 3-5 уровней (случайным образом). На каждого «пользователя» приходится 20-30 просмотров различных страниц (т.е. они «запускают» 10-20..-50 потоков, каждый из которых «тащит» свой набор страниц через случайные промежутки времени). IP вроде одинаковый (на каждую проверку — 50 сокетов, обычного сервера вполне хватит для 100 одновременных проверок, главное, чтобы канал позволял).
Лучший способ проверить готовность к Хабброэффекту — провести тест на эталонном сервере и понять как настроить так, чтоб оптимально работало
Например — апач в воркере, число процессов по числу камней, число тредов по числу гипертрейдинговых и беклог в nginx побольше — выдерживает даже digg-эффект
> site-perf.com. Быстрая оценка времени загрузки, желательно иметь не менее 4 секунд (в силу того, что сервера расположены не в России, оценка не настолько адекватна).
imho, грамотно сделанному сайту не страшен хаброэффект. Если для выдачи страницы выполняется много работы — то чем больше пользователей — тем сильнее они буду тормозить сервер. Решение простое — хоть ruby on rail, drupal, php и прочие ваши любимые инструменты и чудесны — но всему свое место. Информационная часть сайта (тот же «каталог товаров» для вебмагазина) она одновременно и самая посещаемая (больше всего хитов) и статичная. Так что либо статически генерировать страницы (и автоматом их пересобирать при изменении), либо, если уж совсем психологически сложно отказываться от своей CMS и database-driven-website, то memcached или proxy перед сайтом.
А для статики советую поглядеть WML — Website Markup Language. Сайты собираются обычным make'ом при изменении данных. А обычный апач на обычном вебсервере может столько статичных запросов обслужить — что не каждый хабр такой эффект создаст. ;-)
Судя по логам, loadimpact запрашивает только первую страницу и css. Так что я морду он протестирует, а вот насчет морды вкупе с остальными публичными страницами — я бы не обольщался.
Я поражаюсь действиям некоторых прыщавых дебилов, которые, сожаленью, и здесь представляют неубиенную породу дебилов. Ставят минусы людям, высказывающим свое мнение, причем адекватное мнение. Кому вообще нужны эти минусы и плюсы если их лепят только за то, что кто-то высказал соображения, отличные от сообразизмов кретинирующих садогедонистов?
Готовимся к Хабра-эффекту