Я не понимаю, в чем их бредовость, если это, условно говоря, «правда», хотя и «наша правда». Однако, не важно: я пишу этот пост про то, что уже произошло: событие в хостерной тусовке состоялось, доклад нашего продюсера прочитан.
А наш продюсер, между прочим — основатель Мастерхоста, от которого он избавился лишь в 2011.
И мое дело было сделать то, что я обещал — «декомпрессию».
В категории «Другие» (популярные ресурсы, снятые с DPI, куда ходят российские пользователи, и не находящиеся в остальных анализируемых доменах) тоже только домены второго уровня.
Исключение — Украина — потому что у них другая организация.
Блоги в доменах третьего уровня в Рунете не подсчитывались. Учитывались лишь сайты в доменах второго уровня, где стоит этот движок, то есть методика для Blogger ничем не отличалась от учета WordPress.
А Вы спрашивали о блогах типа domen.blogspot.ru?
Буду знать, хотя до Нового года ничего подобного от вас не видел.
Следующим постом (завтра, наверное) хочу дать разбивку лидеров CMS по отраслям.
Хотя возможно это и не потянет на отдельный пост на Хабре.
Насколько я понимаю, ruward начал публиковать исследования itrack под впечатлением моего выступления на IBC Russia 2013. Тогда тусовка, включая младшего Терехова, смогла ознакомиться со всем батальным полотном статистики Рунета. Были там и CMS, несмотря на то, что темой доклада была объявлена как «Рынок инернет-рекламы в Рунете в 2013». Более того там 28-м слайдом там было сравнение с другими исследователями.
В отличие от аналогичных исследований iTrack:
а) подавляющее большинство сигнатур не были получены нами от разработчиков CMS;
б) распространенность счетчика Openstat мы определяем точнее, а те завышают;
в) у нас полнее список сигнатур в любой нише;
г) у нас есть сразу три инструмента: краулер, счетчик и категоризатор тематик, что дает в сумме гораздо более интересный анализ и мета-анализ.
Вообще-то мы работаем с производительностью сайтов, как со следами людей в виртуальном пространстве, проще говоря, с Big Data. Корректность тут заключается в том, что такова жизнь. А не в том, что удалось поставить эксперимент с минимумом возмущений.
Я могу ошибаться (сам не проверял), но много раз слышал про тормознутость Битрикса. Это вполне логично, учитывая сложность самой CMS.
Битрикс сравнительно тормознутый, не исключено, что — как раз из-за того, что «пухлый». Однако он же предлагает и наибольшие возможности для того чтобы увеличить производительность отрисовки страниц — сервис ускорения сайта (CDN), а также технологию «Композитный сайт». Такие нюансы нами не отслеживались.
И вообще-то исследование производительности тут появилось на правах бонус-трека. Не хотелось бы особо углубляться.
Разумеется, еще примерно сто CMS не участвовали. Судя по рейтингу CMSmagazine, они большой роли не играют. Однако чтобы попасть к нам в рейтинг, можно к примеру, прислать сигнатуру на адрес travin@openstat.com
Спасибо, нам как раз не хватало тридцатого комментария для ровного счета. И кстати, можно было бы на этом «круглом» рубеже остановиться, так как чуть выше я уже отвечал, что это «новая пузомерка Рунета». Жалею, что сразу не вынес эти слова в заголовок. А пузомерка отражает не эксперименты, в которые стараются вносить как можно меньше «возмущений», а просто отражать реальность, какая она есть.
Когда я работал в компании Webvisor, то по сто комментариев получал на тему, что просмотр десяти роликов (изучение поведения десяти посетителей) не будет репрезентативной выборкой. Хотя он ею как раз и будет — по всей науке.
Так что я с этого места решил не участвовать в треде, а — написать в хаб «CMS». Лучше там обсужу репрезентативность.
Бесплатные ответы могут быть там, где есть экспертиза.
Насчет стран для удобного хостинга тоже подарю результаты.
Вот тут наш ответ, где размещаются сайты Рунета. Проводили исследование для РИФа, цифры должен был озвучивать Иван Засурский, но, кажется, не успел. Поэтому я письменно на Ридусе и зафиксировал.
Что в подобных отчетах может быть интересно владельцам ресурсов и оптимизаторам?
1. Можно выделять резкие стабильные изменения (время ответа сервера увеличилось в 1,2 раза, время загрузки страницы уменьшилось в 1,5 раз).
2. Может быть интересна конкретная статистика по часам суток, особенно по времени загрузки страницы в часы пик. И по регионам скорость тоже интересно будет посмотреть.
3. Однако наиболее важно, что этот отчет появился в счетчике. И значит можно оценить корреляцию времени ответа сервера и времени загрузки страницы с показателем отказов и достигнутыми целями.
Наше исследование было ПРО ХОСТЕРОВ для конференции ХОСТ-ОБЗОР.
Более того Леонид хотел, чтобы была исследована тема интернет-холдингов, так чтобы провайдеры были объединены по этому принципу. Но это ведь не техническая задача.
Поэтому первый вопрос исследования: какие вообще CMS стоят у каких провайдеров?
Попутно получается отчет, кто из провайдеров опирается на бесплатный софт, а кто на платный.
И тут как раз даже полезны именно данные в среднем по конкретной больнице.
Далее нужно автоматически соединить отчет производительности и используемых CMS. И мы видим какие провайдеры, использующие такие-то движки, дают в среднем такую-то производительность.
И наконец соединить ответ по «производительности провайдеров» и отчет по производительности движков, так чтобы была разбивка внутри провайдера по движкам.
Выполнено. Пришлось день попотеть. Что здесь «псевдонаучного». Это информация к размышлению конкретных хостеров. И она была ими воспринята: доклад шел с самого утра, когда еще все трезвые были.
А что никто не дочитывает до последней ссылки?
Исследование Radware зима 2013/2014.
Исследовался Топ-500 электронной коммерции по рейтингу Alexa.
Загрузка главной страницы занимала 9,3 сек — и это на 21% медленнее, чем годом ранее — в среднем 7,7 с.
Большинство интернет-покупателей закрывают страницу после 3 сек ожидания ее отрисовки.
Каждая секунда задержки стоит 3,5% конверсии и 2,1% среднего чека для интернет-магазина.
Вот какие данные интереснее всего, на мой взгляд.
Совершенно верно, еще когда я выступал в первый раз на Failover Conference, то из зала была выдвинута версия, что самые быстрые в нашем исследовании CMS ставят на некрупных или некритичных проектах.
Конечно, производительность зависит от многих факторов, но наши данные получены на реальных измерениях реально функционирующих сайтов в реальных условиях, которые мы в состоянии измерить. Получить информацию о конфигурации и настройках сотен тысяч анализируемых серверов не представляется реальным и законным.
Просто в счетчике Openstat этот отчет называется «Производительность».
А наш продюсер, между прочим — основатель Мастерхоста, от которого он избавился лишь в 2011.
И мое дело было сделать то, что я обещал — «декомпрессию».
Исключение — Украина — потому что у них другая организация.
А Вы спрашивали о блогах типа domen.blogspot.ru?
Следующим постом (завтра, наверное) хочу дать разбивку лидеров CMS по отраслям.
Хотя возможно это и не потянет на отдельный пост на Хабре.
Добавил его в Инструменты конкурентного анализа
В отличие от аналогичных исследований iTrack:
а) подавляющее большинство сигнатур не были получены нами от разработчиков CMS;
б) распространенность счетчика Openstat мы определяем точнее, а те завышают;
в) у нас полнее список сигнатур в любой нише;
г) у нас есть сразу три инструмента: краулер, счетчик и категоризатор тематик, что дает в сумме гораздо более интересный анализ и мета-анализ.
Вообще-то мы работаем с производительностью сайтов, как со следами людей в виртуальном пространстве, проще говоря, с Big Data. Корректность тут заключается в том, что такова жизнь. А не в том, что удалось поставить эксперимент с минимумом возмущений.
По поводу зависимости от хостера у нас есть отдельное исследование: «Сравнительный анализ клиентских баз хостинговых провайдеров» (презентация в формате PPT) или «Неделя производительности в Рунете» (текст с отдельными слайдами и пояснениями в формате HTML).
Битрикс сравнительно тормознутый, не исключено, что — как раз из-за того, что «пухлый». Однако он же предлагает и наибольшие возможности для того чтобы увеличить производительность отрисовки страниц — сервис ускорения сайта (CDN), а также технологию «Композитный сайт». Такие нюансы нами не отслеживались.
И вообще-то исследование производительности тут появилось на правах бонус-трека. Не хотелось бы особо углубляться.
Так что я с этого места решил не участвовать в треде, а — написать в хаб «CMS». Лучше там обсужу репрезентативность.
Насчет стран для удобного хостинга тоже подарю результаты.
Вот тут наш ответ, где размещаются сайты Рунета. Проводили исследование для РИФа, цифры должен был озвучивать Иван Засурский, но, кажется, не успел. Поэтому я письменно на Ридусе и зафиксировал.
Что в подобных отчетах может быть интересно владельцам ресурсов и оптимизаторам?
1. Можно выделять резкие стабильные изменения (время ответа сервера увеличилось в 1,2 раза, время загрузки страницы уменьшилось в 1,5 раз).
2. Может быть интересна конкретная статистика по часам суток, особенно по времени загрузки страницы в часы пик. И по регионам скорость тоже интересно будет посмотреть.
3. Однако наиболее важно, что этот отчет появился в счетчике. И значит можно оценить корреляцию времени ответа сервера и времени загрузки страницы с показателем отказов и достигнутыми целями.
Более того Леонид хотел, чтобы была исследована тема интернет-холдингов, так чтобы провайдеры были объединены по этому принципу. Но это ведь не техническая задача.
Поэтому первый вопрос исследования: какие вообще CMS стоят у каких провайдеров?
Попутно получается отчет, кто из провайдеров опирается на бесплатный софт, а кто на платный.
И тут как раз даже полезны именно данные в среднем по конкретной больнице.
Далее нужно автоматически соединить отчет производительности и используемых CMS. И мы видим какие провайдеры, использующие такие-то движки, дают в среднем такую-то производительность.
И наконец соединить ответ по «производительности провайдеров» и отчет по производительности движков, так чтобы была разбивка внутри провайдера по движкам.
Выполнено. Пришлось день попотеть. Что здесь «псевдонаучного». Это информация к размышлению конкретных хостеров. И она была ими воспринята: доклад шел с самого утра, когда еще все трезвые были.
А что никто не дочитывает до последней ссылки?
Исследование Radware зима 2013/2014.
Исследовался Топ-500 электронной коммерции по рейтингу Alexa.
Загрузка главной страницы занимала 9,3 сек — и это на 21% медленнее, чем годом ранее — в среднем 7,7 с.
Большинство интернет-покупателей закрывают страницу после 3 сек ожидания ее отрисовки.
Каждая секунда задержки стоит 3,5% конверсии и 2,1% среднего чека для интернет-магазина.
Вот какие данные интереснее всего, на мой взгляд.