Было бы неплохо прикрутить какой-нибудь recommendation engine, чтоб не что попало скачивалось. Опциональный, конечно, иногда случайные фильмы тоже полезно посмотреть.
У вас абсолютно непрактичный дизайн. Именно такой ползунок используется в приложении для покера на моем айфоне. Очень трудно большим пальцем попасть в нужную цифру. Барабан как раз разработан так, что выбрать нужную цифру очень легко даже огромным пальцем.
Репрезентативные лучше, я с вами согласен. Опять же, это зависит от того, насколько узкая ЦА вашего сайта. Мы в будущем планируем разделять тестеров на категории в зависимости от опыта, соц. статуса, профессии и т.д.
Когда над человеком висит эксперт, и все его действия жестко мониторят, он чувствует себя более скованно и ведет себя менее натурально. Соответственно и результат.
Все же в данном вопросе не важно сколько у него ученых степеней. Как вы не понимаете, он же защищает то, на чем зарабатывает деньги. Говори он обратное — это как если бы продавец свеклы уверял бабок на рынке, что она вызывает рак мозга.
Кстати, случай из практики. Наша компания как-то поддерживала систему, написанную докторами наук по информатике. Теория без практики — мракобесие было жуткое. (это я ни к тому, что у Нильсена нет опыта)
На мой взгляд это все же несколько разные сервисы. Вебвизор разве может записывать комментарии пользователя? А это один из основных источников информации. И насколько я понял, у Яндекса надо потратить минимум 6000 за месяц. У нас за эти же деньги можно получить 6 скринкастов с комментариями и ответами на вопросы. К тому же Вебизор больше подходит для сайтов, на которые уже кто-то ходит. В противном случае придется самому нагонять тестеров.
Распределять пользователей по группам мы тоже планируем, но все сразу не успеть (:
Спасибо за ваш комментарий. С удовольствием отвечу.
95% — зависит от количества пользователей и итераций с тестированием (протестировал, починил, протестировал...). Согласен, самому это трудно достоверно посчитать, поэтому оценка взята из книги Круга.
Репрезентативные тестеры лучше, но это не значит, что нельзя сделать выводов протестировав на случайном пользователе. Если у вас проект, заточенный под очень узкую аудиторию, то да, наш сервис возможно будет не лучшим решением.
Почему по-вашему человек скажет правду при стандартных юзабилити-тестах. У нас в инструкциях есть специальный пункт на этот счет.
Данные вы получаете почти такие же, как и заплатив на порядок больше. «Экспертный анализ» сильно преувеличен. Но опять же, никто не мешает вам переплатить за мнение человека, прочитавшего пару книг по юзабилити, несколько десятков тысяч рублей.
Нельзя считать мнение Нильсеня объективным. Говори он обратное, первым остался бы без работы. Кстати, сам факт того, что он посчитал нужным об этом написать, уже кое о чем свидетельствует.
Обоснуйте, пожалуйста. Мы продаем клиентам ровно те услуги, которые обещаем. И не делаем никаких наценок за танцы с бубнами и «экспертное мнение».
У нас для отсеивания совсем неспособных есть пробная работа.
Дело в том, мы как раз проводим НЕэкспертное тестирование. Тестируют обычные люди. Те, которые и будут пользоваться сайтом в обычных условиях. Взгляд «экспертов» отличается от того, что видят обычные пользователи, поэтому, на мой взгляд, их советы не так эффективны. Лучше (и в разы дешевле) провести тест с настоящим пользователем.
«Тестером может быть любой желающий — меня пугает.» — почему же? Это же не тестирование, где нужны обученные QA специалисты, а юзабилити-тестирование — при нем как раз проверяется, насколько успешно обычные люди смогут пользоваться вашим сайтом.
На это можно и по-другому посмотреть: мы платим ровно столько же, сколько платят юзабилити-тестерам в США. А уровни зарплат там и здесь вы сами знаете как отличаются.
Насчет много работать: я, как-то возвращаясь в общежитие, сделал фотку велосипедной парковки рядом с университетской библиотекой. Время 2:20 ночи. За телефоном еще штук 5 велосипедов.
Да и пункт «Высота списка не должна превышать 7-8 строк. Такое количество элементов легче запоминается.» тоже весьма спорный. Зачем пользователю запоминать список?
Все верно. Тоже сейчас пытаюсь настроить qiwi. API сделан через жопу, а в суппорте работают ленивые бревна. Ответы неделями ждать приходится. И с телефонным номером полный маразм — если нет российского номера, ничего не протестировать.
Трафик — с хабра ;)
Шутка. На самом деле при оставлении мнения или добавлении темы есть возможность перепостить то же самое к себе в твиттер/фб. Оттуда часть аудитории. Другая — через поисковики.
Монетезировать через рекламу. Благодаря тому, что пользователи оставляют отзывы о том, что им нравится или нет, можно подбирать очень грамотную контекстную рекламу. Например, отметил что нравится такая-то группа — раз, рядом реклама ближайшего концерта. Это в теории.
Юзабилити-«эксперты» будут, конечно, утверждать обратное.
Допиливать обязательно будем. Есть ли какая-либо функциональность, которую вы бы хотели увидеть первым делом?
Когда над человеком висит эксперт, и все его действия жестко мониторят, он чувствует себя более скованно и ведет себя менее натурально. Соответственно и результат.
Все же в данном вопросе не важно сколько у него ученых степеней. Как вы не понимаете, он же защищает то, на чем зарабатывает деньги. Говори он обратное — это как если бы продавец свеклы уверял бабок на рынке, что она вызывает рак мозга.
Кстати, случай из практики. Наша компания как-то поддерживала систему, написанную докторами наук по информатике. Теория без практики — мракобесие было жуткое. (это я ни к тому, что у Нильсена нет опыта)
На мой взгляд это все же несколько разные сервисы. Вебвизор разве может записывать комментарии пользователя? А это один из основных источников информации. И насколько я понял, у Яндекса надо потратить минимум 6000 за месяц. У нас за эти же деньги можно получить 6 скринкастов с комментариями и ответами на вопросы. К тому же Вебизор больше подходит для сайтов, на которые уже кто-то ходит. В противном случае придется самому нагонять тестеров.
Распределять пользователей по группам мы тоже планируем, но все сразу не успеть (:
95% — зависит от количества пользователей и итераций с тестированием (протестировал, починил, протестировал...). Согласен, самому это трудно достоверно посчитать, поэтому оценка взята из книги Круга.
Репрезентативные тестеры лучше, но это не значит, что нельзя сделать выводов протестировав на случайном пользователе. Если у вас проект, заточенный под очень узкую аудиторию, то да, наш сервис возможно будет не лучшим решением.
Почему по-вашему человек скажет правду при стандартных юзабилити-тестах. У нас в инструкциях есть специальный пункт на этот счет.
Данные вы получаете почти такие же, как и заплатив на порядок больше. «Экспертный анализ» сильно преувеличен. Но опять же, никто не мешает вам переплатить за мнение человека, прочитавшего пару книг по юзабилити, несколько десятков тысяч рублей.
Нельзя считать мнение Нильсеня объективным. Говори он обратное, первым остался бы без работы. Кстати, сам факт того, что он посчитал нужным об этом написать, уже кое о чем свидетельствует.
Обоснуйте, пожалуйста. Мы продаем клиентам ровно те услуги, которые обещаем. И не делаем никаких наценок за танцы с бубнами и «экспертное мнение».
Дело в том, мы как раз проводим НЕэкспертное тестирование. Тестируют обычные люди. Те, которые и будут пользоваться сайтом в обычных условиях. Взгляд «экспертов» отличается от того, что видят обычные пользователи, поэтому, на мой взгляд, их советы не так эффективны. Лучше (и в разы дешевле) провести тест с настоящим пользователем.
В итоге qiwi больше не рассматриваю.
Шутка. На самом деле при оставлении мнения или добавлении темы есть возможность перепостить то же самое к себе в твиттер/фб. Оттуда часть аудитории. Другая — через поисковики.
Монетезировать через рекламу. Благодаря тому, что пользователи оставляют отзывы о том, что им нравится или нет, можно подбирать очень грамотную контекстную рекламу. Например, отметил что нравится такая-то группа — раз, рядом реклама ближайшего концерта. Это в теории.