Как стать автором
Обновить

Комментарии 58

Классно!
В одном месте собрал практически все основные данные.
Это очень клево, и попадает в список must have
Спасибо!
Согласен, отличная работа!!! Плюс в карму!
Говорите, каких данных не хватает. Чтобы были «все основные данные».
А можно добавить Yahoo backlinks? Спасибо.
Так закрыли ж их :)
Я как-то пропустил. Недавно же работал. А когда это случилось?
Та давненько.

«Yahoo! have said they will close down the Site Explorer API on September 15, 2011.»
К старости как-то время быстро летит. Спасибо. А какие можете подсказать хорошие альтернативи siteexplorer.search.yahoo.com?
Толковой — не знаю.

Если найдете — сами говорите. Встрою в плагин.
solomono.ru
Раньше у Yahoo! был сервис siteexplorer.search.yahoo.com

Сейчас он «переехал» к бингу, а по дороге потерял возможность отдавать количество бэков любой ссылки. Только сайта, которым владеешь.

Не банят поисковики за кучу запросов?
За 15 минут не забанили :)
Порою, просит ввести капчу. При тестовых прогонах это бывало довольно редко. Если капчу ввести — все вновь начинает работать корректно.

Еще почти (90%) реализовано прикрепление «хороших» кукки, позволяющее не попадать под капчу ПС намного дольше.
а можно поподробнее про «хорошие» кукки?
В принципе, все довольно тривиально. Копать нужно в сторону того, что Гугл и Яндекс авторизированным пользователям лепит определенные куки и, если успешно вводится капча, тоже присоединяет нечто.

Через АПИ хрома ищи «полезные» печенья и прикрепляем к запросу.

Насколько я помню для Яндекса это «fuid01» / «spravka», для Гугла — «S».

Да что ж это такое. Да, давненько я на Хабре не комментировал, извиняюсь за эти коряги в дереве камментов. Всё, целюсь лучше.
Классное расширение. Отличная альтернатива RDS бару.
Alexa рейтинг не верный, парсить надо из
<POPULARITY URL="domen.ru/" TEXT="181356"/> 

а именно
TEXT="181356 
Вы правы. Благодарю.

StatisFire 0.9.3.1
У меня Facebook Shares пишет — {parsererror}, хотя если нажать на это parsererror видно
{
"http://habrahabr.ru/": {
"id": "http://habrahabr.ru/",
"shares": 780
}
}

Что-то не так…
Да, как раз смотрю, спасибо.

По предварительным итогам: баг jQuery. Ответ сервера не интерпретируется как валидный JSON (об инвалидности и речи быть не может).

Если до подушки не исправлю, апдейт будет завтра. Заодно было бы неплохо собрать хотя бы несколько багов, чтобы не по килобайту править.

Посмотри какой там контент-тайп стоит, поведение jquery может сильно от него зависеть.
Странно… Попробовал jQuery 1.7.1 (в консоли):
jQuery.getJSON("http://graph.facebook.com/?ids=http://habrahabr.ru/").done(function(r){console.log(r);});

— вывело полученный объект. Вы какой версией jQuery и какой функцией получаете? Можно использовать getJSON, либо посмотреть параметры jQuery.ajax, которые она устанавливает (обработка ошибок должна быть через возвращаемый Deferred).
Решил проблему прекратив полагаться на автоматику jQuery — задаю dataType для каждого ajax-запроса, а фейсбуковский ответ распарсил как стринг.
Апостроф как разделитель тысяч поставил в тупик. Формат числа должен исходить из текущей локали.
Метод toLocaleString() мне не очень нравится.

Если «563200» это еще воспринимаемо, то сколько вот это — «16841003» в миг ответить сложнее.

Поставил разделитель пробел:

«16 841 003»
Если что-то не воспринимается, есть шанс, что оно лишнее. Не так уж важны хиты и рейтинги с точностью до единицы при таких величинах. Вместо «16841003» в общей картине мне было бы вполне достаточно "16 841K", а то и "16,8M". При наведении мыши можно давать точное число.
Да, такой вариант был в промежуточном варианте.

Тут мне не понравилось следующее: когда числа выравниваются по правому краю и идет визуальный сдвиг линии:

12к
345

Хотелось бы, чтоб 2-ка была под 5-кой. Мелочь, а при экспресс анализе восприниматься будет лучше.

Можно поверстать, конечно, но одна из установок «покаместь не заморачиваться на верстке».
Раз уж есть robots.txt то определять еще и humans.txt(мы же все-таки люди) ну и сделать их ссылками.
Результат W3C Validator хотелось бы получать для конкретной страницы, а не для домена.
При запуске на этой странице сейчас валидируется корневая: validator.w3.org/check?uri=habrahabr.ru
Кстати, в моих юз-кейсах значения для главной страницы и текущей совпадали в 100% случаях. Для этой статьи и главной Хабра результат один: «103 Errors, 148 warn(s)»

Но да, понимаю, когда нужны отдельные значения. В следующем билде уже.
Планируете ли версии для других браузеров?
Да, конечно. Но вначале хочу довести до ума версия для Хрома.
Весьма любопытный сборник.

Из замеченных багов: похоже, счётчик лайков на vk.com работает для домена сайта, а не текущей страницы. Так и должно быть?
Если один результат — значит он касается домена, если два — значит первый относится к домену, а второй — к текущей странице.

В следующем билде для всеего «социальное» будет по 2 числа выводится, как для главной, так и для внутренней страницы.
Вообще хорошая разработка, потестирую. Добавь информацию из whois - возраст домена.
Вкупе можно и expire домена добавить.
Расширю информацию о домене, хорошо.
Спасибо, интересно, но откровенно корёбит от «Дулишис» — всё-таки «Дилишес» ([dɪ'lɪʃəs]).
Будет исправлено, спасибо.

А меня от вашего «корёбит» слегка покоробило: Р
(((:
При нажатии на ссылки внутри поп-апа, этот поп-ап не должен исчезать. Сейчас если я хочу нажать на несколько ссылок, то мне необходимо несколько раз анализировать сайт с соответствующим процессом ожидания.
Если архитектура Хрома позволит это сделать — открывать табы в бэкграунде из попапа — реализую.
Хорошо бы ещё анализ текста на странице:
— Общее количество текста
— 5-10 самых часто встречающихся слов
— Уникальность (ссылки на дубли?)

И можно ещё в настройка сервис antigate прикрутить для капчи.
а если еще данные Wappalyzer научишься выводить — вообще будет славно.
robots.txt и sitemap.xml по некорректным ссылкам запрашиваются — первый слэш удвоен.
{sitaname}//sitemap.xml
{sitaname}//robots.txt

Плюс еще неплохо было бы проверять директиву Sitemap в robots.txt — это может помочь если sitemap расположен нестандартно.

В целом огромное спасибо за расширение :)

P.S. Странно что ТИЦ по показаниям яндекса и расширения местами расходятся.
Еще на Facebook shares {parsererror} выдается постоянно
и ещё: «2 errors, 5 warnings» (а не «2 Errors, 5 warns»)
Будет «123 err(s), 456 warn(s)».
0.9.7

Добавлено:
  • changelog.html
  • Отображение текущей версии плагина (слева вверху)
  • Социальное: отображение статистики внутренней страницы для Delicious, Google +1, vk shares и Tweets
  • Разное: отображение статистики внутренней страницы для W3C
  • Бэклинки: отображение статистики внутренней страницы для Я.Блогов
  • Отображается, если Яндекс или Гугл просят ввести капчу
  • Теперь плагин можно советовать через Google Plus.

Исправлено:
  • Рейтинг: Alexa
  • Социальное: Facebook Shares
Всё круто! Пара замечаний на следующий релиз.

На пустых вкладках открывается пустой поп-ап.

> Разное: отображение статистики внутренней страницы для W3C
Вторая строка W3C часто получает таймаут. По-видимому, дело в том, что запросы отсылаются параллельно, и сервер валидации как-то их прореживает. Возможно, второй запрос нужно отсылать с некоторой задержкой. А вот сами ссылки, на которые переход идет по клику, совпадают.

Еще, возможно, стоит кэшировать результаты, а то при каждом открытии поп-апа они загружаются, а для W3C ответ приходит небыстро. В случае кэширования добавить кнопку «Обновить».

P.S. <div class="kitajskiyKod ... — это сильно!
Откуда берется информация по запросу Whois? Для одного из моих сайтов выдается IP, который уже год не используется.
who.is

А только по одному сайту столь неактуальная информация?..
По другим вообще нет информации. Я проверил — проблема с доменами в зоне .ua (включая подзоны — org.ua, dn.ua, com.ua)
Благодарю.

Допилю.
для ffx и оперы хочу плагин такой!
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации