Комментарии 58
Классно!
В одном месте собрал практически все основные данные.
Это очень клево, и попадает в список must have
Спасибо!
В одном месте собрал практически все основные данные.
Это очень клево, и попадает в список must have
Спасибо!
Говорите, каких данных не хватает. Чтобы были «все основные данные».
А можно добавить Yahoo backlinks? Спасибо.
Так закрыли ж их :)
Я как-то пропустил. Недавно же работал. А когда это случилось?
Раньше у Yahoo! был сервис siteexplorer.search.yahoo.com
Сейчас он «переехал» к бингу, а по дороге потерял возможность отдавать количество бэков любой ссылки. Только сайта, которым владеешь.
Сейчас он «переехал» к бингу, а по дороге потерял возможность отдавать количество бэков любой ссылки. Только сайта, которым владеешь.
Не банят поисковики за кучу запросов?
За 15 минут не забанили :)
Порою, просит ввести капчу. При тестовых прогонах это бывало довольно редко. Если капчу ввести — все вновь начинает работать корректно.
Еще почти (90%) реализовано прикрепление «хороших» кукки, позволяющее не попадать под капчу ПС намного дольше.
Еще почти (90%) реализовано прикрепление «хороших» кукки, позволяющее не попадать под капчу ПС намного дольше.
В принципе, все довольно тривиально. Копать нужно в сторону того, что Гугл и Яндекс авторизированным пользователям лепит определенные куки и, если успешно вводится капча, тоже присоединяет нечто.
Через АПИ хрома ищи «полезные» печенья и прикрепляем к запросу.
Насколько я помню для Яндекса это «fuid01» / «spravka», для Гугла — «S».
Через АПИ хрома ищи «полезные» печенья и прикрепляем к запросу.
Насколько я помню для Яндекса это «fuid01» / «spravka», для Гугла — «S».
Классное расширение. Отличная альтернатива RDS бару.
Alexa рейтинг не верный, парсить надо из
а именно
<POPULARITY URL="domen.ru/" TEXT="181356"/>
а именно
TEXT="181356
У меня Facebook Shares пишет — {parsererror}, хотя если нажать на это parsererror видно
Что-то не так…
{
"http://habrahabr.ru/": {
"id": "http://habrahabr.ru/",
"shares": 780
}
}
Что-то не так…
Да, как раз смотрю, спасибо.
По предварительным итогам: баг jQuery. Ответ сервера не интерпретируется как валидный JSON (об инвалидности и речи быть не может).
Если до подушки не исправлю, апдейт будет завтра. Заодно было бы неплохо собрать хотя бы несколько багов, чтобы не по килобайту править.
По предварительным итогам: баг jQuery. Ответ сервера не интерпретируется как валидный JSON (об инвалидности и речи быть не может).
Если до подушки не исправлю, апдейт будет завтра. Заодно было бы неплохо собрать хотя бы несколько багов, чтобы не по килобайту править.
Посмотри какой там контент-тайп стоит, поведение jquery может сильно от него зависеть.
Странно… Попробовал jQuery 1.7.1 (в консоли):
— вывело полученный объект. Вы какой версией jQuery и какой функцией получаете? Можно использовать getJSON, либо посмотреть параметры jQuery.ajax, которые она устанавливает (обработка ошибок должна быть через возвращаемый Deferred).
jQuery.getJSON("http://graph.facebook.com/?ids=http://habrahabr.ru/").done(function(r){console.log(r);});
— вывело полученный объект. Вы какой версией jQuery и какой функцией получаете? Можно использовать getJSON, либо посмотреть параметры jQuery.ajax, которые она устанавливает (обработка ошибок должна быть через возвращаемый Deferred).
Апостроф как разделитель тысяч поставил в тупик. Формат числа должен исходить из текущей локали.
Метод toLocaleString() мне не очень нравится.
Если «563200» это еще воспринимаемо, то сколько вот это — «16841003» в миг ответить сложнее.
Поставил разделитель пробел:
«16 841 003»
Если «563200» это еще воспринимаемо, то сколько вот это — «16841003» в миг ответить сложнее.
Поставил разделитель пробел:
«16 841 003»
Если что-то не воспринимается, есть шанс, что оно лишнее. Не так уж важны хиты и рейтинги с точностью до единицы при таких величинах. Вместо «16841003» в общей картине мне было бы вполне достаточно "16 841K", а то и "16,8M". При наведении мыши можно давать точное число.
Да, такой вариант был в промежуточном варианте.
Тут мне не понравилось следующее: когда числа выравниваются по правому краю и идет визуальный сдвиг линии:
12к
345
Хотелось бы, чтоб 2-ка была под 5-кой. Мелочь, а при экспресс анализе восприниматься будет лучше.
Можно поверстать, конечно, но одна из установок «покаместь не заморачиваться на верстке».
Тут мне не понравилось следующее: когда числа выравниваются по правому краю и идет визуальный сдвиг линии:
12к
345
Хотелось бы, чтоб 2-ка была под 5-кой. Мелочь, а при экспресс анализе восприниматься будет лучше.
Можно поверстать, конечно, но одна из установок «покаместь не заморачиваться на верстке».
Раз уж есть robots.txt то определять еще и humans.txt(мы же все-таки люди) ну и сделать их ссылками.
Результат W3C Validator хотелось бы получать для конкретной страницы, а не для домена.
При запуске на этой странице сейчас валидируется корневая: validator.w3.org/check?uri=habrahabr.ru
При запуске на этой странице сейчас валидируется корневая: validator.w3.org/check?uri=habrahabr.ru
Планируете ли версии для других браузеров?
Весьма любопытный сборник.
Из замеченных багов: похоже, счётчик лайков на vk.com работает для домена сайта, а не текущей страницы. Так и должно быть?
Из замеченных багов: похоже, счётчик лайков на vk.com работает для домена сайта, а не текущей страницы. Так и должно быть?
Вообще хорошая разработка, потестирую. Добавь информацию из whois - возраст домена.
Спасибо, интересно, но откровенно корёбит от «Дулишис» — всё-таки «Дилишес» ([dɪ'lɪʃəs]).
При нажатии на ссылки внутри поп-апа, этот поп-ап не должен исчезать. Сейчас если я хочу нажать на несколько ссылок, то мне необходимо несколько раз анализировать сайт с соответствующим процессом ожидания.
Хорошо бы ещё анализ текста на странице:
— Общее количество текста
— 5-10 самых часто встречающихся слов
— Уникальность (ссылки на дубли?)
И можно ещё в настройка сервис antigate прикрутить для капчи.
— Общее количество текста
— 5-10 самых часто встречающихся слов
— Уникальность (ссылки на дубли?)
И можно ещё в настройка сервис antigate прикрутить для капчи.
а если еще данные Wappalyzer научишься выводить — вообще будет славно.
robots.txt и sitemap.xml по некорректным ссылкам запрашиваются — первый слэш удвоен.
{sitaname}//sitemap.xml
{sitaname}//robots.txt
Плюс еще неплохо было бы проверять директиву Sitemap в robots.txt — это может помочь если sitemap расположен нестандартно.
В целом огромное спасибо за расширение :)
P.S. Странно что ТИЦ по показаниям яндекса и расширения местами расходятся.
{sitaname}//sitemap.xml
{sitaname}//robots.txt
Плюс еще неплохо было бы проверять директиву Sitemap в robots.txt — это может помочь если sitemap расположен нестандартно.
В целом огромное спасибо за расширение :)
P.S. Странно что ТИЦ по показаниям яндекса и расширения местами расходятся.
Еще на Facebook shares {parsererror} выдается постоянно
и ещё: «2 errors, 5 warnings» (а не «2 Errors, 5 warns»)
0.9.7
Добавлено:
Исправлено:
Добавлено:
- changelog.html
- Отображение текущей версии плагина (слева вверху)
- Социальное: отображение статистики внутренней страницы для Delicious, Google +1, vk shares и Tweets
- Разное: отображение статистики внутренней страницы для W3C
- Бэклинки: отображение статистики внутренней страницы для Я.Блогов
- Отображается, если Яндекс или Гугл просят ввести капчу
- Теперь плагин можно советовать через Google Plus.
Исправлено:
- Рейтинг: Alexa
- Социальное: Facebook Shares
Всё круто! Пара замечаний на следующий релиз.
На пустых вкладках открывается пустой поп-ап.
> Разное: отображение статистики внутренней страницы для W3C
Вторая строка W3C часто получает таймаут. По-видимому, дело в том, что запросы отсылаются параллельно, и сервер валидации как-то их прореживает. Возможно, второй запрос нужно отсылать с некоторой задержкой. А вот сами ссылки, на которые переход идет по клику, совпадают.
Еще, возможно, стоит кэшировать результаты, а то при каждом открытии поп-апа они загружаются, а для W3C ответ приходит небыстро. В случае кэширования добавить кнопку «Обновить».
P.S.
На пустых вкладках открывается пустой поп-ап.
> Разное: отображение статистики внутренней страницы для W3C
Вторая строка W3C часто получает таймаут. По-видимому, дело в том, что запросы отсылаются параллельно, и сервер валидации как-то их прореживает. Возможно, второй запрос нужно отсылать с некоторой задержкой. А вот сами ссылки, на которые переход идет по клику, совпадают.
Еще, возможно, стоит кэшировать результаты, а то при каждом открытии поп-апа они загружаются, а для W3C ответ приходит небыстро. В случае кэширования добавить кнопку «Обновить».
P.S.
<div class="kitajskiyKod ...
— это сильно!Откуда берется информация по запросу Whois? Для одного из моих сайтов выдается IP, который уже год не используется.
для ffx и оперы хочу плагин такой!
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Плагин для получения всеобъемлющей статистики о текущей страничке