Как стать автором
Обновить

Комментарии 8

Как только появится полноценное выявление дублей, источников URL-адресов с битыми ссылками и редиректами, данным продуктом не имеет смысла пользоваться! Оценка релевантности заменяет поисковый запрос с оператором site:https://site.com "поисковый запрос", некоторый функционал, как семантический анализ без знания тематики сайта вообще бесполезный инструмент, да может быть вы продвинете сайт в топ (при условии, что вам попадется хороший копирайтер), но вас будут материть за то, что выдаете не релевантный контент за релевантный. CMS-чекер для SEO-специалиста вообще бесполезная фигня, что она дает? Ну да знать на какой CMS-ске создан сайт и все? Все хорошие сайта переходят на стек технологий фреймворк + поддержка, т.е. пишут собственное решение под свои задачи!
По моему мнению лучше netpeak-а ничего не придумано, даже лягуша с рядом существенных отличий не перебивает преимущества netpek-а, единственное, что похож это ComparseR, но он медленно работает, и не подойдет для больших проектов! Улучшайте продукт и возможно, возможно им будут пользоваться

Сложно что-то комментировать - у вас прямо сплошной сумбур в тексте.

Да, нетпик для РФ уже превратился в тыкву.

И по аналогии с вами: улучшайте свою речь - тогда возможно вашим комментариям будут придавать больше значения...

Очень жаль, что вы восприняли здоровую, как критику в сумбур тексте! Очень, жаль, а полезный сервис для вебмастеров так необходим. И да нетпик для РФ не превратился в тыкву, им пользуюсь и я отлично себя чувствую

Как-нибудь при случае скачайте и протестируйте наш SiteAnalyzer, т.к. вижу что ваши выводы основаны лишь на тексте из новости, но это далеко не весь функционал.

И да, нетпик действительно хороший софт и достойный конкурент, но это не говорит о том что альтернативы никому не нужны и не интересны, да и "на вкус и цвет" как говорится...

ПС. Для справки нашим софтом уже давно и активно пользуются и пока нет предпосылок к обратному.

У Вашего софта есть недостаток, хотя он замечен был ещё у нескольких ресурсов, но вот "Лягушка" не допускает проблемы подобной. Проблема заключается в том, что не всегда видит заголовок h1 на страницах сайта. Для примера можно взять ресурс https://aks.by/ Пишет, что на многих страницах заголовок h1 отсутствует. А на деле, он есть)
Плюс, не все страницы сканируются на сайте, находит лишь часть. При этом, в файле sitemap.xml они все прописаны.

Да, пока не на 100% отладили все подобные случаи, поэтому такое может встречаться. Пришлите примеры страниц где H1 определяется пустым - протестируем это.

А на счет сканирования страниц - возможно данные страницы закрыты от идексации через robots.txt / meta robots, либо на них может не стоять ссылок, или ссылки на их стоят через nofollow или javascript. Тогда краулер не сможет их увидеть и перейти на них. Вы можете попробовать отключить в настройках учет роботс и nofollow для понимания в чем кроется проблема.

На какую почту прислать пример ссылок?

Нет, то, что в роботсе запрет стоит я знаю, но на сайте перелинковка настроена, ноуфоллоу не используется. Через скрипты не проставлялись ссылки.

Зарегистрируйтесь на Хабре , чтобы оставить комментарий

Публикации

Истории