Комментарии 8
Как только появится полноценное выявление дублей, источников URL-адресов с битыми ссылками и редиректами, данным продуктом не имеет смысла пользоваться! Оценка релевантности заменяет поисковый запрос с оператором site:https://site.com "поисковый запрос", некоторый функционал, как семантический анализ без знания тематики сайта вообще бесполезный инструмент, да может быть вы продвинете сайт в топ (при условии, что вам попадется хороший копирайтер), но вас будут материть за то, что выдаете не релевантный контент за релевантный. CMS-чекер для SEO-специалиста вообще бесполезная фигня, что она дает? Ну да знать на какой CMS-ске создан сайт и все? Все хорошие сайта переходят на стек технологий фреймворк + поддержка, т.е. пишут собственное решение под свои задачи!
По моему мнению лучше netpeak-а ничего не придумано, даже лягуша с рядом существенных отличий не перебивает преимущества netpek-а, единственное, что похож это ComparseR, но он медленно работает, и не подойдет для больших проектов! Улучшайте продукт и возможно, возможно им будут пользоваться
Сложно что-то комментировать - у вас прямо сплошной сумбур в тексте.
Да, нетпик для РФ уже превратился в тыкву.
И по аналогии с вами: улучшайте свою речь - тогда возможно вашим комментариям будут придавать больше значения...
Очень жаль, что вы восприняли здоровую, как критику в сумбур тексте! Очень, жаль, а полезный сервис для вебмастеров так необходим. И да нетпик для РФ не превратился в тыкву, им пользуюсь и я отлично себя чувствую
Как-нибудь при случае скачайте и протестируйте наш SiteAnalyzer, т.к. вижу что ваши выводы основаны лишь на тексте из новости, но это далеко не весь функционал.
И да, нетпик действительно хороший софт и достойный конкурент, но это не говорит о том что альтернативы никому не нужны и не интересны, да и "на вкус и цвет" как говорится...
ПС. Для справки нашим софтом уже давно и активно пользуются и пока нет предпосылок к обратному.
У Вашего софта есть недостаток, хотя он замечен был ещё у нескольких ресурсов, но вот "Лягушка" не допускает проблемы подобной. Проблема заключается в том, что не всегда видит заголовок h1 на страницах сайта. Для примера можно взять ресурс https://aks.by/ Пишет, что на многих страницах заголовок h1 отсутствует. А на деле, он есть)
Плюс, не все страницы сканируются на сайте, находит лишь часть. При этом, в файле sitemap.xml они все прописаны.
Да, пока не на 100% отладили все подобные случаи, поэтому такое может встречаться. Пришлите примеры страниц где H1 определяется пустым - протестируем это.
А на счет сканирования страниц - возможно данные страницы закрыты от идексации через robots.txt / meta robots, либо на них может не стоять ссылок, или ссылки на их стоят через nofollow или javascript. Тогда краулер не сможет их увидеть и перейти на них. Вы можете попробовать отключить в настройках учет роботс и nofollow для понимания в чем кроется проблема.
На какую почту прислать пример ссылок?
Нет, то, что в роботсе запрет стоит я знаю, но на сайте перелинковка настроена, ноуфоллоу не используется. Через скрипты не проставлялись ссылки.
Можно через форму обратной связи https://site-analyzer.ru/contacts/
SiteAnalyzer 2.8 — Анализ доменов, управление файлами cookie, экспорт выбранных проектов в Excel