Как стать автором
Обновить

Комментарии 13

Интересная статья, но не хватает ссылок на github, инструкций и например ссылок на "статья Юрия Пермитина "... Или это статья "я пиарюсь"?

Добрый день

Да, это статья "я пиарюсь", но ближайшее время планирую рассказать и выложить в общий доступ отдельные интересные инструменты, появившиеся в ходе разработки. Например, будет открыт код rac-клиента, на базе которого можно сделать много интересных штук.

Давно известные сервисы Гилева. Долгие годы этот продукт был одним из лидеров. Но как же без минусов. Основной – это невозможность внедрить утилиту во внутреннее облако компании, что для многих сейчас может стать непреодолимым препятствием.

помимо возможности локальной установки у вашего решения есть какие-то преимущества?

  1. Возможность долго хранить логи - кликхаус их очень хорошо сжимает.

  2. Более комплексный взгляд на вопрос производительности (на мой взгляд).

  3. Поддержка не только mssql, но postgres.

  4. И самое главное (опять же, на мой взгляд) - это желание развивать продукт. Из моего опыта общения с конкурентами у них нет какого четкого понимания куда дальше двигаться.

наши сервисы http://www.gilev.ru/querytj/ логируют постгрес
в платной версии хранят логи длительный период
мы специально сделали бесплатный вариант и открытую клиентскую часть чтобы не говорили "невозможность внедрить утилиту во внутреннее облако"
но как говориться если есть желание самостоятельно изобретать велосипед, то не надо говорить про "развитие"
какие реально фичи в нашей деятельности нам нужны - мы добавляем

Спасибо за ваш отзыв.

По поводу Postgres. Вы берете всю информацию из ТЖ. Наша система собирает данные еще и из самой БД.

По поводу "локальной установки". Я не смог найти информацию на вашем сайте о том, как установить серверную часть вашего комплекса в локальном окружении. Поделитесь, пожалуйста если вас не затруднит. Возможно действительно тогда не пришлось бы ничего изобретать.

вы яростно манипулируете "Вы берете всю информацию из ТЖ" - так он для этого и предназначен
важно не откуда кто что берет, а какой результат!

Мне кажется что "яростно" это очень громкий эпитет. Я просто рассказываю как делали мы, не более того.

" Я не смог найти информацию на вашем сайте о том, как установить серверную часть вашего комплекса в локальном окружении. " Опять манипуляции. Так у нас и не написано как делать не надо.
Метрики обсчитываются в облаке. Чтобы отправить их туда ЛОКАЛЬНО ставится база 1С-клиент с открытым кодом. http://www.gilev.ru/setupquerytj/ инструкция есть. Смысл нагружать боевые сервера сторонней нагрузкой, достаточно большой в пике и способной помешать реальной работе пользователей. Кто вносит значительную паразитную нагрузку на сервер с продуктивом - сам себе злобный буратино...
Мы специально устранили недостатки ЦУП, который роняет продуктив...

Судя по всему мы по-разному понимаем термин "локальная установка". В моем понимании это вариант, когда все манипуляции с данными происходят в контуре заказчика.

По поводу нагрузки на продуктовые сервера - полностью согласен. Поэтому в нашем случае никаких агентов не ставится, а данные ТЖ И ЖР забираются по обычной smb/nfs шаре.

видимо мы по-разному понимаем подход к работе
вы за процесс, я за результат
забор интенсивных логов по локалке точно также может помешать работе пользователей
нормальным людям манипуляции с метриками на дополнительном сервере ради разовых вещей по поиску узких мест не нужна, это еще ради этого сервер покупать, а сейчас и сервер не купить!
или у вас значения счетчиков загруженности оборудования и текстов запросов стали чем представляющим ценность для "врагов"...
зачем же вы глупости такие пишите

Всё-таки не хватает ссылок хотя бы на демку. Продукт действительно интересный, если ещё и внедряется несложно ( запуск КИП та ещё задачка), то продукт определенно займет своё место под солнцем. Если нужны будут Java-руки со знанием 1С - буду рад помочь. Удачи в развитии!

Внедряется он реально очень просто:

  1. включается ТЖ

  2. Включается ЖР в файлах

  3. Расширвается папка с ТЖ и ЖР

  4. Ставится хранимка на скуль

  5. Ставится расширение в конфигурацию (для структуры базы и для Апдекса)

  6. На Ubuntu генерируется специальной софтиной compose файл

  7. Дальше все это стартуется и все - все готово для работы и данные собираются

У меня запуск занял с нуля занял 2 часа

контакты ушли в личку

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории