Просто дело было вечером, делать было не чего…
Продуктом это можно назовётся, если найдутся единомышленники и будет сделаны доработки по дизайну, документации, расширен функционал. Например, нужны утилиты разбора для логов других DNS-серверов, автоматического обновления бан листов и др. Для моих нужд того, что сделано хватает за глаза, но это ж все навсего пока солянка из утилит и сайта одностраничника.
А то в интернетах полно школоты, которая собирает многомегабайтные (?!!!) списки хостов, которые в смартфон или в роутер не загрузишь — тяжело им с их маленькими процессорами и памятью.
Но все равно удобнее централизованный контролируемый свой DNS.
Это сделать конечно можно, актуально будет если в сети много компьютеров и IP клиента может меняться или DNS лучше ассоциируется с компьютером. Запишу себе в TODO.
Во первых выше правильно сказали, hosts нужно будет настраивать везде (на каждом компьютере ) + поддерживать в актуальном состоянии.
Во вторых мне нужны были логи.
В третьих в статье я сказал, что вариантов много, мой не единственно и не догма.
На википедии например PowerDNS стоит в связке с bind, у последнего есть система логирования. Конечно наиболее универсальное решение — снифер порта DNS-службы. Используемые в DNS протоколы стандартизованы, но все равно снифер весьма не тривиальная задача.
В том и была задумка, если сообществу проект понравится расширять его можно до бесконечности. Главно чтобы пользу приносил. Ну и да, у меня на доработки не особо время есть, так что любая помощь будет не лишней.
Да да. Именно. Посему удобные анализаторы логов чаще нужны администраторам, которые знают где как их примененить. Без навыков администрирования такое ПО бесполезно.
Ну напрямую можно и этон инструмент настроить с использованием по расписанию. А в общем, соглашусь, везде нужен большой напильник. В том же bind9 чтобы включить логи нужно еще поискать где и как это сделать. Обидно другое, для использования своего DNS в идеале нужен постоянно включенный компьютер и не нулевые знания об устройсте и конфигурации Dns сервера. Это многих отталкивает, поэтому предложенное решение редко используется.
у вас есть хранилище mediabox-storage
в него можно записывать файлы
я беру и записывают туда один и тот же файл 100 раз — получаются дубли.
Почему такое может происходить — по ошибке например.
Ну смотрите, профайлинг вам покажет картинку в целом. Там будет все, при чем не нужно знать заранее об узких местах. Потом когда у вас уже есть место где копать можно и думаю даже нужно переходить к трассировке.
Что может быть проще для понимания работы, чем прочитать пошаговый список выполняемых команд с входными данными и временем выполнения?
для тривиальных скриптов на мой взгляд проще почитать код, а вот когда подключается 100500 файлов и черт ногу сломит, что откуда берется получается огромная простыня пошагового списка выполнения команд. Возможно кому-то так будет проще. На то и разнообразие инструментов и способов их использования.
Ну тогда нужно что бы ни кого не обидеть указать все IDE, которые работают с Xdebug. Их кстати большинство, это и komodo, eclipse, phpStorm и т.д. и т.п. Xdebug очень мощный инструмент, но на бою требует очень очень тонкой настройки, или не может быть установлен из-за конфликтов с другими модулями. Это один из его самых больших минусов.
Трассировка по сути входит в профайлинг. Просто в каждом инструменте есть свои нюансы по рабе с ним. Трассировка есть и в Xdebug, и Xhprof, в ZendDebug вообще с вызовом из IDE (кстати там режим трассировки более близок к режиму DEBUG c точками останова). Без IDE трассировка обычно отнимает много времени если скрипт писали не вы т.к. требует знания узких мест, которые не всегда очевидны.
Версия последняя, постоянно обновляем. Да, время настраивается, но идеология запуска планировщика по действию пользователя иногда пугает.
Не думаю что у каждой компании есть свободный 12-ядерный сервер с 32Гб оперативной памяти…
но т.к. отделы разделены (для пользователя это совершенно разные сайты)
каждый сайт — отдельный домен? У них же лицензия на кол-во стафов + домен, на каждый домен покупаете или как то иначе?
каяку будет трудно/не возможно обновлять, а обновляется она довольно часто
каяку пишут индусы (без комментариев)
Думаю, с ее помощью можно работать с 50 или даже 200 проектами
это ж как же вы сделаете базу знаний по 200 проектам… это ж какая каша получится…
Kayako – очень сильная система в плане масштабируемости, и она показала отличные результаты при больших нагрузках
большие нагрузки это сколько ??? И как же она интересно маштабируется? Как-то не замечал что бы она летала, хотя стоит на выделенном сервере… А их система отказа от крона в пользу запуска событий по действию пользователя иногда оч даже вешает все… Картинки, которые хранятся в базе аще феерично… Кстати ваши же цифры 100 000 тикетов в год, 273 в день, 11 в час… Да… Прям сверх нагрузки…
основной целью перехода с почты на специализированные саппорт-системы является быстрота ответов
к слову каяка работает как с почтой так и с тикетами. Причем первую она парсит и создает тикеты… Системы типа каяки нужны для того, что бы уменьшить поток тикетов (за счет базы знаний и поиска по ней), и контроля отдела поддержки (что б вежливо отвечали и прочее).
Kayako — это название компании. Название CRM — Fusion.
Fusion это одна из версий поставок (есть Kayako Engage,Kayako Fusion,Kayako Case)
Автор похоже плохо знаком с техническими аспектами каяки, а статья больше похожа на неудачную рекламу.
Продуктом это можно назовётся, если найдутся единомышленники и будет сделаны доработки по дизайну, документации, расширен функционал. Например, нужны утилиты разбора для логов других DNS-серверов, автоматического обновления бан листов и др. Для моих нужд того, что сделано хватает за глаза, но это ж все навсего пока солянка из утилит и сайта одностраничника.
Можно и hosts генерировать, вообще тривиальная задача (см https://github.com/mcdir/statdnslog/blob/master/utill/tmp/local_serverlist_ban.txt).
Но все равно удобнее централизованный контролируемый свой DNS.
Там есть как IP клиента, который обращался к DNS,
так и обратные DNS запросы.
Во вторых мне нужны были логи.
В третьих в статье я сказал, что вариантов много, мой не единственно и не догма.
в него можно записывать файлы
я беру и записывают туда один и тот же файл 100 раз — получаются дубли.
Почему такое может происходить — по ошибке например.
Как вы с этим боритесь? Планируете бороться?
Сейчас дубликаты приспокойно сохраняются…
для тривиальных скриптов на мой взгляд проще почитать код, а вот когда подключается 100500 файлов и черт ногу сломит, что откуда берется получается огромная простыня пошагового списка выполнения команд. Возможно кому-то так будет проще. На то и разнообразие инструментов и способов их использования.
Не думаю что у каждой компании есть свободный 12-ядерный сервер с 32Гб оперативной памяти…
каждый сайт — отдельный домен? У них же лицензия на кол-во стафов + домен, на каждый домен покупаете или как то иначе?
каяку пишут индусы (без комментариев)
это ж как же вы сделаете базу знаний по 200 проектам… это ж какая каша получится…
большие нагрузки это сколько ??? И как же она интересно маштабируется? Как-то не замечал что бы она летала, хотя стоит на выделенном сервере… А их система отказа от крона в пользу запуска событий по действию пользователя иногда оч даже вешает все… Картинки, которые хранятся в базе аще феерично… Кстати ваши же цифры 100 000 тикетов в год, 273 в день, 11 в час… Да… Прям сверх нагрузки…
к слову каяка работает как с почтой так и с тикетами. Причем первую она парсит и создает тикеты… Системы типа каяки нужны для того, что бы уменьшить поток тикетов (за счет базы знаний и поиска по ней), и контроля отдела поддержки (что б вежливо отвечали и прочее).
Fusion это одна из версий поставок (есть Kayako Engage,Kayako Fusion,Kayako Case)
Автор похоже плохо знаком с техническими аспектами каяки, а статья больше похожа на неудачную рекламу.