Комментарии 45
необходимо докупать годовую подписку на пакет X-pack
Уже мимо.
No, Elastic X-Pack is not going to be open source – according to Elastic themselves
www.flax.co.uk/blog/2018/03/02/no-elastic-x-pack-not-going-open-source-according-elastic
2.1 Limited License. Subject to the terms and conditions of Section 2.2 of
this Agreement, Elastic hereby grants to You, AT NO CHARGE and for so long as
you are not in breach of any provision of this Agreement, a limited,
non-exclusive, non-transferable, fully paid up royalty free right and license
to the Commercial Software in Source Code format, without the right to grant
or authorize sublicenses, to prepare Derivative Works of the Commercial
Software, provided You (i) do not hack the licensing mechanism, or otherwise
circumvent the intended limitations on the use of Elastic Software to enable
features other than Basic Features and Functions or those features You are
entitled to as part of a Subscription, and (ii) use the resulting object code
only for reasonable testing purposes.
лицензия дает право на использование X-Pack в продашкне бесплатно. Что еще нужно бизнесу?
По этой ссылке можно посмотреть типы подписок и их функциональное наполнение: www.elastic.co/subscriptions
Информация по пробному 30-доступу и управлению лицензиями на X-Pack
www.elastic.co/guide/en/x-pack/current/license-management.html
www.elastic.co/guide/en/x-pack/current/license-expiration.html
> If the code of X-Pack is open, does that mean it's all free?
> No. Many features in X-Pack are free, such as monitoring, tile maps, Grok Debugger, and Search Profiler. Some features in X-Pack are paid, and require a license that comes with a Gold or Platinum subscription.
В GitHub там теперь две лицензии зашиты в исходном коде.
www.splunk.com/en_us/products/pricing/calculator.html
www.splunk.com/en_us/customers.html (89 из Fortune 100)
Работал и с тем и с другим на очень больших выборках.
ELK непросто ест больше ресурсов: он их сжирает в разы(!) больше.
На моих задача получалось соотношение: 1 инстанс splunk равен 3-4ем EL по производительности.
Субъективно splunk сильно проще и гибче настраивается.
Фатальным недостатком этого закрытого решения — космическая цена. Особенно для крупных компаний с большим объемом данных
И также хотим в формате открытого диалога увидеть дополнительно что-то еще от участников Хабр-сообщества, которые имеют опыт работы со Splunk и ELK.
Как проталкиваются решения руководству, мы знаем, но нам с ним работать еще.
Опять же, субъективно, но единственное преимущество ELK — бесплатность. Были бы деньги, ушли бы на Splunk.
что цена проекта складывается далеко не только из стоимости лицензии, но и из множества других затрат, например:
• Стоимость оборудования;
• ЗП сотрудников;
• Затраты на внедрение и интеграцию;
• Расходы на дополнительные фичи;
• Расходы на поддержку;
• Плата за риски;
• И тд.
Зачастую может оказаться так, что затраты на лицензию проприентарных решений, частично или полностью окупаются за счет сокращения других статей затрат по сравнению с open source.
а по мне неубедительно получилось. Пропаганда и не более, а хотелось бы объективной статистики:
- загрузили данные x(тут ссылка ни гитхаб) — в эластике весят Y, в вашем продукте Z. Конфигурация эластика была XX, конфигурация вашего продукта ZZ.
- Количество умеющих продукт ELTK, количество умеющих splunk, средняя зарплата первой группы и второй
- посчитать все затраты на дополнительные фичи не просто словами, а цифирками
- стоимость поддержки первого и второго вообще непонятно как измерить. Но раз уж это в статье есть хотелось бы понимать разницу где сплюньк выигрывает. Для меня неочевидно
- О каких рисках может идти речь если это все опен сорсно стоит и развивается. Можно конечно сказать что eltk 1.0 вышел 4 года назад когда splunk в 2006. Но как разрабу мне уже приходилось к примеру сталкиваться 2 раза по работе с еластиком и ни разу с вашим продуктом
Все это может увеличить требуемое место для хранения на дисках до 10 раз по сравнению со Splunk, который хранит только сжатые сырые данные, а вся остальная информация прикрепляется только в процессе поиска. Да и вообще, если взять и поставить параллельно Splunk и ELK, то для нормальной работы ELK потребует гораздо больше ресурсов чем Splunk.
Хотелось бы в цифрах и реальных примерах увидеть ибо пока это пропаганда наркотиков(появляется зависимость от продукта за который нужно платить).
Помимо очевидных затрат на оборудование существуют неявные затраты или, так называемая, упущенная выгода за время внедрения системы. Если сравнивать процесс развертывания и требуемые ресурсы: временные, человеческие или технологические, то Splunk заметно выигрывает у ELK.
тут нужно поверить наслово?
С точки зрения загрузки данных, ElasticSearch требует определения правил разбиения, идентификации всех полей, разделения данных до их загрузки. То есть вы должны знать о данных все, до того, как их загрузите в систему. Иначе придется менять структуру данных с помощью довольно сложных запросов JSON. Это существенно тормозит процесс. В Splunk можно загружать абсолютно любые данные, изначально он определит у них только 3 параметра: host, source и sourcetype, а далее можно выделять поля и изменять их в любой момент времени, когда вы поймете что именно вам нужно от этих данных.
Я конечно возможно чего-то не понял, но автомап никто не отменял, да возможны косяки но все же:
By default, Elasticsearch provides automatic index and mapping when data is added under an index that has not been created before. In other words, data can be added into Elasticsearch without the index and the mappings being defined a priori. This is quite convenient since Elasticsearch automatically adapts to the data being fed to it — moreover, if certain entries have extra fields, Elasticsearch schema-less nature allows them to be indexed without any issues.
В работе ELK используются разные языки: Lucene для текстового поиска, JSON для разделения данных на объекты и Timelion для работы с временными рядами.
JSON (англ. JavaScript Object Notation, обычно произносится как /ˈdʒeɪsən/ JAY-sən [2]) — текстовый формат обмена данными, основанный на JavaScript. Как и многие другие текстовые форматы, JSON легко читается людьми. Я бы не стал называть его языком. Lucene пром стандарт что в ELTK, что в SOLR. Раз уж приводить сравнения, я бы взял пару примеров на Lucene vs ваш язык.
Опора на три разных предприятия с открытым исходным кодом для одного решения несет значительный операционный и юридический риск для компании.
с 2006 года слышу про риски из-за опен сорса. За это время стабильный Apple objective-c заменил на swift заставив народ переучиваться. Sun был с потрохами куплен и большинство продуктов перешло в опенсорс и никаких особых траблов не вышло.
В Splunk цена за лицензию рассчитывается из количества гигабайтов данных, загруженных в день, независимо от количества узлов или пользователей. Покупая любую по размеру лицензию, вы покупаете сразу весь встроенный функционал, возможность использовать бесплатно большую (более 1000) базу приложений и инструкций-документаций. Также есть бесплатная лицензия, которая позволяет загружать до 500 мб в день, но имеет несколько функциональных ограничений.
- а динамика цен за гиг как-то менялась с 2006 года? откуда знать что лицензия сегодня стоила x, а завтра станет 5*x.
- Опять таки на каждый операционный гиг нужно закладывать соответствующую маржу в договоре с клиентом, дабы расходы на лицензию не были больше чем доходы. Предположим что один день я загрузил 1 гиг, второй день 10 гигов, а потом весь месяц 0, почем лицензия для меня?
Я конечно возможно чего-то не понял, но автомап никто не отменял, да возможны косяки но все же
Если у вас только одно поле LogMessage, то по нему постоиться Full-Tech-Search индекс, а если это Apache, то нужно выделить все нужные Fields, чтобы иметь возможность искать по ним. В случае Splunk — все в основном это просто _raw log message, а дальше при помощи SPL и в Search Time можно выделять поля для построения отчетов.
Таких примером много. Если у вас CSV — то его просто можно загрузить в Splunk, и просто начать по нему строить отчеты. ELK потребует разбивку по полям, если хочется использовать этот документ в отчетах.
В общем, Splunk по настоящему Schema-less.
JSON
Думаю, что имелось в ввиду JSON-based Query Language (https://www.elastic.co/guide/en/elasticsearch/reference/current/_introducing_the_query_language.html)
а динамика цен за гиг как-то менялась с 2006 года? откуда знать что лицензия сегодня стоила x, а завтра станет 5*x.
Думаю, что в лицензии Splunk есть какая-то строка о том, что цена в следующем году не может вырости больше чем на 5%. Многие компании требовали бы этого.
Опять таки на каждый операционный гиг нужно закладывать соответствующую маржу в договоре с клиентом, дабы расходы на лицензию не были больше чем доходы. Предположим что один день я загрузил 1 гиг, второй день 10 гигов, а потом весь месяц 0, почем лицензия для меня?
На сколько я помню Splunk позволяет это. Если только в один день у вас 10 гигов, а во все остальные 1 гиг — это не будет нарушением лицензии, и Splunk будет продолжать работать.
Думаю, что в лицензии Splunk есть какая-то строка о том, что цена в следующем году не может вырости больше чем на 5%. Многие компании требовали бы этого.
На следующий год может просто измениться лицензионная политика и перекроиться тарифы :) И если в 2006 году платили за условных 10-гиг 10$, то через год один дополнительный гиг может стоить + 10$. Заменят байты в строки, ядра, память, обновление до новой версии или ещё что-то придумают. Проходили такой путь уже со многими поставщиками.
ELK — это standalone система.
Наш клиент, к примеру, строго отказывается от всех облачных решений. Все сервера должны располагаться в закрытой корпоративной сети. Именно поэтому мы до сих пор не перешли на New Relic.
живет on-premise и на обычном железе и на виртуальном если надо.
docs.splunk.com/Documentation/Splunk/7.1.0/Capacity/Referencehardware
Я работая в MSS SOC просто счастлив, что все уже готово и мне не нужно упарываться с тюнингом платформы как для команд предобработки данных так и для добавления всяких секурити данных новых. У нас и на Спланк то целая команда, а так еще и толпу девелоперов содержать. Опять же найти человека с Security skill set + Splunk реально, найти developer который будет расширять ELK + security ваааще не реально (я имею в виду безопасность корповую).
Решите у себя строить SIEM и скорее всего у вас будет такая туча проблем бизнес-ИБ характера что еще и платформой заниматься не захочется. Разве что может одно исключение, если вдруг у вас работает единорог который это все уже несколько лет делал в другом месте, в смысле пилил ELK для ИБ.
И то и другие на больших объемах данных (сотни ГБ в день) требует настройки человеком, понимающим, что там внутри, но с ELK это происходит уже на меньших объемах, в силу особенностей elasticsearch, иначе все начинает тормозить. С другой стороны, обычно легче найти человека с опытом elasticsearch, чтобы он сделал все как надо.
Спланк из коробки очень хорошо умеет извлекать из логов ключи-значения, интерфейс, поисковая строка и возможности в целом более интеллектуальны, отточены за многие годы существования системы. Стоит ли оно запрашиваемых денег — совсем отдельный вопрос.
На мой взгляд, Кибана до сих пор страшно сырая. Elasticsearch отличный продукт, но требует понимания.
SPLUNK VS ELK?