• Запросить 100 серверов нельзя оптимизировать код. Ставим запятую
    +1

    Отличная статья, согласен что интеграторы зачастую не заморачиваться с оптимизацией вычислений, дешевле (для них) запульнуть +1 машинку. А data.table как всегда хорош!

  • R в руках маркетолога. Когортный анализ своими руками
    0

    Знакомая ситуация. Недавно пришлось делать RFM анализ, пришлось руками воспроизвести весь одноименный пакет, также все банально но визуализация требовалась интерактивная.

  • Первые шаги в BI-аналитике. Роль Data Engineering
    0

    Хорошая статья, всё так. Единственное, если брать скриптовые языки R/Python, то только ради какой то специфики, статистических/ML расчетов ( я например считаю для одного из дашборда 1млн. линейных рег
    рессий чтобы выдернуть коэффициенты этих моделей как коэффициенты эластичности по цене). Для остального (а это большая часть) достаточно transact/pl/pg SQL. И уж точно не стоит делать что то в pandas)))

  • Как мы выбирали библиотеку машинного обучения для работы с естественным языком
    0
    судя по статье-повышением некой точности
  • R vs Python в продуктивном контуре
    0

    так вроде уже отвязали torch от питона как от лишней тормозящей прослойки

  • Дети, русский язык и R
    +2
    Я подошёл к прочтению статьи как «пример того как применить язык к некой предметной области чтобы нестандартно решить некую задачу».
    Абсолютно нормальная статья при таком подходе. Нападки и минуса видимо ставят за то что увидели не общий посыл а только контекст задачи (весьма болезненный надо признаться в наших реалиях) ну и зацепились за это. Если бы статья была в духе «как нестандартно на языке программирования посчитать необходимый объем краски для забора на даче с учётом ограничений» реакция думаю была бы спокойней:)
  • Ещё немного о параллельных вычислениях в R
    +1
    Для евангелистов tidyverse особенно хорош furrr: с ним для параллелизации все что надо дописать в коде- лишь префикс на глаголы purrr.
    + Авторы furrr перевели консольный statusbar на отдельный более стабильный пакет (см. Последний релиз)
  • Нюансы эксплуатации R решений в enterprise окружении
    0
    Отличная обзорная статья и хорошая точка погружения в тему. По каждому из пакетов смело хватит ещё на целую отдельную статью:)
  • Электронные таблицы как средство разработки бизнес-приложений
    +2

    читаю про очередной велосипед, и не понимаю конструкторов таких великов: ну решил автор убить тучу своих человеко- часов без проверки наличия альтернатив на рынке, а зачем? Начиная с Excel 2013 Microsoft уже такого в него повнедрял что вышеупомянутые офисные Access, VBA просто с этим меркнут (а предмет этой статьи просто закапывают в землю).
    Пишу про киллер-связку: Power Query (продвинутый low code ETL с горой коннекторов к разным источникам данных и своим языком "M" для замороченных извращенцев которым мышки в нём почему-то не хватило) + Power Pivot с его колоночной аналитической СУБД (в его табулярных моделях кстати схемы "звезда/снежинка" категорически приветсвуются, как и в любых аналитических решениях) и его языком моделирования DAX (любой KPI показатель к вашим услугам). При этом бесшовная совместимость с Excel ибо его родные компоненты а понимание что можешь ворочать внутри оперативной памяти 120 миллионами записей в одной эксель книге — это приятно (хотя в таком случае Analysis Services конечно больше напрашивается)
    Access и VBA конечно останутся как узкозаточенные инструменты, но в текущем мире они для решения Эксельных задач уже совершенно не актуальны. Пишу по 10 летнему опыту работы с Access, VBA (и в Эксель и в Access) и 6 летнему опыту работы с Power Query/Power Pivot/Power BI.
    Автору конечно желаю коммерческого успеха с его продуктом и какого-либо интереса со стороны бизнеса (чтобы не было больно за потраченное время на разработку всего этого)

  • Как в enterprise приручить при помощи R технологии process mining?
    +1
    Отличная вводная статья!
    По работе в крупных компаниях знаю что резервы для роста бизнеса за счёт внешних рыночных факторов как правило почти исчерпаны: рынок у крупных корпораций либо зарегулирован государством либо конкуренция высокая при том что ёмкость рынка конечна. А вот внутренних ресурсов для повышения операционной эффективности в таких компаниях просто бездонное дно. И даже некомлексная лоскутная оптимизация при крупных оборотах даёт существенный профит и тут процесс майнинг как серебряная пуля. Конечно очень жалко что крупный бизнес в последнюю очередь вспоминает (или совсем не вспоминает) про open source одурманенный красочными презентациями и серьёзностью восьмизначного ценника проприоритарного продукта…
  • Прогноз нестационарного ряда, или как жить дата-сайентисту в 2020 году
    +1

    не очень понял, а в каком месте использовался lightGBM?

  • К чему прилагаются Business Intelligence (BI) — системы для бизнес-анализа?
    0

    Как раз дискредитируете Вы не разобравшись в теме и манипулирую голословностью маркетологов постите статью "ниочем". У меня статей на хабре не много, но в каждой именно про технику а не про то откуда какие определения слов берутся и какие нехорошие маркетологи-продажники, впаривают непонятную технику, аяяй.
    Очень хочется увидеть ссылку на то что стоимость зависит от числа коннекторов, правда интересно увидеть кто такой бред пишет, жду ссылку в студию.
    Не только у Вас одного претензии к маркетологам про то что пишут всякий шлак, но обсуждать то это к чему? Мало технических статей про BI и один маркетинг? В интернете? Вы серьезно??? Если действительно в это верите (я надеюсь что все таки Вы в этом вопросе лукавите) то в следующем комментарии приведу массу ссылок по технической стороне вопроса.
    Один из опытов практического применения задачи: в хранилище данных есть продажи продукции по магазинам целевой розничной сети и всех ее конкурентов.
    После того как очистил адреса всех магазинов (и конкурентов и целевой сети, порядка 20000 адресов) и прогнал через API одного из геокодеров — обогатил мастер-данные магазинов на координаты точек по широте и долготе. Далее в инструментарии BI создал ETL по коннекту к СУБД, по сборке вокруг каждого адреса магазина целевой сети всех его конкурентов в дистанции до 1000 метров по городу, построил на дашборде карту конкурентного окружения где радиус каждого магазина связан с объемом продаж, там же в BI рассчитал метрику силы конкурентного окружения, сделал рядом тайлы по структуре продаж в разрезе продуктовой аналитики с учетом кросс-фильтрации так что клик на карте по каждому магазину перестраивает все остальные тайлы и наоборот — клик на любом объекте любого из тайлов перестраивает на карте радиусы и насыщенность цветового градиента каждого объекта на карте. После совещания с конечными пользователя обогатил еще на ряд метрик и листов с новыми визуализациями (в т.ч. целевыми KPI). Кстати не понял Вашего недоумения в статье по поводу нескольких листов/панелей для дашборда, в одной из англоязычных статей дали хорошее сравнение что BI дашборд это как картинная галерея где каждый выставочный зал имеет свое направление и специфику, а тайлы — это картины в этом зале рассказывающие посетителю историю про данные. В конечном счете я опубликовал дашборд на сервере BI, поставил обновление по расписанию а пользователям дал ссылку. Теперь сотрудники этой розничной в любой момент времени из любого места заходят в браузер по ссылке (и с ноутбуков и с планшетов) и ВЗАИМОДЕЙСТВУЮТ с данными (например кликами не только перестраивают визуализацию но и погружаются в аналитику более гранулярного уровня). Подход к работе с информацией разительно отличается от унылого тыкания в 2 календарика отчета 1С запиленного после месячных поклонов ради чтобы увидеть грустную статичную портянку на 256 столбцов и не менее унылого статичной диаграмки с пирогами.
    Другой пример: надо было показать пользователям насколько эластичны продажи продукции своей относительно конкурентов, специфика в том что каноническая эластичность по цене (как в википедии) слабоприменима к реальному бизнесу где продажи — это временные ряды произвольной длины (т.е. не 2 периода "до" и "после"). Запустил внутри BI сервис языка "R" и построил для каждого временного ряда линейную регрессию логарифма продаж от логарифма цены, извлек нужные коэфициенты регрессии из каждого ряда что и было по факту эластичностью, построил несколько интерактивных панелей визуализации с эластичностью, ценой, шкалой времени и теплокартой, пользователи получили данные нового уровня — увидели картину которая раньше была недоступной, пересмотрели ценовые стратегии. А еще за это лето делал заказчикам дашборды по план/факт аналитике которая позволила пользователям значительно быстрее реагировать на недовыполнения планов в критических для бизнеса срезах по сравнению с традиционной выгрузкой из ERP. В другом дашборде по чековым транзакциям запустил модель поиска ассоциативных правил и визуализировал найденные паттерны в чеках с помощью визуализации графов (бизнес увидел закономерности которые помогли формировать более обоснованные механики акций).
    И это не все мои решения за этот год.
    Пользователи воодушевившись такими продуктами попросили серию тренингов, теперь публикуют собственные дашборды на портале для решения оперативных задач внутри отделов.
    Еще про практику продолжать?
    А что Вы обиделись про мое предложение построить дашборд по семейным расходам и дать родственнику покликать? Это не издевка была, поковыряйтесь пару вечеров — сделайте простой но симпатичный дашборд без машинного обучения и космических кораблей и дайте ближайшей половинке покликать — понаблюдайте за лицом пользователя, удивитесь. (особенно если это человек измученный отчетами ERP, например бухгалтерия)
    Про технику под капотом BI говорить можно много, это глубокая и интересная кроличья нора. Надеюсь все таки не забросите тему и погуглите что-то кроме маркетинга (еще раз повторюсь — готов прислать много ссылок если надо)

  • К чему прилагаются Business Intelligence (BI) — системы для бизнес-анализа?
    0

    Здравствуйте уважаемый проектировщик с 30 летним стажем.
    Пишет вам не продажник BI инструментов а разработчик BI решений на их основе.
    Всегда получаются смешные статьи у авторов, которые пишут о том в чем вообще представлений не имеют, Ваш вариант тоже повеселил,
    когда дочитал про то что стоимость зависит от числа коннекторов — я уже валялся держась за живот от смеха, спасибо!:))


    Во-первых шумиха кончилась уже лет 5 назад, видимо Вы только коснулись темы, что -то там нагуглили и одурманенные слабым шлейфом хайпа BI 5 летней давности решили запостить опус в стиле "книгу не читал но считаю бестолковой"
    Во-вторых как и все авторы неразобравшиеся в теме все смешали (люди, кони...): "В ERP есть отчеты, мы их настроим бизнесу а BI покупают лохи опьяненные рекламой"/
    Вы стоимостные оценки рынка BI гуглили кстати? Подозрительно большой рынок "лохов" не настораживает — может в Вашем понимании что-то не так?
    Вы скачали хоть одну десктоп версию (полностью бесплатную либо триально-бесплатную) одного из крупнейших игроков рынка (майкрософт, таблао, клик сенс)? Попробовали их в деле (хотя бы свои расходы скормить, сделать из этого самый простой дашборд и дать супруге покликать?)
    А чтобы писать статьи глубже определений с сайтов продажников я Вам подкину пару ключевых запросов в гугл, каждый из которых это основа современного BI инструмента:
    "Column-oriented DBMS" (внутренний движок быстрых вычислений, ознакомьтесь зачем их придумали если есть транзакционные ERP)
    "Self service reporting" (в чем преимущество пользователю дать в руки удочку а не вставать в очередь за рыбой к разработчикам транзакционных систем)
    "Machine learning" — есть в транзакционных ERP средства построения моделей открывающих инсайты в данных на основе линейных, логистических регрессий или деревьев решений, кластерного анализа или поиска аномалий?
    “Data drilling” & “cross filtering” – по кликам на любом элементе интерактивных визуализаций

  • ImportExportDataSql — бесплатный конвертер данных MSSQL
    0

    Уважаемый автор, спасибо во-первых.
    Во-вторых вопрос: где то раз в квартал приходится заниматься одной странной хренью — качать с одного гос.сайта гигантский XML (2-3 гига) с чудовищной структурой, которую распарсить в csv без падения может лишь одна утилитка (не важно какая, в итоге csv).
    Далее этот csv я должен импортировать через "Import and Export Data (64-bt)" с полной перезаписью в таблицу.
    Т.к. длина текстовых полей велика и заголовки полей периодически могут "плавать" написал сам для себя инструкцию чтобы печаль нет так сильно меня брала.
    один из хаков по инструкции — согласно совету stack вручную выкручивать длину поля до 8000 символов.
    В общем там так себе мастер (хотя раз в квартал терпимо).
    Есть ли смысл тратить время на тест Вашего изделия, будет ли оно удобнее для таких задач?

  • Мониторинг работы кредитного скоринга в Power BI
    0

    Дашборд безскриптовый или часть обработки/визулизации тянет через R/Python API?

  • Что принёс нам Pandas 1.0
    0

    Добавили чуток очевидных вещей что в других языках для DS уже как лет 15 считается нормой, революшн)))

  • Обзор Python-пакета Datatable
    0

    Свежий benchmark где видно насколько pydatatable ( & pandas) отстают от оригинального R'вского data.table
    https://h2oai.github.io/db-benchmark/

  • EDA под другим углом
    0

    У меня если честно есть ненаписанное продолжение этой статьи где я используя алгоритм ассоциативныех правил как раз и вытаскиваю нетривиальные закономерности (по метрике lift пакета association rules) с дальнейшей визуализацией (скорее всего через chord plot) но наверно это уже на 2 часть потянет, эта статья и так большая получилась

  • Как построить бизнес-технологию планирования продаж в единой системе
    0

    Так как же все-таки "построить бизнес-технологию планирования продаж в единой системе"???

  • Надстройка для Excel, облегчающая установку фильтров при работе с кубами (VBA)
    +3

    Мда, приехал очередной велосипед для любителя Excel 2003
    Из коробки:
    Активная ячейка на сводной таблице->Анализ->Вставить временную шкалу
    image


    Одним кликом непринужденно оперируем любыми периодами
    image


    Раздаем контроль на любое количество сводных
    image

  • Как начать применять R в Enterprise. Пример практического подхода
    0

    Илья, спасибо за очередную статью.
    Хотелось бы про валидацию отдельной статьи от тебя (хотя бы обзорной): очень уж пакеты в презе заинтересовали.
    к тому же автора одного из этих пакетов уважаю за пакет stringdist)))

  • R пакет tidyr и его новые функции pivot_longer и pivot_wider
    +2

    Таки да, к сожалению. И это заметно и в других рейтингах по штатам и европе, например по числу вопросов на стэке или рейтингу языков. Но больше всего удивляет не это а тотальный дисбаланс в сторону питона в нашей стране. Если в штатах и Европе очень грубое соотношение в DS процентов 60/40 то у нас по ощущениям 95/5 (сужу по числу вакансий и по числу образовательных курсов в нашей стране).
    И это незаслуженно, R очень хорош, в том числе и для продуктива не уступает питону ( речь про современную экосистему а не про пятилетней давности по которой все любят судить почему питон в проде мастхэв а R это из серии: запилить экзотичную дичь на коленке высоколобым учёным в толстых линзах)

  • Пилим данные с комфортом
    0

    R studio

  • Сравнение BI систем (Tableau, Power BI, Oracle, Qlik)
    +1

    Не понял по power bi "логика join-ов только по 1 полю". Если говорить про моделирование то да-по 1 полю, но в моделировании по другому и быть не должно иначе у Вас модель кривая, если говорить про ETL в power bi (aka "power query") то join по многим полям вынесен именно туда (что логично) и происходит до этапов создания модели.
    И кстати cross join вполне себе есть. И там и там.

  • Пилим данные с комфортом
    0

    отвечу сначала на последний вопрос: зачем разбивать вниз?
    сменил уже не одну крупную компанию и везде примерно одинаковая картина: на совете директоров защищают агрегированные планы следующего года без необходимой детализации, потому что ее на тот момент времени в принципе не может быть-цикл планирования на этапе рождения планов основан на верхнеуровневых предпосылках и вводных от топ-менеджмента, плюс целая куча сценариев и версий для согласования, поэтому и статистика прошлых периодов для него используется так же верхнеуровневая. разбивать вниз после согласования — не надуманная себе задача а реальная потребность бизнеса: допустим согласован коммерческий план продаж на уровне регионов/месяцев/каналов продаж и брендов в натуральном выражении. Как финансовому департаменту посчитать на его основе финансовые планы след.года если внутри брендов продукты с разным форматом и размером упаковки, разной себестоимостью и отпускными ценами? Таких примеров куча в каждом департаменте, подобные задачи приходится решать регулярно.
    по второму вопросу: "есть какой-либо смысл в полученном результате?
    Пока это выглядит как придумывание условий на ходу, чтобы задача хоть как-то сошлась…": надо не забывать что бизнес-заказчик сам спускает такой алгоритм именно потому что он ему понятен, можно конечно натренировать нейросеть и вообще целый ансамбль но потом обосновать разбитые цифры вряд ли получится:)

  • Как ускорить работу с API на языке R с помощью параллельных вычислений, на примере API Яндекс.Директ (Часть 1)
    0

    и особый торт: параллельный аналог purrr — furrr (на основе future). вашпе бомба:)

  • Использовать машинное обучение не сложно. Для этого достаточно в течение недели…
    0
    посчитан лаг 4 средних продаж категории товара

    я правильно понял что в итоге в качестве предикторов получили средние продажи по текущему магазину-товару за 4 недели относительно текущей (которая является откликом)?
    Если да, то может быть лучше было бы в качестве предиктора использовать наклон линейной регрессии по этим 4 предыдущим неделям или это в вашем случае давало результаты хуже чем средние продажи за неделю?

  • Использовать машинное обучение не сложно. Для этого достаточно в течение недели…
    0
    "Заказчик измерял текущую точность прогнозирования, используя метрику MAPE. Метрика популярна и проста, но обладает определенными недостатками"
    я ожидал дальше по тексту увидеть про SMAPE как серебряную пулю против низкой базы....
  • Как прогнозировать спрос и автоматизировать закупки с помощью machine learning: кейс Ozon
    0
    Мы дежурили, кто-то ночью, кто-то утром просыпался, 10 лучших параметров отсматривал, перезапускал или сохранял модель и ложился спать дальше.

    Работодатель отобрал паспорта? ))


    Если серьезно то очень интересная статья (спасибо!), сам сейчас перед выбором подхода.
    Рассматриваю в том числе и градиентный бустинг над деревьями но смущает вот этот кусок из цитаты: Demand Forecasting 2: Machine Learning Approach


    "Inspired by Kaggle kernels that achieved high scores on the leaderboards by encoding weekdays and months by the mean value of their respective period, we decided to try non-autoregressive models. In this approach, the average sales actually encode 3 kinds of information – day of the week, an item and a store. Thanks to that, one model could be trained for all the items and stores. Because the predictions are independent of each other, there’s no error to accumulate, regardless of the forecast length. On the other hand, this method cannot recognize long-term trends. It’s certainly not a universal approach, but it works well in this case, thanks to the very regular data. While it potentially gets rid of the error accumulation, it stands no chance of predicting spikes and other more complicated features."

    Если я правильно понял то вы трендовую составляющую пытались учесть через расчетный наклон как дополнительный предиктор, но это очень грубо, вряд ли тренд в продажах идет линейно скорее на практике он кусочно-линеен, а еще чаще полиномы и кубические сплайны. Действительно ли хватило наклона для счастья?
    А в момент предсказания передавали тот же наклон что и угловой коэффициент графика продаж товара за последние 7 дней в процессе тренировки? А если он был направлен на "солнце в зените" в тренировочных данных ограничивали ли его фактором насыщения спроса?
    И еще вопрос: почему не рассматривали классические модели прогнозирования: Auto.Arima, ETS, Prophet от Facebook?

  • Как программист новую машину подбирал
    0

    не понял зачем это?


    убираем по одному из каждой пары сильно коррелирующих регрессоров

    при том что коллинеарные предикторы сносятся в caret одной командой caret::findCorrelation


    data(mdrr)
    d <- mdrrDescr
    dim(d)
    # из всех возможных сочетаний пар предикторов с корреляцией выше 80% оставляем только один предиктор
    d <- d[, -findCorrelation(x = cor(d), cutoff = .8,verbose = F)]
    dim(d)
  • Как я понял, что ем много сладкого, или классификация товаров по чекам в приложении
    +1

    У нас внутри компании (алкогольный сектор) примерно тот же процесс, только приходит поток не от чеков и разбирается по классам не для нужд пользователей а для мастер-данных наших систем.
    И качество классификации требуется много выше чем в статье, ибо "ВИСКИ ШОТЛАНДСКИЙ БАРКЛАЙС 3 ГОДА 40% 0,7Л" и "Нап ром SHARK TOOTH Silver 40% 0.5L" это не класс "крепкий алкоголь" (что для чеков в Вашей задаче было бы вполне достаточно) а вполне определённые объекты мастер-данных "Виски Барклайс 3 года 0,7" и "Настойка Шарк Тус Сильвер на основе рома 0,50". А есть еще рядом близкие классы с разницей в один символ "Виски Барклайс 3 года 0,5" при том что TF-IDF емкости бутылки стремится к нулю ибо это высокочастотник в алкоголе, а есть еще вина со своей франко-итальянской особенностью написания в кириллице, и много чего еще…
    Но у в статье задача сильно проще тем не менее, странно что автор упомянул про "залетную" транслитерацию букв (сходных по написанию), а про принудительное разделение термов из серии "МЕРЛОвино МаулеВелле кр.сух.0.75л", "ASCHERIвиноБАРОЛО СОРАНО МаулеВелле кр.сух.14%0.75л" как- то позабыл. (боремся так же -регулярками)
    Так же учитывая что в текстовое поле ограниченной длины пытаются указать название продукта делая одни и те же слова с разной степенью сокращения, стемминг ну очень сильно помогает в классификации, однако специфика задачи не позволяет использовать стеммер Портера или лемматизацию — специфика сокращений и транслитов на русский. Тут уже чисто свой велосипед стемминга- но оно на практике того стоит.

  • Союз R и PostgreSQL. Анализируем работу аэропортов, рассчитываем пенсии
    +1

    статья из разряда "ну совсем вводная" и конечно не про рекламу R ибо такую "бородатую" визуализацию на R нынче мало кто делает.
    Больше интересно было бы про нагрузочное тестирование в этой связке, какие есть вилы/грабли при связке dbplyr+СУБД, какие есть возможности тюнинга для повышения эффективности работы этой связки.
    Например недавно коллеги подбросили интересную ссылку по сравнению производительности связки одной колоночной аналитической СУБД как в классической связке (R+Server) так и СУБД развернутой внутри самой R-сессии (вообще огонь). Там к примеру есть сравнение как с (PL/R-naive) так и с (PL/R-tuned), вот про тюнинг было бы интересно почитать как описание личного опыта/эксперимента.

  • Предсказываем будущее с помощью библиотеки Facebook Prophet
    0

    На языке R можно так же как и в питоне упарываться с классической аримой а можно загрузить R пакет forecast от Rob J. Hyndman и запустить auto.arima

  • Оптимизация цен в оффлайн ритейле
    0

    так же про каннибализацию не понял, добавили в функц.зависимость цены наиболее коррелированных товаров и неслабо словили мультиколлинеарность, как дальше использовать параметры модели?

  • Оптимизация цен в оффлайн ритейле
    0

    Про товарно-геогр. иерархию совсем не понятно:
    -агрегация данных и каскадирование параметров регрессии в глубину идет по уровням этой иерархии?


    • как вырабатывать эту струтуру если есть принятая в компании иерархия по географии (своя коммерческая) и иерархия по продукции (то же коммерческая)? Как есть-компоновать наверно толку не будет, опрашивать категориалов-сколько людей столько и мнений (зачастую противоречащих)
    • допустим в истории есть резкий провал на каком то верхнем уровне иерархии по котором оцениваем коэф. сезонности в модели и успешно учли этот провал. ок, каскадируемся вниз. а по факту провал обусловлен тем что одна из сетей тупо вывела наш продукт из своей ассортиментой матрицы и число магазинов с этого месяца упало ощутимо, от того и спрос пошел на агрегированном уровне не в ту сторону, как учитывать флуктуации клиентской базы в истории продаж? делать пересчет на точку и затем в прогнозе обратно ( по актуальной клиентской базе?)
  • Аналитический паRашют для менеджера
    0

    Про приключения с датами Илья кажется уже писал в своих прошлых циклах, а с кодировкой для "Ё" и "Ч" — да, на text mining задачах в R можно найти грабельки.

  • Наивный Байес, или о том, как математика позволяет фильтровать спам
    +2

    Странно подгрузить tm что бы взять оттуда только stopwords в этой задаче. В нем надо было и делать очистку от пунктуации, и от стопслов, и нижний регистр и конвертацию в document-terms-matrix, и все в одну строку кода. Многоэтажные циелы в статье выглядят как: давайте возьмём штурвал вот от той мощной яхты с полыми баками, и приделаем его к плоту который соберем из спичек перемотанных шнурками

  • Какую диаграмму использовать?
    0

    max1gu, то что статья написана плохо (и не уровень хабра) — далеко не повод опускать прекрасные инструменты, вообще о них ничего не зная. Так что лично для Вас — да, "ничем не лучше экселя".
    Для всех остальных интересующихся:


    1. позиция Power BI в рейтинге за 2017 год от аналитического агентства Gartner
    2. Перечень power-bi-visuals которые не так "смешно выглядит, как обычные сводные таблицы из эксел, которым 30 лет в обед"
    3. Гибкость построения сложных аналитических моделей на языке DAX который является "родным" для Power BI
    4. Поддержка языка R со всеми его библиотеками для визуализации средств углубленной аналитики
  • Максимально просто про перебор комбинаций в реальных бизнес-задачах
    0

    Лет 10 писал под офис на VBA ибо альтернатив не было. Теперь есть Power Query для Excel. С его приходом жизнь в ms office стала приятнее на порядки раз: теперь на VBA приходится писать ну очень редко — если с данными нужен конкретный БДСМ изврат.
    Касательно данного поста- то что описано выше делается на Power Query кликами мышки за 1,5-2 минуты с чистого листа: декартово произведение множеств через фиктивный столбец связи.

  • Системы ИИ научились создавать умные модели для ML: дайджест для начинающих
    0

    "снижает порог вхождения в индустрию для будущих поколений исследователей"
    ждёмс(((