Обновить

Системный и бизнес-анализ

Сначала показывать
Порог рейтинга

Тест «Какой вы бизнес-аналитик?» — оцените свой уровень и получите чек-лист

Пройдите наш тест и узнайте правду: вы — гуру бизнес-анализа или просто мастер красивых диаграмм?

Что вас ждёт:

✔️ 10 вопросов о работе с требованиями, декомпозиции задач, анализе данных и коммуникации с заказчиками и командой.

✔️ Честный вердикт на каком уровне находитесь: Junior, Middle или Senior.

✔️ Полезный бонус — бесплатный чек-лист лист «Как разбить работу бизнес-аналитика на задачи», который поможет структурировать проекты и избежать ошибок в планировании.

Готовы проверить себя? Переходите по ссылке и узнайте, какие области стоит прокачать для профессионального роста.

P.S. Чек-лист работает, даже если тест выявил, что ваша суперсила — это крепкий кофе и удалёнка.

Теги:
Рейтинг0
Комментарии0

GlowByte приглашает на практический вебинар «Безграничный Excel: сводные таблицы над миллиардами строк за секунды!»

Друзья, если вы работаете с данными в Excel, то это точно будет вам интересно! Приходите на практический вебинар GlowByte и Rapeed "Безграничный Excel: сводные таблицы над миллиардами строк за секунды!".

Мы расскажем вам о российской платформе Rapeed и покажем, как с помощью этого инструмента можно анализировать гигантские массивы данных без сложных запросов. Живые демонстрации, реальные кейсы и ответы на ваши вопросы — всё в одном мероприятии!

Почему это интересно?

Если вы работаете с данными в Excel, то точно знаете его пределы:

  •  файл "весит" сотни мегабайт,

  •  отчёты строятся мучительно медленно,

  •  данные — в десятках разных источников.

Но вы можете:

  • Перестать зависеть от ограничений Excel по объему и сложности данных;

  • Научиться соединять данные из разных систем (1С, CRM, КХД, Hadoop, S3) прямо в интерфейсе (PivotTable) сводной таблицы Excel;

  • Дать своей команде инструмент для сверхбыстрого анализа без необходимости моделирования данных и написания SQL-запросов.

Что? Где? Когда?

Живая демонстрация нового российского продукта Rapeed (in memory OLAP):
эксперт подключит Excel к источникам с миллиардами строк, построит сводную таблицу и покажет, как работать с гигантскими массивами без зависаний и SQL-запросов.

В программе:

  • Как быстро и эффективно работать в PivotTable в Excel с источниками более 1 млрд строк. 

  • Объединение сложных источников за пару кликов. 

  • Демо реальной задачи из сферы розничного бизнеса.   

  • Сможете задать любой вопрос создателю аналитической платформы Rapeed.

Бонус: Все участники вебинара получат доступ к триальной лицензии rapeed.ai на специальных условиях.

Вебинар состоится 24 июля в 13:00 (МСК).

Участие бесплатное. Регистрация по ссылке.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

“Уходим, уходим, уходим…”  Как понять, что проект пора закрывать?

Когда твоя деятельность состоит в том, чтобы запускать стартапы, неизбежно сталкиваешься еще и с другой стороной - периодически проекты приходится закрывать. Сегодня расскажу о том, как понять, что с проектом пора прощаться.

Я ранее уже рассказывал о том, что некоторое время назад мы изменили подход к сборке MVP (подробнее об этом можно прочитать в материале “Как мы перестали строить завод”). Если лет 5 назад мы собирали MVP сразу после оценки идеи, то сейчас проекты проходят стадию анализа, затем - предтеста (некий аналог пред-MVP), и только потом, когда ценность проекта подтверждена у пользователей и нам понятно, какие фичи нужны проекту, мы выводим его на сборку MVP.

Соответственно, мы будем говорить о тех проектах, которые уже прошли анализ, предтест и для которых MVP уже собран, т.е. можно сказать - проект запущен.

Стратегии
Любой стартап создается либо на продажу, либо как дивидендный актив, который будет постоянно приносить прибыль основателям. Это разные стратегии работы. Для нас ближе второй путь - дивидендный актив.

Для таких стартапов важным показателем является соотношение CAC к LTV 1:3 и выше (1:4 и т.д.). Напомню, что CAC - это стоимость привлечения клиента, а LTV - это его пожизненная стоимость, то есть, то количество денег, которые он приносит компании за все время взаимодействия с ней. Существует примерный ориентир, на который ссылаются инвесторы, фонды и бизнес-ангелы во всем мире: 1 доллар потраченный на привлечение, должен приносить 3 доллара прибыли, не ниже. Поэтому основная задача стартапа - добавиться соотношения 1:3. Все гипотезы, которые мы тестируем, должны быть направлены на сокращение стоимости привлечения и на повышение LTV.

Если достичь оптимального соотношения не получается, нужно либо сделать пивот - т.е. резко изменить вектор направления стартапа в ту сторону, где удастся улучшить показатели. Второй путь - закрыть проект.

Мне приходилось закрывать проекты неоднократно. Например, “Турбо-ассистент” - сервис по подбору ассистентов для делегирования самых разных задач. Причина для закрытия была проста - не сошлась юнит-экономика. Мы проанализировали свои ошибки: во-первых, всех ассистентов нанимали в штат  (что неизбежно влекло расходы), во-вторых, взяли на проект достаточно большую команду. Но если смотреть широко - рынок оказался не готов к такому проекту. Нам приходилось слишком много ресурсов тратить на то, чтобы доказать пользователю, что делегирование - это нормально, безопасно и удобно. В итоге проект закрыли.

А если дать стартапу время?
На самом деле, решающее значение имеет не время, а деньги - сколько их есть у стартапа или сколько готов дать инвестор.  Если по цифрам виден рост, то деньги - это не проблема. А вот если роста нет то здесь все зависит либо от  терпения инвестора, либо от запаса тех денег, что выданы проекту на данный момент.

В моей практике бывали случаи, когда было очевидно, что проекту можно дать время. В такой ситуации важно не экономить деньги, просто закрыв стартап, а дать команде шанс переломить ситуацию. К деньгам в данном контексте я отношусь не как к цели, а как к средству для достижения конечной цели.

Проекты открываются и закрываются, так устроена система. В первые годы работы, признаюсь, я испытывал досаду, когда проект приходилось останавливать. Но сейчас к этому отношусь как к норме: это часть нашей бизнес-модели. Мы стараемся минимизировать риски и ввели новые этапы -преданализ, анализ идей, предтест - все это для того, чтобы вероятность успеха проекта была максимальной! 

Теги:
Всего голосов 2: ↑1 и ↓1+1
Комментарии0

Последний месяц я системно разбираю разные курсы по аналитике данных - по просьбам подписчиков моего канала Аналитика и Growth-mindset (18K подписчиков).

Уже сделала разбор курса Eduson, на очереди - Яндекс Практикум, Skillbox, Нетология. В этот раз - курс по аналитике данных от Анатолия Карпова.

Всё началось с того, что мой знакомый Паша - менеджер из МТС - решил перейти в аналитику и попросил меня взглянуть на курс от Eduson. Как бывшего аналитика данных и предпринимателя в настоящем, который в том числе нанимал аналитиков в команду. Я поделилась мнением с Пашей и опубликовала разбор в Telegram-канале.

Пост собрал 337 реакций с просьбой продолжить. Так начался этот цикл обзоров.

Мои условия проверки курсов:

  1. Погружаюсь в курс - демо, программу и часть платных материалов. Целиком курс не прохожу, но стараюсь посмотреть ключевые моменты, важные для работы аналитиком данных. 

  2. У меня нет цели “топить” основателей курса и уж точно “продвигать” кого-то. Разбираю по сути - плюсы и минусы, которые заметила. Все, что пишу - мое субъективное мнение.

Про Анатолия Карпова я знаю уже давно по бесплатным курсам по статистике на Stepik. Несмотря на то, что практических примеров в них не хватало - бесплатные курсы помогли мне в целом разобраться в статистике.

Поэтому платный курс по аналитике данных было особенно интересно разобрать - посмотреть, какие плюсы и минусы есть и насколько хорошо он обучает.

Что может не понравится в курсе:

  1. Учебный ритм фиксированный: уроки и задания открываются 3 раза в неделю, на выполнение дают 2 недели. Это может быть минусом для тех, кто хочет полностью свободный график.

  2. Нет гарантии трудоустройства. Есть поддержка карьерных консультантов, но результат зависит от самого ученика.

  3. Иногда платформа немного лагала например, виртуальный помощник по курсу ответил мне не с первого раза или видео звучало с глюками.

Что выглядит сильным:

  1. Мне зашла подача теории - построена на примерах и реальном опыте преподавателей. Например, лекция по визуализации от BI-евангелиста Яндекса содержит 7 примеров за 15 минут. Если серьезно, примеры - один из самых сильных способов обучения: мозгу легче запомнить наглядное.

  2. В курсе 490+ практических задач. После каждого урока с лекциями увидела в среднем 10 практических задач и вопросов на подумать: посчитай метрики, разберись с поведением пользователей, выбери дашборд под задачу и т.д. Формируется не только навык, но и голова начинает думать как у аналитика.

  3. 10+ кейсов в портфолио - по сути, реальные задачи, и в целом охватывают все ключевые навыки, поэтому на собеседовании пробелов быть не должно. Например: анализ A/B-теста в дейтинг-приложении, оптимизация маркетинговых каналов в доставке еды, разбор, где теряются клиенты и тд.

  4. Погружение в реальную работу. У меня в доступе оказался проект модуля по визуализации. Там нужно не просто “собрать дашборд”, а пройти весь путь: собрать требования, провести интервью, поработать с данными, визуализировать и презентовать результат.

    • В таком виде это дает полное погружение в работу аналитика данных. И как раз закрывает тот самый частый вопрос: “Прохожу курс Х, но всё ещё не понимаю, чем вообще занимается аналитик и как выглядит работа на практике.”

    • У новичков часто проблема не с тем, как посчитать, а с коммуникацией. В курсе задания не оторваны от реальности - нужно общаться, принимать решения, думать, что важно для бизнеса. Прокачиваются не только hard, но и soft-скиллы.

  5. Есть база вопросов с собеседований и тестовых заданий. Правда сама я ее не видела, про нее рассказал ИИ на сайте (”это набор реальных кейсов и задач, которые дают на собеседованиях в IT-компаниях”). Крутая тема, чтобы повысить шансы пройти собес.

    У курса есть минусы - в первую очередь формат и темп. Но в целом он даёт реалистичное представление о работе аналитика. Интересно, совпадает ли это с мнением тех, кто проходил курс? Речь шла об этом курсе: karpov.courses/analytics.

    Ну и если ждете разбор других курсов - пишите в комментариях, чтобы я понимала, что тема интересная. 



Теги:
Всего голосов 4: ↑2 и ↓2+2
Комментарии0

Где учиться аналитике данных и DS

Привет! Просто пришли рассказать, что мы на Хабр Карьере собираем сотни онлайн-курсов для тех, кто хочет освоить специализации в IT или digital или прокачивать навыки, чтобы, например, расти в квалификации.

Сегодня принесли небольшую подборку для тех, кто хочет учиться аналитике данных и DS. Вообще все курсы по специализации можно посмотреть здесь, а ниже оставляем ссылки по ключевым навыкам:

Аналитика данных

Навык извлекать инсайты из данных, строить отчеты и находить закономерности, а еще это основа для принятия решений в бизнесе и продукте.

Data Science

Работа с большими объемами данных с помощью машинного обучения, статистики и программирования. Помогает предсказывать поведение пользователей и автоматизировать процессы.

Системная аналитика

Связывает бизнес и разработку: анализирует требования, описывает логику работы продукта и просто помогает команде работать в правильном направлении. Ключевая роль в IT-проектах.

Инженерия данных

Проектирование и построение инфраструктуры для хранения, передачи и обработки данных, чтобы у аналитиков и моделей всегда были чистые и доступные данные.

Бизнес и аналитика

Навык понимать бизнес-цели и трансформировать их в понятные метрики и отчеты. Помогает видеть, как решения влияют на деньги, продукт и рост компании.

Кроме аналитики можно прокачивать софт-скиллы или вообще подобрать обучение в другой сфере, если чувствуете, что хотите и будет полезно. Просто переходите в раздел и выбирайте, чему хотите научиться.

А чтобы вы могли проверить качество курсов, мы собираем отзывы о тех, кто уже прошел обучение — так что читайте и выбирайте лучшее для себя.

Смотреть курсы по всем специализациям

Теги:
Всего голосов 2: ↑2 и ↓0+4
Комментарии0

Nvidia стала первой в истории компанией с капитализацией в $4 трлн (больше крипторынка, который весь составляет $3,6 трлн). Это происходит на фоне бума нейросетей.

Теги:
Всего голосов 4: ↑4 и ↓0+6
Комментарии0

Repeater - планировщик для анализа данных, упрощенный Apache Airflow.

Repeater запускает задачи по расписанию. Задачи - последовательности консольных программ - описываются в toml-файлах. Запуски отображаются в веб-интерфейсе.

Пример задачи - запуск скриптов wiki_stats.py и wiki_pageviews.py импорта верхнеуровневой статистики Википедии в локальную базу.

title = "wiki"
cron = "0 55 * * * *"

[[tasks]]
name = "wiki_stats"
cmd = "python3 ./examples/wiki_stats.py"   

[[tasks]]
name = "wiki_pageviews"
cmd = "python3 ./examples/wiki_pageviews.py --end_date={{.scheduled_dt}}"

Бэкэнд написан на Go. Команды ниже запустят Докер-контейнер с сервисом и окружение для примеров:
- Repeater http://localhost:8080 - планировщик
- ClickHouse http://localhost:8123 и http://localhost:9000 - база данных
- ch-ui http://localhost:8001 - веб-интерфейс к базе данных
- Streamlit http://localhost:8002 - дашборды

git clone https://github.com/andrewbrdk/Repeater
cd Repeater
docker compose up --build

В примерах импорт количества просмотров страниц Википедии, курса биткоина, статистики репозитория Линукса на Гитхабе. Графики в Streamlit http://localhost:8002 .

Интересны применения проекта. Попробуйте! Впечатления пишите в комментариях. Спасибо!

Репозиторий: https://github.com/andrewbrdk/Repeater

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Из разговора с потенциальным клиентом…

Клиент: Сколько страниц будет входить в аудит?
Я: Неизвестно. Почему неизвестно? Потому что у меня нет цели написать определённый объём правок и замечаний. Сколько их увижу — столько и зафиксирую. Если бы я проаудировал систему и не нашёл в ней ни одной проблемы — размер документа не превышал бы одной страницы.

Тут сразу пара моментов, которые хотел бы подсветить.

Я раньше, когда работал над документацией, считал, что «чем объёмнее — тем лучше». Это ещё со школы и универа. Реферат должен быть на пять листов. Эссе на семь. Доклад на три.

Акцент был на форме, а не на содержании. И это ужасно. В начале двухтысячных, когда работал в компании Webmaster.Spb проектировщиком, клиентам нравились толстые ТЗ. Точнее, представителям клиентов. Менеджерам. Сами-то клиенты эти ТЗ не читали, насколько мне известно.

Из строительной тематики тоже была клёвая байка, которую мне рассказал один из клиентов: «Я однажды сдаю своему шефу пачку документации высотой в два сантиметра. А он смотрит на неё и пальцами показывает три сантиметра. Вот столько, говорит, надо. Возвращайся, когда будет пачка высотой в три сантиметра».

Это первый момент. А второй — если во главе стоит форма, а не содержание, то это сродни проектированию главной страницы сайта, когда всё остальное ещё не готово. Спроектировал главную за час, а потом пятьдесят часов подгоняешь остальные сто страниц под неё. Вместо того, чтобы сделать всё без ограничений, а главную рисовать уже в самом конце, когда весь проект будет понятен. В виде вишенки на торте.

Иногда ещё, знаете, решишь написать статью. И придумываешь ей заголовок «пять ошибок начинающих проектировщиков». И вот четыре ошибки легко расписал, а пятую никак придумать не можешь. И сидишь, мучаешься, тратишь время. А мог сначала статью написать, ограничившись четырьмя ошибками, а затем уже заголовок придумывать.

Прикиньте, кто-то сначала бы придумал тематику: пять начал (законов) термодинамики. И после четвёртого сидел бы и страдал.

Возвращаясь к моим аудитам: у меня нет задачи найти конкретное количество косяков. Задача — проверить, достигают ли пользователи интерфейса своих целей. Если достигают — и отлично! Радоваться надо, что в моём документе будет одна строчка текста («Всё идеально, красавчики»). Это как на чек-ап пойти ко врачу и переживать, что ничего не нашли.

К сожалению, на практике такого ещё ни разу не было. Всегда что-то нахожу.

П.С.
Представляете, я бы сказал, например: «Четыре страницы». Сделал бы аудит и нашёл бы ошибок на две страницы. И что бы делал? То же, что в школе и универе? (здесь должна быть какая-нибудь эмодзи с льющейся бессмысленной водой)

Теги:
Всего голосов 9: ↑8 и ↓1+10
Комментарии0

Случайна ли случайность? Теория вероятности и личный опыт

Все мы когда-то слышали или читали, что кто-то где-то выиграл джекпот. Столько-то миллионов рублей или долларов, не имеет значения. Важно то, что этого никогда не случится с нами, потому что вероятность этого события – 1 на сотни миллионов.

Однако, со мной кое-что случилось, что, мне кажется, в соответствие с теорией вероятности случится не должно было никогда. И этим оно напоминает джекпот.

На старших курсах ВУЗа проходил практику в школе своего города, который расположен ровно в 1 000 км от Москвы. Преподавал естественные дисциплины школьникам 5-9-х классов. Не суть, что там было по учёбе, главное, что в одном из 9-х классов учился юноша, который в следующем учебном году, т.е., уже осенью, должен был уехать с родителями в Москву. Юноша упомянул как-то про это, и мы даже разговорились с ним, потому что я сам через несколько месяцев собирался уехать в Москву на стажировку. Для нас обоих это был совершенно новый, неизведанный мир. Одно слово - столица!

Наступила осень. Приехала в гости к молодому стажёру мама и я повёл её в театр. И вот садимся мы на свои места, а рядом, на соседнем месте оказывается… тот самый юноша, уже московский десятиклассник, с которым мы полгода назад болтали непринуждённо про столицу нашей Родины.

В пекло теорию вероятности! В соответствии с ней описанное выше событие не могло произойти со мною в принципе. А оно было. И это реальный факт, который до сих пор помню.

Вот так я выиграл свой «джекпот», за несколько сотен рублей, которые стоил билет в театр в далёком 1992-м году. Правда, выигрыш в том «джекпоте» достался мне небольшой, точнее сказать, ничего не досталось, кроме улыбки и взаимного удивления невероятному стечению обстоятельств. Но, надеюсь, что для одного небольшого поста на Хабр этого хватит.

И, конечно, было бы интересно оценить вероятность описанного выше события, однако, я затрудняюсь даже с направлением, с какой стороны следует подступаться к такой оценке, не то, чтобы какими-то цифрами оперировать.

Тут, думаю, нужны кругозор и хватка многоопытного актуария или серьёзного аналитика, для которого подобные задачки – как семечки щёлкать. Есть ли такие на просторах Хабр?

Разновероятные события
Разновероятные события
Теги:
Всего голосов 5: ↑2 и ↓3+2
Комментарии33

Новая версия Gramax!

  • Сравнение ревизий. Можно сравнить текущую версию каталога с одной из предыдущих.

  • Экспорт в корпоративных шаблонах DOCX. Добавили возможность загрузить корпоративный шаблон DOCX и экспортировать статьи и каталоги в этом шаблоне.

  • Избранное. Каталоги и статьи можно пометить как Избранные для быстрой навигации. Это доступно как в приложении, так и на портале документации.

  • Связанные статьи. В меню статьи можно просмотреть: куда ссылается статья и какие статьи ссылаются на нее.

Об этих и других изменениях читайте в Release Notes 🔥

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии0

Опыт сети гипермаркетов Hoff: перенести резервные копии данных в облако и оптимизировать затраты 🛒

Что за компания

Hoff — Home of furnishing — российская сеть гипермаркетов мебели и товаров для дома. 60 магазинов в разных форматах работают в крупных городах по всей России.

Какая была задача

У Hoff есть интернет-магазин и приложение, которые размещены в основном дата-центре. Компании были нужны резервные копии сайта и приложения на случай, если в работе локальной инфраструктуры произойдет сбой.

Основные требования Hoff к провайдеру и облачным ресурсам: отказоустойчивость, скорость реакции на запросы, круглосуточная связь с поддержкой, качество ответов и компетентность сотрудников.

Как ее решили

Вместо покупки дополнительных серверов и затрат на их содержание Hoff решила разместить копии в облаке. Так компания не только оптимизировала расходы на инфраструктуру, но и обеспечила непрерывную работу бизнеса.

Cloud.ru построила для Hoff инфраструктуру в Облаке VMware, подключила интернет-канал, настроила два выделенных канала связи, коммутацию и маршрутизацию сети, а еще предоставила доступ к API, чтобы автоматизировать процесс переключения между площадками.

Что в результате

В облаке развернута онлайн-реплика боевой площадки — она меньше по количеству вычислительных мощностей, но идентичная по данным и функционалу. При необходимости реплика мгновенно масштабируется по вычислительным мощностям в 10 раз (до 800 CPU, 2 TB RAM, 27 TB SSD), чтобы выдержать весь пользовательский трафик, который будет переключен с вышедшей из строя основной площадки.

Читать кейс полностью 💼

Теги:
Всего голосов 4: ↑3 и ↓1+2
Комментарии0

План/факт по выручке, запасы, СТМ — все на дашборде. Реальный кейс BI в аптеке.

Клиент: аптечная сеть, работает более 30 лет, с сильной социальной миссией: через нее льготники получают лекарства. Свыше 250 точек, собственные товары, тысячные товарные позиции. Без четкой аналитики такой бизнес трудно масштабировать.

Учет через «СмартАптеку». Программа хорошо заточена под фарму, есть контроль ЖНВЛП, интеграция с «Фармзаказом» и встроенные отчеты. Но как только речь заходит о план/факте, оборачиваемости и автоматических отчетах для руководства, возникает «аналитический дефицит».

Задачи:

  • автоматические отчеты по ключевым метрикам,

  • единые витрины данных по остаткам и продажам,

  • видимость выполнения планов по аптекам,

  • контроль доли СТМ.

Что сделали

Мы настроили BI-систему и разработали витрины «Анализ остатков» и «Анализ продаж», с учетом специфики клиента. Данные поступают из «СмартАптеки» + Excel-файлов с планами. На витринах отображаются:

  • план/факт по выручке,

  • запасы и оборачиваемость,

  • сезонность и тренды,

  • доля СТМ.

Отчеты обновляются автоматически. Топ-менеджмент получает актуальные данные каждое утро.

Технические нюансы

Открытый API «СмартАптеки» не позволял вытянуть все нужные данные. Мы подключили разработчиков учетной системы, они подготовили индивидуальную выгрузку. Благодаря этому проект завершился успешно.

👩‍💼 Хотите увидеть, как это работает? Приглашаем на вебинар!

Тема: BI для аптечных сетей: как привести в порядок остатки, продажи и аналитику
Дата: 24 июня в 12:00 мск
Спикер: Анна Светличная, руководитель проектного отдела
Бонус: Скидка 10% на предпроектное обследование

📌 Регистрация на вебинар

Теги:
Всего голосов 4: ↑4 и ↓0+6
Комментарии0

Кэширование: как работает, обновляется и очищается кэш⁉️

Кэш – быстрый временный буфер для хранения данных. Его цель – ускорить доступ к информации и снизить нагрузку на основное хранилище или систему

Варианты кэширования:

1️⃣Cache Aside. Читаем из кэша. Если нет, то читаем из БД и кладём в кэш
2️⃣Read Through. Запрос идёт в кэш, при необходимости обновляет данные из БД
3️⃣Write Through. При записи сразу обновляем кэш и БД
4️⃣Write Behind. Сначала пишем в кэш, позже – в БД
5️⃣Refresh Ahead. Кэш обновляется заранее, до истечения срока жизни

Алгоритмы обновления кэша:

1️⃣TTL (Time To Live). Данные удаляются по таймеру
2️⃣По записи. Кэш обновляется автоматически при изменении данных
3️⃣По запросу (manual invalidation). Кэш сбрасывается вручную
4️⃣Прогрев (pre-warming). Кэш заполняется заранее
5️⃣По расписанию (scheduled refresh). Кеш обновляется по расписанию

Алгоритмы вытеснения (eviction):

1️⃣LRU (Least Recently Used). Удаляем самый давно неиспользуемый элемент
2️⃣FIFO (First In, First Out). Удаляем самый старый элемент
3️⃣LFU (Least Frequently Used). Удаляем наименее используемый элемент
4️⃣Random. Удаляем случайный элемент

А ещё у меня в боте можно скачать бесплатный методический материал, где ты найдешь шаблоны пяти основных диаграмм на PlantUML в практических кейсах с описанием.

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии0

Ближайшие события

Как компания «Литрес» построила облачное аналитическое хранилище на базе КХД Cloud.ru и сократила время обработки и анализа данных 📚

Что за компания

Компания «Литрес», основанная в 2005 году, сегодня является лидером на рынке лицензионных электронных и аудиокниг в России и странах СНГ. Ежемесячная аудитория сервиса Литрес составляет 11 млн человек, которые скачивают более 2,7 млн книг в месяц. 

Какая была задача

«Литрес» подошла к этапу, когда мощностей для быстрого расчета витрин для аналитики и отчетности перестало хватать, поскольку был накоплен значительный объем данных — около 6 ТБ. Компания решила разработать собственное хранилище — создать надежную и масштабируемую платформу для хранения и обработки больших объемов данных, что позволило бы оптимизировать бизнес-процессы и повысить эффективность работы.

Как ее решили

Изначально у нас было два варианта, как можно сделать большую аналитическую базу. Первый и самый очевидный — запустить Greenplum. Но для этого нужно было выделять серверы, оптимизировать решение, нанимать администраторов — это сложно и долго. В качестве второго варианта можно было закупить готовое решение у подрядчика, однако выяснилось, что поддержка такого решения при приемлемом уровне производительности стоит космических денег. В итоге в Cloud.ru нам предложили альтернативу — КХД — облачное корпоративное хранилище, которое дает возможность быстро обрабатывать огромные массивы данных из разных систем хранения и источников. Решение нас заинтересовало.

Кирилл Шевченко

Руководитель отдела разработки информационно-аналитических систем группы компаний «Литрес»

Чтобы понять, какое решение выгоднее и эффективнее, «Литрес» провели исследование и сравнили работу КХД, ClickHouse в облаке и локального ClickHouse компании. Результат — КХД лучше всего справился с поставленными задачами (например, обработка больших запросов на таблицах с JOIN заняла всего 20 минут).

Что в результате

Команда «Литрес» создала собственное хранилище на базе КХД Cloud.ru и в результате сократила время на обработку и анализ данных:

  • обновление всего хранилища занимает 40 минут вместо 3 часов

  • среднее время выполнения процедур — 2 минуты вместо часа,

  • на обработку простого запроса при обновлении витрин хватает 5 секунд.

  • раньше на создание одной витрины требовалось несколько дней, а теперь можно создать 3 витрины в день.

Читать кейс полностью 💼

Теги:
Рейтинг0
Комментарии0

Бесплатный гайд с шаблонами диаграмм на PlantUML

В моем канале IT Talks можно скачать бесплатный методический материал, где ты найдешь шаблоны пяти основных диаграмм на PlantUML в практических кейсах с описанием.

Для каждого шаблона подробно описан процесс, для которого построена диаграмма, а также есть сама диаграмма и исходный код на PlantUML. В гайде можно найти диаграмму активности, последовательности, прецедентов, состояний и компонентов.

Ещё вчера у меня вышла новая статья Диаграмма последовательности на практике в реальном кейсе, где я подробно по шагам рассказала про построение диаграммы последовательности на примере реальной задачи.

Теги:
Всего голосов 2: ↑2 и ↓0+4
Комментарии0

Как провести быстрый аудит разработки без изучения кода: доклад Андрея Бирюкова на CTO Conf X 2025

В пятницу прошла интересная конференция для технических директоров – CTO Conf X 2025. Вице-президент по исследованиям, разработке и сервисам ГК InfoWatch Андрей Бирюков выступил перед аудиторией с докладом «Как провести быстрый аудит разработки без изучения кода».

«В практике СТО может возникнуть ситуация, когда необходимо оперативно провести глобальную оценку или чек-ап разработки: вы перешли в новую компанию и нужно быстро во всем разобраться, появился запрос на изменение подходов к разработке, или ваша компания собралась покупать другую и нужно понять, что там внутри. В докладе поделился своим видением – какие вопросы и кому важно задавать, стоит ли насторожиться, если нет багов, а план фичей расписан на пять лет вперед, и почему в центре внимания должны быть люди, а не код», – говорит Андрей Бирюков.

В докладе он рассказал о методах оперативной оценки состояния разработки в новых или приобретаемых командах. Его методика поможет понять, насколько модель разработки компании далека от идеальной, выявить и поставить в приоритет потенциальные проблемы.

Общая схема аудита, анализ процесса разработки, оценка инженерных практик — в презентации с выступления.

Теги:
Всего голосов 4: ↑4 и ↓0+6
Комментарии0

Здесь кто-нибудь есть?

Давненько не было постов! Теперь посты будут выходить намного чаще, поэтому ждите интересный контент! Сегодня хочу с Вами поделиться своими наблюдениями по самым распространенным страхам при входе или же в начале карьеры в IT, а также конечно же расскажу, как с ними бороться!

Поехали!

Большие деньги - большая ответственность, я еще немного поучусь и можно ходить на собеседования

Самое частое заблуждение и страх - это то, что я не до конца изучил материал и мне рано идти на собеседования. IT действительно кажется сложной сферой, особенно на старте. Куча непонятных терминов, новые технологии, быстрая смена трендов. Главное — не пытаться сразу охватить всё. Дроби путь на маленькие шаги: сначала разберись в основах, потом усложняй задачи.

Признайте, что никто не знает всего, даже сеньоры постоянно гуглят и учатся. Учись радоваться прогрессу, пусть даже небольшому — это отличный способ победить страх перед сложностью. Я часто на работе вижу людей, которые знают намного меньше меня, но при этом зарабатывают больше денег. Думаете, что они думают про это?

Убейте в себе внутреннего "отличника", который хочет всё идеально знать. Начните действовать как можно раньше, ведь главный наш ресурс - это время. Если не начнете ходить по собеседованиям сейчас, то потом может стать поздно!

Я слишком стар/молод/у меня нет профильного образования

Это миф. В IT реально можно войти в любом возрасте и с любым бэкграундом. Большинство компаний смотрит на твои навыки и то, как ты решаешь задачи, а не на диплом. Например у меня еще ни разу не спрашивали про мой диплом и про моё образование, но при этом огромное кол-во людей верит в то, что реально нужен крутой бэкграунд, а не опыт. Важно показывать интерес к профессии, прокачивать навык прохождения собеседований, учиться продавать себя на рынке труда и тогда у Вас всё получится! Как говорил Олег Тинькофф: "Продай свои мозги дорого". Это очень хорошо описывает в целом текущее состояние рынка.

Я буду выглядеть глупо среди опытных коллег Это нормально — не знать и ошибаться, особенно в начале. Важно не бояться задавать вопросы. В IT очень развита культура поддержки: тебе скорее помогут, чем осудят. Воспринимай каждую ошибку как точку роста, а не как провал. Ведь наш опыт - это сумма всех наших ошибок. Думаете, что какой-то сеньор никогда не допускал ошибок?

Я не найду работу без опыта От каждого второго человека слышу это. Мол я не могу найти работу без опыта, всё дело в опыте! А потом я открываю его резюме и вижу, что там полная каша и оказывается, что дело не в опыте, а в резюме или же в чём-то другом. Не бойтесь искать любую возможность попробовать реальные проекты. На старте важно показывать свою мотивацию и учиться командной работе. Не стесняйся писать в компании напрямую, предлагать свою помощь за отзыв или за опыт — так много кто стартует.

Теперь дам общие советы, которые подойдут под любой Ваш страх. Но помните, что я Вам даю всего лишь отмычки, а Вы их уже сами подбираете под Ваши "проблемные" двери:

  • Разделяй путь на маленькие задачи и радуйся каждому шагу.

  • Найди ментора, чтобы не оставаться один на один с вопросами.

  • Веди дневник успехов — записывай даже маленькие победы.

  • Не сравнивай свой путь с другими, особенно в соцсетях — у каждого свой старт и темп.

  • Признай: страх — это нормально. Его испытывали все, кто сегодня работает в IT.

Понравился пост? Тогда переходите ко мне в телеграмм канал, там находится много полезного материала, для входа в IT!

Теги:
Всего голосов 6: ↑1 и ↓5-2
Комментарии4

Привет, меня зовут Александр, я аналитик в Альфа-Банке. Однажды я устал, что на Feature Store, на платформе для дата-инженеров (DE) и дата-саентистов (DS), невозможно ничего найти.

Поиск по контексту отсутствует. Приходится руками шерстить огромное количество ETL-проектов в поисках той самой полезной информации, полагаясь сначала на удачу, а после — на опыт и помощь коллег. 

Feature Store сама по себе — платформа, которая должна упрощать работу коллег с большими данными, упрощает бюрократию жизненного цикла создания ETL, ввода моделей в промышленную эксплуатацию. Но какой же поиск там...В общем, хотелось бы улучшить процесс по поиску данных в ней.

И я сделал MVP с GPT-2: весит около ~400 МБ и, самое главное, не требует регистрации. В статье пошагово описал, как всё прикрутить. Заходите почитать.

Примечание. Для прома MVP, конечно, не прокатит, но после показа решения начали реализовывать решение на OpenSearch.

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии1

Как строить систему отчетности? Расскажет Рома Бунин! 

В мае в гости к аналитическому комьюнити Garage Eight заглянул Рома Бунин, специалист по визуализации данных и развитию BI-систем, Head of Data Nebius Group, а также автор канала Reveal the Data. На встрече он рассказал про Dashboard Map. Этот фреймворк позволяет заранее оценить, какая аналитика нужна внутри команды, и подготовить инструменты для разных типов задач. 

Лекцию записали и теперь делимся с вами!

Из нее узнаете: 
> зачем нужно заранее проектировать архитектуру системы дашбордов;
> из каких шагов состоит проектирование; 
> как заполнять Dashboard Map;
> как провести сессию проектирования;
> что делать после сессии;
> примеры систем дашбордов.

Смотрите на удобной платформе: YouTube | VK Видео

Теги:
Всего голосов 6: ↑3 и ↓30
Комментарии0

Pull/Merge Request для согласования требований и документации

Аналитики и технические писатели, признайтесь: сколько раз вы теряли время, сравнивая версии документов в MS Word? Компьютер тормозит, красные и синие правки сливаются в кашу, а поиск согласования в бесконечной переписке или Confluence превращается в квест.

Есть решение — берем механизм Pull/Merge Request и применяем его к текстам! Что получаем:

  • Все правки в одном месте. Редактируйте несколько документов сразу и смотрите изменения в едином окне. Забудьте про переключение между файлами и версиями!

  • Подробная подсветка. Все правки видны построчно или в удобном визуальном редакторе — сразу ясно, что добавили, убрали или исправили.

  • Простое согласование. Назначайте проверяющих и получайте их апрувы прямо в интерфейсе. Никаких "ок" в письмах или мессенджерах!

  • Полная история. Все комментарии, согласования и версии сохраняются. В любой момент можно вернуться и проверить, кто, что и когда утвердил.

  • Экономия времени. Gramax объединяет редактирование, ревью и согласование в одном месте — больше не нужно жонглировать Word, Confluence и почтой.

И все это в Gramax! Как всегда: бесплатно и с открытым исходным кодом.
Все как в коде, только проще.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0