В российском продакт-менеджменте под CustDev’ом чаще всего понимается другое значение. «Кастдевом» у нас чаще всего называют этап «глубинных интервью»
« — Да, те, кто работают на западную аудиторию и общаются с продуктовым коммьюнити давно знают, что термин CusDev существует только в России)) Проблема только в том, что Россия поставляет 0,01% единорогов на мировой рынок бизнеса (если не меньше). Поэтому трижды подумайте о пользе кастдева))
— после того как я 10 лет проработала в компаниях, где был целый отдел кастомер девелопмент, который адаптировал (дорабатывал) наш продукт под нужды конкретного крупного заказчика, была крайне удивлена, что кастдевом называют интервью)
Ну, конечно, после релокации народу там стало поменьше, но там несравненное с ни кем из перепаковщиков количество специалистов по виртуализации, контейнерам, ядру. И очень прочное тестирование, включая перформанс тестинг. Гипервизор KVM с патчами, контейнеры свои (но с глубоким пониманием), за сторадж не поручусь, но остальное на мировом уровне.
«Р-» и прочая росплатформа — это виртуоззо. Совсем неплохо, по сравнению с перелейбелингами опенсорсных OpenStack/OpenNebula/Proxmox/OVirt (все остальные импортозамещения).
Был опыт использования на одной миниконференции, когда для удаленных докладов орги решили использовать это.
Наблюдалось (на нескольких броузерах, в течении нескольких дней)
«фриз видео» всех участников, кроме того, кого прибивают гвоздями в режиме «закрепить участника» — но тогда нельзя шарить экран. Т.е. тупой режим «экран» плюс «голова» обычно приводил к зависшему виде «головы».
a насчет шаринга экрана… по сравнению скажем, с Jitsi, где окно шаринга экрана докладчика можно сделать на весь экран, и даже больше (если использовать функцию pop-out-video современных броузеров), здесь верстка забита гвоздями (сайдбары со всех сторон, панели, какой-то неубираемый мусор), на видео экрана остается меньше половины площади, может даже меньше
что-то как-то хуже было со звуком, чем в jitsi, но не уверен (странный зал, странное оборудование, надо проверить, может можно вырулить настройками).
Ну, long story short → я вижу эффективное техдокументирование близким к LaTeX-процессу, где есть код и предпросмотр, между ними легко перепрыгивать, код может «включать» другой код и шаблоны. Разве что заменить LaTeX-разметку (которая не для людей) на Markdown, а PDF-предпросмотр (кому теперь нужны страницы) на HTML-предпросмотр. Вот как это выглядит за 30 секунд.
Я это сделал на Pandoc, но контрибуция в Haskell-сорсы для меня мучительна, а экстеншны не всегда удобно там подключаются... Но в целом, реализуемо (там масса тонкостей, как обрабатывать формулы, как...).
Не хочу вас сейчас в это толкать (вдруг я склоняю вас к NIH-переизобретению-велосипедов), но может когда-нибудь... Ну разве что сейчас на уровне архитектуры наверно надо подумать о подключении экстеншнов, и опциональной информации «в исходном файле этот обьект был на такой строчке такого файла» и может, тут как-то форсить на мировом уровне для маркдауна спецификацию стандартного способа как «включать другие файлы».
Сорри за ночной невнятный вопрос от любителя (пробовал когда-то давно детские датасеты на скоринг именно всякими *бустами, обещаю поотлаживать на свежую голову ваши примеры, но там вроде скоринга нет), но пока пытаюсь понять качественно, что у вас произошло (поправьте если совсем неправ).
Т.е. кто-то пробовал обычный градбустинг на «исходном датасете», и получил видимо что-то ниже roc_auc ~ 0.6 (и наверно сильно ниже, раз те метрики что у вас как бы успех), что наверно было мало (не в курсе «стандартов по скорингу», но как раз недавно видел статью про что-то похожее на проде, причем с совсем небольшим количеством атрибутов и там гордились AUC ~ 0.82-0.86).
С классификацией того исходного же датасета нейронками наверно тоже было не лучше (раз понадобились графы).
Вы подтащили всевозможные связи «объектов» (родственные, коллеги, что у вас там), жадно, на три рукопожатия, и вроде как «информация о метках» обучающего датасета как-то передалась-связалась с ними (ну что вроде логично, банкротятся семьями, фейл компании фейлит работников и т.п.).
Т.е. вроде как получается, что улучшение метрик физически произошло только за счет того, что вот часть этих «подтянутых и зараженных близостью к дефолту» попали именно на тестовый датасет? Насколько вы улучшили данные по сравнению с тем же исходным бустингом на исходном датасете? Может можно было просто какие-то атрибуты типа «близость к банкроту» ввести и в тот же бустинг тоже улучшился бы без нейросетей и вот этих библиотек?
Посмотрел, пока непонятно, это только «изоморфная конвертация» или все таки будет «техписательство» Наверное проект еще молодой, заброшу ожидания того, кто использует pandoc-пайплайны для технического документирования (может когда-нибудь получится, или сразу напишете, что это против вижена проекта):
синхронизация исходников с результатом (что-то типа «source-pos» в pandoc)
включение одних документов в другие (типа разных include-фильтров pandoc, но если это будет из коробки — лучше).
Насколько я понял, вы на стороне телекома — но самому телекому прогнозы о банкростве без надобности — перестанет платить, ну и ладно, отключим. Наверное вы хотите на своих данных какой-то сервис для всяких кредитных организаций, чтобы по паспорту или инн (которые у вас есть и легко заматчить) выдавать ваше предсказание? Если так, то тут вроде возникает кроссбордерная передача ПД (персданных). Да и финмоделлерам из КО более интересно было бы не ваше предсказание, а вот ваши телекомфичи по пользователю, чтобы интегрировать в свою модель предсказаний.
Интересно, можно ли считать передачей ПД, если бы вы просто продавали что-то вроде обученной модели, которая отображала бы ПД (типа инн-паспорт-фио-др) в некие фичи.
Как-то не указан важный культурный вклад BiliBili — собственное производство трехмерных мультфильмов.
Года два как они начали печь трехмерные анимешки, в стиле «Final Fantasy Spirit Within 2001». Говорят на движке от Sony, и злые языки говорят, одна из причин — что из-за госзапрета онлайн игр, появилось много свободных 3D-дизайнеров-художников.
Мне например очень понравился их мультсериал по Лю Сыциневым «Задаче трех тел» и «Шаровой молнии» (hdrezka.ag/animation/fiction/54345-zadacha-treh-tel-2022.html)… и если тут будет проходить кто-то понимающий в этом — я вот, никак не могу понять, его дропнули или все-таки будет продолжение? — буду рад, если подскажут.
Первая это и есть «Свободное программное обеспечение в высшей школе», я ее так лет 13 назад так переименовал, чтобы модней. Т.е. если специализированные — то обычно в рамках какой-то околовендрской конфы (вот от альтов еще https://0x1.tv/Category:BASEALTEDU-2021 ) или околовузовской...
Спасибо! А добавьте в код как собственно из этого веб-то сделать? (демка у меня в разных броузерах зависает, но это пофиг, главное чтобы запускалось). TSX-ы какие-то вижу, но вот что дернуть-то?
Хотя... а где собственно код в гите? Первым делом, хочу проверить, что собирается и запускается (читать, почему работает, обязательно буду, но потом..) — отдельные архивы на яндекс.диске это как-то не гибко, не то...
Спасибо! А может опубликуете уже весь проект, чтобы прямо «pipenv run python -m pip install -r requirements.txt» + «./download-all-models.sh» и любой сможет поиграть (параметры, типы, посмотреть что выдают модели для любимых/известных каждому фильмов)?
Если кто впервые услышал про Anchor Modelling, может показаться, что это что-то свежее, экспериментальное и академическое, но Anchor Modelling давно (больше десяти лет) используется в проде, на хабре десятки статей, вот например от Авито 2014 год, 2017 + …, много еще можно нарыть даже на хабре.
Спасибо! Это ведь перевод-компиляция? Если да, то наверно добавьте ссылки на оригинальные статьи (и может даже датасеты), если они под рукой. Или тема как-то связана с вами, и можно задавать осмысленные вопросы вам?
«аплифт +1.8 пунктов» — а насколько это круто, это заметное улучшение? Сколько там обычно «пунктовджини»?
«
— Да, те, кто работают на западную аудиторию и общаются с продуктовым коммьюнити давно знают, что термин CusDev существует только в России)) Проблема только в том, что Россия поставляет 0,01% единорогов на мировой рынок бизнеса (если не меньше). Поэтому трижды подумайте о пользе кастдева))
— после того как я 10 лет проработала в компаниях, где был целый отдел кастомер девелопмент, который адаптировал (дорабатывал) наш продукт под нужды конкретного крупного заказчика, была крайне удивлена, что кастдевом называют интервью)
— … забавно неудоумение продактов из ru-спикинг коммьюнити о том, почему так тяжело попасть на нормальную позицию в американские компании. Может быть потому, что на собеседовании западные коллеги не могут понять смысл половины из "модных" продуктовых слов, которые называют наши коллеги
»© (ProductCamp Russia&EE)
Ну, конечно, после релокации народу там стало поменьше, но там несравненное с ни кем из перепаковщиков количество специалистов по виртуализации, контейнерам, ядру. И очень прочное тестирование, включая перформанс тестинг. Гипервизор KVM с патчами, контейнеры свои (но с глубоким пониманием), за сторадж не поручусь, но остальное на мировом уровне.
«Р-» и прочая росплатформа — это виртуоззо. Совсем неплохо, по сравнению с перелейбелингами опенсорсных OpenStack/OpenNebula/Proxmox/OVirt (все остальные импортозамещения).
Был опыт использования на одной миниконференции, когда для удаленных докладов орги решили использовать это.
Наблюдалось (на нескольких броузерах, в течении нескольких дней)
«фриз видео» всех участников, кроме того, кого прибивают гвоздями в режиме «закрепить участника» — но тогда нельзя шарить экран. Т.е. тупой режим «экран» плюс «голова» обычно приводил к зависшему виде «головы».
a насчет шаринга экрана… по сравнению скажем, с Jitsi, где окно шаринга экрана докладчика можно сделать на весь экран, и даже больше (если использовать функцию pop-out-video современных броузеров), здесь верстка забита гвоздями (сайдбары со всех сторон, панели, какой-то неубираемый мусор), на видео экрана остается меньше половины площади, может даже меньше
что-то как-то хуже было со звуком, чем в jitsi, но не уверен (странный зал, странное оборудование, надо проверить, может можно вырулить настройками).
Ну, long story short → я вижу эффективное техдокументирование близким к LaTeX-процессу, где есть код и предпросмотр, между ними легко перепрыгивать, код может «включать» другой код и шаблоны. Разве что заменить LaTeX-разметку (которая не для людей) на Markdown, а PDF-предпросмотр (кому теперь нужны страницы) на HTML-предпросмотр. Вот как это выглядит за 30 секунд.
Я это сделал на Pandoc, но контрибуция в Haskell-сорсы для меня мучительна, а экстеншны не всегда удобно там подключаются... Но в целом, реализуемо (там масса тонкостей, как обрабатывать формулы, как...).
Не хочу вас сейчас в это толкать (вдруг я склоняю вас к NIH-переизобретению-велосипедов), но может когда-нибудь... Ну разве что сейчас на уровне архитектуры наверно надо подумать о подключении экстеншнов, и опциональной информации «в исходном файле этот обьект был на такой строчке такого файла» и может, тут как-то форсить на мировом уровне для маркдауна спецификацию стандартного способа как «включать другие файлы».
Сорри за ночной невнятный вопрос от любителя (пробовал когда-то давно детские датасеты на скоринг именно всякими *бустами, обещаю поотлаживать на свежую голову ваши примеры, но там вроде скоринга нет), но пока пытаюсь понять качественно, что у вас произошло (поправьте если совсем неправ).
Т.е. кто-то пробовал обычный градбустинг на «исходном датасете», и получил видимо что-то ниже roc_auc ~ 0.6 (и наверно сильно ниже, раз те метрики что у вас как бы успех), что наверно было мало (не в курсе «стандартов по скорингу», но как раз недавно видел статью про что-то похожее на проде, причем с совсем небольшим количеством атрибутов и там гордились AUC ~ 0.82-0.86).
С классификацией того исходного же датасета нейронками наверно тоже было не лучше (раз понадобились графы).
Вы подтащили всевозможные связи «объектов» (родственные, коллеги, что у вас там), жадно, на три рукопожатия, и вроде как «информация о метках» обучающего датасета как-то передалась-связалась с ними (ну что вроде логично, банкротятся семьями, фейл компании фейлит работников и т.п.).
Т.е. вроде как получается, что улучшение метрик физически произошло только за счет того, что вот часть этих «подтянутых и зараженных близостью к дефолту» попали именно на тестовый датасет? Насколько вы улучшили данные по сравнению с тем же исходным бустингом на исходном датасете? Может можно было просто какие-то атрибуты типа «близость к банкроту» ввести и в тот же бустинг тоже улучшился бы без нейросетей и вот этих библиотек?
Посмотрел, пока непонятно, это только «изоморфная конвертация» или все таки будет «техписательство»
Наверное проект еще молодой, заброшу ожидания того, кто использует pandoc-пайплайны для технического документирования (может когда-нибудь получится, или сразу напишете, что это против вижена проекта):
синхронизация исходников с результатом (что-то типа «source-pos» в pandoc)
включение одних документов в другие (типа разных include-фильтров pandoc, но если это будет из коробки — лучше).
подстановки шаблонов/cущностей...
…
и я так понял, плагинов не планируется?
Насколько я понял, вы на стороне телекома — но самому телекому прогнозы о банкростве без надобности — перестанет платить, ну и ладно, отключим. Наверное вы хотите на своих данных какой-то сервис для всяких кредитных организаций, чтобы по паспорту или инн (которые у вас есть и легко заматчить) выдавать ваше предсказание? Если так, то тут вроде возникает кроссбордерная передача ПД (персданных). Да и финмоделлерам из КО более интересно было бы не ваше предсказание, а вот ваши телекомфичи по пользователю, чтобы интегрировать в свою модель предсказаний.
Интересно, можно ли считать передачей ПД, если бы вы просто продавали что-то вроде обученной модели, которая отображала бы ПД (типа инн-паспорт-фио-др) в некие фичи.
Я при преподавании использую свою библиотеку «прозрачной визуализации отладки», https://github.com/belonesox/pyalgovisualizer (введение в разработку на ней тут → https://gitlab.ispras.ru/discopal/algo-visual/-/blob/master/contribution.md), вот короткий (10мин) доклад https://0x1.tv/20240629H (там идея, демо, и в частности — почему не manim не панацея), вот некоторые примеры → https://vimeo.com/showcase/10185384 (но смысл не в видеороликах, а в том, что студент в браузере может интерактивно разбираться в алгоритме).
Как-то не указан важный культурный вклад BiliBili — собственное производство трехмерных мультфильмов.
Года два как они начали печь трехмерные анимешки, в стиле «Final Fantasy Spirit Within 2001». Говорят на движке от Sony, и злые языки говорят, одна из причин — что из-за госзапрета онлайн игр, появилось много свободных 3D-дизайнеров-художников.
Мне например очень понравился их мультсериал по Лю Сыциневым «Задаче трех тел» и «Шаровой молнии» (hdrezka.ag/animation/fiction/54345-zadacha-treh-tel-2022.html)… и если тут будет проходить кто-то понимающий в этом — я вот, никак не могу понять, его дропнули или все-таки будет продолжение? — буду рад, если подскажут.
Первая это и есть «Свободное программное обеспечение в высшей школе», я ее так лет 13 назад так переименовал, чтобы модней. Т.е. если специализированные — то обычно в рамках какой-то околовендрской конфы (вот от альтов еще https://0x1.tv/Category:BASEALTEDU-2021 ) или околовузовской...
Кроме https://0x1.tv/Category:OSEDUCONF была еще https://0x1.tv/Category:SECR, где было немало докладов про IT-образование, вузовское и не только. Ну и на других конфах, что-то бывает, но конечно это не специализированные конфы — их некому проводить, они не окупаются.
Спасибо! А добавьте в код как собственно из этого веб-то сделать? (демка у меня в разных броузерах зависает, но это пофиг, главное чтобы запускалось). TSX-ы какие-то вижу, но вот что дернуть-то?
Хотя... а где собственно код в гите? Первым делом, хочу проверить, что собирается и запускается (читать, почему работает, обязательно буду, но потом..) — отдельные архивы на яндекс.диске это как-то не гибко, не то...
Офигенно! («получил, упаковка отличная, еще не смотрел, пять звезд»©), но буду точно смотреть, спасибо!
Спасибо! А может опубликуете уже весь проект, чтобы прямо «pipenv run python -m pip install -r requirements.txt» + «./download-all-models.sh» и любой сможет поиграть (параметры, типы, посмотреть что выдают модели для любимых/известных каждому фильмов)?
Если кто впервые услышал про Anchor Modelling, может показаться, что это что-то свежее, экспериментальное и академическое, но Anchor Modelling давно (больше десяти лет) используется в проде, на хабре десятки статей, вот например от Авито 2014 год, 2017 + …, много еще можно нарыть даже на хабре.
А не могли бы вы ollama модель сразу сделать, чтобы ollama могла из коробки ее поставить (ollama pull)?
Спасибо! Это ведь перевод-компиляция? Если да, то наверно добавьте ссылки на оригинальные статьи (и может даже датасеты), если они под рукой.
Или тема как-то связана с вами, и можно задавать осмысленные вопросы вам?