Pull to refresh
52
0.5
Андрей @S_A

modelize.ru

Send message

опережающие метрики часто прокси, но можно да.

сложно в аналитике говорить обо всем сразу :)

как в тексте написали, модель бизнеса must have

МСБ тоже нужна аналитика, только её им обычно дают готовую, по сайтам её легко добыть, по маркетплэйсам. Даже Хабр по статьям даёт какую-никакую аналитику.

Крупному бизнесу доступна не только кастомная аналитика и BI, а ещё и всякий data science.

Проблема "стандартной" аналитики, в том числе BI, что она как бухучет, "посмертная". Предиктивная же даже не всякому крупному бизнесу доступна, как и прескриптивная.

Жалко нет аналога PMBoK для аналитики. Есть хорошие книги, Дэвенпорт, Андерсон... но это книги. DMBOK/BABOK/SWEBOK все не о том.

Спасибо за материал, идея очень интересная. Но, как активный пользователь ванильного CRISP-DM многие годы, скажу что тут

  • схожего мало

  • более современно

  • достаточно узкий круг проектов

Попробовать что-то такое надо, посмотреть.

а я вот соглашусь насчёт преобразования Лапласа, и причины две. была такая сетка, NeuralODE, и неплохо перформила, и с другой стороны, преобразование Лапласа сводит диффуры к рациональным многочленам.

Короче говоря Лапласом можно извлекать структуру процессов

Когда-то думал над игровой реализацией градиентного спуска. То есть нейроны играют в игру, и может быть (в зависимости от функции выигрыша) равновесие Нэша (по теореме о неподвижной точке). То есть улучшая любой нейрон, мы бы ухудшили лосс, увеличили его.

Вся проблема в выборе функции "положения" нейрона. Я не подобрал) возможно это можно сделать другой сеткой или RL, или например KAN. Вобщем, поле для экспериментов есть, времени нет.

спасибо! на форсайт-сессиях, бывает, вначале проводят затравочный футуристический доклад - вот там "генИИ" точно может быть полезен.

а вообще вот буквально на днях генерил 50 возможных событий в ряде отраслей, специально без RAG - поискать лебедей и прочее. очень неплохо.

ну и наконец - с трендом на агенты - весь форсайт можно было бы отдать ИИ, а потом оценивать =)

а за идею про ИИ в форсайте большое спасибо.

предположу, речь идёт о zero-shot классификаторах

Некоторые модели хорошо понимают что в отданных чанках нет ответа на вопрос, особенно если их зампромптить на такой ответ: "если в указанной информации ответа нет, явно сообщи об этом числом 0".

Если есть похожие к запросу, но почему-то неревантные, значит надо улучшать retrieval.

Огонь! я делал чуть проще на малых текстах. промпт "изложи следующую историю в виде mermaid-диаграммы: текст", и это работает.

только работает это на не очень длинных саммари. но зато можно спросить про хронологию второй мировой например. не суть.

чтобы не зависеть от длины контекста, по идее можно RAG какой, предварительно обогатив поисковый запрос через LLM.

Статья понравилась, спасибо

С хорошими метаданными я такое ещё в 2018 делал на intent + NER, LLM ещё не было. Просто большой SQL-builder получился, и работал без проскальзываний, в синтаксисе уж точно. А join'ы делались кратчайшим путем в графе таблиц, без всяких пришлёпок.

Вопрос вполне естественный, ответ диаграммой.

LLM только очень большая будет неплохим SQL-билдером. Но в целом вся движуха мне по душе, очень давно жду.

Кто хочет попробовать RAG в этой задаче, посмотрите vanna.ai. Сам не пробовал, но выглядит рабочей штукой. Но и там все упирается в хорошую мету.

В большинстве ваших инженерных трудностей поможет tabpfnv2, прямо очень рекомендую присмотреться.

Заряжаю в self hosted llm (saiga nemo) "Изложи следующий текст в виде mermaid диаграммы: Михаил пошёл на рыбалку и накопал себе тысячу червей", копирую-вставляю в ванильный obsidian - и все работает. Очень сложные подправляю все же руками.

Статья, если не привязываться к инструментам, хороша. А инструменты вкусовщина.

В Новокузнецке провел молодость, и я его понимаю. Кемерово, ощущение что застрял в нулевых. Проработал там год.

Что касается Академа Нского, там я прожил долго, лет 8. Хорошее, я бы даже сказал сказочное место. Но потом семейные обстоятельства вернули.

Извините за оффтоп, пишу из "депрессивного" Новокузнецка. Как у нас поступили с транспортом, никому не пожелаю. Поменяли все маршруты, уже три+ года полгорода не знает как из А доехать в Б. На линиях постоянно не хватает водителей, люди 30-40 минут ждут автобус по утрам.

Все остальное в Новокузнецке вполне себе не "депрессивное". Не все благоухает, но жить комфортно (лично мне, а я жил ещё в Москве и в Академе Новосибирска).

Смотрите, регуляризация - это наложение условий на веса модели через добавку в лосс. Почему в такой постановке работает - потому что это изменяет ландшафт лосс-функции, делая ее более оптимизируемой, и, следовательно с лучшим оптимумом. Об этом загляните в UDL book, https://udlbook.github.io/udlbook/

И еще чуть сложнее - регуляризация это внесение inductive bias в том числе, продвижение модели ближе к задаче (не очень точно выражено, но как-то так). Соответственно с ним перфоманс модели лучше, ее обобщающая способность.

Очень интересно про tda для весов сети, так как сам экспериментировал недавно с этим, дошел до идеи сам.

А у вас ничего кроме идеи и не нашел.

Попробуйте вложения от dinov2, будете приятно удивлены. Без шуток

Это очень здорово! А есть в формате статьи? Интересны детали, как кластеризовали, как на сферу укладывали, как обратно разворачивали. И как графы в этом поучаствовали.

Вообще я для подобного использовал всегда VAE. Но тут похоже вы придумали что-то лучше

Идея крутая. В кода примера есть две ошибки, strtree.StringTree, и recall_score наверное должно быть.

1
23 ...

Information

Rating
2,434-th
Location
Россия
Registered
Activity