Статье не хватает: Метрики хоть какие-нибудь? Размер моделей? Пример промта, нужно ли описывать "примеры фрода" или моделька сама умная и понимает что плохо, а что нет?
Иными словами вы пишете в логи лишнее, чего не должно быть в логах, если "даже read-only - требует согласования".
Статья прикольная, но боже упаси делать бизнес метрики на графане, я бы уволился через 3 минуты, как такое чудо увидел.(2 минуты на "офигивание" и 1 минуту на заявление)
Прям интересно узнать число "аналитиков" и время затрачиваемое на построение дашбордов, это: а) не может работать at scale b) в компании нет "аналитики" как таковой. (судя по тому что пост пишет "системный аналитик" - это тот самый случай, "раз ты аналитик - пили дашборды"(c)).
Причина проста - на один вопрос в данных может быть три ответа: один пятилетней давности, другой двухлетней, а третий - этого года.
Дату в инфо о документах втащить?
Не понял про МСР --там же приложение должно уметь вызывать MCP сервер, и как оно работает на локальных нейронках? Они же тупые, если только вы 32б не поставите, а это уже карточка на 40гб.
JavaScript то куда лезет. Есть streamlit, dash, plotly .т.е. это частный случай, автор просто нашёл что работает, но почти все есть на питоне.
Лучше научитесь собирать airflow на коленке и автоматизировать сборку пайплайнов. А не писать код в юпитере, чтобы было не 80% костылях, а 80% крутого продакшена, который не превратился в легаси. повторяющиеся и залогированные эксперименты в mlflow.
Я бы даже не назвал это фуллстаком...в моем понимании любой DS в той или иной степени должен уметь в обработку данных и автоматизацию.
Но я бы сильно поспорил, что фуллстак - это хорошо. невозможно оптимизировать заброс в бд, а рядом с бубном на js рисовать график.
Впрочем в эпоху ИИ фуллстаком быть не так уж и сложно.
Сервер это обычное api (там есть разделение на тулзы/ресурсы, но не суть). методы принимают параметры, НЕ текст.
а Llm подставляет параметры запроса сама.
Пример, "Используйте калькулятор - сложи два числа". Llm в середине рассуждений видит тригер ("нужно сложить") и тут срабатывает передача по протоколу -> mcp сервер вернут результат метода, а LLM радостно его примет за правду.
Т.е. приложение запускающее ллм должно поддерживать mcp. И в запросе передаются уже параметры, а не текст.
PS поправьте если не совсем так - пару дней играюсь с ними.
Если используете LLM - mcp это то с чем нужно разобраться...но вроде только claude desktop поддерживает и у qwen появится.
"Всего-то"
Есть примеры?
Я пытался в real-time или около того - все плохо было у whisper... оч сомневаюсь что "всего-то" заработает быстро.
Использую в связке с deepresearch. 10/10.
Можно сложный учебник туда по главам закидывать, а уже потом читать сам учебник.
Есть разные языки. Но подкасты на чем-то отличном от английского - не очень хороши.
А ещё туда видеоподкасты хотят завести..если сможет хоть графики отображать в подкасте - прям цены не будет.
Статье не хватает: Метрики хоть какие-нибудь? Размер моделей? Пример промта, нужно ли описывать "примеры фрода" или моделька сама умная и понимает что плохо, а что нет?
Иными словами вы пишете в логи лишнее, чего не должно быть в логах, если "даже read-only - требует согласования".
Статья прикольная, но боже упаси делать бизнес метрики на графане, я бы уволился через 3 минуты, как такое чудо увидел.(2 минуты на "офигивание" и 1 минуту на заявление)
Прям интересно узнать число "аналитиков" и время затрачиваемое на построение дашбордов, это:
а) не может работать at scale
b) в компании нет "аналитики" как таковой.
(судя по тому что пост пишет "системный аналитик" - это тот самый случай, "раз ты аналитик - пили дашборды"(c)).
Как пользователь хабра я бы хотел видеть пометку "статья написана ИИ". Привет, всратым смайликам charGPT, которые он начал проставлять везде.
Где вы про чудо увидели?
Спасибо ChatGPT за всратые смайлики - по ним очень легко отличить ИИ.
Причина проста - на один вопрос в данных может быть три ответа: один пятилетней давности, другой двухлетней, а третий - этого года.
Дату в инфо о документах втащить?
Не понял про МСР --там же приложение должно уметь вызывать MCP сервер, и как оно работает на локальных нейронках? Они же тупые, если только вы 32б не поставите, а это уже карточка на 40гб.
бизнес закладывает зачем делает мвп, чтобы потом было 20х пользователей, или чтобы покрыть все товары.
Или чтобы допиливать х10 фич, если эти зайдут.
Не нужно быть провидцем, нужно задавать вопросы.
Бизнес не шарит, какие последствия. Нужно уметь объяснять: тут костыль можно воткнуть, а тут нет, если хотите чтобы продукт дальше ехал.
Но проще же воткнуть костыль и валить все на бизнес?)
Чёт не сходится...ждал кода хардкорного.
Но Обучаться это круто...
Мне кажется он написал ровно обратное, что чтобы выжить - нужно вкладываться в ИИ и учиться его применять.
На мой взгляд ИИ - повышает продуктивность и мы прийдем в ближайшем будущем к программистам, которые делают ревью.
С февраля ворвался в ИИ кодинг, и ИИ позволяет написать, переписать, попробовать патерн 1 2 3. Опыт набирается со скоростью х10. Ну лично у меня.
Я постоянно чтото читаю, смотрю доклады...но времени закодить- просто нет.
Те кто энтузиаст и учится - тому ИИ как раз будет и помощником, и учителем.
Пока нет примера - разговаривать не о чем. А то потом оказывается что и не chatGPT это был, а телеграмм бот. И не в excel а в word.
Можно пример обсуждения/задачи?
Ps excel != программист, простите меня vba кодеры.
А какая разница? Можно создать ещё 10 llm к одной существующий и получить линейное масштабирование. Кремний победит.
Вы риск, а не ssh знает что вы там "начините"
JavaScript то куда лезет. Есть streamlit, dash, plotly .т.е. это частный случай, автор просто нашёл что работает, но почти все есть на питоне.
Лучше научитесь собирать airflow на коленке и автоматизировать сборку пайплайнов. А не писать код в юпитере, чтобы было не 80% костылях, а 80% крутого продакшена, который не превратился в легаси. повторяющиеся и залогированные эксперименты в mlflow.
Я бы даже не назвал это фуллстаком...в моем понимании любой DS в той или иной степени должен уметь в обработку данных и автоматизацию.
Но я бы сильно поспорил, что фуллстак - это хорошо. невозможно оптимизировать заброс в бд, а рядом с бубном на js рисовать график.
Впрочем в эпоху ИИ фуллстаком быть не так уж и сложно.
В их Aistudio - нет проблем с этим. Видимо настройки какие-то.
Mcp это model context протокол, а не сервер.
Сервер это обычное api (там есть разделение на тулзы/ресурсы, но не суть). методы принимают параметры, НЕ текст.
а Llm подставляет параметры запроса сама.
Пример, "Используйте калькулятор - сложи два числа". Llm в середине рассуждений видит тригер ("нужно сложить") и тут срабатывает передача по протоколу -> mcp сервер вернут результат метода, а LLM радостно его примет за правду.
Т.е. приложение запускающее ллм должно поддерживать mcp. И в запросе передаются уже параметры, а не текст.
PS поправьте если не совсем так - пару дней играюсь с ними.
Если используете LLM - mcp это то с чем нужно разобраться...но вроде только claude desktop поддерживает и у qwen появится.
Наконец то годный пост, какой холивар заварили... простите за оффтоп...
Самсунги умеют так же но зажав кнопку домой...ладно, не домой, а кнопку выделить экран.
Потестил, признаю, хреново получилось и форматирование слетело.
Впрочем не понятно нафига. Бот с api сейчас через любую LLM за 3 минуты пишется. Сливать свои фотки левому боту - ну нет.
Кода в статье нет, в общем...я не понял для кого статья...разве что реклама.
Ps а переводы на андройде(самсунг) - вшиты в ОС уже полгода. (Если что не знал - зажимаем кнопку центральную).