Обновить

Все потоки

Сначала показывать
Порог рейтинга

Как Купер перенес 40 ТБ аналитических данных в облако без остановки процессов

🛒 Что за компания

Купер — сервис доставки из магазинов и ресторанов, работающий в 360 городах России. Аналитическая инфраструктура компании обрабатывает данные для управленческой отчетности и ситуативной аналитики — как внутренней, так и для внешних партнеров.

⚡ Задача

С ростом объемов данных старое решение перестало справляться. Нужно было:

  • найти управляемую СУБД в облаке аналогичную Greenplum по функциям, с поддержкой подключения к внешним источникам;

  • провести нагрузочное тестирование на реальных OLAP-запросах до миграции;

  • перенести 40 ТБ бизнес-критичных данных вместе с контуром разработки, не останавливая аналитические процессы.

☁️ Что сделали

Провайдер предложил Evolution Managed ArenadataDB — управляемую СУБД на базе Greenplum с открытым исходным кодом. Команда во время пилота:

  • развернула отказоустойчивый кластер и настроила процесс миграции;

  • подключила PXF-коннекторы к внешним источникам данных;

  • установила нестандартные JDBC-драйверы и оптимизировала использование памяти для крупных запросов;

  • настроила автоочистку и автоанализ — механизмы автоматического обслуживания СУБД для устойчивой работы под нагрузкой.

🦾 Что получили в итоге

40 ТБ данных и тестовый контур перенесены без остановки процессов. Инфраструктура работает оперативно: данные за вчера доступны уже на следующий день. Выросла скорость выполнения запросов, появилась гибкость масштабирования и прозрачность мониторинга.

В планах — оптимизация резервного копирования, архивация данных и бесшовная интеграция инструментов ИИ и машинного обучения.

Все детали кейса — на сайте Cloud.ru

Теги:
+2
Комментарии0

ИИ-помощник для анализа требований

В работе техпресейла значительная часть времени уходит на анализ требований клиентов — они часто приходят в виде больших опросников, которые нужно внимательно разобрать и прокомментировать.

Когда таких документов много и нужна оперативность, ручная обработка начинает замедлять работу команды. С этим регулярно сталкивалась команда техпресейла Naumen. Поэтому Настя и Даша, системные аналитики команды, решили попробовать автоматизировать часть процесса и внедрили ИИ-помощника для анализа требований.

Рассказываем, как они собирали данные, какие подходы пробовали и как в итоге пришли к решению на базе RAG.

1️⃣ Чем занимается техпресейл

Техпресейл — это мост между продуктом и продажей. Мы проводим технические демонстрации, обсуждаем требования клиента и помогаем понять, подходит ли продукт под его задачи.

Чаще всего работа техпресейла с клиентом начинается с опросника — Excel-документа с требованиями.

2️⃣ Почему Excel-файл оказался неудобным для анализа требований

Типичный опросник — это таблица с тремя колонками:

  • требование клиента

  • какой продукт соответствует

  • комментарии

Иногда требований десятки или сотни — нужно внимательно прочитать, найти контекст в прошлых кейсах, вручную проверить формулировки и ссылки на источники. Даже опытный специалист тратит на такой документ около часа.

Когда таких задач много и у них срочные дедлайны, возрастает нагрузка на команду и появляются риски задержек. Поэтому мы решили автоматизировать процесс.

3️⃣ С чего мы начали автоматизацию

Сначала нужно было собрать данные. Поэтому первым шагом мы:

  1. Собрали все опросники за год в единый массив.

  2. Привели их к единому формату.

  3. Классифицировали требования.

  4. Проверили и почистили данные от дублей и неточностей.

В итоге получился датасет примерно из 2 000 требований, который стал основой нашей базы для тестирования ИИ-помощника.

4️⃣ Почему классические модели не сработали

Первой идеей было использовать классические методы анализа текста. Мы пробовали TF-IDF, Bag-of-Words и стандартные модели классификации.

Но столкнулись с двумя проблемами:

  • низкое качество классификации

  • дисбаланс данных

Большинство требований продукт действительно покрывал, поэтому модель быстро «научилась» отвечать одинаково. Стало понятно, что нужен другой подход.

5️⃣ Как мы пришли к RAG-подходу

Мы перешли к векторному поиску и трансформерам. Идея была в том, чтобы по новому требованию находить в базе знаний похожие требования и использовать их как контекст.

Получился умный поиск по нашим прошлым ответам. Но этого все равно было недостаточно: нужно было не только находить похожие требования, но и генерировать комментарий.

Так мы пришли к подходу RAG (Retrieval-Augmented Generation) — LLM сначала находит факты в базе знаний, а уже потом формирует ответ.

6️⃣ Как работает наш ассистент

Сервис работает в Telegram-боте и поддерживает два сценария.

Вопрос в чате — пользователь задает вопрос, бот ищет информацию в базе знаний и формирует ответ.

Загрузка Excel-файла — пользователь загружает файл с требованиями, после чего сервис проходит по каждой строке и автоматически заполняет:

  • соответствие (да / нет / не знаю)

  • комментарий с объяснением соответствия

7️⃣ Из чего состоит база знаний

Мы используем два источника:

  • документацию по продуктам Naumen

  • структурированные опросники из прошлых проектов

Документы разбиваются на небольшие смысловые фрагменты, для каждого фрагмента вычисляются эмбеддинги, после чего они сохраняются в векторной базе. Когда приходит новый запрос, система находит самые релевантные фрагменты и использует их как контекст для ответа.

8️⃣ Какие есть ограничения у ассистента

ИИ-ассистент помогает быстрее разбирать требования, но полностью заменить аналитика он пока не может.

Например, иногда клиенты присылают требования, которых еще нет в базе знаний. В таких случаях бот отвечает «не знаю», и требование разбирает специалист.

Также иногда встречается типичная проблема LLM — галлюцинации. Поэтому финальную проверку ответа все равно делает системный аналитик.

Теги:
0
Комментарии0

Во время вебинара будем разбирать, как обеспечить качество больших данных в реальном времени, узнаем особенности построение Data Fabric с помощью HTAP-систем. Рассмотрим особенности архитектуры и основные сценарии работы с колоночной in-memory СУБД Tarantool Column Store. В общем, отличный повод встретиться и узнать больше о работе гибридных СУБД из первых рук.

🎯 31 марта, 17:00 (мск)

Что еще обсудим

🔷 как пустить нагрузку OLTP и делать OLAP-запросы
🔷 как построить действительно быструю аналитическую систему
🔷 как работает обновление отчетов в BI
🔷 разбор кейсов работы в условиях НТАР
🔷 требования к ОС и ПО: как развернуть решение в вашем контуре

После вебинара вы также сможете задать вопросы спикерам и поделиться своим опытом эксплуатации решения. Ждем вас онлайн!

➜ Зарегистрироваться

Теги:
+1
Комментарии0

Nvidia показала DLSS 5 – AI для улучшения картинки в играх

NVIDIA анонсировала DLSS 5: нейросеть теперь не масштабирует картинку, а перерисовывает освещение и материалы в реальном времени

Вчера на GTC 2026 NVIDIA показала DLSS 5. Если коротко: это уже не апскейлер и не генератор кадров. Это real-time neural rendering — модель, которая берёт кадр из игры и перерисовывает освещение и материалы до фотореалистичного уровня. Разбираю, что известно из пресс-релиза и почему это принципиально отличается от DLSS 4.

Что изменилось по сравнению с DLSS 4

DLSS был запущен в 2018 году как AI-технология для повышения производительности — сначала через апскейл разрешения, потом через генерацию целых кадров. Технология интегрирована в более чем 750 игр.

DLSS 4.5, представленный на CES в начале этого года, рисует с помощью ИИ 23 из каждых 24 пикселей на экране.

DLSS 5 — качественно другой подход. Вместо апскейла и генерации кадров, DLSS 5 вводит модель нейросетевого рендеринга в реальном времени, которая насыщает пиксели фотореалистичным освещением и материалами.

Дженсен Хуанг назвал это «GPT-моментом для графики» — объединением ручного рендеринга с генеративным AI.

Как это работает технически

DLSS 5 берёт на вход цветовые данные и векторы движения каждого кадра, а затем с помощью AI-модели насыщает сцену фотореалистичным освещением и материалами, привязанными к исходному 3D-контенту и консистентными между кадрами. Работает в реальном времени при разрешении до 4K.

Ключевое отличие от видео-моделей типа Sora или Veo: видео AI-модели генерируют фотореалистичные пиксели, но работают офлайн, их сложно точно контролировать, и им не хватает предсказуемости. Для игр пиксели должны быть детерминированными, работать в реальном времени и строго привязанными к 3D-миру разработчика.

AI-модель обучена end-to-end понимать сложную семантику сцены: персонажи, волосы, ткани, полупрозрачная кожа, а также условия освещения (фронтальное, контровое, пасмурное) — и всё это анализируя единственный кадр. То есть модель не просто «улучшает картинку» — она понимает, что в кадре кожа, что ткань, что волосы, и обрабатывает каждый материал по-своему.

Контроль для разработчиков

DLSS 5 даёт разработчикам детальные настройки интенсивности, цветокоррекции и маскирования, чтобы художники могли определять, где и как применяются улучшения, сохраняя уникальную эстетику каждой игры. Интеграция использует тот же фреймворк NVIDIA Streamline, что и существующие DLSS и Reflex.

Это важный момент: модель не навязывает свой «стиль». Разработчик может выкрутить эффект на максимум в одной сцене и полностью отключить в другой.

Какие игры поддержат

Среди подтверждённых: Assassin's Creed Shadows, Starfield, Resident Evil Requiem, Hogwarts Legacy, The Elder Scrolls IV: Oblivion Remastered, Delta Force, Phantom Blade Zero и ещё около десятка тайтлов. Публишеры: Bethesda, CAPCOM, Ubisoft, Tencent, Warner Bros. Games.

Выход — осень 2026. nvidia

Что это значит для индустрии

Разрыв между реалтайм-графикой в играх и офлайн-рендерингом в кино был всегда. Один кадр в фотореалистичном голливудском VFX может рендериться минутами или часами, а игровой кадр должен уложиться в 16 миллисекунд. Преодолеть этот разрыв только вычислительной мощностью невозможно.

NVIDIA предлагает обходной путь: не рендерить «честно» каждый луч света, а обучить нейросеть понимать, как свет взаимодействует с материалами, и достраивать результат в реальном времени.

Если технология сработает так, как описано — это меняет экономику игрового рендеринга. Вместо того чтобы тратить ресурсы GPU на точный расчёт каждого отражения, разработчик отдаёт «черновой» кадр нейросети, которая доводит его до фотореалистичного уровня.

Но пока это анонс на GTC без публичных бенчмарков. Реальное качество покажут осенние релизы.

Кто следит за развитием нейросетевого рендеринга — как оцениваете подход NVIDIA? Насколько реалистичны заявления про real-time neural rendering при 4K, если текущие видеомодели даже офлайн требуют серьёзных вычислений?

Теги:
+4
Комментарии1

Спрос на H100 и H200 вырос в 75 раз: Рег.облако открыло GPU-кластер в новом московском ЦОД

Рег.облако разместило GPU-кластеры в московском дата-центре DataHouse «Магистральный-1». DataHouse проектировал площадку с запасом по энергетике и охлаждению — GPU-серверы греются и потребляют электричество совсем не так, как обычные вычислительные стойки.

Новую площадку Рег.облако открыло под растущий спрос: бизнес перешел с H100 и H200 как инструмента для экспериментов на промышленное использование. За последний год спрос на эти чипы в Рег.облаке вырос в 75 раз — с почти нулевых значений. Сейчас на H100 и H200 приходится около 70% всего спроса на GPU для задач с большими языковыми моделями.

Драйвером стали не новинки, а их отсутствие. Флагманские B200 и B300 в Россию практически не поступают, а H100/H200 после анонса нового поколения подешевели и заняли нишу рабочей лошадки для ИИ. Покупать такие серверы самостоятельно по-прежнему тяжело. Аренда у провайдера для большинства выходит дешевле и быстрее.

С подключением «Магистрального-1» у Рег.облака теперь 11 собственных и партнерских дата-центров уровня Tier III в нескольких регионах. Суммарная мощность — 85,5 МВт, 10 420 серверных стоек.

Теги:
+1
Комментарии0

Кейс из личной практики: Claude Code + Chrome = 🚀

Продолжаю удивляться тому, на что способен Claude Code. Уже никого не удивишь тем, что он может накодить приложение или сайт с нуля. Но как насчет «реверс‑инжиниринга» через Chrome?

Кейс

Есть корпоративная CRM система. В ней куча данных, которые показываются в преднастроенных отчетах. Очень монструозная и негибкая штука. 

Заказчик резко начинает хотеть с ней «говорить» на естественном языке, да ещё и смешивать данные из разных отчетов. Система кастомная и совершенно под это не заточена. А за счет своего размера — адаптировать ее заняло бы месяцы. Что делать? 

Правильный путь — спроектировать консистентные датамарты, сделать семантический слой с описанием всех данных, написать MCP сервер поверх этой системы на основе ее API.

Реальность — времени на это нет. Нужно навайбкодить proof of concept!

Ok, это заняло 3 часа 😎

  1. Устанавливаем Claude расширение в браузер Chrome и настраиваем коннектор с Chrome в Claude Code. 

  2. Даем ссылку на UI нашей CRMки клоду и просим его внимательно изучить архитектуру, API запросы под капотом и на основе этого спроектировать MCP сервер. Причем никаких пояснений к системе не требуется, даже на swagger ссылка не нужна. 

  3. 20 минут Opus тыкает интерфейс, читает запросы и внимательно изучает метрики, настройки, фильтры и группировки и тд. Результат записывает в MD файл. Туда же он пишет предлагаемую архитектуру MCP.

  4. Далее просим Claude написать MCP сервер по полученному файлу и локально его задеплоить.

  5. Профит! Спустя пару часов получаем рабочий MCP сервер поверх системы, которая для этого никогда не строилась. 

  6. Дальше Claude прописывает себе этот MCP как тул. И вот уже из дефолтного приложения Claude мы можем естественным языком задавать вопросы к данным в CRMке. А тк это делает клод — то поверх этих данных есть возможность строить графики, интерактивные визуализации, дашборды и отчеты. Бесконечная гибкость.

Все это без привлечения разработчиков и написания единой строчки кода руками. 

В общем, с расширением в Chrome, Claude — просто машина 💪

Больше интересного про AI агентов и технологии в моем канале Заместители.

Теги:
0
Комментарии8

Принимаем заявки на доклады infra.conf 2026 до 1 апреля 

Команда Yandex Infrastructure приглашает докладчиков на большую конференцию по инфраструктуре — infra.conf 2026. В этом году мы встретимся 4 июня уже в третий раз и обсудим ключевые темы, которые касаются обеспечения высоких нагрузок и не только: 

  • инструменты разработки и практики управления разработкой, 

  • базы данных и стораджи, 

  • принципы и практики обеспечения надёжности и доступности, 

  • управление инцидентами 

  • и многое другое. 

Отдельное внимание уделим построению и особенностям эксплуатации инфраструктуры в эпоху ML.

Приём заявок на выступление открыт до 1 апреля включительно в этой форме.
Чтобы заявить свою тему на этом этапе, достаточно тезисов и общего плана. Координатор конференции и участники программного комитета свяжутся с каждым спикером для обсуждения материала, а финальное решение по докладам будет принято до 1 мая.

Теги:
+5
Комментарии0

Anthropic представила исследование, которое показывает, что влияние ИИ на рынок труда пока значительно ниже его теоретического потенциала. В статье представлена новая метрика под названием observed exposure («наблюдаемое воздействие»). Она сравнивает теоретические возможности языковых моделей с реальными данными их использования, в данном случае на основе разговоров пользователей с чат-ботом Claude. Для анализа были объединены данные базы профессий O*NET, оценки того, какие задачи теоретически могут ускоряться с помощью ИИ, а также статистика фактического использования Claude в рабочих сценариях.

Результаты показали значительный разрыв между потенциалом и практикой. По оценкам исследователей, языковые модели теоретически способны ускорить выполнение 94% задач в компьютерных и математических профессиях. Однако на практике ИИ применяется лишь примерно в 33% таких задач. Большинство возможностей технологий остаётся нереализованным из-за ограничений самих моделей, юридических требований, необходимости человеческого контроля или сложной интеграции с профессиональными системами.

Сравнение теоретической способности языковых моделей автоматизировать задачи в различных профессиональных категориях (синий) и фактического уровня их использования на практике по данным взаимодействий с моделью Claude (красный). Источник: Anthropic.
Сравнение теоретической способности языковых моделей автоматизировать задачи в различных профессиональных категориях (синий) и фактического уровня их использования на практике по данным взаимодействий с моделью Claude (красный). Источник: Anthropic.

Исследование также выявило, какие профессии сейчас наиболее подвержены влиянию ИИ. На первом месте оказались программисты — около 75% их задач могут выполняться или ускоряться с помощью моделей. Далее следуют специалисты службы поддержки, операторы ввода данных и аналитики. В то же время примерно 30% работников практически не затронуты использованием ИИ: среди них повара, бармены, спасатели, механики и другие профессии, связанные с физическим трудом.

Теги:
+4
Комментарии1

Компания Mistral AI представила большую языковую модель Leanstral. Это проект для разработки приложений с помощью вайб‑кодинга и оптимизированный для формальной верификации кода. Предполагается, что Leanstral может применяться для создания ИИ‑ассистентов, позволяющих не просто генерировать код, но и гарантировать отсутствие в нём ошибок.

Leanstral стала первой открытой моделью, поддерживающей язык программирования Lean 4 и связанный с ним инструментарий для проверки математических доказательств. Lean 4 предоставляет возможности для математического доказательства корректности кода и его соответствия спецификации, что в контексте вайб‑кодинга позволяет подтвердить, что сгенерированный ИИ‑моделью код делает именно то, что задумано.

Модель Leanstral охватывает 119 миллиардов параметров (6.5 млрд активируемых параметров на токен), учитывает контекст в 256 тысяч токенов и опубликована под лицензией Apache 2.0. Загружаемый архив с Leanstral занимает 121 ГБ и пригоден для использования на локальных системах. Для локального запуска могут применяться библиотеки vllm, transformers и SGLang.

Для оценки возможностей ИИ-моделей с учётом качества проведения формальной верификации кода и написания математических доказательств разработан новый набор тестов FLTEval. В проведённых тестах модель Leanstral обогнала существующие открытые модели Qwen3.5 397B‑A17B, Kimi‑K2.5 1T‑A32B и GLM5 744B‑A40B, показала сходные результаты с моделями Claude Haiku 4.5 и Claude Sonnet 4.6 от компании Anthropic, но отстала от модели Claude Opus 4.6. В частности, модель Opus набрала 39.6 баллов, а Leanstral — 21.9 при одном проходе и 31.9 при 16 проходах. При этом затраты при использовании Opus составили $1650, а Leanstral — $18 при одном проходе и $290 при 16 проходах. Модель Haiku набрала 23 балла при затратах $184, а модель Sonnet — 23.7 при затратах $549.

Теги:
0
Комментарии1

На одном из проектов перехода с УПП на ЕРП возник неожиданный субподрядчик, который добавил приключений и нам, и заказчику.

Заказчик работает с сетями, а где сети — там какой‑нибудь хитровыдуманный электронный документооборот.

В основе — просто модуль/обработка, написанная какой‑нибудь известной компанией, но обязательно — доработанная на месте под требования сети.

И вроде бы — что может случиться, если мы переходим с УПП на ЕРП, и для обеих конфигураций есть версия модуля ЭДО?
Код модуля — открыт, доработки под сеть — известны. Что может пойти не так?

Первое, что пошло не так — разработчики модуля сказали, что ни нам, ни заказчику нельзя его дорабатывать. А кто там его доработал несколько лет назад для УПП — уже никто и не помнит. Ну, ладно, хозяин‑барин — нельзя так нельзя. Спрашиваем — так, а можете нашему заказчику‑то доработать? Хотя, чего нашему — он и ваш заказчик.

Можем, говорят, только в очередь вставайте. Дело было в ноябре, месяца за полтора до запуска. Ладно, очередь так очередь. Встали, где‑то на декабрь.

В декабре ребята честно что‑то дорабатывали, под конец года отдали результат, и все торжественно ушли Новый Год встречать. В январе, на каникулах, мы запускаем ЕРП, ну и... Доработанные ребятами модули, конечно, не работают. Ну ладно, думаем, ничего страшного = серьёзные штуки никогда с первого раза не работают. Сейчас напишем ребятам, они помогут.

Пишем ребятам, и оказывается... Тех.поддержка не работает (в первые дни каникул).
А заказчику уже отгружать надо — сети, они такие. Там нельзя не отгрузить.
Что делать? Или самим‑таки доработать (но разработчики ЭДО грозили штрафами), или из УПП отгрузки делать. Выбрали второе — сели несчастные люди и вбили реализации в УПП, просто чтобы выгрузить в ЭДО.

Через пару дней начала работать тех.поддержка, но вот незадача... Они ничем не могли помочь с нашим доработанным модулем. Потому что помочь может только разработчик, который с их стороны модули допиливал. А он — на законных каникулах до 12 января. И связаться с ним нельзя никак и ни за какие деньги. А документации он никакой не передал, тех.поддержке ничего не объяснил, поэтому помочь они ничем не могут.

Тут у заказчика вторая волна отгрузок в сеть — ну, что поделать... Пришлось опять из УПП выгружать.

По окончании каникул подрядчик, конечно, всё быстренько починил.
Претензий нет, если что. Просто не знал, что так бывает :)
Теперь знаю. Придётся учитывать этот риск в следующих проектах.

Телеграм

Теги:
0
Комментарии10

Все эти споры о Новой Технологии — «Вайб‑Кодинг»... да было это все уже...

Только в 90-х называлась «парное программирование» XP (Extreme Programming)... только подручными средствами.

Найдете книгу — Кент Бек Экстремальное программирование (eXtreme Programming, XP)... Ну и вопрос прост — где вы с ним встречались? Ответ — нигде...умерло и чего? аааа... так как предназначалось для решения узкого круга задач — посмотрите и пределы и ограничения... а посмотрев как развивалось — увидите.. такой подход узко применим, он будет, но в мелкий соответствующих задачах, и большую систему на нем не построишь.

Сейчас то же самое, только вместо одного из программеров, рядом — тупые агенты с их «Чего господин молодой программист — желает» )))

Следующая проблема — агенты... с их «Будь полезен».. тоже методологическая проблема «Почему принцип „будь полезен“ убивает команды и ИИ‑агентов»

Да и вообще.... то что наваяли по Agile — не сработает, и проблема снова та же — отсутствие знания базовых технологий! Agile то.. это облегченная технология для спиральной разработки.

И Agile — та же история. Облегчённая версия спиральной разработки Боэма. 1988 год. Взяли — упростили — потеряли главное. Спиральная разработка учитывала риски, архитектуру, масштаб. Agile оставил итерации и выбросил всё сложное )))

Большую систему на «спиральной» по Agile не построишь — нужен водопад с правильно выстроенной архитектурой на входе. А на Agile большую систему не построишь вообще — там каждые две недели спринт и никто не думает о том что будет через год )))

Полная «спиральная разработка» — включает баланс между Каскадная модель (Waterfall model) + Итеративная модель (Iterative model). Agile и Scrum — игнорирует структурную часть.

И молодые разработчики не знают ни Боэма ни Руча ни даже нормального RUP. Знают Scrum и думают что это всё что есть )))

Олдфаги помнят CASE (Computer‑Aided Software Engineering)‑системы из 90-х — это была первая великая попытка «запрограммировать программирование». Тогда нам тоже обещали мир без кода. Не взлетело, потому что инструменты были кривые, а сложность систем росла быстрее, чем наши навыки моделирования. Сегодняшний ИИ — это CASE‑система, которая наконец‑то заработала.

Почему CASE — это «дедушка» ИИ (и почему тогда не взлетело):

  1. Та же фигня, вид в профиль: Тогда тоже кричали: «Кодеры больше не нужны! Будем только рисовать квадратики!». Но выяснилось, что чтобы нарисовать «квадратики» правильно, нужно обладать еще более жесткой логикой, чем для написания кода. ИИ сегодня — это CASE‑система на стероидах, которая наконец‑то научилась понимать не только стрелочки, но и живую речь.

  2. Проблема «Грязного входа»: В 90-х CASE‑системы разбивались о то, что люди не могли внятно нарисовать, чего они хотят. «Мусор на входе — мусор на выходе». Сейчас с ИИ ровно та же история. Если у тебя в голове каша, то никакая нейронка (как и Rational Rose в своё время) тебе рабочий продукт не выдаст.

  3. Уровень абстракции: CASE пытались поднять нас над кодом. ИИ делает то же самое. Но тогда «процессорной мощности» мозгов у массы айтишников не хватило, чтобы перейти от «ковыряния в гайках» к «проектированию смыслов» (была даже UML (Unified Modeling Language)). Сейчас — дубль два. Только теперь отсидеться в окопах синтаксиса не получится.

P. S. Вот и смотрю... с каким рвением изобретают «велосипед»... может книги почитать нужно? про указанные в посте технологии?

P. S.S. И вот реально, я бы порекомендовал ознакомиться — UML (Unified Modeling Language).

Теги:
+3
Комментарии11

Продолжаю публиковать объемные ответы как посты...

Верховный суд США отказался рассматривать апелляцию Стивена Талера, который пытался оспорить решения нижестоящих инстанций и Бюро по авторским правам. Коллегия судей оставила в силе фундаментальный принцип: правовая защита интеллектуальной собственности закреплена исключительно за человеком.

Сейчас на рассмотрении находится параллельное дело Allen v. Perlmutter, где художник использовал 624 промпта для создания изображения. Бюро по авторским правам отказало ему, заявив, что даже 624 промпта — это недостаточный контроль, так как ИИ «сам определяет структуру и тон» финального изображения...

Казалось бы аллилуйя! Нейрослоп — общественное достояние и не принадлежит ни автору программы, ни авторам промптов:

знания, которые раньше были распределены по тысячам проектов, постепенно превращаются в общий справочник.

НО... реально суд просто отложил решение. Почему? Чтобы доказать, что «автор» — это человек, суд перечислил множество пунктов, которые «не работают» с машиной: наличие вдовы и детей для наследования, необходимость подписи, наличие срока жизни и так далее

Есть еще одна юридическая карта, которая не играла. Корпоративное владение. У корпорации нет вдовы и детей, но доктрина «work made for hire» (работа, выполненная по найму) позволяет считать корпорацию автором. На AI слоп может быть установлено корпоративное владение. И тогда «общий справочник» быстро станет закрытым.

Вспомните дела Аарона Шварца или решения против создателей Sci‑Hub Александры Эльбакян. Как раз из разряда

В математике никто не владеет теоремой Пифагора. Её доказали, опубликовали, и она стала частью общего инструментария. То же самое произошло с рядами Фурье, с уравнениями Максвелла, с преобразованием Лапласа. Они вошли в учебники и перестали быть чьей‑то собственностью.

и это именно корпоративное владение.

В деле хакеров суд защищает права не‑человека (корпорации Elsevier или JSTOR) на тексты, написанные людьми (учеными).

Ученые пишут оплачивая публикацию или работая на грантах не получая авторских прав, передают права издательству, а затем университеты (те же самые ученые через библиотеки) покупают эти статьи обратно за миллионы долларов. НО прецедент говорит: «Закон на стороне того, кто купил права, а не того, кто создал знание».

Поэтому важно в разговоре об «эксплуатации Open Source» не забывать «про вирусное наследование» на производные произведения и прочие сформированные механизмы защиты открытого кода.

Теги:
+2
Комментарии0

Речевая аналитика на базе ML и LLM помогает лучше понять клиентов

Начальник центра обучения и контроля качества контакт-центра ОТП Банка Ольга Сухарева и начальник отдела развития голосовых роботов и речевой аналитики в Collection Светлана Рабехова представили результаты внедрения AI-инструментов речевой аналитики Naumen в коммуникации с клиентами. Выступление спикеров состоялось в рамках отраслевой конференции Naumen, посвященной цифровой трансформации финансового сектора.

Эксперты рассказали, что в ОТП Банке на платформе речевой аналитики выстроена двухуровневая система анализа диалогов: на базе классических ML-моделей и больших языковых моделей — LLM. ML отвечает за массовые задачи: классификацию тематик, базовый контроль алгоритмов, автоматическую оценку всех звонков и чатов. LLM модель подключается там, где требуется глубокое понимание контекста, эмоций клиента и нюансов переговоров. Такой гибридный подход позволяет банку не только повысить качество сервиса и лучше понимать клиентов, но и получить измеримый экономический эффект.

Как отметила Светлана Рабехова, речевая аналитика давно перестала быть просто инструментом контроля и сегодня выступает драйвером бизнес-показателей. Автоматическая оценка позволила анализировать 100% диалогов с клиентами, что привело к росту выполненных обещаний по оплате задолженности на 5,5%.

Важно также отметить, что среднее время анализа одного диалога экспертом уменьшилось в 20 раз — с 7 минут до 20 секунд: можно быстро ознакомиться с сутью разговора без необходимости прослушивать полный диалог.

Ольга Сухарева рассказала о реальных примерах внедрения инструмента в Контакт-центре и поделилась результатами. Автоматическая оценка помогла на 1,7% чаще решать вопросы клиентов с первого обращения. Среднее время обработки звонков сократилось на 5 секунд, а конверсия в продажи выросла на 3,3%.

Благодаря точному аудиту жалоб доля обращений в ЦБ РФ снизилась на четверть. Также выросла точность начисления сорри-бонусов с 85% до 97%.

Теги:
0
Комментарии0

Ближайшие события

Как оставаться востребованным в турбулентное время: 10 бесплатных демо-уроков

Привет, Хабр. Делимся подборкой бесплатных уроков, которые пройдут в Отус в рамках набора на курсы. Опытные практики проведут занятия онлайн — на них вы сможете узнать больше о формате обучения и задать вопросы. Выбирайте тему и присоединяйтесь, чтобы не отставать от трендов.

Теги:
0
Комментарии0

Если все решаю сам — это, значит, плохо?

Из дирижера в зрители: как проджекту научить свою команду самостоятельности, чтобы она в нем больше не нуждалась
Крошка Макс ко мне пришел, И спросила кроха: «Если все решаю сам — Это, значит, плохо?» Я в ответ: «...
habr.com

Проджект, который следит за всем процессами — это удобно… пока команда не начинает «ждать взмаха палочки» по любому вопросу. В статье нашего Lead PM Наташа Епифанова разбирает, как вырастить самостоятельную команду, которая принимает решения и держит ответственность без постоянного менеджерского посредничества.

Если вы хотите, чтобы команда росла в ответственности, а вы постепенно переходили «из дирижёра в зрители» — забирайте в закладки статью.

Теги:
0
Комментарии0

Как стало этого не хватать

PS: В статьях и новостях уже есть вариант "Текст похож на сгенерированный". Не хватает у постов. Отлично было бы видеть под рейтингом статистику голосования.

Теги:
+24
Комментарии8

WT CDEK library v.1.3.0 - обновление PHP SDK для Joomla + CDEK.

Небольшая нативная PHP Joomla библиотека для работы с API v.2 службы доставки CDEK. Библиотека представляет собой клиент для авторизации в CDEK API по OAuth, работы с некоторыми методами API: получения ряда данных и расчета стоимости доставки. Поддерживается Joomla 4.2.7 и выше.

В пакет входят:

  • библиотека Webtolk/Cdekapi

  • системный плагин System — WT Cdek для хранения настроек и AJAX‑интеграций

  • task‑плагин Task — Update WT Cdek data для обновления локальных копий справочников CDEK по расписанию

  • web asset с официальным JavaScript‑виджетом СДЭК

👉 v.1.3.0. Что нового?

  • Полный рефакторинг библиотеки. Библиотека переработана в entity‑based API с фасадом Cdek и отдельным слоем запросов. Обратная совместимость не нарушена, поэтому версия библиотеки — 1.3.0.

  • Добавлена поддержка новых разделов API СДЭК. Добавлена поддержка новых разделов API СДЭК: webhooks, prealert, печатные формы, payment, passport, reverse, intakes и других сущностей.

  • Улучшена интеграция с Joomla. Улучшена интеграция с Joomla: installer script для layouts, новые поля Joomla Form для тарифов и обновлённые js виджета CDEK.

  • документация библиотеки. Все методы библиотеки подробно описаны, а так же текст документации собран в отдельной папке в git репозитории.

Пример запроса — запрос информации о городе.

<?php

use Webtolk\Cdekapi\Cdek;

\defined('_JEXEC') or die;

// Вариант 1: брать credentials из настроек плагина
$cdek = new Cdek();

// Вариант 2: передать credentials явно
$cdek = new Cdek(test_mode: true, client_id: 'your_client_id', client_secret: 'your_client_secret');

$result = $cdek->location()->getCities([
    'postal_code' => '410012',
    'city'        => 'Саратов',
    'size'        => 1,
]);

Результат запроса:

Array
(
    [0] => Array
        (
            [code] => 428
            [city_uuid] => 7e54a0b3-76f0-41e2-92e0-f1e600ad84fd
            [city] => Саратов
            [fias_guid] => bf465fda-7834-47d5-986b-ccdb584a85a6
            [country_code] => RU
            [country] => Россия
            [region] => Саратовская область
            [region_code] => 47
            [fias_region_guid] => df594e0e-a935-4664-9d26-0bae13f904fe
            [sub_region] => городской округ Саратов
            [longitude] => 46.034266
            [latitude] => 51.533562
            [time_zone] => Europe/Saratov
            [payment_limit] => -1
        )

)

Библиотека эта нужна для разработчиков, создающих свои расширения для интеграции Joomla и курьерской службы CDEK.

Страница расширения

GitHub расширения

Теги:
+2
Комментарии0

Можно ли быть с лишним весом и оставаться здоровым?

«Вес растет, но я чувствую себя хорошо!»

Вы можете про себя так думать. И действительно чувствовать себя хорошо. Без причин думать об обратном. Но существует ли метаболически здоровое ожирение — так его принято называть в последнее время?

Похоже, что нет.

Вот это исследование на 14 тыс. человек показало, что люди с ожирением без каких-либо признаков метаболического синдрома — это большая редкость. Только 7,5% среди тучных людей. Nature пишет, что это скорее сочетание нескольких генетических условий, когда у людей, например, врожденная хорошая чувствительность к инсулину и она может быть устойчива к нарушениям от избытка жировой ткани. То же самое касается холестерина и прочего.

В остальном же, у большинства не страдающих ожирением, увеличение веса даже в рамках нормы ИМТ, приводит к увеличению артериального давления, уровня сахара в крови и триглицеридов и к снижению уровня «хорошего» холестерина. Т.е. и вес, и показатели будут еще в рамках нормы, но с явной тенденцией в сторону ухудшения.

Концепция «здорового ожирения» критикуется. Некоторые исследования мягко намекают, что неправильно называть ожирение «здоровым».

Другие говорят более прямо — это бомба замедленного действия.

И с последними я полностью согласен.

Ожирение, даже если оно временно «здоровое», только отнимает и ничего не дает взамен. Любой лишний вес — это износ системы, даже если кому-то повезло и его система оказалась устойчива к этому износу.

Есть много условий, при которых люди нормализуют лишний вес, поэтому я здесь, чтобы напомнить вам, что нет, это не нормально. Я хочу вам показать другую сторону. Хочу вам сказать, что не нужно испытывать здоровье сейчас, а сохранить его на то время, когда уже мало какие средства будут способны поддерживать это здоровье и останется расчитывать только на природные способности. И то, что у вас есть сейчас, нужно продлить на как можно дольший срок.

Теги:
+6
Комментарии10

Я знаю, тут есть люди, которые волею судеб (или даже рока) в теме, мой вопрос в первую очередь к ним — но и не только. Конечно, с таким упоризмом бы надо было пятницы дождаться, но…

Что вы скажете про использование шрифта Брайля зрячими? Из очень простого соображения — впихнуть невпихуемое, чтобы при разрешении «два на три пиксела на одно знакоместо» можно было сделать читаемую (пусть даже с некоторыми усилиями) надпись.

Вопрос первый: насколько это адекватно само по себе? Я когда-то и кракозябры свободно читал (в нескольких разных слетевших кодировках), когда это было актуальной проблемой. Мне трудно сказать, насколько это будет барьером для стороннего человека.

Вопрос второй: насколько устоялись правила пунктуации? Справочные ресурсы не дают ответов. «Вот после этого знака следующие буквы обозначают цифры». И долго ли? До ближайшего пробела, точки и т. д.? А если встретилась буква, для которой цифры нет — это такой изящный способ написать шестнадцатиричное число или это надо читать как букву? А как правильно записать смешанный (цифробуквенный) индекс? А как правильно записать «1135-743=»?

Ладно, имена и начало предложения пишем со строчной, подразумеваем заглавную. Хорошо. Чтобы отличить зловещую долину и зловещую Долину, есть специальный знак. А если аббревиатура (не общеизвестная, а то ведь и обычным шрифтом мы, имхо, довольно часто пишем их строчными, и читается нормально без wtf)? Перед каждой? Или это, наоборот, в «Долине» нужно потом обратно «регистр переводить» знаком «строчная русская»? А как быть, если надо среди русского текста нет-нет да и вставить латиницу (обозначения, например)?

Вопрос третий: там не образовался ли уже какой-то свой русский язык, не являющийся взаимно понятным по отношению к нормативному? Ладно ещё «всё пишем со строчных» (но и то уже прощай, автоматическая конверсия, ну или разве что капителью говорить, как пратчетовский Смерть), но ведь любая культурная изоляция означает сразу форк своей ветки развития? Даже простой уход от разговорного языка к печатному (интернет-культура, ага) породил совершенно изолированные от устного произношения перлы типа ЪУЪ.

…он такой невинный, когда им написаны простые вещи типа «как пройти к сортиру», а копнёшь — ощущение, что раскопал целый Хогвартс прямо у себя под боком. Смотришь на эти пупырышки и чувствуешь себя невежественным маглорожденным.

Теги:
+2
Комментарии0

Улучшаем моего агента. Часть 4

Это четвертая часть серии (первая — в чем идея, вторая — агент с нуля, третья — что внутри).

В таких цитатах я буду показывать конкретные запросы, которые он уже хорошо решает.

———————

Поехали ⤵️⤵️⤵️

💲 Ведет учет всех моих финансов

Подключён к моей финансовой табличке, которую я веду в Notion. Умеет добавлять по категориям и анализировать отчеты даже за целый год (а записей там огромное количество).

«Посчитай доходы за последний год — покажи где и сколько я зарабатывал»
«Сколько я должен провести в налоговую за этот месяц?»
«Кто и когда мне заплатил и кто ещё должен по рассрочке курса?»

🌈 Подключен к моей гугл почте

Читает Gmail и пишет мне сводку каждое утро — есть ли там что-то интересное. Отвечать на входящие пока ему не разрешаю, может только драфты писать

«Глянь что мне там интересного пришло за эту неделю»
«Напиши жалобу в Lazada по поводу последнего ордера, он не пришел. Ордер в почте лежит, возьми номер оттуда»
«Напиши драфт в ответ на сообщение Username, я гляну попозже»

🍀 Календарь

Видит расписание, создаёт и удаляет события.

«Поставь созвон на вторник 15:00 и напомни за час»
«Поставь ученикам второго потока рекурентную встречу раз в две недели, их почты знаешь где найти»
«Глянь че у меня по слотам на понедельник, поставь созвон куда‑то на обед + дай sharable ссылку сюда»

🖥 Таск-трекер

Подключён к моему TickTick — откуда читает и пишет задачи. Каждый день пишет сводку задач, что нужно сделать с высоким приоритетом.

«Что у меня просрочено? И добавь задачу: обновить лендинг до пятницы»
«Проведи анализ моего сайта и кинь ToDoшкой себе в память + мне в TickTick»
«Добавь всем задачам в разделе Мое обучение Definition of Done. Если не уверен в том, какой должен быть DoD — пингуй»

🔥 Apple Watch — факин маджик

Два дня потратил на то, чтобы на ходу с руки записывать идеи сразу в Clawy

⌚️ «Запиши идею поста» (наговариваю прямо в часы)
⌚️ «Заправился, запиши 400 бат себе»

В общем все те кейсы что выше, но через часы.

🎶 Spotify + концерты

Знает все группы, которые я слушаю. Раз в две недели мониторит концерты в интернет. Ставит напоминалки и скидывает ссылки на покупку билетов.

«Че там какие концерты моих групп в Бангкоке в ближайшие 2 месяца?»

🌴 Знает где я живу, вплоть до точных координат

Поэтому рекомендации конкретные — не «в мире», а «рядом со мной».

«Найди хорошего стоматолога рядом»
«Хочу поехать в кафе, глянь что‑то прикольное в радиусе 5 км»

Ну и еще

Есть доступы на чтение к моим гугл таблицам и гугл драйву. Знает много инфы про мой психотип и различные тестирования.

———————

🦄 Комбинированные кейсы

Нужно проставить мне и всем ученикам в календарь созвоны на третий поток.

Глянь сайт, там точное название, описание и время уроков
Поставь в календарь их все
А почты учеников глянь в табличке 3 потока

→ На сайте забирает инфу про уроки, почты берет из таблички. Затем ставит всем встречи в календарь.

Подведи итоги за неделю

→ Собирает доходы из Notion, выполненные задачи из TickTick, события из календаря, важные письма из Gmail. Выдаёт: заработал X, потратил Y, закрыл 8 задач из 12, пропустил 2 дедлайна. Рекомендация на следующую неделю.

[с Apple Watch] «Что на сегодня у нас?»

→ «Есть один созвон в 14:00. В TickTick: обновить лендинг (дедлайн сегодня). Вчера пришло письмо на почту — ответ от Anthropic по поводу твоей проблемы. Черновик ответа готов, глянешь после завтрака?».

«Нашел такую приколюху в интернете. Изучи ее и напиши план на улучшение самого себя, потом можешь внести эти изменения».

→ Изучит идею и улучшит себя и свой функционал.

———————

👁 Что еще хочу развить

Голос — чтобы отвечал голосовыми, иногда удобнее войсом, чем текстом.

Звонки — чтобы звонил мне. Например, в 11 вечера, чтобы я сделал саммари дня. Или если я не делаю задачу, чтобы звонил мне иговорил мне «втф чел».

Доступ к Telegram — сейчас он не видит мои чаты, только если пересылать сообщения ему. Хочу подключить Telethon — чтобы мог сам читать переписки, мониторить каналы, готовить черновики ответов.

Тамагочи получается 🎮

Это мой агент сделал себе такое Identity -- он чертный кот
Это мой агент сделал себе такое Identity -- он чертный кот. Сказал что он фамильяр с именем Clawy
Теги:
-4
Комментарии0