Pull to refresh
2
0
Алекс Долгих @Adgh

User

Send message

Но оказалось, что в российской ИТ-среде платить за поддержку никто не хочет...

Мне вот честно говоря не понятно, почему без всякой иронии суперпрофессиональная компания Postgres Pro, не берётся за облачные продукты как те же Snowflake, Databrick, а рассчитывает и дальше по старинке жить на проданные лицензии и услуги тех. поддержки, сокрушаясь что за них никто платить не хочет...

Хотя конечно понятно,.. просто кто-то слишком застрял в 2000-х

А ещё: требования регуляторов (ФСБ / ФСТЭК), корректность встраивания (СКЗИ) в продукт / решение, долговременное хранение (подписанных данных) в БД/хранилище, штамп времени, проверка статуса сертификата, нормализация данных и много другое, чего не помешает знать аналитику про СКЗИ, но к сожалению не рассмотрено в статье))

Что ж, может вы и правы, раз пипл такое хавает

  1. Подменяя сложившуюся терминологию, вы только вносите путаницу. У слова 'очевидный' — иной семантический смысл

  2. Описание "изображение кошки на синем фоне" никак не идентифицирует ваше произведение, даже если вы уточните, что "кошка изображена в стилистике Поля Гогена" - в случае споров о нарушении авторских прав, ничто не помешает подрядчику утверждать в суде, что он передавал вам в качестве результата "другую кошку". А если это абстракция, сложное или составное произведение - то и подавно

Даже от простого перечисления в статье существенных условий договора с пояснениями, без которых он становится ничтожным, проку больше чем от ваших пространных рассуждений об использовании официально-делового стиля

Если вы хотели запутать свою целевую аудиторию на этой площадке, тогда конечно выбран вполне неплохой способ..

Очевидные условия договора – это те условия, без которых договор не может быть признан заключенным, или условия, которые важны для перехода права.

Может всё же не очевидные, а существенные? — условия, которые названы в законе или иных правовых актах как существенные или необходимые для договоров данного вида, а также все те условия, относительно которых по заявлению одной из сторон должно быть достигнуто соглашение (ст. 432 ГК РФ).

У меня другой вопрос - вот передали мне pdf (гайдбуком) или архив с векторными файлами. Как подтвердить, что это именно то, что в договоре подразумевалось? Контрольную сумму файла / архива в акте приема передачи указывать и инструкцию по её расчету к акту прилагать?

Статьи с нечётным id всегда выдавали статус-код 404, не найдено.

Накручивают счетчик?) С одной стороны понятно, что денюжка сама себя не заработает, с другой — странно, что отраслевой ресурс в нынешнее время решил не придерживаться AI-ready подхода, рискуя остаться на обочине истории

Спасибо за обстоятельный обзор, без шуток.

Теперь <irony>мы знаем, как Газпромбанк использует open-source-решения, непонятно только что с этого dbt-сообществу.. Нет планов по публикации наработок в общественное достояние?

Тот случай, когда комментарий содержательнее и интереснее самой статьи)

Что касается детализации и управления требованиями - система позволяет организовать ведение атомарных требований в отдельных карточках со взаимосвязями между ними, аля Requirement Yogi?

Artezio научила ИИ писать техзадания в 10 раз быстрее

... я печатаю 1200 ударов в минуту.. Но честно говоря такая ерунда получается! (с) народное

Можно же проиллюстрировать рабочую систему скриншотами пользовательского интерфейса, а не абстрактными картинками? Продемонстрировать фрагменты результатов её работы?

Рассказать о возможном соответствии сформированного системой технического задания ГОСТам 19 / 34 серии или изложить своё видение идеальной структуры и связи его разделов?

Хотя бы вскользь упомянуть как система справляется с декомпозицией требований и их трассировкой? Оценкой критериев качества DoD? Разделением фич по этапам?

Пока в сухом остатке выглядит так:
Опросник -> Spech2Text -> Векторная помойка -> RAG с "уникальными" промтами

а пока - бла-бла-бла:
понимание контекста проекта, бизнес-процессов клиента, важных деталей отраслевой специфики.. структурированный и суперэффективный процесс

Обычно когда есть что показать - не стесняются, а если у вас и пользовательские интерфейсы под NDA - ну шож, успехов...

У Van Buren есть репозиторий, или только лендинг?

С большим уважением к тому, что делает Selectel, но всё же статья могла бы быть более технической)

Можно поподробнее на счёт SLA, например:
- латентность запросов
- пропускная способность IOPS
- задержка репликации
- RPO / RTO
- исправление уязвимостей
- время реакции тех. поддержки
?

Возможность использования расширений вроде PostGIS/TimescaleDB? Возможность размещения отдельных партиций на медленных дисках?

Экспертиза от команды DBaaS в выявлении медленных запросов, оптимизации производительности базы?


и раз статья про экономический эффект - какова финансовая ответственность Selectel за сохранность и конфиденциальность данных, нарушения SLA?

Самое интересное в RAG – вытянуть максимум из ретривера. А тем, как залить md в вектор и найденные фрагменты вставить в промт — уж «все заборы исписаны»)

Осталось придумать, как не используя субъективные оценки "делай хорошо, не делай плохо" сформулировать требования к грамотному монтажу и критериям приемки)

Можно поделиться ноутбуком в Google Colab

Я же правильно понимаю, что платформа не поддерживает BPMN?

Критикующие просто могли не знать, каково это подключать базу данных напрямую к инструменту бизнес-аналитики.

Тогда может дело в инструменте бизнес-аналитики? У нас одна из БД на 150кк в основной таблице, не считая джойнов (MySQL кстати). Сбоку BI решение, которое по расписанию каждые 5 минут забирает через ETL (тоже кстати визуальный конструктор) обновления в данных и складывает в свой DWH на Postgresql. По мониторингу всплесков по нагрузке на основную базу нет, даже stage не потребовался

Да, Clickhouse интересная штука, но стоило ли городить огород с Datalens...только чтобы потом гордиться сложностью схемы движения данных?

OOM на 10kk строк..? Не пробовали просто вынести аналитические запросы на stage-базу и настроить репликацию, чтобы не шатать прод? Вообще, olap – это не про то чтобы получать большой объём многомерных данных пусть даже за какой-то период, а про то чтобы быстро получать чаще всего агрегированные данные (преимущественно — предрасчитанные) по различным срезам.

Я не против ClickHouse, но по ощущениям статья написана только ради упоминания продуктов Яндекса.

Неплохо было бы упомянуть и про инициативы вроде A framework for Al-ready data (от ODI), а также упомянуть о том, как "боретесь" за деперсонализацию и в целом с "протечкой" чувствительной информации в наборы данных, предназначенные для обучения.

Опять же может уже внедряете дополнительную разметку вроде Schema.org, или достраиваете графы знаний?

Может уже и свой MCP-сервер реализовали?

Я не столько иронизирую, сколько реально интересно. Да и заголовок статьи уж больно броский ("AI-Ready Data: ... с максимальной отдачей")

Напрашивается поддержка SVG, и вынос логики в отдельную подключаемую библиотеку)

Information

Rating
6,346-th
Location
Россия
Registered
Activity